PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : FXen FarCry-Demo und PS2.0


Seiten : [1] 2

Gaestle
2004-01-28, 14:28:11
Hallo,

leider (oder eben verständlicherweise) ist der Thread schon dicht, so dass ich hier einen neuen aufmache:

LovesuckZ behauptet IMHO HIER: http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1522197#post1522197 dass die FXen bei FarCry keine 2.0 Shader vewenden (können). kann das jemand bestätigen, erklären und sonstige INFOS loswerden?

PLZ: Kein Bash0rn...

Danke.

Grüße

deekey777
2004-01-28, 14:37:57
Keine Grafikkarte darf in FC Demo PS 2.0 verwenden, sondern nur PS 1.1 (-> siehe FC's Log-Datei)

[dzp]Viper
2004-01-28, 14:38:57
Scheinbar werden in der SP demo garkein PS2.0 genutzt!
Wenn man z.b. das wasser explizit per PS2.0 darstellen will, muss man in der lvl datei beim wasser ein "PS20" hinzufügen. Leider treten dann aber Grafikfehler auf!

Darum die Vermutung, dass in der demo garkein PS2.0 verwendet wird...

x-dragon
2004-01-28, 15:20:44
Demnach würde ich als Unwissender sagen das die Performance im endgültigen Spiel wahrscheinlich einiges besser ausfallen wird (mit entsprechender Grafikkarte), da ja optisch denke ich nicht mehr soviel rausgeholt werden kann.

Kann jemand von den Beta-Testern was dazu sagen (falls erlaubt) oder jemand der von einem Bekannten oder so irgendwas in der Richtung gehört hat? In der MP-Beta soll doch die PS 2.0-Unterstützung aktiv gewesen sein, oder?

Tyler_Durden
2004-01-28, 15:26:29
Also meint ihr, das in der Final eine bessere Performance durch den Einsatz von PS20 möglich sein sollte!?
Auch auf den FX Karten?
Bisher läuft die Demo, naja, zwar okay aber ein bisschen flüssiger könnte nicht schaden!

ShadowXX
2004-01-28, 15:31:51
Original geschrieben von Tyler_Durden
Also meint ihr, das in der Final eine bessere Performance durch den Einsatz von PS20 möglich sein sollte!?
Auch auf den FX Karten?
Bisher läuft die Demo, naja, zwar okay aber ein bisschen flüssiger könnte nicht schaden!

FarCry soll im Final auf FX'en nur im OpenGL laufen, bzw. für diese wird der OpenGL-Modus geforced...

Dies wurde damit erklärt, das man so besser auf nV anpassen kann, da unter DX9 der Vorsprung der ATIs doch deutlich Spürbar sein soll...(Ist nur was ich gehört habe, keine Ahnung ob's stimmt...)

Es könnte also sehr schwierig werden die Benchmarks des Games bei verschiedenen Grakas zu vergleichen...

Wir werden sehen...so um XMas 04....;D ;D ;D

J.S.Shadow

deekey777
2004-01-28, 15:43:12
Dazu kommt noch, dass Far Cry auch zu "The way it's ment to be played" gehört.

Tyler_Durden
2004-01-28, 15:43:20
Hätte ja nichts gegen OGL, wenn die Grafik dadurch nicht beeinträchtigt wird.
Hauptsache das Game fluppt noch einigermaßen auf meiner FX!

LovesuckZ
2004-01-28, 15:54:18
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1517335#post1517335

r3xx User werden in der Log Datei entdecken, dass bei ihnen PS2.0 und PS1.1 stehen wird.

"Dies wurde damit erklärt, das man so besser auf nV anpassen kann, da unter DX9 der Vorsprung der ATIs doch deutlich Spürbar sein soll...(Ist nur was ich gehört habe, keine Ahnung ob's stimmt...)"

Das einzigste was man unter OpenGL machen kann, ist die Verwendung von Int12 in den (PS2.0)Shadern.

Tyler_Durden
2004-01-28, 16:06:31
Dass würd ja dann was bringen, da die Int12 Einheiten der FXen doch recht stark sein sollen, wenn ich mich nicht irre!?

reunion
2004-01-28, 16:09:44
Original geschrieben von deekey777
Keine Grafikkarte darf in FC Demo PS 2.0 verwenden, sondern nur PS 1.1 (-> siehe FC's Log-Datei)

Falsch! mit meier 9700pro hab ich sehrwohl PS2.0 einträge:


Log Started at Monday, January 26, 2004 21:33:18
FileVersion: 1.1.5.1120
ProductVersion: 1.1.5.1120

File System Initialization

--- CPU detection ---
Number of system processors: 1
Number of available processors: 1
Processor 0:
CPU: AuthenticAMD AMD Athlon(tm) XP 2600+
Family: 6, Model: 8, Stepping: 1
FPU: on-chip
CPU Speed (estimated): 2087.971997 MHz
MMX: present
SSE: present
3DNow!: present
Serial number not present or disabled

---------------------
Stream Engine Initialization
Script System Initialization
Network initialization
Physics initialization
MovieSystem initialization
Renderer initialization
System: INFO: DirectX 9.0b installed
System: VideoCard Detected: ATI (Radeon 9700 Pro)
Direct3D9 driver is creating...
Best-match display mode: 1280x1024x32 (Error=8)
Creating D3D device (Adapter format: D3DFMT_X8R8G8B8, BackBuffer format: D3DFMT_A8R8G8B8, Depth format: D3DFMT_D24S8)
D3D Adapter: Driver name: ati2dvag.dll
D3D Adapter: Driver description: RADEON 9700 PRO
D3D Adapter: Driver version: 6.14.10.6414
D3D Adapter: Driver GUID: D7B71EE2-0D04-11CF-BC6A0820A1C2CB35
D3D Adapter: VendorId = 4098
D3D Adapter: DeviceId = 20036
D3D Adapter: SubSysId = 135170
D3D Adapter: Revision = 0
D3D Detected: ATI video card
D3D Detected: ATI Radeon 9700
D3D Driver: MaxTextureBlendStages = 8
D3D Driver: MaxSimultaneousTextures = 8
Using '8888' pixel texture format
Using 'Alpha8' pixel texture format
Using 'BumpU8V8' pixel texture format
Using 'BumpQ8W8U8V8' pixel texture format
Using 'BumpX8L8U8V8' pixel texture format
Using 'BumpU5V5L6' pixel texture format
Using 'DXT1' pixel texture format
Using 'DXT3' pixel texture format
Using 'DXT5' pixel texture format
D3D Driver: Supports trilinear texture filtering
D3D Driver: Allowed projected textures with Env. bump mapping
D3D Driver: Supports range-based fog
D3D Driver: Supports eye-relative fog
D3D Driver: Supports anisotropic filtering
D3D Driver: Supports LOD biasing
D3D Driver: Supports Z biasing
D3D Driver: Supports scissor test
D3D Driver: Supports D3DTOP_ADDSIGNED2X TextureOp
D3D Driver: Supports D3DTOP_BUMPENVMAP TextureOp
D3D Driver: Supports D3DTOP_BUMPENVMAPLUMINANCE TextureOp
D3D Driver: Supports D3DTOP_DOTPRODUCT3 TextureOp
D3D Driver: Supports D3DTOP_MODULATEALPHA_ADDCOLOR TextureOp
D3D Driver: Supports D3DTOP_MODULATECOLOR_ADDALPHA TextureOp
D3D Driver: Supports D3DTOP_ADD TextureOp
D3D Driver: Supports MaxAnisotropy level 16
D3D Driver: Supports Stencil shadows
D3D Driver: Supports Two-Sided stencil
D3D Driver: Textures (0x0)-(2048x2048), Max aspect 2048
Driver description: RADEON 9700 PRO
Full stats: HAL (pure hw vp): RADEON 9700 PRO
Hardware acceleration: Yes
Full screen AA: Disabled
Stencil type: Two sided
Projective EMBM: enabled
Detail textures: Yes
Z Buffer Locking: Yes
Use multitexture mode: Yes (8 texture(s))
Use bumpmapping : Yes (DOT3)
Use paletted textures : No
Current Resolution: 1280x1024x32 Full Screen
Maximum Resolution: 1600x1200
Maximum Texture size: 2048x2048 (Max Aspect: 2048)
Texture filtering type: TRILINEAR
Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS.2.0 and PS.1.1
Shadow maps type: Mixed Depth/2D maps
*****************************************

Init Shaders
9 Shader files found.

91 Shader files found.

Construct Shader '<Default>'...ok
Construct Shader 'ZBuffPass'...ok
Construct Shader 'ShadowMap'...ok
Construct Shader 'EdgePass'...ok
Compile System Shader 'StateNoCull'...ok
Compile System Shader 'SunFlares'...ok
2 Sun flares was parsed
Compile System Shader 'LightStyles'...ok
34 Light styles was parsed
Compile Glare Shader ...
Compile System HW Shader 'CGVProgramms'...ok
Compile System HW Shader 'CGPShaders'...ok
Compile System Shader 'TemplFog'...ok
Compile System Shader 'TemplVFog'...Fail.
Compile System Shader 'TemplFog_FP'...ok
Compile System Shader 'TemplFogCaustics'...ok
Compile System Shader 'TemplVFogCaustics'...Fail.
Compile System Shader 'TemplFogCaustics_FP'...ok
WARNING: Shader 'whiteshadow' has opaque maps defined after pass 0!!!
WARNING: Shader 'whiteshadow' has depthwrite enabled after pass 0!!!
Console initialization
Time initialization
Input initialization
Initializing Direct Input
Direct Input initialized (CryInputDLL)
Initializing Keyboard
Keyboard initialized
Initializing mouse
Mouse initialized
Found 16 joystick devices
Joystick 0 not plugged in!
Joystick 1 not plugged in!
Joystick 2 not plugged in!
Joystick 3 not plugged in!
Joystick 4 not plugged in!
Joystick 5 not plugged in!
Joystick 6 not plugged in!
Joystick 7 not plugged in!
Joystick 8 not plugged in!
Joystick 9 not plugged in!
Joystick 10 not plugged in!
Joystick 11 not plugged in!
Joystick 12 not plugged in!
Joystick 13 not plugged in!
Joystick 14 not plugged in!
Joystick 15 not plugged in!
Joystick initialized
initializing Key/name Mapping
Sound initialization
------------------------------------------CRYSOUND VERSION=3.610000
CRYSOUND Driver: Primärer Soundtreiber
Total number of channels available: 312
Total number of hardware channels available: 28
Set speaker mode stereo
Font initialization
AI initialization
Entity system initialization
Initializing Animation System
CPU capabilities: FPU VME DE PSE TSC MSR PAE MCE CX8 APIC SEP MTRR PGE MCA CMOV PAT PSE-36 MMX FXSR SSE 3DNow! ok
Initializing 3D Engine
WARNING: Texture format '.tga' is deprecated ('textures/spot_shadow.tga') (use .dds instead)
Removing lights ...
Deleting visareas ...
Deleting terrain ...
ObjManager shutdown ...
Initializing Script Bindings
Cpu speed is 2087,sys spec is set to 1

reunion
2004-01-28, 16:11:48
Original geschrieben von Tyler_Durden
Dass würd ja dann was bringen, da die Int12 Einheiten der FXen doch recht stark sein sollen, wenn ich mich nicht irre!?
jap

deekey777
2004-01-28, 16:15:28
Bei mir steht das:

System: INFO: DirectX 9.0b installed
System: VideoCard Detected: ATI (Radeon 9600)
Direct3D9 driver is creating...
Best-match display mode: 1024x768x32 (Error=8)
Creating D3D device (Adapter format: D3DFMT_X8R8G8B8, BackBuffer format: D3DFMT_A8R8G8B8, Depth format: D3DFMT_D24S8)
D3D Adapter: Driver name: ati2dvag.dll
D3D Adapter: Driver description: RADEON 9600 SERIES (Omega 2.5.14)
...

Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS1.1 only
Shadow maps type: Mixed Depth/2D maps
...
9 Shader files found.

91 Shader files found.

Construct Shader '<Default>'...ok
Construct Shader 'ZBuffPass'...ok
Construct Shader 'ShadowMap'...ok
Construct Shader 'EdgePass'...ok
Compile System Shader 'StateNoCull'...ok
Compile System Shader 'SunFlares'...ok
2 Sun flares was parsed
Compile System Shader 'LightStyles'...ok
34 Light styles was parsed
Compile Glare Shader ...
Compile System HW Shader 'CGVProgramms'...ok
Compile System HW Shader 'CGPShaders'...ok
Compile System Shader 'TemplFog'...ok
Compile System Shader 'TemplVFog'...Fail.
Compile System Shader 'TemplFog_FP'...ok
Compile System Shader 'TemplFogCaustics'...ok
Compile System Shader 'TemplVFogCaustics'...Fail.
Compile System Shader 'TemplFogCaustics_FP'...ok
WARNING: Shader 'whiteshadow' has opaque maps defined after pass 0!!!
WARNING: Shader 'whiteshadow' has depthwrite enabled after pass 0!!!

EDIT: Wie man sieht, wird bei meiner 9600XT nur PS 1.1 benutzt. Wieso? Liegt es vielleicht an dem Omegatreiber (da nicht signiert)?

reunion
2004-01-28, 16:20:51
Original geschrieben von deekey777
EDIT: Wie man sieht, wird bei meiner 9600XT nur PS 1.1 benutzt. Wieso? Liegt es vielleicht an dem Omegatreiber (da nicht signiert)?

Das es an den Omegatreibern liegt glaub ich nicht, vermutlich stellt sich dass Spiel nur je nach stärke der Graka selber ein ob PS 2.0 benutzt werden soll.

Tyler_Durden
2004-01-28, 16:20:54
Denke mal es liegt eher daran, die die 9600 nicht genug Druck hat! ;)

Tyler_Durden
2004-01-28, 16:27:26
bei mir steht das in der Log, ich hab ne FX5800

Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for NV3x GPUs
Pixel shaders usage: Replace PS.2.0 to PS.1.1
Shadow maps type: Mixed Depth/2D maps

deekey777
2004-01-28, 16:29:17
Original geschrieben von Tyler_Durden
bei mir steht das in der Log, ich hab ne FX5800

Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for NV3x GPUs
Pixel shaders usage: Replace PS.2.0 to PS.1.1
Shadow maps type: Mixed Depth/2D maps

Dieser Eintrag ist noch besser!

Wir sollten mal einen Thread aufmachen: "Wer hat PS 2.0 in Far Cry?" ;D

reunion
2004-01-28, 16:37:54
[B]Original geschrieben von Tyler_Durden
Pixel shaders usage: Replace PS.2.0 to PS.1.1


*LOL* Kann es wirklich sein dass der NV30 mit PS1.1 schneller ist als mit PS2.0(was ja eingendlich nicht so sein sollte :naughty: )?

Tyler_Durden
2004-01-28, 16:43:08
Warum sollte das nicht so sein! ist doch bekannt das die NV3x Boards Performance Probs mit PS20 haben!

deekey777
2004-01-28, 16:47:53
Original geschrieben von reunion
*LOL* Kann es wirklich sein dass der NV30 mit PS1.1 schneller ist als mit PS2.0(was ja eingentlich nicht so sein sollte :naughty: )?

Ja...wenn das Ergebnis miteinander nicht vergleichbar ist.

PS: Wenn ich die Demo+PS1.1 so anschaue, frage ich mich:"Warum gibt es erst jetzt so etwas schönes wie FC mit PS1.1?"

ShadowXX
2004-01-28, 16:52:25
Also meine Log sieht in etwas so aus wie die von reunion:


...
Driver description: RADEON 9800 PRO
Full stats: HAL (pure hw vp): RADEON 9800 PRO
Hardware acceleration: Yes
Full screen AA: Disabled
Stencil type: Two sided
Projective EMBM: enabled
Detail textures: Yes
Z Buffer Locking: Yes
Use multitexture mode: Yes (8 texture(s))
Use bumpmapping : Yes (DOT3)
Use paletted textures : No
Current Resolution: 1024x768x32 Full Screen
Maximum Resolution: 1600x1200
Maximum Texture size: 2048x2048 (Max Aspect: 2048)
Texture filtering type: TRILINEAR
Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS.2.0 and PS.1.1
Shadow maps type: Mixed Depth/2D maps
...


Ist eine 9800Pro und es werden scheinbar auch PS2.0 Shader benutzt...

J.S.Shadow

LovesuckZ
2004-01-28, 16:56:16
Lösung gibt es hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1525114#post1525114)

aths
2004-01-28, 16:59:37
Original geschrieben von reunion
*LOL* Kann es wirklich sein dass der NV30 mit PS1.1 schneller ist als mit PS2.0(was ja eingendlich nicht so sein sollte :naughty: )? LOL kann es sein, dass du von der CineFX-Technik nicht wirklich Ahnung hast?

SCNR.

Sorry für meine vielleicht verletzenden Worte, aber Demirug hatte doch mal einen tollen Artikel geschrieben. Den kann ich nur empfehlen.

reunion
2004-01-28, 17:05:14
Original geschrieben von aths
LOL kann es sein, dass du von der CineFX-Technik nicht wirklich Ahnung hast?

SCNR.

Sorry für meine vielleicht verletzenden Worte, aber Demirug hatte doch mal einen tollen Artikel geschrieben. Den kann ich nur empfehlen.

Muss zugeben dass ich den Artikel noch nicht gelesen habe, werde dann gleichmal damit anfangen =) :ups:

Tyler_Durden
2004-01-28, 17:08:44
Der Artikel zur CineFX ist wirklich gut!
Hab den damals auch gelesen und war überrascht das die CineFX garnicht mal "so" schlecht ist!
Leider hapert es ja an der Anpassung für selbige! :(

TheCounter
2004-01-28, 17:42:58
Original geschrieben von deekey777
PS: Wenn ich die Demo+PS1.1 so anschaue, frage ich mich:"Warum gibt es erst jetzt so etwas schönes wie FC mit PS1.1?"

Frag ich mich auch...

Also auf meiner R9800 non Pro wird nur PS1.1 verwendet, obwohl sie höher getaktet ist als eine Pro und überall das Pro erkannt wird. Bei einigen meiner Kumpels is das der selbe Fall.

Edit, hier die Bilder:

Szene 1:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%205950_PS2.0.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20ATI_PS2.0.jpg)

Szene 2:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20nv_1.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20rv_1.jpg)

Szene 3:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20nv_2.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20rv_2.jpg)

Szene 4:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20nv_3.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20rv_3.jpg)

Sieht also auf ATI Karten besser aus und läuft dabei auch schneller.

Demirug
2004-01-28, 17:59:02
Original geschrieben von aths
LOL kann es sein, dass du von der CineFX-Technik nicht wirklich Ahnung hast?

SCNR.

Sorry für meine vielleicht verletzenden Worte, aber Demirug hatte doch mal einen tollen Artikel geschrieben. Den kann ich nur empfehlen.

Wobei man sagen muss das der Artikel wenig auf die PS 1.1 Leistung bei CineFX I und CineFX II eingeht. Es geht dabei eher um PS >= 2.0.

LovesuckZ
2004-01-28, 18:01:35
Bitte unterlasst nun aufgrund der Bilder irgendwelche Schlussfolgerungen zu schaffen, da nicht die selben fairen Umgebungen geschaffen werden koennen!

Demirug
2004-01-28, 18:06:05
Also ich weiss das NV3X und R3XX nicht genau die gleichen Schader benutzten. Aber spätestens seit dem AM3 wissen wir ja das es selbst bei gleichen Shadern zu Bildunterschieden kommen kann.

Gast
2004-01-28, 18:07:31
Original geschrieben von LovesuckZ
Bitte unterlasst nun aufgrund der Bilder irgendwelche Schlussfolgerungen zu schaffen, da nicht die selben fairen Umgebungen geschaffen werden koennen!

schöner, schneller, ra.... :P
das du mal wieder meckerst, ist nichts neues. danke thecounter für die pics :)

Gast
2004-01-28, 18:09:43
hm der 3danalyzer von tommti sag doch klar dass ps 2_0 shader bentuzt werden, und das nicht gerade wenig...

reunion
2004-01-28, 18:12:22
Original geschrieben von TheCounter
Frag ich mich auch...

Also auf meiner R9800 non Pro wird nur PS1.1 verwendet, obwohl sie höher getaktet ist als eine Pro und überall das Pro erkannt wird. Bei einigen meiner Kumpels is das der selbe Fall.

Edit, hier die Bilder:

Szene 1:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%205950_PS2.0.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20ATI_PS2.0.jpg)

Szene 2:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20nv_1.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20rv_1.jpg)

Szene 3:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20nv_2.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20rv_2.jpg)

Szene 4:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20nv_3.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20rv_3.jpg)

Sieht also auf ATI Karten besser aus und läuft dabei auch schneller.
:verd:
Lovesuckz zuliebe unterlasse ich jetzt mal irgendwelche Schlussfolgerungen, allerdings ist der Unterschied schon teilweise krass. Bin gespannt was man da noch in OpenGL rausholen wird könne.
Das mit der 9800non pro auch nur PS1.1 verwendet werden verstehe ich allerdings auch nicht.

PS: Bei den FX-Bildern wurde ja offensichtlich die Texturqualität gesenkt, oder sind das wirklich nur die Shader?

LovesuckZ
2004-01-28, 18:21:21
Original geschrieben von Gast
schöner, schneller, ra.... :P
das du mal wieder meckerst, ist nichts neues. danke thecounter für die pics :)

Das einige hier nicht in der Lage sind Dinge richtig zu erkennen und dann daraus falsche Schlussfolgerungen ziehen, ist hinlaenglich bekannt.
Man koennte dies auch Dummheit nennen, aber soweit gehe ich nicht, wird man ja für Wahrheit gebannt...

Szilard
2004-01-28, 18:23:30
Nvidia = OGL + PS2.0 ?

und

ATI = D3D + PS2.0 ?

Richtig ?

LovesuckZ
2004-01-28, 18:25:04
Demo + Beta:
Nvidia = D3D + PS1.1
ATi = D3D + PS2.0 + PS1.1

Dalai-lamer
2004-01-28, 18:25:39
Das der Unterschied so groß ist hätte ich nciht gedacht. Dass die Texturqualität noch gesenkt wurde glaub ich nciht.

Freu mich schon wenn solche Spiele endlich in Masse kommen und meine R420 im PC steckt...

Demirug
2004-01-28, 18:31:39
Original geschrieben von LovesuckZ
Demo + Beta:
Nvidia = D3D + PS1.1
ATi = D3D + PS2.0 + PS1.1

Mhm? Ich habe eine Datei die Eindeutig sagt das bei nVidia PS 1.1 + PS 2.X zum Einsatz kommen.

LovesuckZ
2004-01-28, 18:34:14
Original geschrieben von Demirug
Mhm? Ich habe eine Datei die Eindeutig sagt das bei nVidia PS 1.1 + PS 2.X zum Einsatz kommen.

Lasse ich die Shader per 3DA ausgeben, dann kommen da auch PS2.x vor, in der Log Datei steht aber eindeutig "Replace PS.2.0 to PS.1.1".

reunion
2004-01-28, 18:34:20
Original geschrieben von Demirug
Mhm? Ich habe eine Datei die Eindeutig sagt das bei nVidia PS 1.1 + PS 2.X zum Einsatz kommen.

Seltsam, in der log-datei steht eindeutig "use PS1.1 only".

/edit: zu langsam...

deekey777
2004-01-28, 18:40:13
Original geschrieben von LovesuckZ
Bitte unterlasst nun aufgrund der Bilder irgendwelche Schlussfolgerungen zu schaffen, da nicht die selben fairen Umgebungen geschaffen werden koennen!

Wieso das denn?
Es ist deutlich zu sehen, dass zB in der 3. Szene die Rohre "lackiert"(R) bzw. nicht "lackiert sind"(NV). Das sieht man doch aus jedem Winkel. Warum gleich unterstellen, dass die Bilderbeispiele unfair sind?

LovesuckZ
2004-01-28, 18:43:15
Original geschrieben von deekey777
Wieso das denn?


Ist dir bewusst, wie man die PS2.0 auf FX Karten bekommt? Wenn ja, sollte sich diese Fragen wohl erledigen.

deekey777
2004-01-28, 18:57:56
Original geschrieben von LovesuckZ
Ist dir bewusst, wie man die PS2.0 auf FX Karten bekommt? Wenn ja, sollte sich diese Fragen wohl erledigen.

Wie man PS 2.0 auf einer FX bekommt, ist mir egal. Aber: Die Beispielszenen der NV38 sehen genauso aus wie auf meiner 9600XT -> Hier wird also nur PS 1.1 verwendet.

LovesuckZ
2004-01-28, 18:59:34
Original geschrieben von deekey777
Wie man PS 2.0 auf einer FX bekommt, ist mir egal.

Dann ist jegliche Diskussion wohl mit dir auch "egal"...

Demirug
2004-01-28, 19:02:11
Original geschrieben von LovesuckZ
Lasse ich die Shader per 3DA ausgeben, dann kommen da auch PS2.x vor, in der Log Datei steht aber eindeutig "Replace PS.2.0 to PS.1.1".

Ich gehe bei sowas normalerweise eher von der 3DA Datei aus. Der Grund dafür ist das kein gutes Shadermanagment Shader die nicht gebraucht werden trotzdem der Karte übergibt.

Vergleicht man allerdings die Shader von ATI und nV fällt auf das es bei ATI mehr 2.0 Shader als bei nVidia 2.X Shader gibt. Es könnte sich bei dem Log-Eintrag um diese Gruppe Shader handeln.

deekey777
2004-01-28, 19:02:34
Original geschrieben von LovesuckZ
Dann ist jegliche Diskussion wohl mit dir auch "egal"...

Ich hab doch eine 9600XT und keine FX! Darum ist es mir auch egal.

Dennoch will auch ich lackierte Rohre sehen! Darum:

Gebt uns Psyco Dad.... Äh...Gebt uns PS 2.0!!!

LovesuckZ
2004-01-28, 19:14:40
Original geschrieben von deekey777
Gebt uns Psyco Dad.... Äh...Gebt uns PS 2.0!!!

Hast du alles auf "Very High" gestellt?
Ansonsten probiere mal den selben Trick mit 3DA aus.

Quasar
2004-01-28, 20:02:35
Original geschrieben von LovesuckZ
Lasse ich die Shader per 3DA ausgeben, dann kommen da auch PS2.x vor, in der Log Datei steht aber eindeutig "Replace PS.2.0 to PS.1.1".
Steht da auch
a) Replace ALL PS2.0...
b) Replace PS2.x to PS1.1?

;)

LovesuckZ
2004-01-28, 20:04:07
Original geschrieben von Quasar
;)

Stimmt^^

/edit: Warum werden aber dann nicht alle PS2.0 per Compiler Proil in PS2.x gewandelt, denn wie man sieht, geht den FX User doch eindeutig Bildqualitaet verloren, ohne dies einstellen zu koennen...

reunion
2004-01-28, 20:11:43
Original geschrieben von LovesuckZ
/edit: Warum werden aber dann nicht alle PS2.0 per Compiler Proil in PS2.x gewandelt, denn wie man sieht, geht den FX User doch eindeutig Bildqualitaet verloren, ohne dies einstellen zu koennen...

Weil die Fxen dann langsamer wären als die ATI Karten was NV vermutlich nicht passt.(Stichwort NV-TWIMTBP) ;)

deekey777
2004-01-28, 20:26:50
Original geschrieben von reunion
Weil die Fxen dann langsamer wären als die ATI Karten was NV vermutlich nicht passt.(Stichwort NV-TWIMTBP) ;)

Es ist noch etwas zu früh, so etwas nVidia zu unterstellen. FC wird auf FXen wohl unter OpenGl laufen und bestimmt auch die gleiche Renderquali wie die R3x0-Karten haben.

reunion
2004-01-28, 20:30:42
Original geschrieben von deekey777
Es ist noch etwas zu früh, so etwas nVidia zu unterstellen. FC wird auf FXen wohl unter OpenGl laufen und bestimmt auch die gleiche Renderquali wie die R3x0-Karten haben.

Deshalb ja auch der Smiley ==> ;)

deekey777
2004-01-28, 22:21:52
FC frisch installiert und alles unter Advanced auf Medium bzw. Custom:
In der Log.txt steht:
D3D Adapter: Driver description: RADEON 9600 SERIES (Omega 2.5.14)
D3D Adapter: Driver version: 6.14.10.6414
...
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS1.1 only
Shadow maps type: Mixed Depth/2D maps
...

Und jetzt nur Lighting Quality auf Very High (sonst nichts verändert):
...

Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS.2.0 and PS.1.1


Wie es aussieht, reicht zumindest bei mir nur das Lighting Quality auf Very High zu setzten und es gibt schon PS 2.0 und lackerte Rohren :D

PCGH_Thilo
2004-01-28, 22:27:04
Original geschrieben von deekey777
Es ist noch etwas zu früh, so etwas nVidia zu unterstellen. FC wird auf FXen wohl unter OpenGl laufen und bestimmt auch die gleiche Renderquali wie die R3x0-Karten haben.

ich habe hier die aussage eines der farcry-programmierer, wonach der ursprünglich geplante opengl-support hinfällig ist. laut eigenem bekunden, weil nvidia es geschafft hat, einen guten d3d9-treiber auf die beine zu stellen. vermutlich meint er den shader compiler in zusammenarbeit mit dem sdk-update (2.x shader).

ich kann das originalzitat morgen gerne posten, wenn ich wieder im büro bin ;-)

ansonsten kann ich nur das bestätigen, was demirug schon gepostet hat: laut 3da werden sehr wohl 2.0 und 2.x shader verwendet (neben 1.1).

TheCounter
2004-01-28, 22:38:48
Original geschrieben von PCGH_Thilo
ich habe hier die aussage eines der farcry-programmierer, wonach der ursprünglich geplante opengl-support hinfällig ist.

Was aber nicht heißt das es keinen OGL Mode geben wird, nur so am rande, nicht das das einer falsch versteht.

Gast
2004-01-28, 23:09:45
hi,

ich habe ne hercules 9800 pro mit dem 4.1 treiber
und bei mir steht das

Driver description: RADEON 9800 PRO
Full stats: HAL (pure hw vp): RADEON 9800 PRO
Hardware acceleration: Yes
Full screen AA: Disabled
Stencil type: Two sided
Projective EMBM: enabled
Detail textures: Yes
Z Buffer Locking: Yes
Use multitexture mode: Yes (8 texture(s))
Use bumpmapping : Yes (DOT3)
Use paletted textures : No
Current Resolution: 800x600x32 Full Screen
Maximum Resolution: 1280x1024
Maximum Texture size: 2048x2048 (Max Aspect: 2048)
Texture filtering type: TRILINEAR
Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS1.1 only
Shadow maps type: Mixed Depth/2D maps


nur dieser 1.1 PS habe auch alles auf very high gestellt auflösung geändert aber es ändert sich nix.

liegt es am treiber?

mfg

deekey777
2004-01-28, 23:19:04
@letzten Gast: Es ist zwar eine blöde Frage, aber startest du FC dann neu, nachdem du die Einstellungen unter Advanced verändert hast?

MadManniMan
2004-01-29, 01:22:56
Was ist es denn, was die 2er PS so Tolles können :| Warum sehen die Bumps kontrastreicher aus?
Und warum kann man bei Halo nur mit 2.0 Bumps auf "Mirrored Surfaces" sehen?

Demi, zecki? :wink:

Demirug
2004-01-29, 07:51:36
Original geschrieben von MadManniMan
Was ist es denn, was die 2er PS so Tolles können :| Warum sehen die Bumps kontrastreicher aus?

Ich habe mir die Shader jetzt nicht im einzelnen angesehen. Der bessere Kontrast dürfte aber im wesentlichen daher kommen das die normalisierung der Vektoren mathematisch gemacht wird und nicht über eine Textur. Gerade beim spkularen licht wirkt sich das stark aus.

Und warum kann man bei Halo nur mit 2.0 Bumps auf "Mirrored Surfaces" sehen?

Spiegelflächen mit Bumps gehören zu der Klasse der Enviroment-Bumpmapping Effekte. Die sind ab PS 1.1 möglich. Will man allerdings mehr als das übliche Wasser haben gibt das schnell eine heftige Trickserei. Deswegen nimmt man für Spiegel vorzugsweise mindestens 1.4 (s. Max Payne II). Da bei FarCry ja auch ein OpenGL Renderer vorgesehen war/ist können sie 1.4 nicht richtig nutzen und haben deswegen direkt auf 2.0/2.X gesetzt. Es ist aber durchaus denkbar das einige der 2.0/2.X Shader eigentlich auch mit 1.4 lauffähig wären. Ich habe mir das allerdings nicht so genau angeschaut.

LovesuckZ
2004-01-29, 09:08:56
Original geschrieben von PCGH_Thilo
ansonsten kann ich nur das bestätigen, was demirug schon gepostet hat: laut 3da werden sehr wohl 2.0 und 2.x shader verwendet (neben 1.1).

Du koenntest ja mal fragen, wenn du Zeit hast, warum nicht jeder PS2.0 in einen PS2.X umgewandelt wurde?

Exxtreme
2004-01-29, 09:26:03
Original geschrieben von LovesuckZ
Du koenntest ja mal fragen, wenn du Zeit hast, warum nicht jeder PS2.0 in einen PS2.X umgewandelt wurde?
Bringt vlt. mit dem neuen Detonator kaum noch was, als daß sich der Aufwand lohnen würde. Wenn ich mir die Effekte so anschaue, gehe ich davon aus, daß die Shader eigentlich relativ einfach sind.

PCGH_Thilo
2004-01-29, 09:30:46
Original geschrieben von TheCounter
Was aber nicht heißt das es keinen OGL Mode geben wird, nur so am rande, nicht das das einer falsch versteht.

das weiß niemand. allerdings ist diese aussage relativ klar:

Crytek has given up on OpenGL support due to the latest ForceWare drivers bring DX9.0 on par with OpenGL. Also supporting both API sets was costing valuable time, so we wanted to focus on 1 for now for shipping.

Frage war:

You told me that Far-Cry uses both the DirectX-9- and the OpenGL-API because OpenGL works more fine with Nvida-Cards. Analyzing the demo we found out that with Nvidia FX-Cards the renderer uses The DirectX-9-API automatically without giving the user a choice to switch to open GL 2.0. What is the reason behind this? Will a choice option be integrated only in the final version? Has the team decided to give up the OpenGL-Support?

Ich denke mal, dass sie opengl eventuell nachschieben, wenn das spiel fertig ist.

LovesuckZ
2004-01-29, 09:33:42
Original geschrieben von Exxtreme
Bringt vlt. mit dem neuen Detonator kaum noch was, als daß sich der Aufwand lohnen würde. Wenn ich mir die Effekte so anschaue, gehe ich davon aus, daß die Shader eigentlich relativ einfach sind.

Das Problem ist ja, dass die normalen PS2.0 durch die PS1.1 ersetzt werden, dadurch gehen den FX User die schoenen Lakierungen am Rohr verloren...

mapel110
2004-01-29, 09:36:49
give up = aufgeben

klingt eigentlich recht eindeutig und vorallem endgültig.

wenn D3D funktioniert, kanns ja auch egal sein, zumal dann benchmarks besser verifizierbar werden :)

x-dragon
2004-01-29, 09:46:26
Kann das sein das Crytek da auch ein wenig in der Zwickmühle ist. Irgendwo hab ich hier noch vor kurzem gelesen das MS FarCry auch als Werbeträger nutzt für DirectX, oder lief/läuft das ohne irgendwelche Vereinbarungen mit Crytek?

reunion
2004-01-29, 10:22:49
Original geschrieben von Gast
hi,

ich habe ne hercules 9800 pro mit dem 4.1 treiber
und bei mir steht das

Driver description: RADEON 9800 PRO
Full stats: HAL (pure hw vp): RADEON 9800 PRO
Hardware acceleration: Yes
Full screen AA: Disabled
Stencil type: Two sided
Projective EMBM: enabled
Detail textures: Yes
Z Buffer Locking: Yes
Use multitexture mode: Yes (8 texture(s))
Use bumpmapping : Yes (DOT3)
Use paletted textures : No
Current Resolution: 800x600x32 Full Screen
Maximum Resolution: 1280x1024
Maximum Texture size: 2048x2048 (Max Aspect: 2048)
Texture filtering type: TRILINEAR
Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS1.1 only
Shadow maps type: Mixed Depth/2D maps


nur dieser 1.1 PS habe auch alles auf very high gestellt auflösung geändert aber es ändert sich nix.

liegt es am treiber?

mfg

Nein, benutze auch den Cat. 4.1.

MadManniMan
2004-01-29, 11:39:32
Original geschrieben von Demirug
Ich habe mir die Shader jetzt nicht im einzelnen angesehen. Der bessere Kontrast dürfte aber im wesentlichen daher kommen das die normalisierung der Vektoren mathematisch gemacht wird und nicht über eine Textur. Gerade beim spkularen licht wirkt sich das stark aus.

Danke schonmal dafür...

Original geschrieben von Demirug
Spiegelflächen mit Bumps gehören zu der Klasse der Enviroment-Bumpmapping Effekte. Die sind ab PS 1.1 möglich. Will man allerdings mehr als das übliche Wasser haben gibt das schnell eine heftige Trickserei. Deswegen nimmt man für Spiegel vorzugsweise mindestens 1.4 (s. Max Payne II). Da bei FarCry ja auch ein OpenGL Renderer vorgesehen war/ist können sie 1.4 nicht richtig nutzen und haben deswegen direkt auf 2.0/2.X gesetzt. Es ist aber durchaus denkbar das einige der 2.0/2.X Shader eigentlich auch mit 1.4 lauffähig wären. Ich habe mir das allerdings nicht so genau angeschaut.

Ich weiß nicht, obs bei Gearbox Faulheit war, aber eben jener Effekt fehlt bei 1.1 und 1.4. Wenn ich Mirrored Surfaces meine, dann benenne ich hier den Marketingeffekt, also nix mit Max Schmerz like Spiegeleien, sonder feine Furchen auf den Flächen, die in Halo Eis darstellen sollen. Das ist insofern komisch, da das gesamte andere Terrain in jeder PS Version mit EnvBumps überzogen ist...

Radeonator
2004-01-29, 13:31:09
Original geschrieben von TheCounter
Frag ich mich auch...

Also auf meiner R9800 non Pro wird nur PS1.1 verwendet, obwohl sie höher getaktet ist als eine Pro und überall das Pro erkannt wird. Bei einigen meiner Kumpels is das der selbe Fall.

Edit, hier die Bilder:
...
Sieht also auf ATI Karten besser aus und läuft dabei auch schneller.

???
1. Die Screens sind unverständlicher Weise in verschiedenen Winkeln (daurch entsteht verschiedener Lichteinfall) und verschiedener Gamma aufgenommen (würde mich nicht wundern wenn auch noch mit verschiedenen AF und LoD (stichwort evtl.Omega Treiber... )Settings... )
2. Geschwindigkeits unterschiede :
Bild 1. : 25nv - 42ATi
Bild 2. : 66nv - 41ATi
Bild 3. : 49nv - 43ATi
Bild 4. : 61nv - 41ATi

Ergo ist die nV insgesammt teilweise deutlich schneller, BQ lässt sich aufgrund ominöser Settings und verschiedenen Winkeln nicht nachvollziehen...

Abwarten und Tee rauchen, kann ich nur sagen!!!

Gast
2004-01-29, 14:11:30
hi,


@reunion

hab nochmal rumgetestet. mit dieser autodetect funktion hat far cry alles auf very high gestellt ausser die ersten 2 sachen auf medium. danach ging es auch nachdem ich diese 2 sachen auch noch auf very high gestellt habe.

jetzt steht das bei mir in der log datei drinn :

Full stats: HAL (pure hw vp): RADEON 9800 PRO
Hardware acceleration: Yes
Full screen AA: Disabled
Stencil type: Two sided
Projective EMBM: enabled
Detail textures: Yes
Z Buffer Locking: Yes
Use multitexture mode: Yes (8 texture(s))
Use bumpmapping : Yes (DOT3)
Use paletted textures : No
Current Resolution: 1024x768x32 Full Screen
Maximum Resolution: 1280x1024
Maximum Texture size: 2048x2048 (Max Aspect: 2048)
Texture filtering type: TRILINEAR
Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS.2.0 and PS.1.1
Shadow maps type: Mixed Depth/2D maps


mfg

reunion
2004-01-29, 15:06:36
Original geschrieben von Radeonator
???
1. Die Screens sind unverständlicher Weise in verschiedenen Winkeln (daurch entsteht verschiedener Lichteinfall) und verschiedener Gamma aufgenommen (würde mich nicht wundern wenn auch noch mit verschiedenen AF und LoD (stichwort evtl.Omega Treiber... )Settings... )


Sorry, aber selbst ein Blinder(:D) sieht wohl dass da mehr unterschied ist als nur die Winkel. Außerdem wird ja auch in der log-Datei ganz deutlich angezeigt was benutzt wird und da sieht man dann dass PS2.0 nur mit ATI-Karten möglich ist. Wenn man PS2.0 auf NV Karten erzwingt bricht die Leistung um ca. 50% ein!

2. Geschwindigkeits unterschiede :
Bild 1. : 25nv - 42ATi
Bild 2. : 66nv - 41ATi
Bild 3. : 49nv - 43ATi
Bild 4. : 61nv - 41ATi

Ergo ist die nV insgesammt teilweise deutlich schneller, BQ lässt sich aufgrund ominöser Settings und verschiedenen Winkeln nicht nachvollziehen...


Wie schon gesagt mit PS2.0 brechen die FXen um ca. 50% ein.
Und die Bildqualiät ist bei ATI besser ;)

Abwarten und Tee rauchen, kann ich nur sagen!!!

Soweit geh ich mit =)

TheCounter
2004-01-29, 17:51:12
Original geschrieben von PCGH_Thilo
das weiß niemand. allerdings ist diese aussage relativ klar:

Crytek has given up on OpenGL support due to the latest ForceWare drivers bring DX9.0 on par with OpenGL. Also supporting both API sets was costing valuable time, so we wanted to focus on 1 for now for shipping.

Frage war:

You told me that Far-Cry uses both the DirectX-9- and the OpenGL-API because OpenGL works more fine with Nvida-Cards. Analyzing the demo we found out that with Nvidia FX-Cards the renderer uses The DirectX-9-API automatically without giving the user a choice to switch to open GL 2.0. What is the reason behind this? Will a choice option be integrated only in the final version? Has the team decided to give up the OpenGL-Support?

Ich denke mal, dass sie opengl eventuell nachschieben, wenn das spiel fertig ist.

Das mag wohl sein, doch ich bin selber in Kontakt mit einem Mitarbeiter von Crytek. Er hat mir gesagt das der OGL Modus noch Grafikfehler darstellt weil er noch nicht fertig ist, was aber bis zur finalen Version behoben werden soll. Das war vor ca. 1 Woche.

Ich hoffe mal der OGL bleibt, denn in D3D kann ich nicht spielen da ich dort immer einen Bluescreen (Schon im Menü) bekomme. Bei allen anderen Spielen funktioniert es, nur bei Farcry hat der D3D Modus wohl ne kleine Macke.

Merlin31
2004-02-01, 00:48:24
Ich nutze den DNA Treiber

Driver description: RADEON 9800 PRO (DNA 2.0.4.1)
Full stats: HAL (pure hw vp): RADEON 9800 PRO (DNA 2.0.4.1)
Hardware acceleration: Yes
Full screen AA: Enabled (6 samples)
Stencil type: Two sided
Projective EMBM: enabled
Detail textures: Yes
Z Buffer Locking: Yes
Use multitexture mode: Yes (8 texture(s))
Use bumpmapping : Yes (DOT3)
Use paletted textures : No
Current Resolution: 1024x768x32 Full Screen
Maximum Resolution: 2048x1536
Maximum Texture size: 2048x2048 (Max Aspect: 2048)
Texture filtering type: TRILINEAR
Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for ATI R300 GPU
Pixel shaders usage: PS.2.0 and PS.1.1
Shadow maps type: Mixed Depth/2D maps

r@e
2004-02-01, 08:25:25
Original geschrieben von LovesuckZ
Demo + Beta:
Nvidia = D3D + PS1.1
ATi = D3D + PS2.0 + PS1.1 Leider falsch...

Razor

r@e
2004-02-01, 08:26:04
Original geschrieben von Demirug
Mhm? Ich habe eine Datei die Eindeutig sagt das bei nVidia PS 1.1 + PS 2.X zum Einsatz kommen. Korrekt !
:D

Razor

r@e
2004-02-01, 08:33:38
Hmmm...

Reichlich sinnentfremdende Diskussion hier !
:D

Habe mal nicht in LOG-Dateien oder so etwas geschaut, sondern einfach mal den 3DAnalyzer angeschmissen und mal geschaut, was da so für Shader verwendet werden:

http://mitglied.lycos.de/razor3dc/pics/FX5950_FarCry_Shader.png

Tja, was sehen wir denn da ?
Eine 370kB "Shader.Out" wurde da erzeugt mit dem oben angegebenen Inhalt.

Hier dann mal ein Beispiel, eines "PS_2_X"-Shaders:
///////////////Pixel Shader - start//////////////
ps_2_x

dcl t0.xy
dcl t1.xy
dcl t2.xy
dcl t3.xy
dcl t4.xy
dcl t5.xy
dcl t6.xy
dcl_2d s0
texld_pp r1 , t4 , s0
texld_pp r0 , t1 , s0
add_pp r0 , r1 , r0
mul r2 , r0 , c2.yyyy
add r0.xy , t0 , c0
texld_pp r1 , t0 , s0
texld_pp r0 , r0 , s0
mad_pp r2 , r1 , c2.xxxx , r2
texld_pp r4 , t5 , s0
texld_pp r1 , t2 , s0
add_pp r1 , r4 , r1
mad_pp r2 , r1 , c2.zzzz , r2
texld_pp r4 , t6 , s0
texld_pp r1 , t3 , s0
add_pp r1 , r4 , r1
mad_pp r3 , r1 , c2.wwww , r2
add r2.xy , t0 , -c0
add r1.xy , t0 , c0.wzzw
texld_pp r5 , r2 , s0
texld_pp r1 , r1 , s0
add_pp r0 , r0 , r5
mad_pp r2 , r0 , c3.xxxx , r3
add r3.xy , t0 , -c0.wzzw
add r0.xy , t0 , c1
texld_pp r4 , r3 , s0
texld_pp r0 , r0 , s0
add_pp r1 , r1 , r4
mad_pp r1 , r1 , c3.yyyy , r2
add r2.xy , t0 , -c1
texld_pp r3 , r2 , s0
add_pp r0 , r0 , r3
mad_pp r0 , r0 , c3.zzzz , r1
mov_pp oC0 , r0
///////////////Pixel Shader - end//////////////Also für mich sieht das sehr nach der Nutzung von PS2-Shadern auf den FX'en aus. Um genau zu sein, sogar unter der Ausnutzung FX-spezifischer Möglichkeiten (PS2.0+)...

Würde mich mal interessieren, wie das bei 'ner Radeon aussieht !

Razor

P.S.: In der LOG-Datei steht folgendes:
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for NV3x GPUs
Pixel shaders usage: Replace PS.2.0 to PS.1.1Scheint also ein Fehler in dem LOG zu sein oder aber auch eine Fehlinterpretation dessen. So werden PS2.0-Shader nicht nach PS1.1 umgesetzt, sondern vielmehr nach PS2.X, gell ?
Ist halt 'ne Beta-Demo...
;-)

BUG
2004-02-01, 08:41:48
...und warum schauts dann auf den ATI Karten nochn bissel besser aus? :kratz2: Irgendwo hier im Forum wurden auch ein paar Screenshots diesbezüglich gepostet. :eyes:

cu
BUG

r@e
2004-02-01, 08:46:04
Original geschrieben von BUG
...und warum schauts dann auf den ATI Karten nochn bissel besser aus? :kratz2:Weil hier Äpfel mit Birnen verglichen werden ?
Unterschiedliche Systeme, mit unterschiedlichen Treiber- und InGame-Einstellungen...

Sorry, aber dieser Art 'Spaß' macht dies Forum hier immer uninteressanter.

Razor

LovesuckZ
2004-02-01, 10:02:23
Original geschrieben von r@e
Scheint also ein Fehler in dem LOG zu sein oder aber auch eine Fehlinterpretation dessen. So werden PS2.0-Shader nicht nach PS1.1 umgesetzt, sondern vielmehr nach PS2.X,

Die PS2.0 werden schon durch PS1.1 ersetzt, sieht man doch auch im Spiel an den Röhren, die haben schoene Lakierungen.
Anscheinend haben sich Crytek/Nvidia wohl darauf geeinet, nicht alle PS2.0 in PS2.x umzuwandeln...

r@e
2004-02-01, 12:09:06
Original geschrieben von LovesuckZ
Die PS2.0 werden schon durch PS1.1 ersetzt, sieht man doch auch im Spiel an den Röhren, die haben schoene Lakierungen.
Anscheinend haben sich Crytek/Nvidia wohl darauf geeinet, nicht alle PS2.0 in PS2.x umzuwandeln... Kannst Du das mit den Röhren mal ein bissel mit Hintergrund füttern ?
Counters Pics sind ja schon im iNet-Nirvana und andere Beipsiele wurden hier nicht genannt.

Oder vielleicht 'nen Link zu 'nem anderen Thread, wo dieser Unterschied in der BQ dokumentiert wurde ?

Razor

Gast
2004-02-01, 12:11:11
Original geschrieben von LovesuckZ
Die PS2.0 werden schon durch PS1.1 ersetzt, sieht man doch auch im Spiel an den Röhren, die haben schoene Lakierungen.
Anscheinend haben sich Crytek/Nvidia wohl darauf geeinet, nicht alle PS2.0 in PS2.x umzuwandeln...

sicher ? kann es sein, dass diese röhre dort ist wo die deckenlampe hin und her schwingt ?

...mit lcihteinfall sihets auf meiner 9700pro so aus die das ati bild....ohne lichteinfall so wie das fx bild :kratz:

r@e
2004-02-01, 12:23:17
Von welchen ATI/nV-Bildern redet Ihr hier ?
:???:

Razor

Gast
2004-02-01, 12:24:33
Original geschrieben von r@e
Von welchen ATI/nV-Bildern redet Ihr hier ?
:???:

Razor

immernoch counters auf seite2:

Frag ich mich auch...

Also auf meiner R9800 non Pro wird nur PS1.1 verwendet, obwohl sie höher getaktet ist als eine Pro und überall das Pro erkannt wird. Bei einigen meiner Kumpels is das der selbe Fall.

Edit, hier die Bilder:

Szene 1:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%205950_PS2.0.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20ATI_PS2.0.jpg)

Szene 2:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20nv_1.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20rv_1.jpg)

Szene 3:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20nv_2.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20rv_2.jpg)

Szene 4:
NV38 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20nv_3.jpg)
R360 (http://www.iownjoo.com/freeimghost/sh64/FarCry%20rv_3.jpg)

Sieht also auf ATI Karten besser aus und läuft dabei auch schneller.

Kennung Eins
2004-02-01, 12:29:24
Da gibts doch so nen Kommandozeilenparameter mit dem man in Farcry PS20 forcen kann.
Hab ich gestern erst gelesen aber mangels PS2 GraKa mir nicht gemerkt.

Irgendwie sowas wie
farcry.exe -DEVELOPER -PS20

oder so.

r@e
2004-02-01, 12:35:38
Original geschrieben von Gast
immernoch counters auf seite2:

<snap>

Sieht also auf ATI Karten besser aus und läuft dabei auch schneller. Die Links funzen net...
:-(

Razor

Demirug
2004-02-01, 12:39:23
Im ATI Shadersatz sind auf jeden Fall so um die 60 zusätzliche 2.0 Shader enthalten. Die genaue Zahl könnte ich raussuchen. Da die nV schader aber alle als 2.A erzeugt werden ist es leider nicht ganz einfach herauszufinden welche zusätzlichen Shader das sind und was sie tun.

r@e
2004-02-01, 12:59:41
Original geschrieben von Demirug
Im ATI Shadersatz sind auf jeden Fall so um die 60 zusätzliche 2.0 Shader enthalten. Die genaue Zahl könnte ich raussuchen. Da die nV schader aber alle als 2.A erzeugt werden ist es leider nicht ganz einfach herauszufinden welche zusätzlichen Shader das sind und was sie tun. Also so 120 PS2-Shader ?
:???:

Ich will endlich sehen, wo der Unterschied sein soll !!!
(nicht an Dich gerichtet, Demirug ;-)

Razor

Piffan
2004-02-01, 13:32:44
Original geschrieben von r@e
Also so 120 PS2-Shader ?
:???:

Ich will endlich sehen, wo der Unterschied sein soll !!!
(nicht an Dich gerichtet, Demirug ;-)

Razor

Tja, die Bilder sind entfernt. Von NV selbst?

Der Unterschied war beim letzten Beispiel krass: Einmal ein lackiertes Rohr mit ENV und Bump und einmal ohne. Letzte Szene, wo man in das Zentrum kommt und die Lampe rumpendelt......Zugleich die stressigste Stelle im Spiel: Wenn man noch FSAA und AF anhat und die Taschenlampe auch noch auf die Szene hält, dann gibts nur noch Einzelbilder...(um die 10 FPS oder weniger)...

edit: ich sehe gerade, dass der Link mit NV gar nix zu tun hat. Hat noch einer den Original- Link? War irgendeine Seite über NV- Hardware....

Piffan
2004-02-01, 13:33:56
Doppelpost, Sorry

BUG
2004-02-01, 13:38:29
..habe die Bilder^^ noch im Browser Cache, ich kann sie dann mal online stellen.

cu
BUG

Demirug
2004-02-01, 13:41:03
Original geschrieben von r@e
Also so 120 PS2-Shader ?
:???:

Ich will endlich sehen, wo der Unterschied sein soll !!!
(nicht an Dich gerichtet, Demirug ;-)

Razor

Korrektur. Es sind 107 im ATI Set.

BUG
2004-02-01, 13:52:18
http://home.arcor.de/xbug/Download/farcry/nv_vs_ati/

..habe die ATI vs. NV Bilder mal hochgeladen^^. :)

cu
BUG

(del676)
2004-02-01, 14:02:28
naja, gar so gut vergleichen lässt sich das ja nicht :(

kiss
2004-02-01, 14:49:33
man sieht aber eindeutig das bei nVidia ein paar effekte fehler oder nicht berechnet werden....es läuft sogar noch schlechter auf nVidia-Karten obwohl einige effekte fehlen...einfach nur heftig.....was habe ich mir da blos gekauft

der openGl modus ist wahrscheinlich von der qualität um einiges schlechter als der d3d modus...man :(

(del676)
2004-02-01, 14:57:23
Original geschrieben von kiss
man sieht aber eindeutig das bei nVidia ein paar effekte fehler oder nicht berechnet werden....es läuft sogar noch schlechter auf nVidia-Karten obwohl einige effekte fehlen...einfach nur heftig.....was habe ich mir da blos gekauft


es läuft schlechter?
warum? fps mässig ist nv bei en shots ja weit vorraus

BUG
2004-02-01, 15:00:10
..nich ganz, schau dir mal Screen 4 an. Da liegt die ATI gut 40% vor der FX. Auf meiner FX5900 XT läuft die FarCry Demo nich wirklich butterweich. :-/

cu
BUG

kiss
2004-02-01, 15:04:00
@Ulukay
Tja dann guck dir FarCry mal auf meiner 5800@ultra an!!!
Dann weisste du was power heisst :( ....Das Spiel läuft grade mal auf 1024*768 (ohne AA & AF) ordentlich spielbar....wenn ich auf 1280*1024 spielen will....kackt die graka voll ab...naja vielleicht läuft es mit der 5900 besser...

Aber ich halte nichts mehr von nVidia....immer diese extra würstchen...alles muss angepasst werden...jedes spiel kommt wegen nVidia später raus...es muss alles auf nVidia (OpenGl) aoptimiert werden das überhaupt spielbare fps zustande kommen :(
Man hätte ich mir damals mal blos ne 9700pro geholt..

Ok,ich habe mich wieder beruhigt :eyes:

(del676)
2004-02-01, 15:06:23
Original geschrieben von Radeonator
2. Geschwindigkeits unterschiede :
Bild 1. : 25nv - 42ATi
Bild 2. : 66nv - 41ATi
Bild 3. : 49nv - 43ATi
Bild 4. : 61nv - 41ATi


was is mit Bild 4???

(del676)
2004-02-01, 15:07:07
Original geschrieben von kiss
@Ulukay
Man hätte ich mir damals mal blos ne 9700pro geholt..


komisch, genau diese grafikkarte hatte ich vor der 5900u und trauere kein bisschen :D

Gast
2004-02-01, 15:09:32
Original geschrieben von Ulukay
komisch, genau diese grafikkarte hatte ich vor der 5900u und trauere kein bisschen :D

ich glaub die 9700pro ist viel glücklicher das sie DICH los ist :lol:

BUG
2004-02-01, 15:11:04
..also bei mir steht bei Bild 4..

NV 24 FPS
ATI 41 FPS

..bei den anderen Screens sind sie entweder gleich schnell oder die FX is etwas schneller aber beide Karten haben aussreichnd FPS bis auf die NV Karte bei Bild 4.

cu
BUG

Gast
2004-02-01, 15:13:35
Original geschrieben von Ulukay
was is mit Bild 4???

tuhst du nur so :freak: oder bist du es ? der zitat ist von the counters reihenanordnung gewesen, aber schau mal bugs an...

(del676)
2004-02-01, 15:13:52
Original geschrieben von BUG
..also bei mir steht bei Bild 4..

NV 24 FPS
ATI 41 FPS

..bei den anderen Screens sind sie entweder gleich schnell oder die FX is etwas schneller aber beide Karten haben aussreichnd FPS bis auf die NV Karte bei Bild 4.

cu
BUG

wayne? is halt die reihenfolge durcheinander.
trotzdem ist die FX im allgemeinen schneller

@kiss: glaubst du Farcry wär auf einer 9700pro schneller als auf deiner 5800ultra?

BUG
2004-02-01, 15:24:01
Original geschrieben von Ulukay
..trotzdem ist die FX im allgemeinen schneller
..kann sein, die FX hat aber auch etwas weniger zu rechnen wenn man den Bilder glauben kann.

cu
BUG

Riptor
2004-02-01, 15:25:54
Da scheint eines mit PS1.1 oder so zu laufen und die XT darf mit PS2.0 rumwursteln, oder was sollen die Vergleiche?

Gast
2004-02-01, 15:26:05
Original geschrieben von Ulukay
wayne? is halt die reihenfolge durcheinander.
trotzdem ist die FX im allgemeinen schneller

@kiss: glaubst du Farcry wär auf einer 9700pro schneller als auf deiner 5800ultra?

was wayne ? hat bug den doofen gespielt oder du ? die fx ist nicht mal immer schneller bei schlechterer qualität.

Riptor
2004-02-01, 15:27:18
Original geschrieben von Gast
was wayne ? hat bug den doofen gespielt oder du ? die fx ist nicht mal immer schneller bei schlechterer qualität.

Noch haben wir keine gleiche Systembasis und keine richtig vergleichbaren Screenshots... Wer macht sich ran?

(del676)
2004-02-01, 15:27:42
Original geschrieben von Gast
was wayne ? hat bug den doofen gespielt oder du ? die fx ist nicht mal immer schneller bei schlechterer qualität.

danke, auf solche posts reagiere ich nicht mehr!

(del676)
2004-02-01, 15:28:25
Original geschrieben von BUG
..kann sein, die FX hat aber auch etwas weniger zu rechnen wenn man den Bilder glauben kann.

cu
BUG

tjo keine ahnung ...
gibts noch keine halbwegs seriöse seite die farcry ein bisl getestet hat?

Riptor
2004-02-01, 15:32:44
Original geschrieben von Ulukay
gibts noch keine halbwegs seriöse seite die farcry ein bisl getestet hat?

Ne, leider nicht. :( Bei HL², D³ und Stalker machen die wegen jedem FURZ nen "Special Preview" mit Leaked Beta oder was weiß ich... Und nicht nur auf EINER Seite. Aber jetzt ist eine offizielle Demo raus und kein Schwein von Anandtech, THG oder den seriösen Seiten interessierts. Sonst stürzen die sich doch auch auf jeden "WOW-DX9-TITEL" Schnipsel und treten es bis zum erbrechen aus, machen Screenshots-Marathons und Benchmarks mit allen erdenklichen Shadern. FC liegt dagegen irgendwo auf deren Rechnern, sieht nett aus etc. ... kommt aber aus Deutschland, kann ja nix sein, warten wir lieber auf HL² und D³, Valve und id haben ja uns viel geza... Naja, lassen wir das. Aber siehe Aquanox 1 + 2: Haben in den USA nur schlechte Bewertungen bekommen und wurden nur als "Aquamark" beachtet. Großes Kino... :(

kiss
2004-02-01, 15:55:41
So jetzt habe ich ein paar bilder gemacht....
In 1280*1024
Spiele ich immer weil ich einen 19zoll moni habe!!

???scheisse????
Wie kann ich bilder laden?
3 stück sind das

Riptor
2004-02-01, 16:01:19
Haste irgendwo Webspace?

kiss
2004-02-01, 16:02:45
ne leider nicht...
ich kann die doch auch hier reinladen oder nicht?

Black-Scorpion
2004-02-01, 16:06:42
Original geschrieben von kiss
ne leider nicht...
ich kann die doch auch hier einladen oder nicht?
Dazu sind die Bilder zu groß.
Im Forum kannst du nur Bilder bis 20kb anhängen.
Hast du bei deinem Privider (z.B. T-Online, Arcor) keinen Webspace.

kiss
2004-02-01, 16:08:05
Nein leider nicht.....
kann ich die vielleicht einen schicken???
per e-mail?
wer meldet sich freiwillig?

Gast
2004-02-01, 16:11:39
der-unhold@web.de

...werds aber erst in paar stunden auf uni webspace hauen können

BUG
2004-02-01, 16:14:41
..am betsen selber mal Webspace anmleden. Bei Arcor gibts 25 MB schnellen, kostenlosen und werbefreien Webspace! :) Einfach anmelden und via FTP uploaden. =)

..die URL is dann immer "http: //home.arcor.de/deinName/deineOrdner"

cu
BUG

kiss
2004-02-01, 16:21:16
Naja egal....
Also ich erkläre die bilder jetzt mündlich.
1280*1024
ohne AA und AF


1.So das erste bild ist beim dem Hai....Dort bin ich auf's Dach geklettert und habe auf das holz von der anlegestelle geguckt.
=22FPS

2.So, das nächste ist oben am Buker eingang....von dem turm,wo auch die railgun steht,gucke ich auf die bucht wo der jeep steht.
=21FPS

3.Das dritte bild ist wieder am Bunker.Diesmal stehe ich neben der tonne,wo die energie drauf liegt und gucke auf die buker tür....
Jetzt kommts:Ein ganz fetter grafik/lichtfehler bedeckt den boden....komisch...manchmal ist er da und manchmal nicht...
=23FPS

4.Beim vierten bild bin ich in einem Turm und gucke genau auf einen sniper.Ich ziele mit meinem sniper auf den kopf...
=17FPS


Fazit:ICh kann mit meinem system FarCry auf D3D nicht flüssig spielen(1280*1024).
Man kann es nur 1024*768 gut flüssig spielen,aber da ich einen 19zoll moni habe sieht 1024*768 unerträglich aus.

BUG
2004-02-01, 16:23:56
..ja ich kanns mir jetzt^^ "Bildlich" vorstellen. ;D

..zur Not schick die Bilders mal inzwichen@gelöscht

cu
BUG

Riptor
2004-02-01, 16:26:18
Und das auf nem "XP3200+, Corsair3200 512MB, Epox8RDA+ und ner 5800ultra"? :o Wäre ja mal HEFTIG. Ich habe so zwischen 20 und 35 FPS am Strand, mit allen Details in 1024*768... Aber auf nem XP1800+, 512MB, KT333 und R9500 Pro! In den Bergen und im Dschungel habe ich meist 30-40 FPS. Bin eigentlich recht zufrieden, weiß ja selbst, dass bei mir die CPU der Flaschenhals ist, aber bekomme keinen Thoroughbred stabil zum laufen, ASUS weiß bescheid. Naja, es reicht mir eigentlich. :)

kiss
2004-02-01, 16:29:27
@bug

ich habe sie dir jetzt geschickt.. =)
bitte keinen schock kriegen!!

BUG
2004-02-01, 16:30:35
..jau habe eben ne SMS Benachrichtigung von Arcor bekommen. ;)

cu
BUG

Szilard
2004-02-01, 16:37:02
Wie gross sind die Bilder?

kiss
2004-02-01, 16:38:24
Um die 300kb

BUG
2004-02-01, 16:38:32
http://home.arcor.de/xbug/Download/farcry/kiss

cu
BUG

kiss
2004-02-01, 16:42:02
@Bug
Danke
ich lege mir demnächst auch bei arcor webspace an!!

Guckt euch die bilder von mir an,die Bug hochgeladen hat...Das nenne ich "The way it's meant to be played" :D

Szilard
2004-02-01, 17:08:19
Original geschrieben von kiss
@Bug
Danke
ich lege mir demnächst auch bei arcor webspace an!!

Guckt euch die bilder von mir an,die Bug hochgeladen hat...Das nenne ich "The way it's meant to be played" :D

Bei Farcry ist eine 9800 Pro auch nicht gerade der Hammer, ich habe bei der Auflösung 1280x1024 (alles max) mit 8xTRI-AF einen Durchschnitt von 32 FPS, im Dschungel hatte ich sogar ab und zu 16FPS. (System: XP2400+, 9800 Pro, 512MB Ram)

BUG
2004-02-01, 17:13:08
..läuft auf meiner FX5900 XT auch nich viel besser in der^^ Auflösung und vollen Details, an AF und AA brauch ich nichmal denken.

cu
BUG

kiss
2004-02-01, 17:15:18
@Szilard
naja wenn ich auf 1280*1024 noch 8af aktiviere, ist Ende im Gelände.
Ausserdem werden bei dir noch mehr effekte dargestellt und im dschungel habe ich nur ca 28fps....

Und was soll der scheiss grafik/lichtfehler auf bild 3???
Manchmal ist er da und manchmal nicht....ich habe die grafik/lichtfehler auch an anderen stellen(z.B. an dem roten gerüst)

Szilard
2004-02-01, 17:17:54
Original geschrieben von kiss
@Szilard
naja wenn ich auf 1280*1024 noch 8af aktiviere, ist Ende im Gelände.
Ausserdem werden bei dir noch mehr effekte dargestellt und im dschungel habe ich nur ca 28fps....

Stimmt schon, aber ich meinte das nur so als Hinweis (Farcry ist ein Hardwarefresser).

betasilie
2004-02-01, 18:19:33
Original geschrieben von Ulukay
wayne? is halt die reihenfolge durcheinander.
trotzdem ist die FX im allgemeinen schneller

Die FX ist in 3 von vier Fällen schneller, allerdings bei viel schlechterer Bilsqualität. ... Glaubst Du, dass auch nur noch einer auf deine NV-Werbung reinfällt? :crazy:




Ich selber habe das Game mitte der Woche bei einem Kumpel auf einer GF-FX gesehen und es sieht viel schlechter aus, als auf meiner R300 Karte. Ich denke aber mal, dass man fairerweise auf die Final warten sollte, bevor man sich ein Urteil macht.

Riptor
2004-02-01, 18:23:51
Original geschrieben von betareverse
Die FX ist in 3 von vier Fällen schneller, allerdings bei viel schlechterer Bilsqualität. ... Glaubst Du, dass auch nur noch einer auf deine NV-Werbung reinfällt?

Kannst du mal deine all zu direkte Art lassen?

Ich selber habe das Game mitte der Woche bei einem Kumpel auf einer GF-FX gesehen und es sieht viel schlechter aus, als auf meiner R300 Karte. Ich denke aber mal, dass man fairerweise auf die Final warten sollte, bevor man sich ein Urteil macht.

Erstens das und Vergleiche wären sinnvoller, denn so pauschal kann man alles erfinden.

Warum interessiert die Hardwareseiten kein FC ???

betasilie
2004-02-01, 18:30:27
Original geschrieben von Riptor
Kannst du mal deine all zu direkte Art lassen?

Nein, das werde ich nicht, wenn hier immer die selben Leute versuchen ihre FXe besser zu machen, als sie faktisch sind.

Original geschrieben von Riptor
Erstens das und Vergleiche wären sinnvoller, denn so pauschal kann man alles erfinden.

Was heißt erfinden? ... Hör dir mal die FX-Besitzer an, die bei Leuten, die eine ATI-Karte im Rechner haben, die FarCry Demo sehen. Da wirst Du aber ganz schnell merken, dass die FC Demo auf den FXen um Längen schlechter aussieht. Das ist einigen leuten in meinem Bekanntschafftskreis so ergangen.

Riptor
2004-02-01, 18:33:43
Original geschrieben von betareverse
Nein, das werde ich nicht, wenn hier immer die selben Leute versuchen ihre FXe besser zu machen, als sie in faktisch sind.

Aber es bringt doch nichts außer sinnlosen Streitereien. So lange noch nicht geklärt ist, wie denn nun die Performance ausschaut und die Qualität tatsächlich ist, ist zudem noch nichts Fakt. ;) Aber egal.
Vllt macht ja 3DCenter mal nen FC-Report, andere Seiten scheinen sich nicht ranzutrauen.

Piffan
2004-02-01, 19:04:19
Nur mal unterstellt, dass die FXen bei FC genau so mies performen wie bei TR6, dann könnte dieses durchaus zu einer Verspätung des Spieles führen. Denn dann müssten die Leute von Crytek optimieren oder NV müsste selbst Hand anlegen.....
Irgendwie scheint DX9 ein Bumerang für NV zu werden....Dass ausgerechnet die Firma, die angeblich immer technologisch vorne ist, nun als Bremse auftritt.....

Aber nein, hört blos nicht auf dieses Gelaber eines Fanboys, denn das kann ja einfach nicht sein, oder?

In der Tat wundert es mich, dass noch keine Vergleiche der Hardwareseiten da sind. Falls es keine Timedemo gibt (auch schon merchwürdig), dann würde ja ein Standbild zur Not auch reichen.....TR6 ist wahrscheinlich doch kein Einzelfall. Abwarten!

Demirug
2004-02-01, 19:18:45
Kommt Treiber, kommt Speed!? ;)

BUG
2004-02-01, 19:20:15
..also ich habe mal das 2te Bild (http://home.arcor.de/xbug/Download/farcry/nv_vs_ati/farcry_nv_2.jpg) (von den ATI vs NV) versucht auf meiner FX nachzustellen. Was mir dabei auffällt ist, dass der Licht/Schatten Effekt (der von der Lampe die über einem so schön hin und her wackelt) sich nicht capturen lässt. Der Licht/Schatten Effekt ist auf dem Screenshot einfach nich sichtbar egal ob über die hauseigene Screenshot Funktion (F12) oder "Druck" Taste?! :kratz2:

Die Rohre glänzen bei mir aber auch nich, weder im Spiel selbst, noch auf dem Screenshot.

cu
BUG

Riptor
2004-02-01, 19:30:39
Original geschrieben von Demirug
Kommt Treiber, kommt Speed!? ;)

Man munkelt von 60% Mehrleistung durch DX9.1... *eg*

Demirug
2004-02-01, 19:35:05
Original geschrieben von Riptor
Man munkelt von 60% Mehrleistung durch DX9.1... *eg*

DX 9.1 ist ein alter Hut. DX 9.2 ist der kommende Hit. Und denkt daran hier habt ihr es zuerst gelesen

Die Gefahr das ein solches Gerücht dennächst auftaucht ist wirklich gegeben

Das mit dem neuen Treiber war aber durchaus ernst gemeint. Die Shader machen einen durchaus optimierungswilligen Eindruck.

kiss
2004-02-01, 19:36:15
Kommt Treiber, kommt Speed!?

Ja ja und was können wir diesmal an der bildqualität verschlechtern?
Ach, verringern wir doch einfach die sichtweite.....

Naja, ich hasse immer diese treiber updates.Für jedes spiel brauch man bei nVidia einen neuen treiber :( und dann werden aus den neuen treibern die alten optimierungen rausgenommen sodass man die alten spiele nicht richtig spielen oder gar starten kann. :(

@Demirug
Ich hoffe das sie endlich einen wirklich guten treiber rausbringen....aber leider sind die fxen auf optimierungen angewiesen.
Naja ich kann nur hoffen weil sonst werde ich meine 5800ter verkaufen und auf ATI umsteigen...ich bin es langsam leid :(

Winter[Raven]
2004-02-01, 19:44:20
aja, ich hasse immer diese treiber updates.Für jedes spiel brauch man bei nVidia einen neuen treiber

Kommt mir irgendwie bekannt vor, ahhh, richtig ATI musste ja früher immer einen neuen Treiber rausbringen damit ein Spiel überhaupt ohne Bildfehler läuft. Löl ... Irrnie ohne ende.

kiss
2004-02-01, 19:48:36
@Winter[Raven]
Früher ist nicht heute....
Ich finde es nur dumm das nVidia für jedes "gute" spiel einen neuen treiber rausbringen muss,sodass gute fps zustande kommen.Ja ich weiss,der NV30-> sind auf optimierungen angewiesen....

OK ich sage nichts mehr dazu....weil ich nicht die größte ahnung habe :)

Piffan
2004-02-01, 19:51:21
Ich bezweifle mal stark, dass herunterschrauben der Bildqualität bei FC oder TR6 irgendwas nützt. Es ist die Shader- Performance, wo der Schuh drückt....

Entweder umschifft man die Klippen (man lässt Effekte wegfallen, was aber marketingtechnisch ein Desaster ist, auch Shader mit geringerer Genauigkeit würden ins Auge gehen), oder man muss die Shader umprogrammieren, und zwar von Hand.

Ich denke mal, dass durch Handoptimierung das Meiste rauszuholen ist.....

deekey777
2004-02-01, 19:53:04
Ist es nicht etwas zu frühr, sich Sorgen zu machen?

Riptor
2004-02-01, 19:53:09
Original geschrieben von Demirug
DX 9.1 ist ein alter Hut. DX 9.2 ist der kommende Hit. Und denkt daran hier habt ihr es zuerst gelesen

*eg*

Das mit dem neuen Treiber war aber durchaus ernst gemeint. Die Shader machen einen durchaus optimierungswilligen Eindruck.

Gut, dann muss ich mal was los werden: Warum hat dann nVidia in den letzten Monaten nicht dafür gesorgt? Ich mein, gerade kommt es mir so vor, als wenn diverse Spiele nach hinten gelegt werden, weil "noch für nVidia optimiert werden muss", alles nach dem Motto: "Ne, so können wir das nicht auf die Welt loslassen, auf den nVidia-Karten läufts zu bescheiden, da verlieren wir potenzielle Käufer..." Bei TR:AoD hat man wohl drauf gesch***en und das Spiel dann auch wegem dem Film auf den Markt gekloppt. Man sieht das Ergebnis, aber trotzdem bleibt so ein übler Nachgeschmack, dass das vllt doch nicht das letzte Beispiel war. Ich mein, erst hieß es, der Forceware wirds richten, jetzt soll man NOCHMAL auf nen neuen Treiber warten? Ich für meinen Teil denke, dass nVidia versucht, alle DX9-Großprojekte bis nach die Vorstellung des NV40 zu verschieben, damit dann keinem mehr groß auffällt, dass die NV3X-Karten nicht mehr so richtig gerettet werden können.

Sorry. Das klingt jetzt ein wenig krass, aber ich bin enttäuscht und diverse FX-User sind das in meinen Augen auch. Man hat versprochen, aber wenig gehalten. Klar kann man jetzt sagen, es gibt ja auch kaum DX9-Spiele. Aber gerade darum gehts ja: Wird hier nicht künstlich gebremst? Für ATI wäre es doch ein Segen, wenn endlich zahlreiche DX9-Spiele erscheinen würden. Mir kommt es halt so vor, als wenn nVidia die NV3X Kunden fallen läßt, wenn der NV40 vorgestellt wurde... Und "neue Wundertreiber" für die NV3X-Serie nicht mehr erscheinen werden.

Ja, basht jetzt auf mich ein, gebt es mir. Ich bin halt etwas enttäuscht, und das, obwohl ich nicht primär auf die FX-Karten setze. Vielleicht sehe ich das zu pessimistisch und vielleicht auch falsch, aber so kommt es mir vor. Damit will ich kein ATI vs. nVidia Gebashe einheizen, sondern nur mal wissen, wie ihr euch das so vorstellt. Es heißt immer, die Entwicklerstudios brauchen halt länger, Multiplayer muss noch gemacht werden, das muss noch gemacht werden, es gab schon immer Terminverschiebungen, alles ist normal etc... Aber so langsam glaube ich nicht so recht daran. Ich bin kein Freund von Verschwörungstheorien. Aber manchmal hat man eben seine Zweifel.

Das musste mal raus.

kiss
2004-02-01, 19:54:16
@Piffan
Irgendwie glaube ich das der NV30-> sehr kostspielig ist....die programmierer müssen ja extrem an den treiben arbeiten oder sogar bei den spielen mit programmieren....das kostet nVidia doch einen haufen kohle!?!?!?


@Riptor
Ich sehe es genauso wie du

Piffan
2004-02-01, 20:02:02
Was heißt Verschwörungstheorie? So oder ähnlich läufts aber nun mal im Business. Kein Entwickler bringt ein Spiel raus, wenn es nicht auf der Masse der Karten brauchbar läuft........

Fakt ist, dass derzeit alle neuen Spiele nicht so dolle performen, egal ob auf Ati oder NV. Liegt zum Teil daran, dass sich die Entwickler jetzt mehr trauen UND dass vieles von Konsolen überhaupt jetzt erst portierbar ist bzw. nun auch Parallelentwicklungen Sinn machen....

Nur mal Herr der Ringe, Rückkehr des Königs: Da wird astromische Füllrate nur für Rauch- und Explosionseffekte verballert, da geht selbst ne derzeitige High- Endkarte bei hohen Auflösungen in die Knie. Auf den Konsolen juckt es dank geringerer Auflösungen nicht so...

Wenn FarCry nur PC- only ist, dann MUSS es einfach auf allen Karten laufen, ehe man sich auf den Markt wagen kann. Ein Spiel allein für eine Marke dürfte den Markt zu sehr einschränken...

Riptor
2004-02-01, 20:17:58
Original geschrieben von Piffan
Was heißt Verschwörungstheorie? So oder ähnlich läufts aber nun mal im Business. Kein Entwickler bringt ein Spiel raus, wenn es nicht auf der Masse der Karten brauchbar läuft...

Klar. Dann brauchen wir erst gar nicht bis Mai auf irgendwelche DX9-Spiele warten, bis dahin wird sich dann eh keiner trauen, nen DX9-Spiel zu veröffentlichen. Dafür treibt man die die internen Kosten in die Höhe, zögert das Projekt in die Weite und "hofft" auf nen starken NV40 + NV4X-Mainstream, mit der ATI-Shaderperformance kann man ja leben... Dann ist irgendwann Herbst und es kann kommen was mag. Irgendwie halte ich das alles für sehr wackelig, und ich bin gerade auch nur am behaupten, aber trotzdem wirds mir allmählich zu bunt. Warum nicht einfach warten, bis NV50 und R500 herauskommen? 2004 brauchen wir eigentlich auch nicht unbedingt DX9-Games, weil die breite Masse noch nicht mit genug shaderstarken Karten ausgestattet ist, also verschieben wir die Projekte auf 2005, reicht ja. :( *frust*

Wenn FarCry nur PC- only ist, dann MUSS es einfach auf allen Karten laufen, ehe man sich auf den Markt wagen kann. Ein Spiel allein für eine Marke dürfte den Markt zu sehr einschränken...

Es bleibt ja immer noch die Möglichkeit, dass das Spiel veröffentlich wird und die Karten, die mit DX9 nicht klar kommen, müssen halt auf die netten DX9-Effekte verzichten und müssen weiterhin auf neue Treiber hoffen. Klar "performt" ein DX9-Spiel nicht ganz so toll wie nen DX8-Game. Aber das war schon immer so, siehe Aquanox mit den GF3-Karten oder diverse DX7 oder T&L-Games. Da hats dann auch keinen groß gejuckt, dass die 3Dfx-Karten eingegangen sind und ja, vllt hat man ja gerade aus diesen "Fehlern" gelernt, dass es vllt nicht sinnvoll war, aber ich stelle das halt mal in Frage. Klar, die Programmierteams müssen sich darum kümmern, dass die derzeitigen 3D-Karten optimal unterstützt werden... Aber müssen sie auch alles ausbügeln, was sie vorgesetzt bekommen? *grummel*

Riptor
2004-02-01, 20:33:06
Original geschrieben von kiss
@Piffan: Irgendwie glaube ich das der NV30-> sehr kostspielig ist....die programmieren müssen ja extrem an den treiben arbeiten oder sogar bei den spielen mit programmieren....das kostet nVidia doch einen haufen kohle!?!?!?

Naja, ich denke, das fällt unter den allgemeinen Bereich Developer-Support. Viel teurer ists für die Entwicklerstudios, die viel Zeit in spezielle Anpassungen investieren müssen, Valve hat sich nicht umsonst mockiert.

Demirug
2004-02-01, 20:52:35
Das die ganzen Spiele nicht "pünktlich" kommen liegt nicht nur an den Grafikkarten.

Das Problem ist das die Zeitpläne meist von Anfang an schon zum scheitern verdammt sind. Es gibt da einen alten Spruch: "Bei deinem dritten Projekt mit dem gleichen Team schaffst du es einen Zeitplan aufzustellen der fast einzuhalten ist". Dummerweise schaffen es heute die meisten Teams nicht bis zum dritten Projekt.

Was die Leistung angeht so sinken die meisten der Farcry 2.0 Shader auf einer 9700 Pro unter 200 MPixel/s sogar die 100 MPixel/s werden teilweise unterschritten. Für die FXen habe ich noch keine Zahlen. Kleiner Witz am Rand. Es gibt ein paar Shader da läuft auf dem R300 die für nVidia optimierte Variante schneller (20%) als die welche benutzt wird.

Demirug
2004-02-01, 20:57:08
Original geschrieben von Riptor
Naja, ich denke, das fällt unter den allgemeinen Bereich Developer-Support. Viel teurer ists für die Entwicklerstudios, die viel Zeit in spezielle Anpassungen investieren müssen, Valve hat sich nicht umsonst mockiert.

Gerade Valve sollte sich da nicht zu sehr aufregen.

Riptor
2004-02-01, 20:59:12
Original geschrieben von Demirug
Das die ganzen Spiele nicht "pünktlich" kommen liegt nicht nur an den Grafikkarten.

Na immerhin nicht nur... :stareup:

Das Problem ist das die Zeitpläne meist von Anfang an schon zum scheitern verdammt sind. Es gibt da einen alten Spruch: "Bei deinem dritten Projekt mit dem gleichen Team schaffst du es einen Zeitplan aufzustellen der fast einzuhalten ist". Dummerweise schaffen es heute die meisten Teams nicht bis zum dritten Projekt.

Das ist einleuchtend, darüber habe ich mich auch bei Peter Molyneux' Dungeon Keeper aufgeregt. An die Zeitpläne glaube ich ja auch nicht unbedingt, Duke Forever ist z.B. nen Extrem-Beispiel. Projektplanung und Mangement sind nicht einfach, vor allem nicht bei Entwicklerteams, bin ja selbst mit meinen PHP-Aufgaben in Verzug, aber wenn dann natürlich auch noch äußere Einflusse Steine in den Weg legen, wirds nicht besser...

Was die Leistung angeht so sinken die meisten der Farcry 2.0 Shader auf einer 9700 Pro unter 200 MPixel/s sogar die 100 MPixel/s werden teilweise unterschritten. Für die FXen habe ich noch keine Zahlen. Kleiner Witz am Rand. Es gibt ein paar Shader da läuft auf dem R300 die für nVidia optimierte Variante schneller (20%) als die welche benutzt wird.

*eg* Interessant! Scheinst also vorwärts zu kommen, was die "Shader-Auswertung" angeht... :)

Riptor
2004-02-01, 21:04:49
Original geschrieben von Demirug
Gerade Valve sollte sich da nicht zu sehr aufregen.

Hmmmm... id scheint das ja wenig zu kümmern... Dann wird halt für NV20 optimiert... dann für NV25. Dann NV30. Dann NV35. Dann NV40. Im Grunde genommen könnten die auch noch in Jahren D³ bringen (es ist ja mittlerweile für Ende 2004 angesetzt... :naughty: ), die hätten immer was neues zu berichten. :D Valve braucht sich in der Tat nicht aufzuregen, wenn ich da nur an Team Fortress 2 denke. :stareup: Aber die haben IMO genug Kacke am dampfen, bei denen bin ich froh, wenn die das mit HL² noch dieses Jahr auf die Reihe bekommen. Aber Far Cry nervt, ist aber wenigstens ein Projekt, was vorwärts kommt. Allerdings befürchte ich, dass das trotzdem noch ewig dauern wird.

Demirug
2004-02-01, 21:06:18
Original geschrieben von Riptor
Na immerhin nicht nur... :stareup:

Die Grafikkarten kann man nicht aussen vorhalten weil zum Anfang des Projekts meist nur sehr unzureichende Informationen über das was beim Release aktuell ist vorliegt. Denoch müssen dann noch schnell ein paar "aktuelle" reingepresset werden. Die Zeit dafür wird aber meist vergessen zu kalkulieren.

*eg* Interessant! Scheinst also vorwärts zu kommen, was die "Shader-Auswertung" angeht... :)

Das beschaffen der Shader und das Benchen ist ja kein Problem. Tagesgeschäfft sozusagen. Das Eindampfen der riesigen Datenmenge auf ein übersichtliches Mass ist die Herausforderung.

Mr. Lolman
2004-02-01, 21:07:20
Original geschrieben von Demirug
Das die ganzen Spiele nicht "pünktlich" kommen liegt nicht nur an den Grafikkarten.

Das Problem ist das die Zeitpläne meist von Anfang an schon zum scheitern verdammt sind. Es gibt da einen alten Spruch: "Bei deinem dritten Projekt mit dem gleichen Team schaffst du es einen Zeitplan aufzustellen der fast einzuhalten ist". Dummerweise schaffen es heute die meisten Teams nicht bis zum dritten Projekt.

Du bringst es auf den Punkt. Vor einigen Jahren, war die Spieleentwicklunge noch eher überschaubar, als heutzutage, wo tweilweise irsinnige Projekte zustande kommen, in denen man sich dann verliert.


Was die Leistung angeht so sinken die meisten der Farcry 2.0 Shader auf einer 9700 Pro unter 200 MPixel/s sogar die 100 MPixel/s werden teilweise unterschritten. Für die FXen habe ich noch keine Zahlen.

3dCenter könnte doch tatsächlich ein kleines FarCry Demo Performance Review machen. Was spricht eigentlich dagegen?


Kleiner Witz am Rand. Es gibt ein paar Shader da läuft auf dem R300 die für nVidia optimierte Variante schneller (20%) als die welche benutzt wird.

Das zeigt, wieviel Ahnung manche Programmierer von DX9 HW haben. (Sofern man ihnen keine Absicht unterstellt)

Piffan
2004-02-01, 21:13:10
Shader, die für NV optimiert sind, laufen auch auf der Ati besser als die vorgesehenen?
Dann haben die bei Crytek wohl ne sehr heiße Nadel genommen zum Stricken der Shader.....
Naja, dann dürfen wir ja hoffen, dass bei FC noch nicht das letzte Wort bezüglich der Performance gefallen ist. Irgendwie beruhigend. :)

Wie aktuell ist eigentlich die Demo? Gibt ja Aussagen, dass die einen recht alten Stand wiedergibt :kratz:

Riptor
2004-02-01, 21:14:24
Original geschrieben von Mr. Lolman
3dCenter könnte doch tatsächlich ein kleines FarCry Demo Performance Review machen. Was spricht eigentlich dagegen?

*unterschreib*

Finde ich auch. KEINE, aber wirklich KEINE Seite hat sich bisher mit der Far Cry Performance beschäftigt... Klar, ist nen deutsches Spiel, wir sind ja nur für WiSims bekannt... Und Aquanox, wobei eher am Aquamark internationales Interesse geweckt wurde. Aber wäre schon klasse, wenn 3DCenter so was machbar wäre... Für nen Halo-(P)Review hats ja auch gereicht. *eg*

Demirug
2004-02-01, 21:18:08
Original geschrieben von Mr. Lolman
Das zeigt, wieviel Ahnung manche Programmierer von DX9 HW haben. (Sofern man ihnen keine Absicht unterstellt)

Ganz so einfach ist die Wahrheit hier nicht. Die Shader werden aus einer HLSL Quelle erzeugt. Für die Radeons wird das 2.0 Profil benutzt und für die FXen das 2.A Profil. Bei den besagten Shadern geht eine Optimierungsregel von ATI nach hinten loss. Da bei dem 2.A Profil diese Regel nicht wirkt und dazu noch eine andere kommt entsteht plötzlich ein Shader der besser läuft. Ich musste aber auch zweimal hinschauen bis ich wusste warum der Shader schneller ist.

Piffan
2004-02-01, 21:21:33
Original geschrieben von Mr. Lolman
Du bringst es auf den Punkt. Vor einigen Jahren, war die Spieleentwicklunge noch eher überschaubar, als heutzutage, wo tweilweise irsinnige Projekte zustande kommen, in denen man sich dann verliert.





Mit zunehmendem Anspruch der Spieler wird es für die Spielebranche immer riskanter, was völlig Neues auf die Beine zu stellen.
Mafia, Gothic, KOTOR und andere Spiele dieses Kalibers brauchen nicht nur große Teams, sondern gut geführte und eingespielte Teams. Dass einige Firmen fast nur noch Serien fortsetzen (EA mit den Sportspielen), liegt da auf der Hand...

reunion
2004-02-01, 21:39:05
Original geschrieben von Ulukay
wayne? is halt die reihenfolge durcheinander.
trotzdem ist die FX im allgemeinen schneller


Nur dass die Leistung der FX bei gleicher Bildqualität um ca. 50% nachgibt :arsch:

deekey777
2004-02-01, 21:46:39
Original geschrieben von reunion
Nur dass die Leistung der FX bei gleicher Bildqualität um ca. 50% nachgibt :arsch:

Nicht unbedingt, wenn man sich an die ganz strengen Richtlinien von nVidia hält, sind die FXen schneller als der Wind - bei gleicher Renderquali (AA&AF aus :D )

Demirug
2004-02-01, 21:59:10
Original geschrieben von deekey777
Nicht unbedingt, wenn man sich an die ganz strengen Richtlinien von nVidia hält, sind die FXen schneller als der Wind - bei gleicher Renderquali (AA&AF aus :D )

Die Windgeschwindigkeit wird dabei aber von nVidia festgelegt.

Das Problem mit den Richtlinien ist das diese so streng sind das man sich nicht immer daran halten kann.

deekey777
2004-02-01, 22:01:25
Original geschrieben von Demirug
Die Windgeschwindigkeit wird dabei aber von nVidia festgelegt.

Das Problem mit den Richtlinien ist das diese so streng sind das man sich nicht immer daran halten kann.

Vorteil für ATi!!!;D

Coda
2004-02-01, 22:13:48
Bei gleicher Bildqualität nicht, wenn man mit nVidia was reißen will, dann nur mit Annäherungen und FX12
Aber bei FP32 sieht die Leistung gegen ATi FP24 einfach schlecht aus und FP16 hat einfach auch nicht die gleiche Qualität.

deekey777
2004-02-01, 22:16:08
Original geschrieben von Coda
Bei gleicher Bildqualität nicht, wenn man mit nVidia was reißen will, dann nur mit Annäherungen und FX12
Aber bei FP32 sieht die Leistung gegen ATi FP24 einfach schlecht aus und FP16 hat einfach auch nicht die gleiche Qualität.

Mutig, mutig...

LovesuckZ
2004-02-02, 09:57:31
Original geschrieben von BUG
Auf meiner FX5900 XT läuft die FarCry Demo nich wirklich butterweich. :-/


Ich denk für das Spiel brauch man mindesten 256MB Grafikram, um mit allen Details auf very high spielen zu koennen...

LovesuckZ
2004-02-02, 10:01:22
Original geschrieben von kiss
@Winter[Raven]
Früher ist nicht heute....
Ich finde es nur dumm das nVidia für jedes "gute" spiel einen neuen treiber rausbringen muss,sodass gute fps zustande kommen.Ja ich weiss,der NV30-> sind auf optimierungen angewiesen....


Seit dem 53.03 ist dies nicht mehr noetig.

Demirug
2004-02-02, 10:07:31
Original geschrieben von LovesuckZ
Seit dem 53.03 ist dies nicht mehr noetig.

Jaein. Per Hand/Clusterrechenpower können die Entwickler bei nVidia sicherlich noch den eine oder andere Shader schneller bekommen. Der Treibercompiler ist schon ganz gut aber eben noch nicht perfekt.

Selbst der gute Compiler von ATI der es ja erwissenermassen leichter hat optimiert wie ich ja schon aufführte nicht perfekt. Ich kann das Beispiel gerne mal mit Kommentierung posten.

LovesuckZ
2004-02-02, 10:07:38
Original geschrieben von Riptor
Wird hier nicht künstlich gebremst? [...]

Schieben wir die Schuld doch mal auf ATi. Sie wollen, dass jede Anweisung mit FP und voller Genauigkeit "gerendert" werde. Das man mit diesen Vorgehen die FX Karten (also die großen) aussen vorlaesst, ist doch seit langem nichts neues. Wenn man nach den Nvidia - Richtlinien entwickelt, hat man dieses Problem nicht. Dafür ein anderes: Nvidia karten werden auf einmal deutlich schneller, konkurenzfaehig...
/edit: Nicht zu vergessen die Mainstream DX9 ATi User, die dank den "eignen" Richtlinien auch ausgeschlossen werden (TR:6).
Nun, die Schuld auf Nvidia zu schieben und irgendwelche Verschwörungstheorien zu entwickeln, warum es wegen Nvidia geschehe, gehoert jedoch ebenfalls seit langem zu unserem Alltag.

reunion
2004-02-02, 10:34:37
Original geschrieben von LovesuckZ
Ich denk für das Spiel brauch man mindesten 256MB Grafikram, um mit allen Details auf very high spielen zu koennen...

Nein, mit meiner 9700pro spiele ich mit 1280x1024 und alles auf very high "flüssig" (natürlich versteht jeder was anderes unter flüssig)

BUG
2004-02-02, 10:35:11
Original geschrieben von LovesuckZ
Ich denk für das Spiel brauch man mindesten 256MB Grafikram, um mit allen Details auf very high spielen zu koennen... ..selbt wenn ich alles auf High Details stelle, gehts teilweise runter auf 20 FPS und niedriger.

cu
BUG

LovesuckZ
2004-02-02, 10:49:45
Original geschrieben von BUG
..selbt wenn ich alles auf High Details stelle, gehts teilweise runter auf 20 FPS und niedriger.
cu
BUG

Ja, das passiert bei mir auch, wobei ich deis auch auf meinen zu geringeren Systemram schieben kann.
Ansonsten laeuft die Demo schlechter als die MP beta, auch an Stellen, wo keine KI oder Physik vorhanden ist...
Warten wir also bis auf die offizielle MP Demo.

Exxtreme
2004-02-02, 10:53:29
Original geschrieben von LovesuckZ
Schieben wir die Schuld doch mal auf ATi. Sie wollen, dass jede Anweisung mit FP und voller Genauigkeit "gerendert" werde.
Nein, nicht ganz. So wie ich es mitgekriegt habe, will ATi, daß man PS2.0 verwendet. Der Grund ist wohl, daß man sich viele Rechendurchgänge (Passes) sparen kann. Und da die Verwendung von FP-Formaten hier keinen Geschwindigkeitsverlust zufolge hat, dürften PS2.0-Shader schneller laufen als PS1.x-Shader. Daß die FP-Formate auf NV-GraKas schlecht laufen, ist ATi völlig egal. Sie geben halt Tipps, von denen die Radeons profitieren. Es ist IMHO illusorisch zu glauben, daß ATi Tipps geben wird, welche die eigenen Karten womöglich ausbremsen um die Konkurrenz besser dastehen zu lassen.

BUG
2004-02-02, 10:58:55
Original geschrieben von LovesuckZ
Ja, das passiert bei mir auch, wobei ich deis auch auf meinen zu geringeren Systemram schieben kann.
Ansonsten laeuft die Demo schlechter als die MP beta, auch an Stellen, wo keine KI oder Physik vorhanden ist...
Warten wir also bis auf die offizielle MP Demo. ..die Beta habe ich leider nich, aber so eine Demo wird doch rausgebracht um Promotion oder Werbung für ein Spiel zu machen. Und so wie es bis aussieht brauch ich mir das Spiel nich zu kaufen, vorher brauch ich erst bessere Hardware obwohl ich eigentlich auf einem recht aktuellen stand bin. :-/

cu
BUG

Endorphine
2004-02-02, 11:14:02
Original geschrieben von BUG
..die Beta habe ich leider nich, aber so eine Demo wird doch rausgebracht um Promotion oder Werbung für ein Spiel zu machen. Und so wie es bis aussieht brauch ich mir das Spiel nich zu kaufen, vorher brauch ich erst bessere Hardware obwohl ich eigentlich auf einem recht aktuellen stand bin. :-/

cu
BUG Sieh's doch positiv:
(1) das Spiel braucht noch etwas Zeit bis zum Release. In der Zeit wird leistungsfähige Hardware billiger und RAM ebenfalls.
(2) Ein Spiel, was auf aktuellen Rechnern in maximaler Grafikpracht mit 20 fps läuft bietet immerhin eine Chance: das es auch die Rechenleistung zukünftiger Hardware ausnutzen kann.

Imho ist an diesem Prinzip nichts schlechtes dran. Im Gegenteil, ich würde mir wünschen, dass die Publisher es zulassen, dass Spiele so geschrieben werden. Ein bestimmtes Hardwareleistungsniveau bietet auch nur ein begrenztes Level an grafischer Pracht. Da man Detail heutzutage per Software feinstufig regeln kann könnte man also auch Spiele schreiben, die auch in 2 Jahren noch opulente Grafik bieten.

Ich finde die Methodik "das Spiel muss mit Verpackungsrückseitengrafik auf den aktuell schnellsten Rechnern mit >60 fps laufen" ehrlich gesagt ziemlich blöd. Statt dass die Software noch eine Zeit lang nach Veröffentlichung des Spiels mit neuer Hardware skaliert ist sie schon zur Veröffentlichung am Ende und bietet mit stärkerer Hardware dann kein gesteigertes Spielerlebnis mehr.

p.s. Demirug arbeitet doch für Crytek, oder (sprechen wir es doch mal aus)? :D Er scheint das Prinzip ja so umzusetzen - :up:. Das traut sich nicht mal idsoftware. Weiter so...

Demirug
2004-02-02, 11:21:29
Original geschrieben von Exxtreme
Nein, nicht ganz. So wie ich es mitgekriegt habe, will ATi, daß man PS2.0 verwendet. Der Grund ist wohl, daß man sich viele Rechendurchgänge (Passes) sparen kann. Und da die Verwendung von FP-Formaten hier keinen Geschwindigkeitsverlust zufolge hat, dürften PS2.0-Shader schneller laufen als PS1.x-Shader. Daß die FP-Formate auf NV-GraKas schlecht laufen, ist ATi völlig egal. Sie geben halt Tipps, von denen die Radeons profitieren. Es ist IMHO illusorisch zu glauben, daß ATi Tipps geben wird, welche die eigenen Karten womöglich ausbremsen um die Konkurrenz besser dastehen zu lassen.

Der Tip von ATI ist das man seine Shader in HLSL schreibt und für die höchste verfügbare Shaderversion compiliert. Ob der Shader auch mit einer kleineren Version laufen würde interesiert nicht. Zum Teil schiest sich damit ATI aber auch selbst ins Knie. Den PS 1.X Anweisungen haben eine höhere Instruktionsdichte.

Von reduzierter Genauigkeit spricht ATI natürlich kein Wort.

BUG
2004-02-02, 11:22:09
Original geschrieben von Endorphine
Sieh's doch positiv: :asshole: ;)

...naja, aber wenn ich höre (gesehen habe ich es noch nich, da ich gerade keine solche Karte hier habe), dass es auf einer Karte mit R300 Chip besser läuft, gibt mir das schon zu denken wieso ich das Lager gewechselt habe. :kratz2: :-/

cu
BUG

Demirug
2004-02-02, 11:26:34
Original geschrieben von Endorphine
p.s. Demirug arbeitet doch für Crytek, oder (sprechen wir es doch mal aus)? :D Er scheint das Prinzip ja so umzusetzen - :up:. Das traut sich nicht mal idsoftware. Weiter so...

Nein, ich arbeite nicht in Coburg. Das hatten wir doch schon mal.

deekey777
2004-02-02, 11:39:44
Original geschrieben von Demirug
Jaein...
Selbst der gute Compiler von ATI der es ja erwissenermassen leichter hat optimiert wie ich ja schon aufführte nicht perfekt...

Demirug, der vorletzte Satz aus deinem vorlezten Posting ist der Hammer - köntest du dich, bitte, etwas verständlicher ausdrücken?

Für mich als Laien ist der Text in der c't 02/04, S. 121, die Offenbarung schlechthin. Der Compiler der neuen Forceware ist nett und gut gemeint, aber das ist und bleibt kein Wundermittel.

Mr. Lolman
2004-02-02, 11:41:22
Original geschrieben von reunion
Nein, mit meiner 9700pro spiele ich mit 1280x1024 und alles auf very high "flüssig" (natürlich versteht jeder was anderes unter flüssig)

Ich spiels sogar mit vollen Spiegelungen 2xAA/4xAF, erhöhter Sprite Sichtweite, weiter entferntes Polygon2Sprite crunching, und stark erhöhtem Objekt LOD (Felsen und Polygonbäume haben immer die gleiche Detailstufe...)

Die Schatten auf der Waffe hab ich zwar deaktiviert, aber dafür läufts auch im Dschungel immer mit ~30fps... :D

Beweisscreenshots gibts hier ein paar: Klick (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&postid=1530470#post1530470)

LovesuckZ
2004-02-02, 11:41:34
Original geschrieben von deekey777
Für mich als Laien ist der Text in der c't 02/04, S. 121, die Offenbarung schlechthin. Der Compiler der neuen Forceware ist nett und gut gemeint, aber das ist und bleibt kein Wundermittel.

Natuerlich nicht, aber ich nehme gerne 100% Leistung entgegen.

Endorphine
2004-02-02, 11:48:48
Original geschrieben von BUG
:asshole: ;)

...naja, aber wenn ich höre (gesehen habe ich es noch nich, da ich gerade keine solche Karte hier habe), dass es auf einer Karte mit R300 Chip besser läuft, gibt mir das schon zu denken wieso ich das Lager gewechselt habe. :kratz2: :-/ Das war ja abzusehen. Die FX5800 kam ein ganzes Jahr zu spät - da wurde natürlich jedes DX9-Spiel auf ATI R3xx entwickelt...

Dass dann in der Realität NV3x Karten als DX8 behandelt werden hätte ich aber auch nicht im Traum zu denken gewagt.

deekey777
2004-02-02, 11:49:28
Original geschrieben von LovesuckZ
Natuerlich nicht, aber ich nehme gerne 100% Leistung entgegen.

Klar, sehe ich auch so. Das einzige, was mich stört, ist, dass auch Shader einfach durch eigene ersetzt werden.

LovesuckZ
2004-02-02, 11:50:47
Original geschrieben von deekey777
Klar, sehe ich auch so. Das einzige, was mich stört, ist, dass auch Shader einfach durch eigene ersetzt werden.

Beweise es doch mal ohne 3DMark2003.

Endorphine
2004-02-02, 11:50:52
Original geschrieben von Demirug
Nein, ich arbeite nicht in Coburg. Das hatten wir doch schon mal. Also für Microsoft in Unterschleißheim? :D OK, lassen wir das, sorry... ;)

Riptor
2004-02-02, 11:51:28
Original geschrieben von LovesuckZ
Schieben wir die Schuld doch mal auf ATi.

Es geht nicht darum, den Südenbock zu suchen und diesen zu bestrafen, ich bin einfach mit der Gesamtsituation unzufrieden.

Schon allein deswegen, dass man dieses "DX9" so überbewertet. Mein Gott, dann muss man halt auf ein paar Effekte verzichten, es kommt doch auf wichtigere Dinge an, aber scheinbar regiert die Grafik, spielrische Klasse wird immer zweitrangiger, obwohl das Genre "3D-Shooter" durchaus noch Entwicklungspotenzial hat. Und: Wing Commander III, Quake, Quake III oder Unreal liefen auch auf so gut wie keinem Rechner "optimal" und erst kommende Grafikkartengenerationen haben Leistung mit Qualität bringen können! Klar: Das war ne andere Zeit, heute sind die zugeteilten Budgets dicker, man kann mehr Verlust machen, alles nicht mehr so einfach etc. Aber ATI und nVidia haben anscheinend mittlerweile mehr damit zu tun, ihre Shader optimiert zu bekommen, als spielbare Software zu unterstützen. :( Bitte jetzt nicht überbewerten: Ich bin nach diesem Post auch wieder ruhig. ;)

Original geschrieben von Demirug
Der Tip von ATI ist das man seine Shader in HLSL schreibt und für die höchste verfügbare Shaderversion compiliert. Ob der Shader auch mit einer kleineren Version laufen würde interesiert nicht. Zum Teil schiest sich damit ATI aber auch selbst ins Knie. Den PS 1.X Anweisungen haben eine höhere Instruktionsdichte. Von reduzierter Genauigkeit spricht ATI natürlich kein Wort.

Warum hat ATI eigentlich überhaupt im September 2002 DX9-Hardware präsentiert? ;) Es ist immer ein hin und her und alles wirkt so statisch... :( Die einen wollen nicht, die andere schon, aber können nicht, wieder andere sollten, aber machen nicht, und dann gibt es die, die müssen, aber sollten lieber nicht.

Original geschrieben von Demirug
Nein, ich arbeite nicht in Coburg. Das hatten wir doch schon mal.

Soso... Damit wird ja aber Crytek prinzipiell nicht ausgeschlossen... *eg*

deekey777
2004-02-02, 11:56:30
Original geschrieben von LovesuckZ
Beweise es doch mal ohne 3DMark2003.

Beweise das Gegenteil!

LovesuckZ
2004-02-02, 11:59:58
Original geschrieben von deekey777
Beweise das Gegenteil!

Warum? Ich habe keine Behauptung aufgestellt, die sich um die These: "Shader einfach durch eigene ersetzt werden."
Nun, musst du dies auch beweisen.

Demirug
2004-02-02, 12:03:55
Original geschrieben von deekey777
Demirug, der vorletzte Satz aus deinem vorlezten Posting ist der Hammer - köntest du dich, bitte, etwas verständlicher ausdrücken?

Also Stück für Stück.

- Auch ATI benutzt einen optimierenden Shadercompiler im Treiber.
- Die Optimierungsregeln für ATI-Chips sind einfacher wodurch auch die Entwicklung eines Compilers einfacher ist.
- Farcry enthält einen 2.0 Shader der auf einem R3XX 6 Takte braucht.
- Dieser Shader lässt sich aber auch in 5 Takten ausführen.
- Der Compiler erkennt das aber nicht.

Für mich als Laien ist der Text in der c't 02/04, S. 121, die Offenbarung schlechthin. Der Compiler der neuen Forceware ist nett und gut gemeint, aber das ist und bleibt kein Wundermittel.

Nur leider sind in dem Text nicht gerade wenig technische Fehler enthalten.

deekey777
2004-02-02, 12:06:15
Original geschrieben von LovesuckZ
Warum? Ich habe keine Behauptung aufgestellt, die sich um die These: "Shader einfach durch eigene ersetzt werden."
Nun, musst du dies auch beweisen.

Da steht doch:"Beweise es doch mal ohne 3DMark2003." Zur Zeit ist es wohl die einzige Möglichkeit. Du hast mir diese weggenommen. Darum musst du jetzt meine Behauptung widerlegen. Aber die Leistungsteigerungen in TR:AoD sind bestimmt nicht auf die Fähigkeiten des Forcecompilers zurückzuführen, sondern auf die Fähigkeit des Forcewaretreibers unbekannte Shader durch eigene zu ersetzen, was mit dem 3d2003 340 leicht zu beweisen war.

LovesuckZ
2004-02-02, 12:11:55
Original geschrieben von deekey777
Da steht doch:"Beweise es doch mal ohne 3DMark2003." Zur Zeit ist es wohl die einzige Möglichkeit. Du hast mir diese weggenommen.

Es gab da mal einen Vorfall mit ATi und Shaderreplacement. Meinst du dann auch, dass ATi dies auch in Spielen macht?

Aber die Leistungsteigerungen in TR:AoD sind bestimmt nicht auf die Fähigkeiten des Forcecompilers zurückzuführen, sondern auf die Fähigkeit des Forcewaretreibers unbekannte Shader durch eigene zu ersetzen, was mit dem 3d2003 340 leicht zu beweisen war.

Siehe oben.

deekey777
2004-02-02, 12:21:05
Es gab da mal einen Vorfall mit ATi und Shaderreplacement. Meinst du dann auch, dass ATi dies auch in Spielen macht?

??? Ist mir neu. Quelle?

BUG
2004-02-02, 12:23:12
Original geschrieben von deekey777
??? Ist mir neu. Quelle? ..ne Quelle habe ich jetzt auch nich, aber imho war das der Cat3.4 der im 3DMark03 einen Shader ausgetauscht hat in der Nature-Scene. Im nächsten Treiber release wurde er aber wieder entfernt da FutureMark stress gemacht hat.

cu
BUG

LovesuckZ
2004-02-02, 12:25:12
Original geschrieben von deekey777
??? Ist mir neu. Quelle?

"This performance drop is almost entirely due to 8.2% difference in the game test 4 result, which means that the test was also detected and somehow altered by the ATI drivers. We are currently investigating this further."

http://www.computerbase.de/news/software/benchmarks/2003/mai/patch_ati_nvidia_3dmark03/

Riptor
2004-02-02, 12:30:32
Och neee... Jetzt wird wieder über 3D Murks "diskutiert"... :(

deekey777
2004-02-02, 12:33:21
Original geschrieben von LovesuckZ
"This performance drop is almost entirely due to 8.2% difference in the game test 4 result, which means that the test was also detected and somehow altered by the ATI drivers. We are currently investigating this further."

http://www.computerbase.de/news/software/benchmarks/2003/mai/patch_ati_nvidia_3dmark03/

Du meinst also das: http://www.tomshardware.de/column/20030702/nv_cheating-07.html
Auch ATI wurde durch Futuremarks Untersuchungen und dem neuen Patch "erwischt". Die Leistung der Radeon 9800 verringerte sich in einem Untertest mit dem neuen 3D Mark 2003 Patch. Auch ATI hat einen Shader in einem Untertest (Game Test 4) durch einen eigenen, optimierten Shader ersetzt. ATI legt allerdings Wert auf die Tatsache, dass der Shader mathematisch nicht verändert wurde, man habe lediglich einige Instruktionen verschoben, um die Hardware besser auszunutzen. Das Ergebnis des optimierten Shaders sei 100% mit dem Original identisch, während NVIDIAs optimierte Shader für 3D Mark 2003 mathematisch anders aufgebaut seien und laut Futuremark auch leicht andere Ergebnisse rendern. Vergleichende Screenshots dazu gibt es aber nicht. Zudem sei der Performance Gewinn mit 1,9% im Gesamtwert von 3D Mark 2003 sehr gering, während NVIDIAs Optimierungen für bis zu 25% bessere Performance sorgen.

Und das meinst du bestimmt auch:
ATI hat angekündigt, die Optimierung aus dem Treiber zu entfernen, da sie nicht "im Sinne des Benchmarks" seien. NVIDIA dagegen sieht sich voll im Recht und spricht von praxisnahen und legitimen Optimierungen - es ist also eine philosophische Frage. Eine aus unserer Sicht eher unstrittige Frage ist allerdings die Optimierung der Clipping Frames. Diese Art der "Optimierung" kann durchaus als Cheat angesehen werden, um bessere Ergebnisse in einem Benchmark zu erzielen. Doch zeigt NVIDIA damit nicht auch, wie wenig 3D Mark mit Spielen zu tun hat? Wie aussagekräftig sind Tests mit vorgegebenen Bewegungspfaden (Timedemos) überhaupt?

Gast
2004-02-02, 12:38:23
Original geschrieben von Exxtreme
Nein, nicht ganz. So wie ich es mitgekriegt habe, will ATi, daß man PS2.0 verwendet. Der Grund ist wohl, daß man sich viele Rechendurchgänge (Passes) sparen kann. Und da die Verwendung von FP-Formaten hier keinen Geschwindigkeitsverlust zufolge hat, dürften PS2.0-Shader schneller laufen als PS1.x-Shader. Daß die FP-Formate auf NV-GraKas schlecht laufen, ist ATi völlig egal. Sie geben halt Tipps, von denen die Radeons profitieren. Es ist IMHO illusorisch zu glauben, daß ATi Tipps geben wird, welche die eigenen Karten womöglich ausbremsen um die Konkurrenz besser dastehen zu lassen.

Hm.............
Meinst du nicht, daß eine R8500 von P1.4 profitieren könnte? Die wird momentan ironischerweise u.a. von nV mitgepushed, von ATi aber links liegen gelassen.

;Q

LovesuckZ
2004-02-02, 12:38:29
Wie du siehst, tat es ATi auch.

Exxtreme
2004-02-02, 12:39:16
Original geschrieben von Riptor
Och neee... Jetzt wird wieder über 3D Murks "diskutiert"... :(
Bald nicht mehr. Leute, hier geht es um Farcry, GFFXen und PS2.0 und nicht um 3DMark-Cheats.

Exxtreme
2004-02-02, 12:43:19
Original geschrieben von Gast
Hm.............
Meinst du nicht, daß eine R8500 von P1.4 profitieren könnte? Die wird momentan ironischerweise u.a. von nV mitgepushed, von ATi aber links liegen gelassen.

;Q
Hmm, ich könnte mir tatsächlich vorstellen, daß die GFFX vom PS1.4 profitiert wenn diese GraKa die FP-Einheiten dafür nicht nutzt. Die Frage ist jetzt ob die GFFX das überhaupt kann. Es kann sein, daß die INT-Units auf PS <=1.3 beschränkt sind. Andererseit erfordert PS1.4 AFAIK keine 24 Bit Mindestgenauigkeit. Hier könnte NV selbst mit den FP-Units Speed rausholen weil sie dann ganz legal 16-Bit-FP nutzen können.

Demirug
2004-02-02, 12:45:14
Original geschrieben von Gast
Hm.............
Meinst du nicht, daß eine R8500 von P1.4 profitieren könnte? Die wird momentan ironischerweise u.a. von nV mitgepushed, von ATi aber links liegen gelassen.

;Q

Nein. Für die R2XX Chips soll man schön alles als 1.4 Shader compilieren. Das es in Farcry keine 1.4 Shader gibt dürfte wohl daran liegen das man auch einen OpenGL Renderer hat.

Exxtreme
2004-02-02, 12:47:34
Original geschrieben von Demirug
Das es in Farcry keine 1.4 Shader gibt dürfte wohl daran liegen das man auch einen OpenGL Renderer hat.
Hmm, laut Thilo hat man den OGL-Renderer fallen gelassen. :kratz:

Demirug
2004-02-02, 12:53:46
Original geschrieben von Exxtreme
Hmm, ich könnte mir tatsächlich vorstellen, daß die GFFX vom PS1.4 profitiert wenn diese GraKa die FP-Einheiten dafür nicht nutzt. Die Frage ist jetzt ob die GFFX das überhaupt kann. Es kann sein, daß die INT-Units auf PS <=1.3 beschränkt sind. Andererseit erfordert PS1.4 AFAIK keine 24 Bit Mindestgenauigkeit. Hier könnte NV selbst mit den FP-Units Speed rausholen weil sie dann ganz legal 16-Bit-FP nutzen können.

Bei den 1.4 Shader ist das ein bischen kompliziert. In Phase 1 ist FP16 nur begrennzt zu gebrauchen da dort oft Texturkoordinaten berechnet werden. Für Phase 2 könnte man dann mit Festpunkt rechnen. Den FP-Einheiten fehlt der Vec3+Skalar Split und die Modifier dürften auch nicht alle vorhanden sein (muss ich mal überprüfen). Beides wird aber bei 1.X Shader gerne benutzt.

Das Mischen von FP und Festpunkt Einheiten ist kein Problem. Es gibt da nur wieder ein paar Regeln. Die FP-Einheiten im Combinerteil können nicht zusammen mit den Festpunkteinheiten genutzt werden. Die begrenzung gilt aber nur für einen Loop. Innerhalb eines Shaders darf man alles mischen.

Demirug
2004-02-02, 12:57:00
Original geschrieben von Exxtreme
Hmm, laut Thilo hat man den OGL-Renderer fallen gelassen. :kratz:

Ja, aber er war zumindesten mal geplannt als man die Shader programmiert hat.

reunion
2004-02-02, 13:37:06
Original geschrieben von Mr. Lolman
Ich spiels sogar mit vollen Spiegelungen


Ich auch =)

2xAA/4xAF


AA läuft nicht wegen Cat 4.1 und AF ruckelt im Dschungel zu stark...

erhöhter Sprite Sichtweite,
weiter entferntes Polygon2Sprite crunching,
und stark erhöhtem Objekt LOD (Felsen und Polygonbäume haben immer die gleiche Detailstufe...)
Die Schatten auf der Waffe hab ich zwar deaktiviert, aber dafür läufts auch im Dschungel immer mit ~30fps... :D

Wie kann man die vier Punkte einstellen??

betasilie
2004-02-02, 13:52:00
Original geschrieben von LovesuckZ
Wie du siehst, tat es ATi auch.
Kannst Du deinen persönlichen Krieg gegen ATI biete woanders führen! ... Hier ist es OT solange es um alte 3Dmark2k3-Kamellen geht und nervt. :dozey:

Gast
2004-02-02, 14:04:18
Original geschrieben von betareverse
Kannst Du deinen persönlichen Krieg gegen ATI biete woanders führen! ... Hier ist es OT solange es um alte 3Dmark2k3-Kamellen geht und nervt. :dozey:

Kannst Du deinen persönlichen Krieg gegen Lovesuckz bitte woanders führen! ... Hier ist es OT und nervt.

Es sollte entweder ignoriert oder an die Moderation gemeldet werden. :eyes:

Mr. Lolman
2004-02-02, 14:04:54
Original geschrieben von reunion
Wie kann man die vier Punkte einstellen??

Entweder direkt in der Konsole eingeben oder in der systemcfg.lua eintragen (bzw. ändern)

Polygon2Sprite: e_lod_ratio 2 (Standard* = 1; min = 0; 100 = Tweak aus der FarCryFAQ)
Spritesichtweite: e_obj_view_dist_ratio 100 (Standard = 55; min = 0)
ObjektLOD: e_obj_lod_ratio 100 (Standard = 10; min = 0)
TerrainLOD: e_terrain_lod_ratio 1 (Standard = 2; max = 0)
Waffenschatten: e_shadow_maps 0 (Standard = 1)

*bei very high Details

reunion
2004-02-02, 14:39:32
Original geschrieben von Mr. Lolman
Entweder direkt in der Konsole eingeben oder in der systemcfg.lua eintragen (bzw. ändern)

Polygon2Sprite: e_lod_ratio 2 (Standard* = 1; min = 0; 100 = Tweak aus der FarCryFAQ)
Spritesichtweite: e_obj_view_dist_ratio 100 (Standard = 55; min = 0)
ObjektLOD: e_obj_lod_ratio 100 (Standard = 10; min = 0)
TerrainLOD: e_terrain_lod_ratio 1 (Standard = 2; max = 0)
Waffenschatten: e_shadow_maps 0 (Standard = 1)

*bei very high Details

thx...
Die Waffenschatten kosten ja anscheinend gewaltig an Performace, hat die fps ja fast verdoppelt...

deekey777
2004-02-02, 14:42:59
Original geschrieben von betareverse
Kannst Du deinen persönlichen Krieg gegen ATI biete woanders führen! ... Hier ist es OT solange es um alte 3Dmark2k3-Kamellen geht und nervt. :dozey:

Ich hab mit dem "Krieg" angefangen. Lovesuckz ist mein Gegenspieler!

Zum Thema: Zur Zeit scheint PS 2.0 in FC Demo nur ein Paar glänzende Oberflächen zu bringen. Langweilig...

betasilie
2004-02-02, 14:47:05
Original geschrieben von deekey777
Zum Thema: Zur Zeit scheint PS 2.0 in FC Demo nur ein Paar glänzende Oberflächen zu bringen. Langweilig...
Indoor können solche Oberflächen aber eine menge an der Athmosphere ausmachen.

Bin mal gespannt, was es alles für PS2.0-only Effekte in der Final gibt.

Edit:
Dann für dich auch ein :fisch:, weil Du hier so einen OT-Krieg angefangen hast.

deekey777
2004-02-02, 14:57:10
Zu PS 2.0 zitiere ich einfach Exxtreme:

Original geschrieben von Exxtreme
Nein, nicht ganz. So wie ich es mitgekriegt habe, will ATi, daß man PS2.0 verwendet. Der Grund ist wohl, daß man sich viele Rechendurchgänge (Passes) sparen kann. Und da die Verwendung von FP-Formaten hier keinen Geschwindigkeitsverlust zufolge hat, dürften PS2.0-Shader schneller laufen als PS1.x-Shader. Daß die FP-Formate auf NV-GraKas schlecht laufen, ist ATi völlig egal. Sie geben halt Tipps, von denen die Radeons profitieren. Es ist IMHO illusorisch zu glauben, daß ATi Tipps geben wird, welche die eigenen Karten womöglich ausbremsen um die Konkurrenz besser dastehen zu lassen.

Zu dem OT zw. mir und LovesuckZ: Es ging um die Leitungsfähigkeit des Shadercompilers der Forcewaretreiber - mehr nicht.

Dytec
2004-02-02, 14:58:09
@ Demirug oder @all allgmein

Da hier ja im Moment viel über das Thema Shaderleistung/Qualität gesprochen wird: Ich hätte noch eine Frage zu den Shadern bei NV: Mir ist jetzt z.B. bei Halo aufgefallen (mit einer Geforce FX Go 5650), dass das Wasser dort ein verpixeltes, deutlich sichtbares Raster hinterläßt (sowohl mit PS 1.1 als auch mit 2.0). Auf meinem Desktop PC mit Radeon 9700 Pro sieht das Wasser dagegen wesentlich besser (da ohne Pixelrasterung) aus. Habt ihr dafür eine Erklärung ? Auf meiner TI 4200 war das davor allerdings nicht so. Kann es also wirklich sein, dass Nvidia derzeit auf "Teufel komm raus alles nur erdenkliche in Erwägung zieht, um die Grafikleistung (bei FX Karten)zu erhöhen ?

Auf dem Notebook benutze ich die Forcewaretreiber 53.03
Auf dem Desktop: Cat 4.1

Sorry für Offtopic ;)

Mantikor
2004-02-02, 15:30:25
@Bug:

Es läuft bei dir so schlecht mit einer 5900XT?? Hm.. irgendwie scheint da was nicht zu stimmen, aber ich spiele mit einer FX 5200 nu alles auf high(Textur und ERnvironment auf very high) und auf 1024*786 mit leichetem Stocken (aber nur im Wald)????

Der Mantikor

Riptor
2004-02-02, 15:49:12
Original geschrieben von Mantikor
irgendwie scheint da was nicht zu stimmen, aber ich spiele mit einer FX 5200 nu alles auf high(Textur und ERnvironment auf very high) und auf 1024*786 mit leichetem Stocken (aber nur im Wald)????

:| Leichtes Stocken? Was heißt das bei dir? Wieviel FPS im Durchschnitt? Rest des Systems?

BUG
2004-02-02, 15:50:22
Original geschrieben von Mantikor
@Bug:

Es läuft bei dir so schlecht mit einer 5900XT?? Hm.. irgendwie scheint da was nicht zu stimmen, aber ich spiele mit einer FX 5200 nu alles auf high(Textur und ERnvironment auf very high) und auf 1024*786 mit leichetem Stocken (aber nur im Wald)????

Der Mantikor ..ich bin mir sicher wir beiden haben andere bzw unterschiedliche Vorstellungen von "flüssig" (bei mir is flüssig oder butterweich ab 40 FPS und höher). ;) Mit meinem System ist soweit auch alles in Ordnung, andere Spiele/Programme laufen schnell oder schnell genug. Ich kann FarCry auf meinem Laptop mit P4 1600 MHz und Geforce4MX420go auch in Low Details & 800x600 in 16 Bit spielen (20 bis 30 FPS), aber das Spiel sieht mit DirectX7 Hardware auch nur halb so gut aus. ;)

cu
BUG

Endorphine
2004-02-02, 15:57:35
Original geschrieben von Gast
Kannst Du deinen persönlichen Krieg gegen Lovesuckz bitte woanders führen! ... Hier ist es OT und nervt.

Es sollte entweder ignoriert oder an die Moderation gemeldet werden. :eyes: Klar, ATI-Fanboys sind bessere Menschen als NV-Fanboys. :eyes:

Mantikor
2004-02-02, 16:14:07
Naja, auf mehr als 35 frames pro sekunde komme ich auf keinen Fall. Jedenfalls hält das ganze immer zwischen 20 und 35, dh es gibt leichte Ruckler im kampfe.

Gast
2004-02-02, 17:49:41
ohne eindeutige screenshots an der selben position kommt die eigentliche diskussion nicht weiter.

können wir bitte erst mal abklären ob visuelle unterschiede bestehen und uns dann bitte erst um die performance zanken ?


danke

P.S.: the_counter....du hast dich doch bestimmt schon ein wenig mit dne konsolenbefehlen beschäftig....gibt es keine möglichkeit die spielfigur zu einer bestimmten position zu bewegen ?

Quasar
2004-02-02, 18:34:20
Original geschrieben von Gast
Kannst Du deinen persönlichen Krieg gegen Lovesuckz bitte woanders führen! ... Hier ist es OT und nervt.

Es sollte entweder ignoriert oder an die Moderation gemeldet werden. :eyes:
Das war i.Ü. ich von der Arbeit - dort sind Cookies aus bestimmten Gründen nicht möglich.

deekey777
2004-02-02, 19:32:51
Vielleicht wird es schon in den nächsten Ausgaben einiger PC-Gamemagazine mehr dazu geben, zB Vergleiche zw. den einzelnen DX9-Grafikkarten der beiden wichtigen Hersteller. Fakt ist, dass FC nur dann PS 2.0 verwendet, wenn man es bittet.
(Und FC sieht für ein PS1.1-Spiel verdammt gut aus!)

Vielleicht sollten die "Modder" wie TheCounter auch so eine Art Benchmark-Mod machen.

Piffan
2004-02-03, 00:12:59
Original geschrieben von Mr. Lolman
Entweder direkt in der Konsole eingeben oder in der systemcfg.lua eintragen (bzw. ändern)

Polygon2Sprite: e_lod_ratio 2 (Standard* = 1; min = 0; 100 = Tweak aus der FarCryFAQ)
Spritesichtweite: e_obj_view_dist_ratio 100 (Standard = 55; min = 0)
ObjektLOD: e_obj_lod_ratio 100 (Standard = 10; min = 0)
TerrainLOD: e_terrain_lod_ratio 1 (Standard = 2; max = 0)
Waffenschatten: e_shadow_maps 0 (Standard = 1)

*bei very high Details

In der systemcfg.lua gibts aber nicht alle Einstellungen. Musst also die Beta, nicht die Demo haben!

Mr. Lolman
2004-02-03, 00:19:43
Original geschrieben von Piffan
In der systemcfg.lua gibts aber nicht alle Einstellungen. Musst also die Beta, nicht die Demo haben!

Ich hab die Beta nicht. Die Einstellungen die es in der Systemcfg nicht gibt, fügt man halt hinzu (hab ich auch gemacht :naughty: ). Kannst mit der Konsole dann überprüfen ob funzt...

betasilie
2004-02-03, 00:53:58
Original geschrieben von Mr. Lolman
Ich hab die Beta nicht. Die Einstellungen die es in der Systemcfg nicht gibt, fügt man halt hinzu (hab ich auch gemacht :naughty: ). Kannst mit der Konsole dann überprüfen ob funzt...
Zeilen aus der einer CFG-Datei der Beta zu klauen ist aber verboten! :nono:

;D

Mr. Lolman
2004-02-03, 01:26:30
Hab ich ja auch nicht ;D;D;D;


Die Einstellungen hab ich durch mühsames herumprobieren herausgefunden :bäh:
(und tw. durch einen Link aus der Farcry FAQ)


Undankbares Gesocks!! :motz:

Keel
2004-02-03, 10:44:15
Original geschrieben von deekey777
(Und FC sieht für ein PS1.1-Spiel verdammt gut aus!)
Full ack! Genau darauf habe ich seit DX8 gewartet. Jetzt sieht man mal, was man nur mit DX8 schon machen kann. Jetzt stell sich mal einer FarCry mit PS/VS2.0/3.0 only vor - was da für fette Landschaften möglich wären, Landschaften so gut wie im Nature-Test von 3dQuark 2003 (oder noch besser). Hui, was für eine Vorstellung! ;D

@ Mr. LolmanWaffenschatten: e_shadow_maps 0 (Standard = 1)
Das sind doch nicht nur Waffenschatten - so gehen auch die Schatten für Personen aus! Und auf meinem System bringt es kaum was, die Schatten zu deaktivieren, das läuft fast immer gleich schnell. Egal, ob die Schatten aus sind oder auf high stehen, das macht kaum einen Unterschied.
Mir ist gestern Abend noch was aufgefallen: Bekanntlich brechen die FXen beim Taschenlampeneffekt stark ein, teils im 50%. Wenn ich aber ohnehin schon nur 25 FPS habe, dann habe ich mit Taschenlampe dann halt 24 oder 23 FPS, macht also kaum nen Unterschied. Ist das normal?
Undankbares Gesocks!! :motz:
Nein, nein, wir sind dir doch dankbar! :D

Gast
2004-02-03, 15:56:33
ALLE karten brechen um fast 50% leistung ein mit der taschenlampe...


...meine 9700pro zumindest ;D

Mr. Lolman
2004-02-03, 18:50:53
Original geschrieben von Keel
@ Mr. Lolman
Das sind doch nicht nur Waffenschatten - so gehen auch die Schatten für Personen aus! Und auf meinem System bringt es kaum was, die Schatten zu deaktivieren, das läuft fast immer gleich schnell. Egal, ob die Schatten aus sind oder auf high stehen, das macht kaum einen Unterschied.
Mir ist gestern Abend noch was aufgefallen: Bekanntlich brechen die FXen beim Taschenlampeneffekt stark ein, teils im 50%. Wenn ich aber ohnehin schon nur 25 FPS habe, dann habe ich mit Taschenlampe dann halt 24 oder 23 FPS, macht also kaum nen Unterschied. Ist das normal?


Dass die Personenschatten auch nicht mehr angezeigt werden, ist mir noch garnicht aufgefallen. Am Strand bringts tatsächlich ~0.0% Performance. Aber im Dschungel sind die fps fast doppelt so hoch...

r@e
2004-02-04, 05:59:50
Original geschrieben von Mr. Lolman
Entweder direkt in der Konsole eingeben oder in der systemcfg.lua eintragen (bzw. ändern)

Polygon2Sprite: e_lod_ratio 2 (Standard* = 1; min = 0; 100 = Tweak aus der FarCryFAQ)
Spritesichtweite: e_obj_view_dist_ratio 100 (Standard = 55; min = 0)
ObjektLOD: e_obj_lod_ratio 100 (Standard = 10; min = 0)
TerrainLOD: e_terrain_lod_ratio 1 (Standard = 2; max = 0)
Waffenschatten: e_shadow_maps 0 (Standard = 1)

*bei very high Details Ahhh...
Wieder eine Lolmansche 'Optimierung' !
;D

Razor

P.S.: Du schaltest damit nicht nur die 'Waffenschatten' ab... ;)

r@e
2004-02-04, 06:05:16
Original geschrieben von deekey777
Zum Thema: Zur Zeit scheint PS 2.0 in FC Demo nur ein Paar glänzende Oberflächen zu bringen. Langweilig... Da ist sicherlich 100%'ig falsch...
(oder auch nicht)
:D

57 PS2.X-Shader bei nVidia
107 PS2.0-Shader bei ATI

Und inwiefern da mehrere PS2.0-Shader zu einem PS2.X -Shader konvertiert wurden, weiß auch noch niemand (ausser Demiruf vielleicht).

Aber ja, in der offiziellen SP-Demo (!) ist die Quali (zumindest auf meiner FX) reduziert.
Warum auch immer...

Razor

Gast
2004-02-04, 06:07:52
Original geschrieben von betareverse
Indoor können solche Oberflächen aber eine menge an der Athmosphere ausmachen.So, wie auch die Shadow-Maps, die Lolman einfach abschaltet, um halbwegs (und das ist noch geschönt ;-) brauchbare Performance auf 'ner ATI zu erhalten.

FC läuft insgesamt sehr schlecht... auf allen Karten.
Oder drücken wir es so aus:
- läuft schlecht auf ATI
- läuft noch viel schlechter auf nVidia
- läuft deswegen aber noch immer nicht 'gut' auf ATI

Capiche ?
:D

Razor

r@e
2004-02-04, 06:19:33
Original geschrieben von Mr. Lolman
Dass die Personenschatten auch nicht mehr angezeigt werden, ist mir noch garnicht aufgefallen. Am Strand bringts tatsächlich ~0.0% Performance. Aber im Dschungel sind die fps fast doppelt so hoch... Klar, weil das fantastische Schattenspiel auf den Objekten (also Deiner Waffe, den anderen Charkteren, dem Jeep und noch so ein paar anderen 'Kleinigkeiten' abgestellt wird.

Ist ähnlich, als wenn an bei SplinterCell und nVidia-Karten einfach die 'buffered' Shadows durch 'projected' Shadows ersetzt.

Und dass Du zusätzlich noch das Terrain-LOD um die hälfte reduziert hast, ist noch ein ganz anderes Thema. Denn nicht nur, dass dies gewaltig AF-Leistung bringen dürfte, auch sollte damit die Pixelei (was man auf den Screenies so selten sieht ;-) ein wenig reduziert werden.

Aber klar, Geschmack ist wie immer natürlich Subjektiv.

Nur solltest Du so etwas NICHT als Argument nehmen, dass dieses Game 'vernünftig' läuft. Es läuft, wenn man Details abschaltet und andere reduziert.

Razor

Demirug
2004-02-04, 07:57:42
Original geschrieben von r@e
Da ist sicherlich 100%'ig falsch...
(oder auch nicht)
:D

57 PS2.X-Shader bei nVidia
107 PS2.0-Shader bei ATI

Und inwiefern da mehrere PS2.0-Shader zu einem PS2.X -Shader konvertiert wurden, weiß auch noch niemand (ausser Demiruf vielleicht).

Aber ja, in der offiziellen SP-Demo (!) ist die Quali (zumindest auf meiner FX) reduziert.
Warum auch immer...

Razor

Da ich bei den FXen keine längeren Shader gesehen habe ist es sehr unwahrscheinlich das dort mit Passreduktion gearbeitet wurde. Zudem sind die 2.0 Shader auch so schon lahm genug. Bei Multipass würde sich das ja nochmal reduzieren. Desweiteren geht keiner der 2.0 Shader an das Limit so das Multipass gar nicht erforderlich ist.

Mr. Lolman
2004-02-04, 11:48:25
Original geschrieben von r@e
Klar, weil das fantastische Schattenspiel auf den Objekten (also Deiner Waffe, den anderen Charkteren, dem Jeep und noch so ein paar anderen 'Kleinigkeiten' abgestellt wird.

Ist ähnlich, als wenn an bei SplinterCell und nVidia-Karten einfach die 'buffered' Shadows durch 'projected' Shadows ersetzt.

Und dass Du zusätzlich noch das Terrain-LOD um die hälfte reduziert hast, ist noch ein ganz anderes Thema. Denn nicht nur, dass dies gewaltig AF-Leistung bringen dürfte, auch sollte damit die Pixelei (was man auf den Screenies so selten sieht ;-) ein wenig reduziert werden.

Aber klar, Geschmack ist wie immer natürlich Subjektiv.

Nur solltest Du so etwas NICHT als Argument nehmen, dass dieses Game 'vernünftig' läuft. Es läuft, wenn man Details abschaltet und andere reduziert.

Razor

Hast du die Werte schon mal ausprobiert?

TerrainLOD hab ich um die Hälfte erhöht du....;) Da einzig und allein die Texturen für die AF Performance verantwortlich sind, das LOD aber auf die Polygondichte geht, ändert sich nichts an der AF Performance.

Die Schatten der Waffe, und div. Objekte fehlen. OK. Ist wirklich ein schöner Effekt, der mir auch abgeht, aber wenn die fps unter 20fallen im Dschungel, und ohne dem Effekt über 30 sind... dann verzicht ich darauf.

Welche Kleinigkeiten fehlen denn noch wenn man Shadowmaps auf 0 stellt, ausser die Schatte aller beweglichen Objekte?

Ansonsten wurden die Details erhöht, anstatt auf hohe Performance getweakt. Probier doch selbst die Tweaks aus(die ich übrigens nicht aktiviert hab, wenns um direkte Vergleiche geht, da die vollen Spiegelungen eigentlich enorm Perfomance ziehen, was durch shadow_maps 0 nur tw. wettgemacht wird)..

Also das einzige Detail was ich abgeschalten hab, sind die Schatten (die ja einige übern Menüpunkt auf LOW gestellt haben, was noch viel mehr deaktiviert) , ansonsten bringt JEDER Tweak mehr Details.

betasilie
2004-02-04, 13:24:30
Original geschrieben von Gast
So, wie auch die Shadow-Maps, die Lolman einfach abschaltet, um halbwegs (und das ist noch geschönt ;-) brauchbare Performance auf 'ner ATI zu erhalten.

FC läuft insgesamt sehr schlecht... auf allen Karten.
Oder drücken wir es so aus:
- läuft schlecht auf ATI
- läuft noch viel schlechter auf nVidia
- läuft deswegen aber noch immer nicht 'gut' auf ATI

Capiche ?
:D

Razor
Also auf meiner 9700@9800Pro läuft es super, wenn ich es mit der Auflösung nicht übertreibe. :asshole: .... Es könnte schon noch ein bissl besser performen, worauf ich bei der Final auch hoffe, aber was erwartest Du bei so einer Grafikpracht was Polygone, Oberlächeneffekte Schatten und Physik angeht? :|

Ist doch schön, wenn wieder mal ein paar Spiele rauskommen, die mit max. Details nicht mit der aktuellen Tophardware laufen. Bei DoomIII wird das wahrschenlich ganz ähnlich kommen. Leider gibt es dann aber immer wieder Schlaumeier, die alles auf max. Details stellen und dann sofort losbrüllen: FC läuft soo schlecht. :bonk:


Im übrigen läuft FC nicht nur "noch viel schlechter auf nVidia", es sieht wirklich viel viel schlechter aus. Screenshots spiegeln das nur ansatzweise wieder. Mach mal den Vergleich. :)

MadManniMan
2004-02-04, 15:24:52
Boing, da springt der Punkt.
Razorle, da hat man riesige Sichtweiten, herrliche Spiegelungen, Bumps über Bumps, Vegetation so weit das Auge reicht und in deinen Augen performt das Game dafür shice?
Dann werden halt Details, die für aktuelle HW zu über sind, einfach auf das nächste Upgrade verschoben.
Früher wars nicht anders. Wir hatten nun einige Quartale HW, die über die Apps gelacht hat - vor allem im Bereich der VPU-Kärtlein. Langsam kommen die Spiele in großen Schritten hinterher.

Ich seh da nix Negatives - bzw. bin ich realistisch ;)

Andre
2004-02-04, 15:28:35
Original geschrieben von MadManniMan
Boing, da springt der Punkt.
Razorle, da hat man riesige Sichtweiten, herrliche Spiegelungen, Bumps über Bumps, Vegetation so weit das Auge reicht und in deinen Augen performt das Game dafür shice?
Dann werden halt Details, die für aktuelle HW zu über sind, einfach auf das nächste Upgrade verschoben.
Früher wars nicht anders. Wir hatten nun einige Quartale HW, die über die Apps gelacht hat - vor allem im Bereich der VPU-Kärtlein. Langsam kommen die Spiele in großen Schritten hinterher.

Ich seh da nix Negatives - bzw. bin ich realistisch ;)

Da werden Erinnerungen an Q3 wach. Man war das damals lahm hoch zehn. In 640 x 480 fast alle Details aus und trotzdem Ruckelorgie. Hat trotzdem Spass gemacht und hält sich ja noch bis heute.

Riptor
2004-02-04, 15:32:44
Original geschrieben von Gast
FC läuft insgesamt sehr schlecht... auf allen Karten.
Oder drücken wir es so aus:
- läuft schlecht auf ATI
- läuft noch viel schlechter auf nVidia
- läuft deswegen aber noch immer nicht 'gut' auf ATI

Capiche ?
:D

Ich weiß ja wirklich nicht, was du unter "sehr schlecht" verstehst. Ich komme mit nem XP1800+ und einer R9500 pro in 1024 + allen Details auf 20 (am Wasser meist 20-30) - 45 (in den Bergen+Dschungel, meist 30-45) FPS... Aber anscheinend ist das sehr schlecht...

Exxtreme
2004-02-04, 15:38:32
Original geschrieben von Andre
Da werden Erinnerungen an Q3 wach. Man war das damals lahm hoch zehn. In 640 x 480 fast alle Details aus und trotzdem Ruckelorgie. Hat trotzdem Spass gemacht und hält sich ja noch bis heute.
Jo, bei Wing Commander 3 war es auch so. Das Teil zwang selbst 8000 DM-PCs in die Knie wenn man SVGA wollte. Viele haben sich deswegen aufgeregt, daß Origin es gewagt hat so ein Spiel rauszubringen. Damals auf einem P1 75 hat es öfter schon geruckelt.

Piffan
2004-02-04, 16:13:22
Wenn ich die Weitsicht- Tweaks einschalte, dafür aber auf die totale Wasserspiegel- Dröhnung verzichte und die Schatten eine Stufe runterstelle (High), dann sind nur die bekloppten Flimmerschatten weg, die mich unter den Bäumen oder im Djungel nerven, aber die Performance ist absolut im Grünen!

Was an den bescheuerten Prjektionsschatten schön sein soll, die auf meiner Waffe rumflackern, dass weiß wohl auch niemand. Für mich siehts besser aus ohne! Vor allem: Wenn ich auf der Waffe flackernde Projektionen habe, dann will ich die gefälligst auch am Boden sehen! Richtig oder gar nicht! Richtig gut sind die Projektionen bei UT2, da ziehen sie sich über den Boden und den Spieler.

Im übrigen wurde es schon gesagt: Kein Mensch muss alles auf max stellen, und wenn es gut performt bei leicht reduzierten Details, dann kann man nicht behaupten, dass es "richtig schlecht läuft"...

Bei TR6 wurde übrigens das Gleiche gesagt: DAs Spiel läuft schlecht, weil es mies programmiert wurde....Nein! Es läuft bei bestimmten Einstellungen schlecht, die die Grakas überfordern.....bei ner NV geht halt nicht so viel mit den Shadern, das ist das Problem!

Lange wurde gemault, dass die Spiele die Graka- Features nicht nutzen. Jetzt trauen sich mal Entwickler und einige Grakas schwächeln stärker als andere, schon wird wieder geschrien über ne schlechte Programmierung :bonk:

LovesuckZ
2004-02-04, 17:59:28
Original geschrieben von betareverse
Im übrigen läuft FC nicht nur "noch viel schlechter auf nVidia", es sieht wirklich viel viel schlechter aus. Screenshots spiegeln das nur ansatzweise wieder. Mach mal den Vergleich. :)

Dann beweise es doch mal. Aber nicht mit lakierten Roehren, denn das wissen wir...

deekey777
2004-02-04, 18:08:45
@beide Fronten: Macht mal aus Spass "Heat Haze" (im Systemcfg.lua r_HeatHaze = "0" auf "1").
In TR:AoD ist Heat Haze pures Gift für die FXen (auch mit 53.xx), dafür soll HH auf FXen natürlicher aussehen.

PS: Mit diesem Beitrag bin ich Gold Member :jumping:

aths
2004-02-04, 18:09:39
Original geschrieben von Exxtreme
Jo, bei Wing Commander 3 war es auch so. Das Teil zwang selbst 8000 DM-PCs in die Knie wenn man SVGA wollte. Viele haben sich deswegen aufgeregt, daß Origin es gewagt hat so ein Spiel rauszubringen. Damals auf einem P1 75 hat es öfter schon geruckelt. Auch ein Pentium 133 wurde schon mal in die Knie gezwungen :) Ich habe es trotzdem (in 640x480) mit dem 486-er DX4 100 gespielt.

LovesuckZ
2004-02-04, 18:10:05
Wo soll man denn Heat Size sehen?
Ausserdem, wird Heat Size per PS2.0 realisiert?

deekey777
2004-02-04, 18:25:16
Original geschrieben von LovesuckZ
Wo soll man denn Heat Size sehen?
Ausserdem, wird Heat Size per PS2.0 realisiert?

Äh, Heat Haze - das ist ein Hitzeeffekt wie im Sommer.

Sumpfmolch
2004-02-04, 18:37:20
Original geschrieben von deekey777
Äh, Heat Haze - das ist ein Hitzeeffekt wie im Sommer.

hitzeflimmern ;D

FXManni
2004-02-07, 15:05:33
Selbst meine FX 5200 311\570 macht PS 2.0 to 1.1 und schafft auch gute 20-40 FPS.Einstellung: alles Medium außer texture quality,texture enviroment(o.ä):High und AA,Shadow:Low

og Started at Saturday, February 07, 2004 12:10:35
FileVersion: 1.1.5.1120
ProductVersion: 1.1.5.1120

File System Initialization

--- CPU detection ---
Number of system processors: 1
Number of available processors: 1
Processor 0:
CPU: AuthenticAMD AMD Athlon(tm) XP 2100+
Family: 6, Model: 8, Stepping: 0
FPU: on-chip
CPU Speed (estimated): 1770.384179 MHz
MMX: present
SSE: present
3DNow!: present
Serial number not present or disabled

---------------------
Stream Engine Initialization
Script System Initialization
Network initialization
Physics initialization
MovieSystem initialization
Renderer initialization
System: INFO: DirectX 9.0b installed
System: VideoCard Detected: nVidia (GeForce FX 5200)
Direct3D9 driver is creating...
Best-match display mode: 1024x768x32 (Error=8)
Creating D3D device (Adapter format: D3DFMT_X8R8G8B8, BackBuffer format: D3DFMT_A8R8G8B8, Depth format: D3DFMT_D24S8)
D3D Adapter: Driver name: nv4_disp.dll
D3D Adapter: Driver description: NVIDIA GeForce FX 5200
D3D Adapter: Driver version: 6.14.10.5304
D3D Adapter: Driver GUID: D7B71E3E-4062-11CF-75676A0900C2CB35
D3D Adapter: VendorId = 4318
D3D Adapter: DeviceId = 802
D3D Adapter: SubSysId = 694161533
D3D Adapter: Revision = 161
D3D Detected: NVidia video card
D3D Detected: GeForce FX 5200
D3D Driver: MaxTextureBlendStages = 8
D3D Driver: MaxSimultaneousTextures = 8
Using '8888' pixel texture format
Using 'Depth24' pixel texture format
Using 'BumpU8V8' pixel texture format
Using 'BumpQ8W8U8V8' pixel texture format
Using 'BumpX8L8U8V8' pixel texture format
Using 'BumpU5V5L6' pixel texture format
Using 'DXT1' pixel texture format
Using 'DXT3' pixel texture format
Using 'DXT5' pixel texture format
D3D Driver: Supports trilinear texture filtering
D3D Driver: Allowed projected textures with Env. bump mapping
D3D Driver: Supports alpha palettes
D3D Driver: Supports range-based fog
D3D Driver: Supports eye-relative fog
D3D Driver: Supports anisotropic filtering
D3D Driver: Supports LOD biasing
D3D Driver: Supports Z biasing
D3D Driver: Supports scissor test
D3D Driver: Supports D3DTOP_ADDSIGNED2X TextureOp
D3D Driver: Supports D3DTOP_BUMPENVMAP TextureOp
D3D Driver: Supports D3DTOP_BUMPENVMAPLUMINANCE TextureOp
D3D Driver: Supports D3DTOP_DOTPRODUCT3 TextureOp
D3D Driver: Supports D3DTOP_MODULATEALPHA_ADDCOLOR TextureOp
D3D Driver: Supports D3DTOP_MODULATECOLOR_ADDALPHA TextureOp
D3D Driver: Supports D3DTOP_ADD TextureOp
D3D Driver: Supports MaxAnisotropy level 8
D3D Driver: Supports Stencil shadows
D3D Driver: Supports Two-Sided stencil
D3D Driver: Textures (0x0)-(4096x4096), Max aspect 4096
Driver description: NVIDIA GeForce FX 5200
Full stats: HAL (pure hw vp): NVIDIA GeForce FX 5200
Hardware acceleration: Yes
Full screen AA: Enabled (2 samples)
Stencil type: Two sided
Projective EMBM: enabled
Detail textures: Yes
Z Buffer Locking: Yes
Use multitexture mode: Yes (8 texture(s))
Use bumpmapping : Yes (DOT3)
Use paletted textures : No
Current Resolution: 1024x768x32 Full Screen
Maximum Resolution: 1280x1024
Maximum Texture size: 4096x4096 (Max Aspect: 4096)
Texture filtering type: TRILINEAR
Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for NV3x GPUs
Pixel shaders usage: Replace PS.2.0 to PS.1.1
Shadow maps type: Mixed Depth/2D maps
*****************************************

Init Shaders
9 Shader files found.

91 Shader files found.

Construct Shader '<Default>'...ok
Construct Shader 'ZBuffPass'...ok
Construct Shader 'ShadowMap'...ok
Construct Shader 'EdgePass'...ok
Compile System Shader 'StateNoCull'...ok
Compile System Shader 'SunFlares'...ok
2 Sun flares was parsed
Compile System Shader 'LightStyles'...ok
34 Light styles was parsed
Compile Glare Shader ...
Compile System HW Shader 'CGVProgramms'...ok
Compile System HW Shader 'CGPShaders'...ok
Compile System Shader 'TemplFog'...ok
Compile System Shader 'TemplVFog'...Fail.
Compile System Shader 'TemplFog_FP'...ok
Compile System Shader 'TemplFogCaustics'...ok
Compile System Shader 'TemplVFogCaustics'...Fail.
Compile System Shader 'TemplFogCaustics_FP'...ok
WARNING: Shader 'whiteshadow' has opaque maps defined after pass 0!!!
WARNING: Shader 'whiteshadow' has depthwrite enabled after pass 0!!!
Console initialization
Time initialization
Input initialization
Initializing Direct Input
Direct Input initialized (CryInputDLL)
Initializing Keyboard
Keyboard initialized
Initializing mouse
Mouse initialized
Found 16 joystick devices
Joystick 0 not plugged in!
Joystick 1 not plugged in!
Joystick 2 not plugged in!
Joystick 3 not plugged in!
Joystick 4 not plugged in!
Joystick 5 not plugged in!
Joystick 6 not plugged in!
Joystick 7 not plugged in!
Joystick 8 not plugged in!
Joystick 9 not plugged in!
Joystick 10 not plugged in!
Joystick 11 not plugged in!
Joystick 12 not plugged in!
Joystick 13 not plugged in!
Joystick 14 not plugged in!
Joystick 15 not plugged in!
Joystick initialized
initializing Key/name Mapping
Sound initialization
------------------------------------------CRYSOUND VERSION=3.610000
CRYSOUND Driver: Primärer Soundtreiber
Total number of channels available: 312
Total number of hardware channels available: 28
Set speaker mode stereo
Font initialization
AI initialization
Entity system initialization
Initializing Animation System
CPU capabilities: FPU VME DE PSE TSC MSR PAE MCE CX8 APIC SEP MTRR PGE MCA CMOV PAT PSE-36 MMX FXSR SSE 3DNow! ok
Initializing 3D Engine
WARNING: Texture format '.tga' is deprecated ('textures/spot_shadow.tga') (use .dds instead)
Removing lights ...
Deleting visareas ...
Deleting terrain ...
ObjManager shutdown ...
Initializing Script Bindings
Cpu speed is 1670,sys spec is set to 1

reunion
2004-02-07, 23:29:40
Falls es jemanden intressiert, hier die Werte der aktuellen PCGH:

FAR CRY Demoversion (PCGH Timedemo)
(Angaben in fps ohne AA bzw. AF mit "very high" Details)

Testsystem:
Athlon XP 3000+
512MB RAM
Nforce 2
Catalyst 4.1/Detonator 53.03
Win XP



1024x768 1280x1024
Radeon 9800 XT 46 42
Radeon 9800pro 45 40
FX5950U 43 34
Radeon 9600XT 41 28
Radeon 9600pro 40 26
FX5900 39 26
FX5900XT 37 24
FX5700U 34 21
FX5700 29 18
TI 4200/64MB 26 17



mfg
reu

deekey777
2004-02-07, 23:43:42
@reunion: Stand auch in der PCG Hardware, welche PS Versionen benutzt wurden? (Es wird wohl bald in diesem Thread Krieg geben.)

reunion
2004-02-07, 23:49:36
Original geschrieben von deekey777
@reunion: Stand auch in der PCG Hardware, welche PS Versionen benutzt wurden?


"...eine Analyse des Shadercodes mithilfe von 3D Analyze zeigt, dass in der Demo Shader der Version 1.1 und 2.0/2.X (Radeon/FX) zum Einsatz kommen..."


(Es wird wohl bald in diesem Thread Krieg geben.)

Warum denn das??

Riptor
2004-02-07, 23:57:21
Original geschrieben von reunion


1024x768 1280x1024
Radeon 9800 XT 46 42
Radeon 9800pro 45 40
FX5950U 43 34
Radeon 9600XT 41 28
Radeon 9600pro 40 26
FX5900 39 26
FX5900XT 37 24
FX5700U 34 31
FX5700 29 18
TI 4200/64MB 26 17

Interessant. Wenigstens EINMAL mal ne Übersicht aus ner Redaktion. :) Allerdings wunder ich mich übe die FX5700U Werte... :| wie komme DIE zu Stande bzw. gibts dafür ne Erklärung, dass die in 1280x1024 nicht so stark einbricht wie die FX5900 Karten?

Gast
2004-02-08, 09:53:52
Original geschrieben von Riptor
Ich weiß ja wirklich nicht, was du unter "sehr schlecht" verstehst. Ich komme mit nem XP1800+ und einer R9500 pro in 1024 + allen Details auf 20 (am Wasser meist 20-30) - 45 (in den Bergen+Dschungel, meist 30-45) FPS... Aber anscheinend ist das sehr schlecht... Jo, das ist sogar verdammt sdchlecht !

Dazu paßt dann auch das hier von reunion:
1024x768 1280x1024
Radeon 9800 XT 46 42
Radeon 9800pro 45 40
FX5950U 43 34
Radeon 9600XT 41 28
Radeon 9600pro 40 26
FX5900 39 26
FX5900XT 37 24
FX5700U 34 31
FX5700 29 18
TI 4200/64MB 26 17Schaut Ihr Euch dabei wirklich nur die Reihenfolge an ?
Wirklich arm...

46fps (durschnittlich, also keinesfalls minimal) heißt Ruckeln ohne Ende... und das immerhin bei 1024 ohne AA/AF ! Sorry, aber das ist wirklich mies...

Razor

P.S.: Dass das Ganze dann auch noch auf einem High-End-System leif, machte die ganze Sache nur noch schlimmer...