PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Erneutes Cheating von NVidia bei Crysis?


Gast
2008-01-09, 19:49:12
Bei PCGH ist ein Bildervergleich zu bestaunen und wie es aussieht, wird von den DX10-Chips von NVidia erneut ein wenig "sparsam" gerechnet und dargestellt:
Sowohl unter DX9 als auch DX10-Maximaldetails sind Abweichungen bei der HD3870 de facto nicht vorhanden. Lediglich durch dynamische Objekte wie Vegetation und Sträucher ergeben sich leichte Differenzen zwischen den Bildern. Nicht so bei der Geforce 8: Bereits unter XP weichen Schattierung und Reflexionen unter Verwendung der Version 1.1 dezent von der der Verkaufsversion ab. Bei maximalen DX10-Details ist schließlich nicht zu übersehen, dass die Reflexionen der Inseln deutlich schwächer sichtbar sind.
Bildvergleich: Sparen sich Geforce-Karten Arbeit in Crysis 1.1? (http://www.pcgameshardware.de/?article_id=627442)

Ist das (wieder?) ein Treiberbug oder steckt da System dahinter? Komisch ist halt, dass NVidia das doch gar nicht nötig hat, die Performance der KArten ist doch gut :confused:

Megamember
2008-01-09, 19:58:40
Also ich musste erst ein paarmal hin und herswitchen um überhaupt Unterschiede zu erkennen. Die Wasserspiegelungen sind auf der Nvidia etwas "dezenter" als auf der Radeon und ich würde auch net sagen das das schlechter aussieht. Das ist doch eher ne Einstellungssache von verschiedenen Parametern in der cfg und ich kann mir kaum vorstellen das das Einfluss auf die Leistung hat.

Gast
2008-01-09, 20:03:20
also ich als ati user würd gern wissen WAS das ist

---->schlimm find ichs auch nicht<------

fand ich aber damals als ati
wegen sowas schlecht gemacht wurde auch nicht ;)

ihr habt ja beide nv :P, :)
da würde mich das auch nicht jucken und mir wär egal "was" oder warum es ist

LovesuckZ
2008-01-09, 20:07:21
Nur, dass ich es richtig verstehe: nVidia cheatet, weil Crytek bei ihnen die Bildqualität absenkt? :confused:

Blaire
2008-01-09, 20:11:47
Sieht eher so aus als würden bei Ati wieder Details fehlen ,man beachte den Stein unterhalb der Hand weniger Beleuchtung? :ueye:
Nach mehrmaliger Betrachtung fällt auf, das Nvidias Bild deutlich mehr Reflektionen zeigt und zudem um einiges heller ist. Man könnte ebenso schreiben warum ist das Ati Bild so dunkel und zeigt weniger Beleuchtung? Die Schatten sind ja da bei Nvidia vorhanden, wird aber durch das HDR überstrahlt und daher ab einer gewissen Entfernung überblendet... Wenn dann bitte selbe Helligkeit auch auf dem Ati Screenshot, sonst kann man sich solche Vergleiche sparen.

spike.sp.
2008-01-09, 20:15:59
Sagt mal, kann hier keiner Deutsch? Wenn dann heißt es "Schummeln".

][immy
2008-01-09, 20:20:25
sry ... hab mich verlesen ^^

aber um es nochmal richtig zu schreiben ^^
wenn dann kommt dieses cheating aber wohl eher unbeabsichtigt durch crytek. nvidia mag ja seine finger im spiel gehabt haben, aber einen patch macht immernoch crytek, und wenn sie etwas ausversehen wegoptimieren (schließlich war von einigen optimierungen im patch die rede) trifft die schuld erstmal nicht nvidia.

Metalmaniac
2008-01-09, 22:37:05
Genau, der Patch (von Crytek wohlgemerkt und nicht von nVidia) soll u.a. auch die Performance sowohl unter DX9 als auch unter DX10 verbessern. Und da gibt es ja viele Möglichkeiten dies zu erreichen. Und wenn es u.a. auch auf Kosten der Bildquali geschehen mag, dann ist das u.U. natürlich nicht so schön(da werden die Meinungen darüber jedenfalls sehr unterschiedlich ausfallen). Aber nVidia deshalb Cheating zu unterstellen ist, vorsichtig ausgedrückt, gewagt.

Gast
2008-01-09, 23:10:45
@LovesuckZ
mein gott du nimmst es aber genau
einer muss nun mal an den pranger, wie soll der pöbel sonst belustigt werden?

PCGH_Raffael
2008-01-10, 11:11:57
Nvidia sagte uns, dass "die Performanceverbesserungen des Patches erst mit einem angepassten Treiber greifen" (FW 169.28 Beta). Was sagt uns das? ;)

Von "Cheating" sprachen wir indes nirgends – das steht nur hier. Wir erwähnen lediglich Abweichungen der BQ.

MfG,
Raff

knallebumm
2008-01-10, 12:11:15
Der Frameunterschied ist gewaltig. 22 vs 39 und 23 vs 40. (1.0 high - 1.1 high)

geht der Thread jetzt nach hinten los? :)

seahawk
2008-01-10, 12:22:34
Nvidia sagte uns, dass "die Performanceverbesserungen des Patches erst mit einem angepassten Treiber greifen" (FW 169.28 Beta). Was sagt uns das? ;)

Von "Cheating" sprachen wir indes nirgends – das steht nur hier. Wir erwähnen lediglich Abweichungen der BQ.

MfG,
Raff

Habt ihr mal mit 169.02 und Patch 1.1 probiert ? Ist ide BQ dann wie unter 1.0, dann dürfte die Sache klar sein.

Gast
2008-01-10, 12:25:25
Von "Cheating" sprachen wir indes nirgends – das steht nur hier. Wir erwähnen lediglich Abweichungen der BQ.

MfG,
Raff


Ihr seid ja wohl nur noch lächerlich.

Sparen sich Geforce-Karten Arbeit in Crysis 1.1?

->

Von "Cheating" sprachen wir indes nirgends

Gast
2008-01-10, 12:29:36
Nur, dass ich es richtig verstehe: nVidia cheatet, weil Crytek bei ihnen die Bildqualität absenkt? :confused:
Das Problem ist: Crytek ist nicht unabhängig! Ein eigenes nv Team im Haus bedeutet schon etwas ... nv kann so einfach von innen heraus cheaten, man könnte sogar den AMD Karten mehr Arbeit aufhalsen, die aber nicht das Bild verschönert. Eine ideale Situation für nv.

Birdman
2008-01-10, 12:45:48
Ich sehe hier keine Abweichung in der BQ (BQ = Bildqualität) sondern eine Abweichung in der BD (BD = BildDarstellung)

incM
2008-01-10, 12:50:42
Das Problem ist: Crytek ist nicht unabhängig! Ein eigenes nv Team im Haus bedeutet schon etwas ... nv kann so einfach von innen heraus cheaten, man könnte sogar den AMD Karten mehr Arbeit aufhalsen, die aber nicht das Bild verschönert. Eine ideale Situation für nv.

mal wieder bezeichnend das solch dumme unterstellungen von schnell mal ausgeloggten nerds kommen.

Gast
2008-01-10, 12:50:48
Ich sehe hier überhaupt keine relevanten Unterschiede.

Mr. Lolman
2008-01-10, 12:52:56
Das Problem ist: Crytek ist nicht unabhängig! Ein eigenes nv Team im Haus bedeutet schon etwas ... nv kann so einfach von innen heraus cheaten, man könnte sogar den AMD Karten mehr Arbeit aufhalsen, die aber nicht das Bild verschönert. Eine ideale Situation für nv.

Dementsprechend sollte man mal die TexOps mitloggen...

Gast
2008-01-10, 12:59:27
Das Problem ist: Crytek ist nicht unabhängig! Ein eigenes nv Team im Haus bedeutet schon etwas ... nv kann so einfach von innen heraus cheaten, man könnte sogar den AMD Karten mehr Arbeit aufhalsen, die aber nicht das Bild verschönert. Eine ideale Situation für nv.
Was hat AMD genau abgehalten, eigene Leute bei Crytek abzustellen? Diese Unterstellungen sind wirklich für den Popo.

Mr. Lolman
2008-01-10, 13:02:47
Was hat AMD genau abgehalten, eigene Leute bei Crytek abzustellen? Diese Unterstellungen sind wirklich für den Popo.

Vll. TWIMTBP?

Gast
2008-01-10, 13:16:41
Vll. TWIMTBP?
Siehst du hier ein TWIMTBP-Logo?
http://ati.amd.com/developer/gdc/2007/D3DTutorial_Crytek.pdf
Abgesehen davon, dass es im Interesse von Crytek und EA ist, dass das Spiel überall vernünftig läuft: Das TWIMTBP-Logo sowie der ganze Support seitens nVidia ist eine Konsequenz davon, dass NV bereit war, mehr Geld an Crytek fließen zu lassen, und NV hat davon profitiert: Nur NV konnte mit Crysis werben.

Schlammsau
2008-01-10, 13:58:55
Der Frameunterschied ist gewaltig. 22 vs 39 und 23 vs 40. (1.0 high - 1.1 high)

geht der Thread jetzt nach hinten los? :)

...interessant ist vor allem, dass Crysis auf meiner HD3850 512MB, sehr viel smoother läuft. Das heist, sehr selten bis gar nicht mehr (oder nicht mehr spürbar) im Level nachlädt. Sehr positiv.....
Aber dennoch merkt man an den Benchmarks nicht das geringste! Gleiche min.- avg.- und high FPS! Schade, gerade da hab ich mir mehr versprochen!
Wenn man dann solche Threads wie hier liest, dass nVidia mit dem neuen Patch, fast doppelt soviele Frames dazugewonnen hat.....schande über den, der dabei böses denkt! :cool:

Raff
2008-01-10, 14:00:10
Huh? Wo gewinnt Nvidia doppelte Fps? Es sind maximal 15 Prozent. Und das nur unter DX10. Die Radeons profitieren im Schnitt zehnprozentig.

MfG,
Raff

Schlammsau
2008-01-10, 14:02:41
laut Zitat von Knallebum....
Der Frameunterschied ist gewaltig. 22 vs 39 und 23 vs 40. (1.0 high - 1.1 high)

geht der Thread jetzt nach hinten los? :)


und wie gesagt, bei mir ist kein Unterschied, zwischen 1.0 und 1.1 in dem Framerates!

1.0
Windows Vista, DX10, 1280x1024, alles auf High, keine geänderten Config´s, 0xAA/0xAF
26.12.2007 00:41:38 - Vista
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 86.90s, Average FPS: 23.01
Min FPS: 13.80 at frame 152, Max FPS: 29.89 at frame 1565
Average Tri/Sec: 22563096, Tri/Frame: 980412
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 76.91s, Average FPS: 26.01
Min FPS: 13.80 at frame 152, Max FPS: 30.71 at frame 1574
Average Tri/Sec: 25767192, Tri/Frame: 990844
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 2 Finished.
Play Time: 76.53s, Average FPS: 26.13
Min FPS: 13.80 at frame 152, Max FPS: 30.71 at frame 1574
Average Tri/Sec: 25934550, Tri/Frame: 992342
Recorded/Played Tris ratio: 0.92
TimeDemo Play Ended, (3 Runs Performed)


1.1
Windows Vista, DX10, 1280x1024, alles auf High, keine geänderten Config´s, 0xAA/0xAF

Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 83.09s, Average FPS: 24.07
Min FPS: 10.82 at frame 147, Max FPS: 30.94 at frame 992
Average Tri/Sec: 23705648, Tri/Frame: 984879
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 75.82s, Average FPS: 26.38
Min FPS: 10.82 at frame 147, Max FPS: 32.48 at frame 1764
Average Tri/Sec: 26254724, Tri/Frame: 995308
Recorded/Played Tris ratio: 0.92
!TimeDemo Run 2 Finished.
Play Time: 75.25s, Average FPS: 26.58
Min FPS: 10.82 at frame 147, Max FPS: 32.48 at frame 1764
Average Tri/Sec: 26472724, Tri/Frame: 995971
Recorded/Played Tris ratio: 0.92
TimeDemo Play Ended, (3 Runs Performed)

wenn ichs mir genauer ansehe, sind die min. fps sogar noch niedrieger!

Metalmaniac
2008-01-10, 15:30:57
Hatte hier nicht schon jemand geschrieben, daß die Auswirkungen erst mit einem neuen nVidia-Treiber wirklich zu sehen sind? Und hast Du den dann auch vielleicht genutzt bei Deinen Tests, @Schlammsau? (169.28beta)

Coda
2008-01-10, 15:34:33
*yawn*

Hört doch mal auf mit diesen lächerlichen Verschwörungstheorien. Es ist nicht auszuhalten. Ich hab's schon hundertmal gesagt: Die Shader sind einseh- und veränderbar und da gibt es kein "if(nvidia) dann sparen". Nirgends.

reunion
2008-01-10, 17:35:31
*yawn*

Hört doch mal auf mit diesen lächerlichen Verschwörungstheorien. Es ist nicht auszuhalten. Ich hab's schon hundertmal gesagt: Die Shader sind einseh- und veränderbar und da gibt es kein "if(nvidia) dann sparen". Nirgends.

Blöd wenn dann nicht das selbe Ergebnis herauskommt.

Was hat AMD genau abgehalten, eigene Leute bei Crytek abzustellen? Diese Unterstellungen sind wirklich für den Popo.

Auch AMD hatte immer wieder Leute bei Crytek.

Schlammsau
2008-01-10, 17:48:57
Hatte hier nicht schon jemand geschrieben, daß die Auswirkungen erst mit einem neuen nVidia-Treiber wirklich zu sehen sind? Und hast Du den dann auch vielleicht genutzt bei Deinen Tests, @Schlammsau? (169.28beta)

ne ne, hab ne ATI.......:smile:

Adam D.
2008-01-10, 17:54:02
Komme mit 64bit-DX10-High-1440x900 mit Patch 1.1 exakt auf die selben 34fps average wie davor, fühlt sich auch nichts anders an. Auch der 169.28 hat nichts daran geändert - auch nicht an der BQ :rolleyes:

Sephiroth
2008-01-10, 18:01:37
Der Frameunterschied ist gewaltig. 22 (ATI) vs 39 (NVIDIA) und 23 (ATI) vs 40 (NVIDIA). (1.0 high - 1.1 high)

passt doch, jeder bekommt ein 1 fps mehr :cool:
(Namen zur Verdeutlichung und Fehlervermeidung eingefügt)

Ich sehe hier überhaupt keine relevanten Unterschiede.
ich auch nicht
Man muss dabei beachten, dass bei den nvidia-Bildern die Boote unterschiedliche Positionen haben uns somit unterschiedliche Wellen verursacht haben, weshalb es zu unterschiedlichen Reflexionen des Sonnenlichts kommt. Bei den ati-Bildern haben die Boote nahezu die gleiche Position.


Hier wird aus einer Mücke ein Elefant gemacht. Das sparen von arbeit ist (nicht nur für mich) auf diesen Bildern nicht zu erkennen.

Gast
2008-01-10, 19:34:28
Die Shader sind einseh- und veränderbar und da gibt es kein "if(nvidia) dann sparen". Nirgends.
Für wenn nicht einsehbar? Für den Treiber? Ok.

Crytek selbst muss doch selbst noch Zugriff auf ihr eigenes Programm haben.


Und das das Endergebnis und die Performance nicht identisch ist, kommt nicht aus einer Laune heraus.

Gast
2008-01-10, 19:35:37
Dementsprechend sollte man mal die TexOps mitloggen...
Wie macht man das? evtl könnten ein par G80 user mitloggen. :)

Schlammsau
2008-01-10, 19:43:39
passt doch, jeder bekommt ein 1 fps mehr :cool:
(Namen zur Verdeutlichung und Fehlervermeidung eingefügt)


huh :eek:...dann hab ich mich verlesen....sorry :cool:

Coda
2008-01-10, 21:15:58
Für wenn nicht einsehbar? Für den Treiber? Ok.
Die liegen Plaintext im Shaders.pak. Kann man extrahieren.

Nochmal lesen was ich geschrieben hab?

Und das das Endergebnis und die Performance nicht identisch ist, kommt nicht aus einer Laune heraus.
Ich seh hier keinen Unterschied zu 1.0. Und außerdem war der Vergleichsscreenshot auf PC Games nicht auf der gleichen Hardware. Dass es geringer Unterschiede in der Präzision gibt zw. NVIDIA und ATI ist nichts neues, vor allem weil da viel schon durch Shaderoptimierungen des Compilers abweichen kann.

Es gibt in den Shadern keinen extra Pfad für nVIDIA oder ATI, also sind auch die Texops die gleichen.

Razor
2008-01-11, 00:38:59
Sieht eher so aus als würden bei Ati wieder Details fehlen ,man beachte den Stein unterhalb der Hand weniger Beleuchtung? :ueye:
Nach mehrmaliger Betrachtung fällt auf, das Nvidias Bild deutlich mehr Reflektionen zeigt und zudem um einiges heller ist. Man könnte ebenso schreiben warum ist das Ati Bild so dunkel und zeigt weniger Beleuchtung? Die Schatten sind ja da bei Nvidia vorhanden, wird aber durch das HDR überstrahlt und daher ab einer gewissen Entfernung überblendet... Wenn dann bitte selbe Helligkeit auch auf dem Ati Screenshot, sonst kann man sich solche Vergleiche sparen.
Und hier haben wir ein 'Problem' zu fassen, welches schon seit Ewigkeiten exisitiert und ganz sicher nicht jetzt plötzlich 'verschwindet'.
ATI rendert zu dunkel... der Default-Gamma 1.0 ist bei ATI dunkler als er sein sollte.
Witziger weise erst unter Windows und auch nur bei den Consumer-Treibern... unter Dos und bei den FireGL-Karten ist alles iO.

Wie dem auch sei... wenn dann sollte man den Gamma der Screens leicht anpassen, um diese dann in dieser Hinsicht mit den nVidia-Screens zu verlgeichen. Keinesfalls sollte man an den Gamma-Einstellungen im Treiber was ändern, denn dann bekommt gleich weitere Schwierigkeiten, wie z.Bsp. mit der Gamma-Korrektur.

Nimm es einfach hin...

Nvidia sagte uns, dass "die Performanceverbesserungen des Patches erst mit einem angepassten Treiber greifen" (FW 169.28 Beta). Was sagt uns das? ;)

Von "Cheating" sprachen wir indes nirgends – das steht nur hier. Wir erwähnen lediglich Abweichungen der BQ.
Das erklärt, warum ich bei 'meinem' Treiber kaum Performance-Unterschiede ausmachen kann (liegen schon fast im Bereicht der Meßungenauigkeit... aber nur 'fast' ;-), dafür aber auch keinerlei Unterschiede in der Darstellung.

Überhaupt wäre es doch wohl sinnvoller gewesen, einen nVidia-Screen in Version 1.0 der neuen Version 1.1 gegenüber zu stellen, als nun Äpfel mit Birnen zu vergleichen.

-

Was aber ganz sicher sein wird, ist der Umstand, dass nVidia Shader-Replacement betreibt... und das ganz sicher nicht erst seit Crysis... genau wie ATI (oder jetzt AMD) dies auch tut und tat. Allerdings wird nVidia hier einen wesentlich tieferen Einblick haben und dieses Thema ins Extrem treiben können.

Die Frage ist halt, ob es dadurch wirklich schlechter aussieht, denn eines braucht man bei Crysis auf jeden Fall: Performance!
Nicht um jeden Preis natürlich...

Aber auch bei mir hat sich in den Frames zwar nichts wesentliches getan, dafür ist das Gameplay ganz sicher 'smoother' geworden... vor allen im ICE-Level, der vorher doch schon das eine oder andere mal unter die "geht so"-Grenze gefallen ist... selten zwar, aber merklich. Jetzt scheint dies fast durchweg passabler... werde mir das aber nochmal genauer anschaun'.

For now: einfach nicht mehr mit Crysis die "Längen" vergleichen und freuen, dass es den einen oder anderen Frame mehr gibt.
Auch der "Core" ist wesentlich angenehmer geworden... und das verdient ein großes Plus!

Ich nutze allerdings WinXP (DX9 resp. ;-) und meinen eigenen "vhigh/ultra-mit ein bissel medium shadows-mod".
(und die Schatten sehen im übrigen besser aus, als unter D3D10 mit "very high" ;-)

...ach ja... mit dem 169.17 natürlich.
Derart 'kaputte' Treiber, wie die 169.2x kommen bei mir nicht in die Tüte!
:D

Razor

P.S.: viel von der beobachteten Performance-Verbesserung scheint von der Optimierung des MotionBlur zu kommen... kann bei mir nicht zum Tragen kommen, weil mir dieser "BildVerwischer" einfach nur mächtigst auf die Augen geht und es so bei mir einfach komplett abgeschaltet wurde.

P.P.S.: ich stimme übrigens mit Coda überein... Crytek unterstellen zu wollen, nun absichtlich mit dem Patch einen IHV zu bevorzugen... ähm. zu 'begünstigen', halte ich für puren Unsinn. Klar hat man dies bei der Entwicklung der Engine getan, indem man nVidia hier ganz erheblich mitwirken hat lassen... trotzdem ist die Darstellung bei ATI und nVidia spätestens seit dem 169.06 identisch. Dass dies jetzt (wieder) mit dem 169.28 evtl. anders ist, würde ich ganz sicher nicht auf den Patch zurückführen wollen... wenn überhaupt auf die Interaktion zwischen dem neuen Treiber und der aktualisierten Engine.

Coda
2008-01-11, 00:42:04
Razor, Gamma kann man auf Screenshots nicht sehen. Das wird erst appliziert wenn das Bild vom RAMDAC ausgelesen wird.

Razor
2008-01-11, 00:52:42
Razor, Gamma kann man auf Screenshots nicht sehen. Das wird erst appliziert wenn das Bild vom RAMDAC ausgelesen wird.
Dann nenne es Grundhelligkeit oder wie auch immer.
Ich denke, JEDER, der sich schon mit beiden IHV und dem kalibrieren von Displays auseinander gesetzt hat, kennt diese Problematik.

Und klar, Veränderungen am Gamma (also abweichend von 1.0) sieht man auf Screenshots natürlich nicht... von 'schräger' Gamma-Korrektur aufgrund deseen natürlich abgesehen.

Razor

Coda
2008-01-11, 01:36:32
Blöd wenn dann nicht das selbe Ergebnis herauskommt.
Ich habe doch schon gesagt warum das so ist. Jeder Treiber und Hardware hat ihre Eigenheiten und das kann sich aufsummieren.