PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Far "t" Cry.exe Artikel...


Sphinx
2004-05-05, 03:53:05
;=) Lesen und Meinungen erwünscht...

a- Keine Spekulation sondern realität...
b- Grafikkarten relavant
c- URALT - und doch gern gemacht... da im endeffect unser einer hier die schönen Balkendiagramme anschaut und sich danach entscheidet wer was wieviel bietet... - im endeffekt kann man alle Reviews in die Tonne Schmeissen...


Link : http://www.chip.de/news/c_news_11844422.html

Vorhandenes Speku-Thread :http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=140915

*Ja ich weiss aber hier im Grafikchip Forum finde ich diesen Artikel und die nunmal gequarkte Angelegenheit besser aufgehoben als in einem Spekuthread. Da wie oben erwähnt die Käuferschicht nach Reviews und Balkendiagrammen kauft,entscheidet. Nur was bringt mir es ein vorgeschwindeltes Ergebnis was in der Realität NADDA bringt...

Inhalt :

Bei den Tests der neuen GeForce 6800 Ultra Extreme Edition ist CHIP Online auf Ungereimtheiten gestoßen: Der neue Nvidia-Treiber in der Version 61.11 lieferte - zusammen mit der GeForce 6800 Ultra Extreme Edition - beim DirectX-9-Knaller "Far Cry" ein doppelt so hohes Ergebnis im Vergleich zu einer GeForce 6800 Ultra mit der Treiber-Revision 60.72:

Statt wie bisher etwa 23 Bilder pro Sekunde (1.600 x 1.200 Pixel, 32 Bit, 4xAA und 8xAF) erreichte unsere GeForce 6800 Ultra Extreme Edition plötzlich 40,3 Bilder pro Sekunde. Damit würden die GeForce 6800 Ultra Extreme Edition und die Radeon X800 XT, die bei dieser Auflösung auf etwa 41 Bilder pro Sekunde kommt, in etwa gleichauf liegen.

Benennt man jedoch die Datei "FarCry.EXE" beispielsweise in "FartCry.EXE" um, verschlechtert sich das Ergebnis des Benchmarks in den Auflösungen von 1.024 x 768, 1.280 x 1.024 und 1.600 x 1.200 Pixel um jeweils 10 Bilder pro Sekunde (!).

Benchmark "Far Cry": Statement von Nvidia
Auf eine Anfrage, wie diese extremen Verbesserungen der Benchmark-Resultate zustande kämen, sagte Nvidia-Sprecher Jens Neuschäfer gegenüber CHIP Online, dass "man bei Far Cry einerseits einen vorhandenen Treiberbug (z-culling) beseitigt, zum anderen die Treiber weiter auf das Spiel und dessen Benchmark optimiert hat".

Dem Nvidia-Sprecher zufolge sei dies ein normaler Prozess bei der Einführung einer neuen Grafikchip-Generation wie der GeForce-6-Reihe und werde auch in Zukunft weiter praktiziert. (db)

------------------------------------

Tja ich denke das alle Reviews egal welchen Herstellers dringendst nach solchen ".exe" Änderungsmaßnahmen gemacht werden sollten - + revidiert...

Demirug
2004-05-05, 07:12:51
Bei sowas kommen immer meine standard Frage.

Gibt es einen Qualitätsunterschied?

Werden nur "standard" Timedemos schneller?

dfgrfdg
2004-05-05, 07:45:45
CHIP Online meint:
Keine Frage, Nvidia ist angesichts der hohen Leistung von ATIs Radeon X800 XT (Platinum Edition) in Panik geraten. Anders ist wohl nicht zu erklären, dass man kurz vor dem Launch der Radeon X800 XT mit einer höher getakteten GeForce 6800 Ultra (Extreme Edition) gegen schießt.

Dieser Schnellschuss könnte nach hinten losgehen: Der Grund dafür liegt nicht beim Extreme-Edition-Modell - vielmehr ist der "optimierte" 61.11-Treiber mit Vorsicht zu genießen. Benennt man die Benchmark-Datei um, sackt das Ergebnis wieder deutlich hinter einer Radeon X800 XT zurück.

Damit scheint sich die unsägliche - und für alle Seiten schädliche - Diskussion "Treiber-Betrug versus Benchmark-Optimierungen" neu zu entfachen...


Das wird ja ein lustiges Sommerloch !

:-)

LovesuckZ
2004-05-05, 07:49:05
Das hatten wir schon ^^

Chris Lux
2004-05-05, 08:02:32
Original geschrieben von dfgrfdg

Damit scheint sich die unsägliche - und für alle Seiten schädliche - Diskussion "Treiber-Betrug versus Benchmark-Optimierungen" neu zu entfachen...


ich sag nur bilinearer filter auf texturstages > 0 und gut is. die nehmen sich beide nix, ati hatte nur mehr zeit seine treiber zu optimieren, da sie eine bekannte architektur haben und nvidia eben eine komplett neue. find es wirklich schade, dass wieder ein solcher optimierungskrieg losgehen wird.

testme
2004-05-05, 09:03:15
Das Problem ist doch nicht die Qualitätseinbussen (sind ja offensichtlich nicht vorhanden), sondern der Fakt, dass ich mit jedem neuen Spiel, mir gleich einen neuen Treiber ziehen darf um es optimal zu spielen. Das werde ich zumindest nicht mitmachen -> vielleicht noch zwischen den Treibern wechseln, weil Spiel A mit Treiber X und Spiel B mit Treiber Y besser zurechtkommt. Nein, dass kann nicht die Zukunft der Grafikkarten sein.

LovesuckZ
2004-05-05, 09:06:40
Denkst du, das ist bei ATi anders?
Nvidia hat einzig farcry noch nicht gebacken bekommen, dass es laeuft. Alle anderen Spielen laufen, komischer Weise.
Bei dem Betatreiebr zur r420 karten fehlen die Schatten in Splinter Cell, wer sagt hier eigentlich, dass es ein Cheat sei?

StefanV
2004-05-05, 09:21:53
Original geschrieben von Hans Ohlo
ich sag nur bilinearer filter auf texturstages > 0 und gut is. die nehmen sich beide nix, ati hatte nur mehr zeit seine treiber zu optimieren, da sie eine bekannte architektur haben und nvidia eben eine komplett neue. find es wirklich schade, dass wieder ein solcher optimierungskrieg losgehen wird.

Naja, soo viel anders ist der nV40 vom nV30 auch wieder nicht...

LovesuckZ
2004-05-05, 09:23:42
Original geschrieben von Stefan Payne
Naja, soo viel anders ist der nV40 vom nV30 auch wieder nicht...

;D

Lass mich raten, der NV40 gleicht ebenfalls dem TNT?

Odal
2004-05-05, 09:31:32
man könnte ja vermuten das durch die namenserkennung bestimmte shader durch performantere ausgetauscht werden...allerdings hat die 6800u keine shaderschwäche..ganz im gegenteil (das hatten wir schonmal diskutiert) und auch mit den farcry shadern gibts keine probleme auf der karte....es kann aber sein das man durch den treiber irgendwas an dem verbuggten game ausgleicht damit es besser auf der eigenen architektur läuft...sowas muss kein cheat sein....

die jungs von crytek wissen zwar wie man eine schöne engine schreibt, allerdings sollten sie sich beim optimieren und bugfixing nachhilfe von j.c. geben lassen

StefanV
2004-05-05, 09:34:20
Original geschrieben von LovesuckZ
;D

Lass mich raten, der NV40 gleicht ebenfalls dem TNT?

Du kannst ja mal versuchen 'nen Deto 2.08 auf 'ner nV40 zum laufen zu bringen, das könnte sogar funzen *eg*

Pathfinder
2004-05-05, 10:29:21
Demirug,

hast du nicht eine Standardfrage vergessen!

Wird das vollständige Bildinhalt aus Sicht von Farcry durch den Treiber wiedergegeben oder läßt der Treiber für den Betrachter speziell in diesem Benchmark nicht sichtbare Informationen einfach weg - Ist dieses Ergebnis auf das ganze Spiel, egal in welcher Konstellation im Durchschnitt übertragbar?

G.
P.

Aqualon
2004-05-05, 10:36:33
Solange nicht geklärt ist, ob die Zusatzperformance durch Verlust von Bildqualität erkauft wird, ist die Cheat-Schreierei genauso sinnvoll wie die Aussage, ich hab meinen Windows-Ordner umbenannt, jetzt startet es aber nicht mehr.

Die Chip ist doch die Bildzeitung unter den Computermags, erstmal groß auf Schlagzeile machen, aber keine Beweise liefern können.

Anscheinend fehlt wohl im heutigen harten Kampf zwischen den Computermags die Zeit etwas ordentlich zu untersuchen, hauptsache man lockt Kunden durch irgendwelche Schlagzeilen an.

Aqua

Demirug
2004-05-05, 10:37:21
Original geschrieben von Pathfinder
Demirug,

hast du nicht eine Standardfrage vergessen!

Wird das vollständige Bildinhalt aus Sicht von Farcry durch den Treiber wiedergegeben oder läßt der Treiber für den Betrachter speziell in diesem Benchmark nicht sichtbare Informationen einfach weg - Ist dieses Ergebnis auf das ganze Spiel, egal in welcher Konstellation im Durchschnitt übertragbar?

G.
P.

Das ist doch durch meinen Punkt 2 abgedeckt. Wenn der Treiber Draws eliminieren kann weil er automatisch erkennt das man davon nichts sieht soll mir das Recht sein. Ist diese Information aber statisch für bestimmte Trails hinterlegt dann ist das eben nicht OK.

asdasdad
2004-05-05, 10:51:01
Original geschrieben von Demirug
Das ist doch durch meinen Punkt 2 abgedeckt. Wenn der Treiber Draws eliminieren kann weil er automatisch erkennt das man davon nichts sieht soll mir das Recht sein. Ist diese Information aber statisch für bestimmte Trails hinterlegt dann ist das eben nicht OK.

Was ja nicht das erste mal wär. Man erinnere sich an die Customtimedemos von Firingsquad, wo NV plötzlich überall hinten war

ow
2004-05-05, 11:03:36
Original geschrieben von asdasdad
Was ja nicht das erste mal wär. Man erinnere sich an die Customtimedemos von Firingsquad, wo NV plötzlich überall hinten war


Hast du auch irgendeinen Beleg fuer diese impliziten Cheat Vorwurf?

Dass jedes Timedemo andere Anfgorderungen an verschiedene Recheneinheiten des Chip stellt ist dir bekannt?
(zB. eher VS-lastig oder eher Fillrate-lastig oder eher Bandbreiten-limitiert oder eher CPU-limitiert.....)

wqe
2004-05-05, 11:09:06
Original geschrieben von ow
Hast du auch irgendeinen Beleg fuer diese impliziten Cheat Vorwurf?

Dass jedes Timedemo andere Anfgorderungen an verschiedene Recheneinheiten des Chip stellt ist dir bekannt?
(zB. eher VS-lastig oder eher Fillrate-lastig oder eher Bandbreiten-limitiert oder eher CPU-limitiert.....)

und dass dann zufällig überall ATi vorne ist, ist ja auch ganz einfach erklärbar. Das liegt an.... hm... hilf mir mal schnell weiter :D

LovesuckZ
2004-05-05, 11:11:42
Original geschrieben von wqe
und dass dann zufällig überall ATi vorne ist, ist ja auch ganz einfach erklärbar. Das liegt an.... hm... hilf mir mal schnell weiter :D

am Cheat AF von ATi. Als Nvidia ploetzlich gleichgezogen hat, waren sie gleichschnell...

Riptor
2004-05-05, 11:18:04
Original geschrieben von LovesuckZ
am Cheat AF von ATi.

Ah!!! Da ist es wieder, das "ATI-AF-Cheating", auch bekannt unter AAC! :D Vllt sollte sich ATI dieses Feature patentieren lassen, damit die Konkurrenz nicht auch solche Features verwendet... Oder tut sie es schon und ATI merkt nix? :naughty:

ow
2004-05-05, 11:25:59
Original geschrieben von wqe
und dass dann zufällig überall ATi vorne ist, ist ja auch ganz einfach erklärbar. Das liegt an.... hm... hilf mir mal schnell weiter :D

Hast du ausser Trollerei auch ein Antwort auf meine Frage parat?

Omnicron
2004-05-05, 11:32:16
Also AFAIK gibt es bei Farcry doch keine vorgefertigten Flybys / Botmatches wie sie zum benchen bei UT2003 dabei sind.
Alle Benchmarks bisher waren von customtimedemos, der von Chip doch sicher auch?
Wie soll NV da optimieren das nur die Benchmark Performance steigt?

Ich denke es ist nichts schlechtes dabei bei einem als "Problemfall" bekannten Spiel extra zu optimieren / bugfixen damit es besser läuft. (ohne schlechter auszusehen natürlich)
Von der .exe Erkennung und der Verbesserung proftiert doch auch jeder der das Spiel normal spielt, oder?

Robbitop@Uni
2004-05-05, 11:38:54
NV wird wohl aufs ganze Game optimieren...solang kein sichtbarer IQ Verlust dabei ist, stört mich sowas nicht

Winter[Raven]
2004-05-05, 12:19:35
Original geschrieben von Stefan Payne
Naja, soo viel anders ist der nV40 vom nV30 auch wieder nicht...

Du ATI amateur willst doch nicht atwa Äpfel mit Birnen vergleichen oder?

Aber es ist ja natürlich verständlich, dass nur ATI eine Revolutionäre Architektur bauen kann.

Troll dich weiter ...

Exxtreme
2004-05-05, 12:21:58
@ Winter[Raven]

Und jetzt beruhigen wir uns wieder und hören mit verbalen Angriffen gegen andere User auf, OK? :)

Kropfkind
2004-05-05, 12:23:35
Original geschrieben von LovesuckZ
am Cheat AF von ATi. Als Nvidia ploetzlich gleichgezogen hat, waren sie gleichschnell...

Und was ist mit den Benchmarks ohne AF?

Falls der Link nicht bekannt ist: http://www.firingsquad.com/hardware/msi_geforce_fx5900-td128_review/page6.asp

Winter[Raven]
2004-05-05, 12:25:34
Original geschrieben von Exxtreme
@ Winter[Raven]

Und jetzt beruhigen wir uns wieder und hören mit verbalen Angriffen gegen andere User auf, OK? :)

Klaro ^^, nur muss ich mich ned beruhigen da mein Adrenalinspiegel genauso hoch ist wie er auch vor dem Lesen des Postings von SP war ;).

Ich wollte einfach nicht das böse Wort ala Fanb** oder Fanat**** benützen, den dafür gibt's ja Punkte ^^.

Original geschrieben von Kropfkind
Und was ist mit den Benchmarks ohne AF?

Falls der Link nicht bekannt ist: http://www.firingsquad.com/hardware/msi_geforce_fx5900-td128_review/page6.asp

5 Frames kann man verschmerzen ... dafür bekomm ich mit dem NV40 mehr als 2 Jahre alte Technik.

Knopper
2004-05-05, 12:31:35
Original geschrieben von Robbitop@Uni
NV wird wohl aufs ganze Game optimieren...solang kein sichtbarer IQ Verlust dabei ist, stört mich sowas nicht

Was solls da noch für einen sichtbaren BQ verlust geben können? Statt PS2.0 gibts Ps1.1 Shader die nur FP16 gerechnet werden, und zudem nur Pointfiltering abbekommen.

:kotz:

Aber der PS3.0 Patch wird ja auch für alle FX KArten tolle Qualität bringen, oder etwa nicht?? *eg*

Lustiger Troll
2004-05-05, 12:36:33
Original geschrieben von Knopper
Was solls da noch für einen sichtbaren BQ verlust geben können? Statt PS2.0 gibts Ps1.1 Shader die nur FP16 gerechnet werden, und zudem nur Pointfiltering abbekommen.

:kotz:

Aber der PS3.0 Patch wird ja auch für alle FX KArten tolle Qualität bringen, oder etwa nicht?? *eg*


Sag mal bist du derslebe dem ich meine Signatur zu verdanken habe?

Falls du es nicht weisst:
PS1.1 INT
PS2.0 FP

Alles klar?

ow
2004-05-05, 12:39:15
Thread closed, da ausser Trollerei hier wohl nix zustande kommt.