PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : futuremark schiesst zurück :D


Seiten : [1] 2 3

mapel110
2003-05-23, 16:31:54
http://www.warp2search.net/article.php?sid=12386&mode=thread&order=0
We have now established that NVIDIA’s Detonator FX drivers contain certain detection mechanisms that cause an artificially high score when using 3DMark®03. We have just published a patch 330 for 3DMark03 that defeats the detection mechanisms in the drivers and provides correct results.

let the war begin :D

Aqualon
2003-05-23, 16:33:39
Mit der Patchnummer 330 habens die bei Futuremark anscheinend. Gibts schon irgendwo Vergleichsbenchmarks zwischen der alten und der Version?

ow
2003-05-23, 16:35:03
Das einzige was mich interessiert ist, fuer welche Gegenleistung Futuremark Geld von den HW-Herstellern kassiert.

mapel110
2003-05-23, 16:35:46
Originally posted by Aqualon
Mit der Patchnummer 330 habens die bei Futuremark anscheinend. Gibts schon irgendwo Vergleichsbenchmarks zwischen der alten und der Version?

NOTE: 3DMark03 results from the original version (3.1.3) are identical with the results of this new build (3.3.0), and those of the first patch (3.2.0), except when using certain drivers with built in cheats.

Quasar
2003-05-23, 16:38:07
Eine interessante Passage steht bei W2S aber nicht:

Our investigations reveal that some drivers from ATi also produce a slightly lower total score on this new build of 3DMark03. The drop in performance on the same test system with a Radeon 9800 Pro using Catalyst 3.4 drivers is 1.9%. This performance drop is almost entirely due to 8.2% difference in the game test 4 result, which means that the test was also detected and somehow altered by the ATi drivers.

Interessant, dass hier nicht das Wort "cheat" fällt und ATi trotz Mitgliedstatus im Beta-Programm so dämlich war, sich erwischen zu lassen.

Cheaten tun also beide....

Aqualon
2003-05-23, 16:39:42
Originally posted by mapel110


NOTE: 3DMark03 results from the original version (3.1.3) are identical with the results of this new build (3.3.0), and those of the first patch (3.2.0), except when using certain drivers with built in cheats.

Ok, dann müsste man jetzt nur noch vergleichen, inwieweit die GeForce Karten mit Detonator 44.03 beim neuen Build einbrechen.

ow
2003-05-23, 16:41:35
Originally posted by Quasar
Eine interessante Passage steht bei W2S aber nicht:


Interessant, dass hier nicht das Wort "cheat" fällt und ATi trotz Mitgliedstatus im Beta-Programm so dämlich war, sich erwischen zu lassen.

Cheaten tun also beide....


War doch klar, oder?

Exxtreme
2003-05-23, 16:50:53
Naja, die "Optimierungen" beider Firmen greifen jetzt nicht mehr. Man müsste jetzt theoretisch einen Nachtest machen.

DrumDub
2003-05-23, 16:55:21
ow

klar? klar war garnix... jetzt isses klar...

<flame>außerdem hat nvidia mehr gecheatet... :P</flame>

ich finden es sehr gut, dass futuremark dieser praxis in zukunft einhalt gebieten will. ich denke, dass eine ausführliche aufklärung solcher praktiken richtig ist.
grundsätzlich bleibt zu sagen, dass man wohl davon ausgehen kann, dass alle graka-hersteller versuchen sich vorteile in benchmarks zu verschaffen. leider verhalten sich die firmen da nicht anders als die ganzen cs-kiddies... aber das ist das problem im bezug auf das rechtsempfinden unserer westlichen gesellschaft im allgemeinen. wie heißt so schön ein buchtitel von ulrich wickert, der vor ein paar jahren erschien: der ehrliche ist der dumme.

Unregistered
2003-05-23, 16:57:45
1,8% wuerde ich nicht als cheaten bezeichnen. Das fällt noch unter optimieren... Da hat Futuremark schon recht.

Crushinator
2003-05-23, 17:02:34
Originally posted by Quasar (...) Cheaten tun also beide.... ???
Wenn Futuremark bei Einem der beiden aber keinen BQ-Unterschied (auch nicht im Freefly-Mode) fände, würde nach meiner Auffasung nur der andere "Cheaten".

ow
2003-05-23, 17:02:40
Originally posted by DrumDub
ow

klar? klar war garnix... jetzt isses klar...




noe, fuer jeden der da etwas mitdenkt ist es klar, dass alle Firmen im 3DMark cheaten.
ich habe das vor Tagen schon hier gesagt und jetzt ist das ganz offiziell bestaetigt.

mapel110
2003-05-23, 17:03:12
jup,

mal kompletter quote:
--------------------------------------
What Is the Performance Difference Due to These Cheats?
A test system with GeForceFX 5900 Ultra and the 44.03 drivers gets 5806 3DMarks with
3DMark03 build 320.
The new build 330 of 3DMark03 in which 44.03 drivers cannot identify 3DMark03 or the tests in
that build gets 4679 3DMarks – a 24.1% drop.
Our investigations reveal that some drivers from ATI also produce a slightly lower total score on
this new build of 3DMark03. The drop in performance on the same test system with a Radeon
9800 Pro using the Catalyst 3.4 drivers is 1.9%. This performance drop is almost entirely due to
8.2% difference in the game test 4 result, which means that the test was also detected and
somehow altered by the ATI drivers. We are currently investigating this further.

ow
2003-05-23, 17:03:54
Originally posted by Unregistered
1,8% wuerde ich nicht als cheaten bezeichnen. Das fällt noch unter optimieren... Da hat Futuremark schon recht.



-->
"This performance drop is almost entirely due to 8.2% difference in the game test 4 result, which means that the test was also detected and somehow altered by the ATi drivers.
--------------------------------------------------------------------------------

== Cheat

DrumDub
2003-05-23, 17:06:43
ow

na gut... ich sage mal klar im sinne von bewiesen. und das war es eben noch nicht...

im bezug auf ati wird es sicherlich auch aufklärung geben, worin der cheat im gt4 besteht...

Crushinator
2003-05-23, 17:10:07
Originally posted by ow (...) == Cheat (Cheat || Optimierung) würde deutlich besser passen.
We recommend benchmarking GeForceFX cards using the NVIDIA drivers 44.03 or 43.51, and the new 3DMark03 build 330. We also recommend benchmarking Radeon 9000 series cards using the ATI Catalyst 3.4 drivers, and the new 3DMark03 build 330. These combinations run the 3DMark03 tests correctly, according to how 3DMark03 instructs the hardware to render the 3D scenes.

Link: PDF-Datei (http://www.madonion.com/mirrors/3dmark03/3dmark03_audit_report.pdf)

ow
2003-05-23, 17:11:00
Originally posted by DrumDub
ow

na gut... ich sage mal klar im sinne von bewiesen. und das war es eben noch nicht...

im bezug auf ati wird es sicherlich auch aufklärung geben, worin der cheat im gt4 besteht...

Ich hab den Verdacht, dass die 3DM Querelen noch lange nicht vorbei sind.
Mal schauen, ob die naechsten Treiberversionen auch den 330 Build erkennen.:D

Im Prinzip ist doch nur belegt, dass der 3DM03 cheatbar ist und somit als Bench nix taugt.

Crushinator
2003-05-23, 17:15:03
Originally posted by ow (...) Im Prinzip ist doch nur belegt, dass der 3DM03 cheatbar ist und somit als Bench nix taugt. :zzz: ...als ob alles andere nicht cheatbar wäre. Ich sage nur SSamSE. ;)

mapel110
2003-05-23, 17:16:18
Originally posted by ow

Im Prinzip ist doch nur belegt, dass der 3DM03 cheatbar ist und somit als Bench nix taugt.

dürfte auf unreal und quake auch zutreffen.

DrumDub
2003-05-23, 17:31:17
ebent.. auch timedemos sind cheatbar. zu lösen wär das nur, wenn man bei jedem graka test nen neues timedemo von jedem spiel aufnimmt, welches man testen will. damit ist aber die vergleichbarkeit der tests unterschiedlicher hw-news-seiten unmöglich, da alle die gleichen timedemos (pyramid, quaver und temple) verwenden...

Unregistered
2003-05-23, 17:48:30
aehm mal was OT.
irrchn wie spinnt das forum oder?
der refresht garnet mehr richtig
also man sieht nicht ob ein neuer user was gepostet hat
erst wenn man richtig im thread ist :(
is das bei euch auch so?

Anonym_001
2003-05-23, 17:50:51
Originally posted by Unregistered
aehm mal was OT.
irrchn wie spinnt das forum oder?
der refresht garnet mehr richtig
also man sieht nicht ob ein neuer user was gepostet hat
erst wenn man richtig im thread ist :(
is das bei euch auch so?

Schau mal hier rein.

http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=72911

Exxtreme
2003-05-23, 17:52:21
Originally posted by ow




-->
"This performance drop is almost entirely due to 8.2% difference in the game test 4 result, which means that the test was also detected and somehow altered by the ATi drivers.
--------------------------------------------------------------------------------

== Cheat
Naja, 1,9% oder über 24% Verlust im Endergebnis sind schon ein Unterschied.

Und ob die Ergebnise zwischen den Builds tatsächlich vergleichbar sind, das würde ich auch gerne wissen.

Man müsste es mal mit älteren Treibern testen, die den 3DMurks noch nicht (so gut) kennen.

LovesuckZ
2003-05-23, 17:58:04
Originally posted by crushinator
:zzz: ...als ob alles andere nicht cheatbar wäre. Ich sage nur SSamSE. ;)

Hm, wo sollte denn Nvidia in SeSamSE cheaten?

/edit: http://www.hardware.fr/medias/photos_news/00/06/IMG0006295.gif

http://www.hardware.fr/html/news/#5797

WeyounTM
2003-05-23, 18:29:44
Originally posted by Exxtreme

Naja, 1,9% oder über 24% Verlust im Endergebnis sind schon ein Unterschied.


Sehe ich genauso. Insgesamt bleibt festzuhalten, dass sich Nvidia wohl nicht zu schade war, einen so deutlichen Weg einzuschlagen. Ich höre Richthofen natürlich schon sagen "Recht so...weg mit dem Murks". Doch die Frage darf erlaubt sein: welchen Benchmark / welches Testprogramm erwischt es als nächsten ?

Da ich mich keinerlei Fraktion zugehörig fühle darf ich anmerken, dass meine Aussage genauso fallen würde, wenn ATi hier der Vermurkser wäre ;)

Mr. Lolman
2003-05-23, 18:31:05
Hm, ich sollte mich mal dazu durchringen meinen UT2003 Benchmarklevel weiter zu bauen. IMO ist UT2003 nicht wirklich cheatbar, da gute Level sowieso kaum Overdraw erzeugen.

seahawk
2003-05-23, 18:33:36
Schon komisch, dass ATI als Beta-Partner wohl auch beim cheaten erwischt wurde. Es ist natürlich nicht verwunderlich, dass FM dies weniger schlimm sieht.

NV wurde beim cheaten erwischt, da kann es keinen Zweifel geben. Damit müssen die Testergebnisse gegenüber der 9800pro geändertwerden und ATI dürfte zumindest im 3DMark wieder die Leistungsführerschaft haben.

Wie allerdings in anderen TimeDemos gecheatet werden soll ist mir unklar. Da ist es ja viel leichter rauszufinden. Lass ein anderes TimeDemo laufen und schon fällt es auf. Bei UT2003 oder SS2 muss man halt nur einen anderen Level benchen.

Außerdem würde ich gerne genau wissen, was FM im neuen Patch geändert hat. Wer kann sagen, dass NV Karten nicht benachteiligt werden ?? Ist Spekulation, aber imo theoretisch möglich.

Die einzige Erkenntnis aus dem ganzen Vorfall ist, 3DMark ist kein Benchmark zur Beurteilung von Grafikkarten und sollte bei der Bewertung keine Rolle mehr spielen.

LovesuckZ
2003-05-23, 18:33:55
Originally posted by Mr. Lolman
Hm, ich sollte mich mal dazu durchringen meinen UT2003 Benchmarklevel weiter zu bauen. IMO ist UT2003 nicht wirklich cheatbar, da gute Level sowieso kaum Overdraw erzeugen.

Man brauchte auch einfach in ein level gehen, welches kaum benutz wird und dann die interne FPS Anzeige einschalten.

Richthofen
2003-05-23, 18:38:08
also imho zeigt das doch nur, dass die Nvidia Treiberprogrammierer ne Runde fähiger beim Cheaten sind als die Junx von ATI.
Naja ist ja auch nix besonders. In Sachen Treibern ist Nvidia halt nach wie vor ne eigene Klasse :)

Ich finds richtig herrlich, wie jetzt überall die Threads laufen wer nun am meissten Cheatet.
Ehrlich gesagt ist mir das doch voll latte.
Die Cheaten da alle rum und der 3DMark scheint so billig programmiert zu sein, dass es auch noch voll simpel ist.

Weg mit dem Teil in die Mülltonne und Games benchen vor allem auch mal welche, die nicht immer so in der Öffentlichkeit stehen. Ein guter Anfang wäre auch wenn die Reviewer selber Timedemos aufnehmen könnten. Den 3Dmark können wir jetzt ja wohl endgültig wegwerfen :)

Ich befürchte sogar, dass Futuremark bei ATI ein Auge zudrücken wird. Stellt euch mal vor Futuremark gibt zu dass ATI auch cheatet. Dann können die sich einsargen, weil keine Sau den Bench mehr nimmt.
Dieses ganze Projekt 3DMark ist ein Witz und die Bedingungen zum Beta Tester Programm ebenfalls.

WeyounTM
2003-05-23, 18:43:49
[SIZE=1]Originally posted by Richthofen
Naja ist ja auch nix besonders. In Sachen Treibern ist Nvidia halt nach wie vor ne eigene Klasse :)

Das ist jetzt sarkastisch gemeint, oder :D ?

Den 3Dmark können wir jetzt ja wohl endgültig wegwerfen :)

Dachte ich mir, dass das jetzt kommt. Aber wenn Du mal über den Murks-Tellerrand hinausblickst: meinst Du nicht auch, dass die findigsten Treiberspezies nicht auch Wege finden, andere Benchies zu veräppeln ?

Und da Du ja auch gerne mal wirtschaftlich und mit dem gemeinen DAU argumentierst: denkst Du nicht, dass gerade die DAUs das Punktevergleichsystem des 3dMark schätzen und deswegen dem Cheater Nvidia vielleicht nicht so gerne vergeben wollen wie Du ?

Exxtreme
2003-05-23, 18:52:26
Originally posted by seahawk
Schon komisch, dass ATI als Beta-Partner wohl auch beim cheaten erwischt wurde. Es ist natürlich nicht verwunderlich, dass FM dies weniger schlimm sieht.

Naja, die Frage ist jetzt, ob der Geschwindigkeitsunterschied nicht durch den anderen Build verursacht wird. Deswegen war auch mein Vorschlag, daß man mit älteren Treibern mal testen soll.

Spartakus
2003-05-23, 19:02:47
Originally posted by Yosh


Das ist jetzt sarkastisch gemeint, oder :D ?



Dachte ich mir, dass das jetzt kommt. Aber wenn Du mal über den Murks-Tellerrand hinausblickst: meinst Du nicht auch, dass die findigsten Treiberspezies nicht auch Wege finden, andere Benchies zu veräppeln ?


Da braucht man doch nur an SIS denken. Die können jede 3D-Szene "becheaten". War zwar extrem offensichtlich bis jetzt, aber wenn die das so weit hinbekommen, dass es nicht weiter auffällt... ^^

Mr. Lolman
2003-05-23, 19:03:08
Mir war eigenltich schon immer klar, dass im 3dmark (und in einigen anderen Benchmarks) gecheatet (optimiert ;)) wird.

Jetzt ist halt NV aus dem Beta Programm ausgestiegen, und deswegen hält Futuremark auch nicht mehr den Mund. Überhaupt finde ich es bedenklich, dass es immerwieder neue Treiberreleases gibt, die in dem einen Benchmark 10-20% mehr Leistung bringen. Eigentlich ist es doch logisch, dass bei einem neu erschinenn Treiber, der nur in einem einzigen Programm die Shader beschleunigt, gecheatet wird. Sowas sollte doch jedem spanisch vorkommen. (/me war übrigens für 2 Wochen in Spanien, dewegen hab ich solange die Finger ruhig gehalten)

Das ATi cheatet ist auch klar. Aber die machen das irgendwie subtiler. Ein paar Prozent Speed können auch nach Treiberoptimierung aussehen. 25% eher nicht. Und wer damit angefangen hat, kann man sowieso nicht sagen, die ersten bei denen mans bemerkt hat waren halt ATi bei Q3a (wobei die das ja wirklich blöd angestellt haben).
Auf jeden Fall wird bei ATi nichts (sichtbares) vergessen etwas zu rendern, oder mit geringer Genauigkeit dargestellt.

Naja werden wir sehen wie sehr sich die negative Publicity auf NVs (und ATis) Ruf auswirkt...

Demirug
2003-05-23, 19:06:15
Originally posted by ow


Ich hab den Verdacht, dass die 3DM Querelen noch lange nicht vorbei sind.
Mal schauen, ob die naechsten Treiberversionen auch den 330 Build erkennen.:D

Im Prinzip ist doch nur belegt, dass der 3DM03 cheatbar ist und somit als Bench nix taugt.

Ja, weil FM lediglich den Shadercode etwas geändert hat.

WeyounTM
2003-05-23, 19:07:28
Originally posted by Mr. Lolman

Naja werden wir sehen wie sehr sich die negative Publicity auf NVs (und ATis) Ruf auswirkt...

Ich hoffe mal, dass sich die einschlägigen Websites und die Printmedien damit auseinandersetzen. Egal was man nun gegen den Murks sagen kann: ein Wirtschaftsunternehmen sollte auch an seine Glaubwürdigkeit denken.

Exxtreme
2003-05-23, 19:17:51
Naja,

angesichts der Ergebnisse muss man sich tatsächlich fragen, wie gut die Shader-Einheiten der NV3x-Serie tatsächlich sind.

Diese scheinen bedeutend schwächer zu sein als anfangs angenommen.

wrdaniel
2003-05-23, 19:23:30
ich denke nvidia hat absichtlich recht offensichtlich manipuliert um den 3dmark2k3 in der verbreitung als benchmark zu stoppen.

Mad-Marty
2003-05-23, 19:24:19
Originally posted by Demirug


Ja, weil FM lediglich den Shadercode etwas geändert hat.


Ehrlich, ihr habt sie doch nicht mehr alle,
1,9 % in einem von 4 benches ... naja ... also jeder halbwegs normale Mensch kommt drauf das das an dem neuen Shadercode liegen könnte, wie Demi z.b..

Vielleicht verhält sich die laufcharakteristik jetzt ein wenig anders
und nutzt eine Funktion die nicht ganz so performant umgesetzt ist.


Aber das war doch von anfang an klar bei nvidia, oder meint ihr diese
"Wir könnten den Shader erkennen und ändern" von einem der nv programmierer, und die Tatsache das der nächste Treiber die Punkte für die FX fast verdoppelte, war ein zufall ? - sollte eigentlich jeden drauf bringen das da kräftig was gemacht wurde .....

LovesuckZ
2003-05-23, 19:28:55
Originally posted by Exxtreme
Naja,
angesichts der Ergebnisse muss man sich tatsächlich fragen, wie gut die Shader-Einheiten der NV3x-Serie tatsächlich sind.
Diese scheinen bedeutend schwächer zu sein als anfangs angenommen.

Nur weil das Ergebnis im 3DMark2003 schlecht ist, bedeutet es doch noch lange nicht, dass die Shadereinheitern schlecht seien.

No doubt that Pixel Shader 2.0 test from 3DMark03 is not an illustrative example of NVIDIA’s pixel processors performance. Luckily, the polygon fillrate test (http://www2.arnes.si/~mdolen/Tester.zip) also allows checking the pixel shaders performance:

http://www.xbitlabs.com/images/video/geforcefx-5900ultra/pixel-speed.gif

22% Rueckstand der 5900Ultra mit FP32 Berechnungen.

/edit: The most interesting things start happening when we shift to 32bit per component: while NVIDIA GeForce FX 5800 Ultra naturally slows down, NVIDIA GeForce FX 5900 Ultra shows even better results!

http://www.xbitlabs.com/articles/video/display/geforcefx-5900ultra_8.html

StefanV
2003-05-23, 19:35:38
Originally posted by ow




-->
"This performance drop is almost entirely due to 8.2% difference in the game test 4 result, which means that the test was also detected and somehow altered by the ATi drivers.
--------------------------------------------------------------------------------

== Cheat

Gibts außer NV und ATI (HW) noch jemanden/etwas, das MN laufen lassen kann??

IMHO nicht...

Es ist also nicht bewiesen das ATI gecheatet hat, da nicht bewiesen ist, daß es nicht am Code liegt...

Exxtreme
2003-05-23, 19:38:53
Originally posted by LovesuckZ


22% Rueckstand der 5900Ultra mit FP32 Berechnungen.


Hehe, was so ziemlich genau den Unterschied im 3DMurks entspricht mit deaktiviertem Cheat. ;)

StefanV
2003-05-23, 19:39:44
Originally posted by LovesuckZ


Nur weil das Ergebnis im 3DMark2003 schlecht ist, bedeutet es doch noch lange nicht, dass die Shadereinheitern schlecht seien.

No doubt that Pixel Shader 2.0 test from 3DMark03 is not an illustrative example of NVIDIA’s pixel processors performance. Luckily, the polygon fillrate test (http://www2.arnes.si/~mdolen/Tester.zip) also allows checking the pixel shaders performance:

http://www.xbitlabs.com/images/video/geforcefx-5900ultra/pixel-speed.gif

22% Rueckstand der 5900Ultra mit FP32 Berechnungen.

/edit: The most interesting things start happening when we shift to 32bit per component: while NVIDIA GeForce FX 5800 Ultra naturally slows down, NVIDIA GeForce FX 5900 Ultra shows even better results!

http://www.xbitlabs.com/articles/video/display/geforcefx-5900ultra_8.html



???

Mit dem Pic in deinem Posting hast du doch gerade 'bewiesen', daß die Shader der NV3x Serie im Vergleich zu ATIs Rx3x0 Serie Mist sind...

LovesuckZ
2003-05-23, 19:39:51
Originally posted by Stefan Payne
Es ist also nicht bewiesen das ATI gecheatet hat, da nicht bewiesen ist, daß es nicht am Code liegt...

Wodran sonst? Waere alles so, wie es Futuremark haben wolle, waere hier kein Verlust eingetreten.
Genauso koennte man die These aufstellen, dass FM Nvidia mit dem neusten Patch einen Stein in den Weg legen koennten und sie somit kuenstlich ausbremsen wuerden...

AlfredENeumann
2003-05-23, 19:40:19
Originally posted by wrdaniel
ich denke nvidia hat absichtlich recht offensichtlich manipuliert um den 3dmark2k3 in der verbreitung als benchmark zu stoppen.

Natürlich, weil auf normalen Wege die Karten dort zu mies abschneiden. Was macht man mit nem Bench auf dem man sehr alt aussieht? Richtig. Wegmobben.

StefanV
2003-05-23, 19:43:38
Originally posted by wrdaniel
ich denke nvidia hat absichtlich recht offensichtlich manipuliert um den 3dmark2k3 in der verbreitung als benchmark zu stoppen.

...was auch dämlich ist, denn das ganze kann sich auch als Bummerang entpuppen und gewaltig nach hinten losgehen...

Die Konsequenz könnte sein, daß einige Medien, die eigentlich NV freundlich sind auf einmal NV feindlich sind...

Dazu ist der Enduser an sich auch nicht wirklich berechenbar, er könnte die Cheaterei im 3Dmark03 nicht besonders mögen und beim nächsten Kauf zu Konkurenz wechseln und eine Abneigung gegen NV entwickeln (NV, bäh, die Cheaten ja).

Letztendlich leiden beide unter diesem 'Treiberkrieg', die Frage ist nur wem es mehr schadet, NV oder Futuremark!!!

Ich tippe eher auf NV, was im extremfall im Gläubigerschutz enden kann...

Exxtreme
2003-05-23, 19:45:44
Originally posted by LovesuckZ


Wodran sonst? Waere alles so, wie es Futuremark haben wolle, waere hier kein Verlust eingetreten.
Kannst du nicht wissen. Demi sagte, daß der Shadercode geändert wurde. Sowas kann u.U. Geschwindigkeitsunterschiede hervorrufen.
Originally posted by LovesuckZ
Genauso koennte man die These aufstellen, dass FM Nvidia mit dem neusten Patch einen Stein in den Weg legen moechten und sie somit kuenstlich ausbremsen wuerden...
???

LovesuckZ
2003-05-23, 19:46:14
Originally posted by Stefan Payne
???
Mit dem Pic in deinem Posting hast du doch gerade 'bewiesen', daß die Shader der NV3x Serie im Vergleich zu ATIs Rx3x0 Serie Mist sind...

Aha, warum kann die 5900Ultra mit FP32 so gut auf die 9800pro beim normalen PS2 Test aufschließen? Sie liegt beim "PS2 Simple" noch ganze 70% zurueck. Und die ATi Karte hat noch eine geringere Genauigkeit...

Unregistered
2003-05-23, 19:52:06
Originally posted by Richthofen
also imho zeigt das doch nur, dass die Nvidia Treiberprogrammierer ne Runde fähiger beim Cheaten sind als die Junx von ATI.
Naja ist ja auch nix besonders. In Sachen Treibern ist Nvidia halt nach wie vor ne eigene Klasse :)

Ich finds richtig herrlich, wie jetzt überall die Threads laufen wer nun am meissten Cheatet.
Ehrlich gesagt ist mir das doch voll latte.
Die Cheaten da alle rum und der 3DMark scheint so billig programmiert zu sein, dass es auch noch voll simpel ist.

Weg mit dem Teil in die Mülltonne und Games benchen vor allem auch mal welche, die nicht immer so in der Öffentlichkeit stehen. Ein guter Anfang wäre auch wenn die Reviewer selber Timedemos aufnehmen könnten. Den 3Dmark können wir jetzt ja wohl endgültig wegwerfen :)

Ich befürchte sogar, dass Futuremark bei ATI ein Auge zudrücken wird. Stellt euch mal vor Futuremark gibt zu dass ATI auch cheatet. Dann können die sich einsargen, weil keine Sau den Bench mehr nimmt.
Dieses ganze Projekt 3DMark ist ein Witz und die Bedingungen zum Beta Tester Programm ebenfalls.

Egal wiedes drehst und wendest, das gibt herbe Verkaufseinfußen für NVidia. Verkauf mal lieber gleich deine Aktien, bevor es zu spät ist!

StefanV
2003-05-23, 19:55:46
Originally posted by LovesuckZ
Wodran sonst?

Am geänderten Code???
WIR wissen nicht, WAS Futuremark geändert hat, somit kennen wir die Auswirkungen nicht!!

Originally posted by LovesuckZ
Waere alles so, wie es Futuremark haben wolle, waere hier kein Verlust eingetreten.
Zwischen Theorie und Praxis liegen ja bekanntlich Welten...
Theoretisch ist F2B genauso schnell wie B2F, in der Praxis schauts aber ganz anders aus.

Wenn man an einem Programm irgendwas ändert, dann ändert sich auch der gemsamte Ablauf, die Funktion bleibt zwar gleich, der Weg dahin ist aber Unterschiedlich...
Von Fehmarn bis Hamburg kann ich ab Oldenburg auch Autobahn fahren, ich kann auch Landstraße fahren, das Ergebnis ist beidesmal gleich: ich komme in Hamburg an, der Weg ist beidesmal aber unterschiedlich und dauert auch unterschiedlich lange...


Originally posted by LovesuckZ
Genauso koennte man die These aufstellen, dass FM Nvidia mit dem neusten Patch einen Stein in den Weg legen koennten und sie somit kuenstlich ausbremsen wuerden...

Das ganze kann man aber auch umdrehen, siehe Athlon und P4.
Dem Athlon ist der Code*, dem man ihm vorsetzt fast egal, er ist (fast) immer schnell, beim P4 schauts aber wieder gaanz anders aus, warum sollte es hier anders sein??
Kann ja auch sein, daß das R300 besser auf bescheidenem Code performt, siehe Meldung auf R3D bezüglich der Dawn Demo...


*Code-> damit meine ich Code für eine Spieleengine...

WeyounTM
2003-05-23, 20:01:42
[SIZE=1]Originally posted by Stefan Payne
Dazu ist der Enduser an sich auch nicht wirklich berechenbar, er könnte die Cheaterei im 3Dmark03 nicht besonders mögen

Das ist auch mein Denkansatz. Machen wir uns doch nix vor: der 3DMark befriedigt ein ganz elementar männliches Bedürfnis ! Ihr dürft raten welches ;) ! Genau deswegen hat der Murks doch so eine Popularität erreicht. Ich bin mir daher nicht sicher, ob Nvidia hier nicht ein Eigentor geschossen hat. Es geht ja auch darum, zu Hause gewisse Dinge easy zu reproduzieren. Nur die wenigsten Daus werden Lust und Laune haben eine eigene Benchmarksuite mit vielen Games vorzuhalten. Da ist es doch einfacher mal den 3DMark zu starten.

Ich tippe eher auf NV, was im extremfall im Gläubigerschutz enden kann...

So krass würde ich es indes nicht sehen ;) ! Aber es ist durchaus im Bereich des möglichen, dass Nvidia da nicht so ohne weiteres unbeschadet mit davon kümmt.

/edit: huch der postingcounter funzt wieder :...( ;)

Crushinator
2003-05-23, 20:14:12
Originally posted by LovesuckZ
Aha, warum kann die 5900Ultra mit FP32 so gut auf die 9800pro beim normalen PS2 Test aufschließen? Sie liegt beim "PS2 Simple" noch ganze 70% zurueck. Und die ATi Karte hat noch eine geringere Genauigkeit... Wenn ich mir das anschaue, was in Deinem X-Bit Labs Artikel angesprochen wird:
The most interesting things start happening when we shift to 32bit per component: while NVIDIA GeForce FX 5800 Ultra naturally slows down, NVIDIA GeForce FX 5900 Ultra shows even better results! ....gehe ich erstmal von einem weiteren "Bug" im Detonator aus. ;)

Salvee
2003-05-23, 20:36:35
Originally posted by mapel110
http://www.warp2search.net/article.php?sid=12386&mode=thread&order=0
We have now established that NVIDIA’s Detonator FX drivers contain certain detection mechanisms that cause an artificially high score when using 3DMark®03. We have just published a patch 330 for 3DMark03 that defeats the detection mechanisms in the drivers and provides correct results.

let the war begin :D

G00tes Timing! Heute Mittag hoffte ich noch auf Aufklärung, und jetzt dies :)
Erstmal verdauen, das ganze...
Es wurde auf jeden Fall Zeit, dass mal ein bisschen auf die Einhaltung der Spielregeln geachtet wird, und zwar zwischen allen Beteiligten.

Unregistered
2003-05-23, 20:39:43
Originally posted by Exxtreme

Kannst du nicht wissen. Demi sagte, daß der Shadercode geändert wurde. Sowas kann u.U. Geschwindigkeitsunterschiede hervorrufen.

???

Lies' mal das entsprechende PDF von Madonion...err Futuremark. Shadercode geändert, aber ohne Unterschied in der Performance, weil man hier und da ein Register vertauscht habe.

Demirug
2003-05-23, 20:41:31
Das ist wohl der Anfang vom Ende für Futuremark.

Mit dem schönen Audit haben die Jungs sich gerade ihr eigenes Grab geschaufelt indem sie öffentlich erklären das und wie der 3dmark03 durch einen Treiber gecheated werden kann.

Die Story wird jetzt wohl wie folgt weitergehen:

-nVidia wird durch entsprechende Kanäle einen neuen Treiber leaken lassen der wieder die "volle" Performances bringt aber im Freefly modus die Fehler nicht mehr zeigt.

-Futuremark bringt einen neuen Patch der die Punkte von nVidia wieder nach unten drückt was sofort wieder mit einem neuen Treiber kompensiert wird.

Die Erkenntniss daraus ist das man für den 3dmark nur noch Treiber benutzen darf die älter als der letzte Patch sind. Damit ist der 3dmark für Treibervergleiche entgültig disqualifiziert. Auch für neue Karten kann er nicht direkt benutzt werden weil diese ja auch erst mal einen neuen Treiber mitbringen. Futuremark muss dann erst mal wieder einen Patch bringen und irgendwann kann man die shader auch nicht mehr ändern ohne die Funktionalität grundlegen zu ändern. Das ganze wird den meisten Reviewer zu blöd werden.

Exxtreme
2003-05-23, 20:46:56
Originally posted by Demirug
Das ist wohl der Anfang vom Ende für Futuremark.

Mit dem schönen Audit haben die Jungs sich gerade ihr eigenes Grab geschaufelt indem sie öffentlich erklären das und wie der 3dmark03 durch einen Treiber gecheated werden kann.

Die Frage ist halt, kann man Cheats, die im Treiber sind, effektiv verhindern?

Einen Ausweg sehe ich in einer Zertifizierung. Die GraKa-Hersteller müssten ihre Treiber bei FM zertifizieren lassen. Das werden diese aber nicht tun.

Crushinator
2003-05-23, 20:51:12
Originally posted by Demirug
(...) Das ist wohl der Anfang vom Ende für Futuremark. ...oder das Armutszeugnis für nVidia, halt je nachdem aus welcher Sicht man es wohl sieht. ;)

Kampf Ameise
2003-05-23, 20:53:21
Originally posted by Stefan Payne


...was auch dämlich ist, denn das ganze kann sich auch als Bummerang entpuppen und gewaltig nach hinten losgehen...

Die Konsequenz könnte sein, daß einige Medien, die eigentlich NV freundlich sind auf einmal NV feindlich sind...

Dazu ist der Enduser an sich auch nicht wirklich berechenbar, er könnte die Cheaterei im 3Dmark03 nicht besonders mögen und beim nächsten Kauf zu Konkurenz wechseln und eine Abneigung gegen NV entwickeln (NV, bäh, die Cheaten ja).

Letztendlich leiden beide unter diesem 'Treiberkrieg', die Frage ist nur wem es mehr schadet, NV oder Futuremark!!!

Ich tippe eher auf NV, was im extremfall im Gläubigerschutz enden kann...

der enduser ist schon kontrollierbar er macht das was die MASSE macht man muss nur genug werbung machen und image erzeugen und schon kann man den grössten schrott verkaufen.. dsds..tamagotchi..nvidia :D

Demirug
2003-05-23, 20:57:01
Originally posted by Exxtreme

Die Frage ist halt, kann man Cheats, die im Treiber sind, effektiv verhindern?

Einen Ausweg sehe ich in einer Zertifizierung. Die GraKa-Hersteller müssten ihre Treiber bei FM zertifizieren lassen. Das werden diese aber nicht tun.

Nein, in einem rein syntetischen Benchmark kann man Cheats nicht verhindern. Die einzige Möglichkeit die Futuremark jetzt noch zur Rettung hat ist einen Editor herauszubringen mit dem man eine Kamerafahrt frei bestimmen kann. Wenn dann aber jeder mit einer anderen Route testet ist natürlich die Datenbank nichts mehr wert. Man hat also bei Futuremark jetzt ein echte Problem am Hals.

Treiber Zertifizierung durch Futuremark? Selbst wenn alle IHVs da mitmachen würden kann man damit niemals sicher stellen das nicht doch gecheated wird. Wie gesagt man kann die Shader nicht endlos modifizieren ohne die Funktion zu ändern. Man muss also nur die Erkennung so weit verbessern das man alle möglichen Modifikationen schon im Voraus erkennt.

seahawk
2003-05-23, 20:57:03
Originally posted by Stefan Payne
Am geänderten Code???
WIR wissen nicht, WAS Futuremark geändert hat, somit kennen wir die Auswirkungen nicht!!


Richtig Stefan,

wir wissen nicht was Futuremark geändert hat und wir wissen eigentlich auch nicht so genau wie der 3DMark jetzt eigentlich arbeitet und die Shadernutzt.

Was mic hschon immer am Futuremark störte ist, dass er nicth opensource ist. Dann könnte man sehen wie der Arbeitet, wie realitätsnah die ganze Sache ist und vor allem ob im Code einseitige Bevorteilungen zu finden sind.

Ich bleibe dabei, keiner kann wissen ob Futuremark NV mit dem neuen Patch nicht absichtlich ausbremst. Vielleicht erkennt der Futuremark ja auch NV-Karten und benutzt dann einen unoptimierteren Renderpfad ??

Ein Benchmark auf den die Herstellereinfluss haben (Beta-Programm) und der zusätzlich nicht Opensource ist, wird immer und wahr immer reine Augenwischerei.

Quasar
2003-05-23, 21:14:02
Originally posted by crushinator
...oder das Armutszeugnis für nVidia, halt je nachdem aus welcher Sicht man es wohl sieht. ;)

Oder das Armutszeugnis für ATi, halt je nachdem aus welcher Sicht man es wohl sieht. ;)

Sich trotz Zugang zum BETA-Programm noch beim Schummeln erwischen zu lassen und dann noch für lausige 8,2% im Mother Nature Test...
:D

Die, 3DMark, die!

Exxtreme
2003-05-23, 21:19:31
Originally posted by Demirug


Nein, in einem rein syntetischen Benchmark kann man Cheats nicht verhindern. Die einzige Möglichkeit die Futuremark jetzt noch zur Rettung hat ist einen Editor herauszubringen mit dem man eine Kamerafahrt frei bestimmen kann. Wenn dann aber jeder mit einer anderen Route testet ist natürlich die Datenbank nichts mehr wert. Man hat also bei Futuremark jetzt ein echte Problem am Hals.

Treiber Zertifizierung durch Futuremark? Selbst wenn alle IHVs da mitmachen würden kann man damit niemals sicher stellen das nicht doch gecheated wird. Wie gesagt man kann die Shader nicht endlos modifizieren ohne die Funktion zu ändern. Man muss also nur die Erkennung so weit verbessern das man alle möglichen Modifikationen schon im Voraus erkennt.
Hmmm, könnte man nicht zur Laufzeit so eine Art "Prüfsumme" der kompletten 3D-Szene erzeugen und diese mit einer Referenz vergleichen?

Demirug
2003-05-23, 21:30:42
Originally posted by Exxtreme

Hmmm, könnte man nicht zur Laufzeit so eine Art "Prüfsumme" der kompletten 3D-Szene erzeugen und diese mit einer Referenz vergleichen?

Das macht aus mehren Gründen nur begrenzten Sinn.

1. Solange man sich auf den normalen Pfad befindet gibt es bei einem guten Cheat ja keine Bildfehler.

2. Sobald man immer den gleichen Frame prüft kann der Treiber ja mit zählen und diesen Frame normal rendern.

3. Das Auslesen des Framebuffers dauert sehr lange -> Ergebniss nicht mehr brauchbar.

4. Bei AA und AF funktioniert das aufgrund der unterschiedlichen Verfahren sowieso nicht mehr.

5. Wo soll man bei einem zufällig ausgewählen Frame die Referenz hernehmen.

6. Selbst wenn zufällig irgendein Frame ausgewählt wird und man von irgendwo her eine Referenz bekommt läst sich das ganze immer noch austricksen indem man sobald man erkennt das der Benchmark den Framebuffer will die letzte Szene einfach nochmal richtig rendert.

Exxtreme
2003-05-23, 21:44:25
OT...

Demirug,

woran kann das liegen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=72935

ow
2003-05-23, 22:12:28
Originally posted by seahawk

Ein Benchmark auf den die Herstellereinfluss haben (Beta-Programm) und der zusätzlich nicht Opensource ist, wird immer und wahr immer reine Augenwischerei.

Ja das sehe ich genauso.
btw. ist das nicht das erste Mal das Futuremark/Madonion ein Problem hat.

Der Sysmark2002 verzeichnet ggü. dem 2001 eine sehr deutlichen Performance Zuwachs nur auf Intel CPUs, was AMD ebenfalls nicht gefallen hat.

http://www.heise.de/newsticker/data/jow-24.08.02-000/

Exxtreme
2003-05-23, 23:09:37
Hmmm, also der Cat3.2 soll mit dem neuen Patch keinerlei Geschwindigkeitsverlust aufweisen... :|

LovesuckZ
2003-05-23, 23:17:07
Originally posted by Exxtreme
Hmmm, also der Cat3.2 soll mit dem neuen Patch keinerlei Geschwindigkeitsverlust aufweisen... :|

Ergo CAT3.4 = Cheattreiber?

bzw: Wieso verliert ATI in den Test 1+2+3 keine Leistung mit dem Patch330 und im 4. fast 9%? Da Nvidia in jeden Test deutlich Leistung verliert, kann es nicht nur im vierten Test Veraenderungen gegeben haben...

nggalai
2003-05-23, 23:36:15
Uiuiuiuiuiuiuiui.

http://www.hothardware.com/hh_files/S&V/r9800256mb_gffx5900upd(2).shtml

And the NVIDIA perspective...

"Since NVIDIA is not part in the FutureMark beta program (a program which costs of hundreds of thousands of dollars to participate in) we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer. We don't know what they did, but it looks like they have intentionally tried to create a scenario that makes our products look bad. This is obvious since our relative performance on games like Unreal Tournament 2003 and Doom 3 shows that the GeForce FX 5900 Ultra is by far the fastest graphics on the market today."(Meine Hervorhebung.)

Das riecht danach, als ob bald Anwälte sich gegenseitig Visitenkärtchen in die Hand drücken werden.

93,
-Sascha.rb

mapel110
2003-05-23, 23:49:25
Originally posted by LovesuckZ


Ergo CAT3.4 = Cheattreiber?

bzw: Wieso verliert ATI in den Test 1+2+3 keine Leistung mit dem Patch330 und im 4. fast 9%? Da Nvidia in jeden Test deutlich Leistung verliert, kann es nicht nur im vierten Test Veraenderungen gegeben haben...

weil ati in den ersten drei tests nicht schummelt im gegensatz zu nv ?!

/edit
ack @ngglai
das wird wieder so eine neverending story, wie zb die via vs intel klage :D

Crushinator
2003-05-23, 23:55:46
Originally posted by nggalai (...) Das riecht danach, als ob bald Anwälte sich gegenseitig Visitenkärtchen in die Hand drücken werden. Das wünsche ich mir sogar vom ganzen Herzen, weil ich mir ziemlich sicher bin wer den Streit gewinnen würde. :D

LovesuckZ
2003-05-23, 23:56:01
Originally posted by mapel110
weil ati in den ersten drei tests nicht schummelt im gegensatz zu nv ?!


Also schummelt ATi auch :D

VoodooJack
2003-05-23, 23:57:36
Und schon liegen erste Zahlen vor. Hothardware hat soeben ihr 9800Pro 256 MB vs GeforceFX 5900 Ultra Review vom 20. Mai im 3DMark03 Sektor upgedatet.

Before patch 330 vs after patch 330 in %

9800Pro 256mb

- 4xAA/4xAF: 2899 vs 2940 = +1.4%

- noAA: 5834 vs 5747 = -1.5%

GeforceFX 5900 Ultra

- 4xAA/4xAF: 3749 vs 3098 = -17.4%

- noAA: 6067 vs 4886 = -19.5%

Exxtreme
2003-05-23, 23:58:56
Originally posted by LovesuckZ


Also schummelt ATi auch :D
Hmm, angeblich soll die Performance bei ATi mit dem 330'er Patch höher sein als in der 320'er Version wenn man AA einschaltet.

:|

VoodooJack liefert Fakten!

Crushinator
2003-05-24, 00:05:18
Originally posted by LovesuckZ (...) Also schummelt ATi auch :D Jedenfalls scheinen sie es ggf. dabei besser drauf zu haben als nVidia, weil man's ihnen weder an der BQ noch im FreeLook nachweisen konnte. ;)

Demirug
2003-05-24, 00:09:09
Könnte bitte mal jemand was für mich nachprüfen?

Ich habe mit meiner grausamen 5200 das ganze mal durchgetestet:

Original 876 Punkte
Neu 760 Punkte

Was mich jetzt aber nun schwer gewundert hat ist folgendes:

Beim Original steht bei Settings->Max Anisotrophy eine 1 nachdem ich den Patch installiert habe steht da plötzlich eine 4. Kann das jemand bestätigen?

mapel110
2003-05-24, 00:21:21
Originally posted by Demirug

Beim Original steht bei Settings->Max Anisotrophy eine 1 nachdem ich den Patch installiert habe steht da plötzlich eine 4. Kann das jemand bestätigen?

jup, steht bei mir auch :o

/edit
hat keine auswirkungen auf die performance bei mir. also wird die einstellung wohl nicht beachtet.

VoodooJack
2003-05-24, 00:26:28
Also ich hab den neuesten Patch 330 noch nicht drauf.

Bei mir steht:

Max Anisotropy: 4

VoodooJack
2003-05-24, 00:32:46
Es geht doch nichts über eine schöne grafische Darstellung.

http://www.hothardware.com/hh_files/S&V/r9800256mb_gffx5900upd(2).shtml

mapel110
2003-05-24, 00:42:48
dein link funzt nit.

http://www.hothardware.com/hh_files/S&V/r9800256mb_gffx5900upd(2).shtml

*mittest*

/edit
hm, jetzt gehen beide auf einmal. :| versteh ich nit.
/edit2
as0, du hast ihn auch gefixt :bonk:

VoodooJack
2003-05-24, 00:44:57
Jetzt funzt er.

aths
2003-05-24, 00:45:09
Originally posted by ow
Das einzige was mich interessiert ist, fuer welche Gegenleistung Futuremark Geld von den HW-Herstellern kassiert. Warum sollten sie dafür, dass sie sich darum kümmern, dass Cheats keine Chance haben, von anderen Geld kassieren, oder habe ich dein Posting falsch verstanden?

aths
2003-05-24, 00:47:08
Originally posted by ow
-->
"This performance drop is almost entirely due to 8.2% difference in the game test 4 result, which means that the test was also detected and somehow altered by the ATi drivers.
--------------------------------------------------------------------------------

== Cheat Immerhin cheatet NV gleich 3x so viel wie ATI, insgesamt betrachtet cheatet NV sogar 12x so viel :nono: wie ATI.

tEd
2003-05-24, 00:48:36
offizielle antwort von ATi

The 1.9% performance gain comes from optimization of the two DX9 shaders (water and sky) in Game Test 4 . We render the scene exactly as intended by Futuremark, in full-precision floating point. Our shaders are mathematically and functionally identical to Futuremark's and there are no visual artifacts; we simply shuffle instructions to take advantage of our architecture. These are exactly the sort of optimizations that work in games to improve frame rates without reducing image quality and as such, are a realistic approach to a benchmark intended to measure in-game performance. However, we recognize that these can be used by some people to call into question the legitimacy of benchmark results, and so we are removing them from our driver as soon as is physically possible. We expect them to be gone by the next release of CATALYST.

http://www.beyond3d.com/forum/viewtopic.php?t=6032&start=20

aths
2003-05-24, 00:53:43
Originally posted by nggalai
Uiuiuiuiuiuiuiui.

http://www.hothardware.com/hh_files/S&V/r9800256mb_gffx5900upd(2).shtml Oh Gott und jetzt heult NV rum, weil sie da mal nicht die besten sind... wirklich böse von FM, ihr Produkt auf Konkurrenz-HW zu entwickeln. "Aber glaubt uns doch, *fleh*, wir HABEN das beste produkt... auch wenn dieser Bench das nicht zeigt - deshalb cheaten wir auch kräftig!" Wenn NV - in Teilen ja wirklich zurecht - den neuen 3dm kritisiert und als unbrauchbar hinstellt, dann sollten sie diese Schiene glaubwürdig fahren, und keinen Wert auf diesen Score legen.

mapel110
2003-05-24, 00:59:34
With all the talk about ATi and Nvidia cheating and stuff, I figured I throw out some results with using a Matrox Parhelia. I know, I know... It's not a gaming card. Well it's the only Dual DVI card that at least plays most games respectively. Here is what I got from the old to the new update:

System Specs:

* Pentium IV 2.4GHz C @ 2.9GHz
* Windows XP Professional / SP1
* 1.4.0.78 WinXP Display Drivers
* SATA Raid - 2 10K Raptors
* MSI 875P NEO-LSR
* Matrox Pahrelia
* 1Gig of DDR
* DirectX 9.0a

3DMark03 330 Patch: 895 Marks
3DMark03 320 Patch: 894 Marks

So needless to say I don't think Matrox has anything to worry about
http://www.3dchipset.com/#top

matrox tuts nicht :o

Salvee
2003-05-24, 01:00:59
Originally posted by mapel110
With all the talk about ATi and Nvidia cheating and stuff, I figured I throw out some results with using a Matrox Parhelia. I know, I know... It's not a gaming card. Well it's the only Dual DVI card that at least plays most games respectively. Here is what I got from the old to the new update:

System Specs:

* Pentium IV 2.4GHz C @ 2.9GHz
* Windows XP Professional / SP1
* 1.4.0.78 WinXP Display Drivers
* SATA Raid - 2 10K Raptors
* MSI 875P NEO-LSR
* Matrox Pahrelia
* 1Gig of DDR
* DirectX 9.0a

3DMark03 330 Patch: 895 Marks
3DMark03 320 Patch: 894 Marks

So needless to say I don't think Matrox has anything to worry about
http://www.3dchipset.com/#top

matrox tuts nicht :o

Bei Matrox geht ja auch GT4 nicht :D

Richthofen
2003-05-24, 01:08:58
Originally posted by Demirug
Das ist wohl der Anfang vom Ende für Futuremark.

Mit dem schönen Audit haben die Jungs sich gerade ihr eigenes Grab geschaufelt indem sie öffentlich erklären das und wie der 3dmark03 durch einen Treiber gecheated werden kann.

Die Story wird jetzt wohl wie folgt weitergehen:

-nVidia wird durch entsprechende Kanäle einen neuen Treiber leaken lassen der wieder die "volle" Performances bringt aber im Freefly modus die Fehler nicht mehr zeigt.

-Futuremark bringt einen neuen Patch der die Punkte von nVidia wieder nach unten drückt was sofort wieder mit einem neuen Treiber kompensiert wird.

Die Erkenntniss daraus ist das man für den 3dmark nur noch Treiber benutzen darf die älter als der letzte Patch sind. Damit ist der 3dmark für Treibervergleiche entgültig disqualifiziert. Auch für neue Karten kann er nicht direkt benutzt werden weil diese ja auch erst mal einen neuen Treiber mitbringen. Futuremark muss dann erst mal wieder einen Patch bringen und irgendwann kann man die shader auch nicht mehr ändern ohne die Funktionalität grundlegen zu ändern. Das ganze wird den meisten Reviewer zu blöd werden.

Jop so seh ich es auch. Der Bench verliert an Bedeutungslosigkeit. Er ist zu undurchsichtig und nicht transparent, das Beta Tester Programm wohl Geld eingesackt wird ist auch nicht das wahre, und er ist billig programmiert, so dass er sich tot cheaten lässt und was viel wichtiger ist, er sagt über die Performance der Grakas nix aus. Eine FX5900 Ultra liegt jetzt deutlich hinter einer 9800pro. Komisch nur das das in GAmes ganz anders aussieht. Vielleicht erklärt mir das FM mal.
Der Test ist sowieso für die Tonne, weil NV mit einer ganz anderen Präzision rendert als ATI insofern ist das schonmal murks.

Ich geb dem Test nicht mehr allzulange. NV wird mit den nächsten Treibern das Bild wieder gerade rücken und die Reviwer haben irgendwann die Schnauze voll. Hardocp nimmt ihn schon nicht mehr in seine Reviews auf und andere große Seiten werden früher oder später folgen.
Bei ATI gabs auch Unregelmäßigkeiten. Wieviel das nun in Performance ist, ist dabei doch unerheblich. Wer sagt mir denn, dass ATI auf Grund des Beta Tester Programms nicht mehr Einsicht hat und damit versteckter cheaten kann und wer garantiert mir das FM NV Karten nicht künstlich einbremst? Richtig niemand kann das garantieren. Ergo weg mit dem Bench. Der ist doch sowieso unerheblich. Der NV35 ist das schnellste Produkt so oder so. Dazu brauch ma den 3DMurks sicher nicht um Gegenteiliges festzustellen. Ich kann 3DMurks leider nicht spielen und insofern weg damit.

Könnte gut sein, dass die Rechtsabteilungen hier auch noch was zu tun bekommen.

Richthofen
2003-05-24, 01:11:34
Originally posted by aths
Immerhin cheatet NV gleich 3x so viel wie ATI, insgesamt betrachtet cheatet NV sogar 12x so viel :nono: wie ATI.

Tja das kann aber auch 2 Gründe haben.
A) ATI kann versteckter Cheaten weil sie mehr Einfluss haben bzw. mehr Einsicht
B) ATIs Treiberabteilung ist nach wie vor grottig und kann mit der von NV da nicht mithalten.
C) FM bremst NV künstlich aus
D) NV rendert sowieso mit einer höheren Präsizion. Wer mehr IQ hat darf auch langsamer sein.

Cenmocay
2003-05-24, 01:17:08
ATI is the Nr 2 !
Und bekommt von mir die goldene Himbeere für die schlechtesten Treiber ever. hahaaaa

aths
2003-05-24, 01:18:17
Originally posted by Richthofen
Tja das kann aber auch 2 Gründe haben.
A) ATI kann versteckter Cheaten weil sie mehr Einfluss haben bzw. mehr EinsichtDas kann sein, ja. Allerdings glaube ich nicht, das FM ATI diesbezüglich "schützt". Anderen fallen Ungereimtheiten ja auch auf. Instruction Reordering, was ATI machte und ja nun zugegeben hat (hat NV seine Cheats inzwischen zugegeben?) ist für mich ein klarer Cheat, sofern das nicht dynamisch für alle Anwendungen gilt. ATI hat versprochen, das wieder zu entfernen. Mal sehen, ob NV auch so vernünftig ist, oder bockig reagiert.
Originally posted by Richthofen
B) ATIs Treiberabteilung ist nach wie vor grottig und kann mit der von NV da nicht mithalten.Ich finde es nicht "grottig", wenn weniger gecheatet wird.
Originally posted by Richthofen
C) FM bremst NV künstlich ausWie soll das gehen? Warum deckt NV nicht die Stellen auf, wo FM das tun sollte? NV hat geweint, weil ihr Produkt aufgrund 4x2 nicht so gut für Single Texturing Szenen geeignet ist. Dafür kann aber FM nichts. Beide, FM und NV bringen jeweils Gründe, warum der 3DM gut bzw. schlecht ist. Nun ist dieser Bench so da, wie er ist, und man schneidet ab, wie man abschneidet. Was hätte FM davon, NV-Produkten künstlich einen niedrigeren Score zu verpassen?
Originally posted by Richthofen
D) NV rendert sowieso mit einer höheren Präsizion. Wer mehr IQ hat darf auch langsamer sein. Rendert NV inzwischen wieder mit 128 Bit und nicht nur mit 64?

Aquaschaf
2003-05-24, 01:20:54
Originally posted by Richthofen


Tja das kann aber auch 2 Gründe haben.
A) ATI kann versteckter Cheaten weil sie mehr Einfluss haben bzw. mehr Einsicht
B) ATIs Treiberabteilung ist nach wie vor grottig und kann mit der von NV da nicht mithalten.
C) FM bremst NV künstlich aus
D) NV rendert sowieso mit einer höheren Präsizion. Wer mehr IQ hat darf auch langsamer sein.

Ok ... A,B,C,D - 2 Gründe ... diese Denkweise erklärt vermutlich deinen restlichen Gedankengang .

A , B und C darf man wohl ausschließen , und D würde ich nicht gelten lassen , sozusagen selber Schuld wenn der NV30 mit fp32 rendert , es hat sich auch niemand beschwert , weil der R300 in 3dm2001 mit FP24 rendert , obwohl die GF4Ti nur mit Integer rendert .

Salvee
2003-05-24, 01:27:51
Originally posted by Richthofen


Jop so seh ich es auch. Der Bench verliert an Bedeutungslosigkeit. Stimmt ! ;)

Originally posted by Richthofen
Er ist zu undurchsichtig und nicht transparent, das Beta Tester Programm wohl Geld eingesackt wird ist auch nicht das wahre, und er ist billig programmiert, so dass er sich tot cheaten lässt und was viel wichtiger ist, er sagt über die Performance der Grakas nix aus. Eine FX5900 Ultra liegt jetzt deutlich hinter einer 9800pro. Komisch nur das das in GAmes ganz anders aussieht. Vielleicht erklärt mir das FM mal.

Die Undurchsichtigkeit erlaubt es imo, diese Cheats auffliegen zu lassen. Die einzigen, die bei dem Programm durchblicken, sind FM, und das ist gut so. NV35 verliert bei simplen PS2.0 Tests 56%(ATi 0%), beim VS2.0 Test 37% (ATi 0%). Sieht imo nicht danach aus, dass NV35 das schnellste Produkt sein soll, zumindest nicht durch die Bank weg.
Originally posted by Richthofen
Der Test ist sowieso für die Tonne, weil NV mit einer ganz anderen Präzision rendert als ATI insofern ist das schonmal murks. Darf ich dich an diesen Quote erinnern, wenn du deinen Senf zu Doom3-Benchmarks abgibst ?
Originally posted by Richthofen
Der NV35 ist das schnellste Produkt so oder so.

Wieso ? Weil nVidia draufsteht ?

AlfredENeumann
2003-05-24, 01:48:39
Originally posted by LovesuckZ


Also schummelt ATi auch :D

Hallo Sucki. Das hatten wir doch schon. ATI schumelt ein wenig und nu is gut.

Sphinx
2003-05-24, 01:57:28
Originally posted by Richthofen

Der Test ist sowieso für die Tonne, weil NV mit einer ganz anderen Präzision rendert als ATI insofern ist das schonmal murks.



Aha und Spiele sind auch für den Murks siehe Doom3 - Ein spezielles NV3x Renderpfad...

Da willst du dann von gerechtigkeit ungerechtigkeit preisen...
Forget it...

Nvidia Bescheist in Benchmarks|Spielen|Versprechungen etc. und ati auch... jeder auf seine eigene art...

So setzen 6

Demirug
2003-05-24, 02:06:10
Fassen wir einmal zusammen:

Der 3dmark ist von Treiber primär über seine Shader erkennbar. Umbennen der Exe wird da also in Zukunft nichts helfen weil den Trick ja jetzt jeder kennt.

Bisher bekannte möglichkeiten zu cheaten sind:
1. Unterdrücken des Framebufferlöschens.
2. Ändern der Shader
3. Die Clipplanegeschichte die ich aber ehrlich gesagt immer noch nicht ganz verstanden habe. Ich kann da einfach nicht erkennen wie man da bei einer normalen Kamerafahrt mit zwei Clipplanes was gut machen kann.
4. ... (das weiss selbst FM noch nicht)

Nun noch ein paar persönliche Komentare von mir dazu:

1. Erste regel beim Optimieren: "Entferne alles was sowieso unnötig ist". Warum löscht der 3dmark bei den Tests 2 (innerhalb des Schiffs)und 3 und 4 überhaupt den Framebuffer wenn doch sowieso feststeht das jeder Pixel überzeichnet wird? Nur um unnötige Arbeit für die Grafikkarte zu erzeugen? IMHO nicht gerade sehr realistisch.

2. Das ändern der Shader wird gang und gebe werden. (NV treibt diese Spiel schon mindestens seit der GF1 und DX7) Denn nur so läst sich die maximale performances aus jedem Chip holen. Der Shadercode läst sich leider nicht 1 zu 1 direkt auf die Hardware abbilden. Es bleibt nur zu hoffen das dies in neueren Treibern auch weitgehend automatisch bassiert so das man sich nicht für jedes neue Spiel erst mal die passenden Shadersätze besorgen muss. Wenn allerdings die Funktionalität verändert wird ist das nicht mehr in Ordnung. Das Wasser muss ich mir nochmal genauer anschauen.

3. Da ich die Clipplane Sache ja nicht glaube werde ich zu diesem Punkt auch nichts weiter sagen.

4. Mal abwarten ob noch jemand herausbekommt was da noch gemacht wurde.

ice cool69
2003-05-24, 02:25:18
@ RH

du labberst mal wieder nen alten anti-ati-käse zusammen dass jedem halbwegs neutralen mitleser schlecht werden muss.
atis treiber sind scheiße, nvidia is präziser und "darf" langsamer sein (die sinnhaftigkeit is ne andere geschichte), armes nvidia wird künstlich ausgebremst (die bei futuremark arbeiten hauptsächlich an methoden wie man nv schlechter darstellen kann).

himmel hilf erlöse mich :D

Unregistered
2003-05-24, 02:41:17
Wieso zum Teufel nochmal brauchen Leute wie ow erst ein Statement von Futuremark um nvidia´s Cheating zuzugeben ? Was dann natürlich von der nV-Fraktion von Lümmeln wie Quasar sofort GLEICHGESETZT wird mit ATi. Beide cheaten gleich. Richthofen der Kapitalisti setzt dann noch dem ganzen 3DMark-Schmarrn die Krone auf. Traurig diese Unfähigkeit Fehler einzugestehen, sowohl von nVidia als auch ihren Kunden.

Crushinator
2003-05-24, 03:13:18
Jetzt mal völlig am Geflame vorbei:

@Demi
Bei mir stand auch vor und nach dem Build 330 4 x Max. Anisotropy

@all
Ich hatte auf meiner Win2K-Partition noch den CAT 3.2, also gleich paar Tests gemacht....für diejenigen, die es interessiert:

R97Pro @default

CAT 3.2 + 3DMurk03 320
--------------------------------
3DMark Score 4389 3DMarks
GT1 127,3 fps
GT2 30,4 fps
GT3 27,4 fps
GT4 27,0 fps
Fill Rate (ST) 1494,6 MTexels/s
Fill Rate (MT) 2267,2 MTexels/s
Vertex Shader 14,9 fps
Pixel Shader 2.0 41,1 fps
Ragtroll 19,5 fps

...

CAT 3.4 + 3DMurk03 330
--------------------------------
3DMark Score 4613 3DMarks
GT1 126,8 fps
GT2 33,0 fps
GT3 29,0 fps
GT4 28,5 fps
Fill Rate (ST) 1500,7 MTexels/s
Fill Rate (MT) 2296,5 MTexels/s
Vertex Shader 15,5 fps
Pixel Shader 2.0 43,0 fps
Ragtroll 21,2 fps

Unregistered
2003-05-24, 03:30:53
also so ganz schnall ich das nich
der neue Fm patch macht ja die Fx nun schlechter im 3dmark gell?
aber wenn die 4xaa und 8xaf anmachen hat sie noch recht guten speed drauf.da sind beide ati & nv gleich gut
ist das nun gut oder schlecht?
also ich meine wieso "cheatn" die bei der rohleistung was uns sowieso fast "egal" ist
und im quali modis ist sie ja guti
für mich ergibt das kein sinn das die nur im standart test da verliert
raff ich net sorry

colripley30
2003-05-24, 04:04:35
Originally posted by ice cool69
@ RH

du labberst mal wieder nen alten anti-ati-käse zusammen dass jedem halbwegs neutralen mitleser schlecht werden muss.
atis treiber sind scheiße, nvidia is präziser und "darf" langsamer sein (die sinnhaftigkeit is ne andere geschichte), armes nvidia wird künstlich ausgebremst (die bei futuremark arbeiten hauptsächlich an methoden wie man nv schlechter darstellen kann).

himmel hilf erlöse mich :D

Halte dich an die fakten!das ati in sachen treiber nicht so gut ,ist jedem klar.aber trotzdem hat ati in sachen treiber den grössten sprung gemacht.siehe noch vor ein zwei jahren,da waren sie wirklich mies.nv versucht ja nur einwenig anschluss zu finden mit ihren treibern ob mit erfolg wird sich noch weisen.das kann aber noch dauern.vieleicht wenn nv dann ie fx 10000 rausbringt.und mit IQ hat das wirklich nichts zu tun wegen langsamer.da ich für eine "gute"FX 150 euro mehr berappen muss um langsamer zu sein.Die FX-Reihen werden sicher nur intellegente leute kaufen!!!!!!!!!

colripley30
2003-05-24, 04:24:11
sich so über cheats aufregen!armes nv!!!oh gott die treiber.sich von murks so beeinflussen lassen ist schon recht doof.mit was spielt ihr eigentlich eure spiele?mit der hardware oder mit dem treiber?soll doch cheaten wer will.auf die leistung kommt es an.jeder sagt der dedonator ist so gut.ich spiel lieber mit einer guten karte als mit einem treiber.:O

SKYNET
2003-05-24, 05:08:41
Originally posted by ow


Ja das sehe ich genauso.
btw. ist das nicht das erste Mal das Futuremark/Madonion ein Problem hat.

Der Sysmark2002 verzeichnet ggü. dem 2001 eine sehr deutlichen Performance Zuwachs nur auf Intel CPUs, was AMD ebenfalls nicht gefallen hat.

http://www.heise.de/newsticker/data/jow-24.08.02-000/


INHELL optimiert bis zum fallout ! nen grund warum ich PCmark nurnoch als stabilitätstest nutze und für nix anderes !

SKYNET
2003-05-24, 05:16:29
lalala, also, ich glaube kaum das es am treiber von NVliegt das da soviele punkte zusammen kommen ! weil sonst währe die karte wohl kaum bei AF/FSAA schneller gelle ? die NV hat eindeutig die stärkere GPU und ATI hat deutlich was springel lassen damit der "patch" rauskommt ! ATI ist halb genauso wie NV ! bis aufdas das sie im vergleich mit NV miese treiber haben(nur im vergleich, im real life sind die treiber von ATI wirklich sehr gut)

kurz: der patch bremst NV wirklich aus !

betasilie
2003-05-24, 06:25:19
Ich habe jetzt keine Lust alles hier zu lesen, aber wieso werden echte Optimierungen, wie ATI sie gemacht hat, mit Cheatings ala nVidia gleichgesetzt, wie ow das hier propagiert!?

mapel110
2003-05-24, 07:08:09
Originally posted by betareverse
Ich habe jetzt keine Lust alles hier zu lesen, aber wieso werden echte Optimierungen, wie ATI sie gemacht hat, mit Cheatings ala nVidia gleichgesetzt, wie ow das hier propagiert!?

hm, naja, imo klingt das, was ATI zum benchergebnis des gametest4 sagt, leicht unglaubwürdig. aber was solls. die punkte sind bei beiden futsch, lets bench real applications.
bleibt zu hoffen, dass viele neue games mit benchfunktionen rauskommen. und vor allem mit möglichst unterschiedlichen engines.
leider gibts derzeit nur drei grosse(gute) 3D engines. quake3, unreal, serious

LovesuckZ
2003-05-24, 07:08:12
Originally posted by betareverse
Ich habe jetzt keine Lust alles hier zu lesen, aber wieso werden echte Optimierungen, wie ATI sie gemacht hat, mit Cheatings ala nVidia gleichgesetzt, wie ow das hier propagiert!?

naja, man kann cheats auch Optimierungen nennen. ATi Optimierunen fuer die Test 1+2+3 wirken dafuer immer noch und sie haben keine Leistung eingebueßt. Warum passiert das dann im Test4...

WeyounTM
2003-05-24, 08:06:55
[SIZE=1]Originally posted by Demirug
Das ist wohl der Anfang vom Ende für Futuremark.

Sachlich gesehen kann das durchaus so passieren. Aber abwarten ist wohl auch angesagt. Was ich bei Deinen Ausführungen ein wenig vermisse ist ein Gedanke dazu, ob das Verhalten von NV so dolle ist und ob dies nicht auch Auswirkungen für NV hat.

WeyounTM
2003-05-24, 08:15:02
Originally posted by aths
"Aber glaubt uns doch, *fleh*, wir HABEN das beste produkt... auch wenn dieser Bench das nicht zeigt - deshalb cheaten wir auch kräftig!" Wenn NV - in Teilen ja wirklich zurecht - den neuen 3dm kritisiert und als unbrauchbar hinstellt, dann sollten sie diese Schiene glaubwürdig fahren, und keinen Wert auf diesen Score legen.

Da muss ich Dir Recht geben. Als relativ neutraler Marktbeobachter ;) kann ich nur sagen, dass die Vorgehensweise von nVidia nicht gerade dienlich in Sachen Sympathiewertverbesserung (bei mir) ist. Und wahrscheinlich werden andere ähnlich denken...aber längst nicht alle.

WeyounTM
2003-05-24, 08:23:14
Originally posted by LovesuckZ


naja, man kann cheats auch Optimierungen nennen. ATi Optimierunen fuer die Test 1+2+3 wirken dafuer immer noch und sie haben keine Leistung eingebueßt. Warum passiert das dann im Test4...

Woher willst Du denn wissen, dass es für die ersten 3 Tests "Optimierungen"/ Cheats seitens Ati gibt ? Ist es denn abwegig, dass die Karten diese Tests einfach besser beherschen ?

LovesuckZ
2003-05-24, 08:32:22
Originally posted by Yosh
Woher willst Du denn wissen, dass es für die ersten 3 Tests "Optimierungen"/ Cheats seitens Ati gibt ? Ist es denn abwegig, dass die Karten diese Tests einfach besser beherschen ?

Da ich nicht davon ausgehe, dass sich die Treiber dynamisch an jeden Benchmark anpassen koennen.

http://firingsquad.gamers.com/hardware/catalyst_3.4/page4.asp

Und genau diese 9% Mehrleistung im Test4 verschwindet mit dem neusten Patch...

WeyounTM
2003-05-24, 08:36:47
Ja, das war doch schon geklärt, dass die Mehrleistung bei MN nun wech ist. Doch in Deinem von mir zitierten Statement sprichst Du doch indirekt an, dass bei den ersten 3 Tests bei ATi auch "gemogelt" wird. Und genau diese Theorie sehe ich in keinster Weise bestätigt.

mapel110
2003-05-24, 08:37:03
Originally posted by LovesuckZ


Da ich nicht davon ausgehe, dass sich die Treiber dynamisch an jeden Benchmark anpassen koennen.

http://firingsquad.gamers.com/hardware/catalyst_3.4/page4.asp

Und genau diese 9% Mehrleistung im Test4 verschwindet mit dem neusten Patch...

warum soll der test4 beweisen, dass bei den ersten 3 tests geschummelt wird ?

die 2.0 shader performance ist auch zurückgegangen. spricht imo dafür, dass ausschliesslich gametest4 nur performance verlieren muss, weil nur dort ps2.0 eingesetzt wird.
gegenargumente ?

WeyounTM
2003-05-24, 08:40:47
Originally posted by mapel110


warum soll der test4 beweisen, dass bei den ersten 3 tests geschummelt wird ?



Genau dies hätte ich von Lovesuckz gerne genauer dargelegt ;)

/edit: und ging es in diesem Thread nicht originär darum, dass Nvidia so richtig heftigst "geschummelt" hat :stareup:

LovesuckZ
2003-05-24, 09:02:10
Originally posted by Yosh
Ja, das war doch schon geklärt, dass die Mehrleistung bei MN nun wech ist. Doch in Deinem von mir zitierten Statement sprichst Du doch indirekt an, dass bei den ersten 3 Tests bei ATi auch "gemogelt" wird. Und genau diese Theorie sehe ich in keinster Weise bestätigt.

betareverse spricht von "echten Optimierungen". Diese seien jedoch nur in den ersten 3 testet vorhanden und im 4 Test sind es keine "echten Optimierungen" mehr. oder wie koennte man den Performanceverlust in Test4 erklaere? Waeren es "legale" Optimierungen, muesste die Leistung gleichbleiben, ist aber nicht so. Also cheatet ATi genauso wie Nvidia.

LovesuckZ
2003-05-24, 09:04:57
Originally posted by mapel110
die 2.0 shader performance ist auch zurückgegangen. spricht imo dafür, dass ausschliesslich gametest4 nur performance verlieren muss, weil nur dort ps2.0 eingesetzt wird.
gegenargumente ?

Hoe, 48,4 zu 48,4 sind bei mir 0% Rueckgang :|

LovesuckZ
2003-05-24, 09:06:06
Originally posted by Yosh
/edit: und ging es in diesem Thread nicht originär darum, dass Nvidia so richtig heftigst "geschummelt" hat :stareup:

Noe, hier geht es um das allgemeine cheaten im 3DMark2003 und nicht, wie doll nvidia nun cheatet.

WeyounTM
2003-05-24, 09:07:03
Beta bezog sich imho auf die Aussage von ATi, die ja erklärt haben, wie sich die Performanceverbesserung in Test 4 ergibt und dass sie den Code, welcher für die Verbesserung verantwortlich zeichnet aus dem Cata herausnehmen werden. Von den anderen Tests war seitens ATi und auch Beta nie die Rede.

Es bleibt also abzuwarten ob ein neuer Cata auch in den ersten 3 Tests schwächer wird. Was ich aber nicht unbedingt glaube.

zeckensack
2003-05-24, 09:08:26
Originally posted by Unregistered
also so ganz schnall ich das nich
der neue Fm patch macht ja die Fx nun schlechter im 3dmark gell?
aber wenn die 4xaa und 8xaf anmachen hat sie noch recht guten speed drauf.da sind beide ati & nv gleich gut
ist das nun gut oder schlecht?
also ich meine wieso "cheatn" die bei der rohleistung was uns sowieso fast "egal" ist
und im quali modis ist sie ja guti
für mich ergibt das kein sinn das die nur im standart test da verliert
raff ich net sorry 4xAA auf NV-Karten läuft im unsinnigen* OG-Modus ab und ist keinesfalls gleichwertig zu 4xAA auf R300 und aufwärts.

*weil das Verhältnis Qualitätsgewinn zu Leistungsverlust inakzeptabel ist; 4xRG produziert bei gleichem Aufwand 'doppelt' so schöne Kanten.

zeckensack
2003-05-24, 09:09:24
Originally posted by LovesuckZ


Noe, hier geht es um das allgemeine cheaten im 3DMark2003 und nicht, wie doll nvidia nun cheatet. Und wessen Cheats führen zu Renderingfehlern? ATI's auch?

WeyounTM
2003-05-24, 09:10:50
Originally posted by LovesuckZ


Noe, hier geht es um das allgemeine cheaten im 3DMark2003 und nicht, wie doll nvidia nun cheatet.

Man möge mir verzeihen, aber ich sehe es dann doch auch ein wenig aus Kundensicht und wenn man dann die Relationen des vorliegenden Falles betrachtet, dann würde ATi von mir eine kleine Ohrfeige bekommen während nVidia einen Tritt in die Weichteile verdient hätte.

Das der 3DMark nicht so das pralle Stück Software ist, wurde ja in unzähligen Threads durchgekaut. Aber das Verhalten der Hardwarehersteller ist imho nicht zu tolerieren. Das schließt ausdrücklich alle Hersteller ein, die nachweislich cheaten.

LovesuckZ
2003-05-24, 09:11:34
Originally posted by zeckensack
Und wessen Cheats führen zu Renderingfehlern? ATI's auch?

Und wann siehst du die Renderingfehlern? Genau dann, wenn du Tausende von €'s fuers betaprogramm bezahlst...

zeckensack
2003-05-24, 09:11:57
Originally posted by LovesuckZ


betareverse spricht von "echten Optimierungen". Diese seien jedoch nur in den ersten 3 testet vorhanden und im 4 Test sind es keine "echten Optimierungen" mehr. oder wie koennte man den Performanceverlust in Test4 erklaere? Waeren es "legale" Optimierungen, muesste die Leistung gleichbleiben, ist aber nicht so. Also cheatet ATi genauso wie Nvidia. Wenn du zu den ersten drei Tests nichts relevantes sagen kannst, dann laß es doch auch :eyes:

Zum Test 4: die Optimierung (eine legale Optimierung), ist insofern schlecht, weil sie nicht allgemein alle Shader vorteilhaft umsortieren kann, sondern speziell 3DM03-Shader wie auch immer erkennen muß.

Mit 'guter' Treibertechnologie erwarte ich ein solches Umsortieren der Instruktionen von allen IHVs.

WeyounTM
2003-05-24, 09:14:19
Originally posted by zeckensack
Mit 'guter' Treibertechnologie erwarte ich ein solches Umsortieren der Instruktionen von allen IHVs.

Das kann ich nur unterstreichen.

zeckensack
2003-05-24, 09:17:09
Originally posted by LovesuckZ


Und wann siehst du die Renderingfehlern? Genau dann, wenn du Tausende von €'s fuers betaprogramm bezahlst... Ich hab's an anderer Stelle schonmal gesagt, aber weil du's bist:

Wenn der NV-Treiber in der Lage wäre, die Modifikation der Szenengeometrie allgemeingültig zu gestalten, sodaß unabhängig von der Kameraposition alles korrekt dargestellt wird, dann fände ich das lobenswert.

Kyro kann's auch.

NV kann's offenbar nicht, nur unter Annahme spezieller Voraussetzungen. Wenn am Ende nicht das Bild herauskommt, das die Applikation dem Treiber zum Rendern aufgetragen hat, dann ist das ein Cheat.

Du fändest es bestimmt wahnsinnig witzig, wenn in Q3 auf 'Campgrounds' zwei Drittel des Levels fehlten, nur weil das gleiche Level im Demo Four gezeigt wird, und das da ja nicht auffällt???

Axel
2003-05-24, 09:56:38
Nvidia hat die Treiber für alle im 3Dmark2003 durchgeführten Test dermaßen verändert, daß ein besseres Leistungsbild der Karten erzeugt wird, welches so nicht vorhanden ist bzw. nur, wenn ein gewisses Optimum der Renderingarbeit erreicht wird, welches dann aber nicht in realen Anwendungen möglich ist.
ATi hat das Gleiche in einem Test des 3Dmark2003 gemacht. Man kann sicher darüber streiten, ob die Veränderungen von ATi die gleiche Qualität wie bei nVidia haben oder ob es sich um normale Verbesserungen handelt, die bei einzelen Spielen auch immer wieder gemacht werden. Auf der anderen Seite will ATi die Optimierung entfernen, so daß man sagen kann, daß es ebenfalls 3Dmark-spezifische Anpassungen sind.

Daraus zu schließen, daß nvidia die besseren Treiber hat, ist lächerlich. Gerade wenn man sich die zuletzt veröffentlichten Versionen anschaut, muss man sich fragen, ob die Qualität wirklich herausragend ist. Wohl eher nicht.

Winter[Raven]
2003-05-24, 10:02:53
so, dann meld ich mich auch mal zu dem thema

Und ich bin der gleichen Meinung wie Richthofen ... Der ganze Bench ist nix als ein Witz und Sinnlos. Ich will leistung in spielen und nicht bissel mehr Punkte von irgend welchen Geldgeschmierten Entwicklern aka Madonion team.

StefanV
2003-05-24, 10:10:23
Originally posted by Shakiro
Und ich bin der gleichen Meinung wie Richthofen ... Der ganze Bench ist nix als ein Witz und Sinnlos. Ich will leistung in spielen und nicht bissel mehr Punkte von irgend welchen Geldgeschmierten Entwicklern aka Madonion team.

Aber dennoch hat man als Firma keine 'Cheattreiber' für einen eigentlich nicht wirklich guten Benchmark zu veröffentlichen!!

Und man hat nichts zu unternemen, was einer anderen Firma, die nicht in der gleichen Branche wie man selbst ist, zu schaden!!!

Was NV also getan hat, ist absolut nicht in Ordnung!!

Die MN Optimierung von ATI kann man aber noch gerade so durchgehen lassen, weil man die gleiche Optimierung auch auf Spiele anwendet bzw anwenden kann...

Exxtreme
2003-05-24, 10:42:42
Originally posted by Richthofen
Eine FX5900 Ultra liegt jetzt deutlich hinter einer 9800pro. Komisch nur das das in GAmes ganz anders aussieht. Vielleicht erklärt mir das FM mal.

Ich weiss es, ich weiss es!

Liegt wohl daran, daß "normale" Spiele bei weitem nicht so shaderlastig sind wie der 3DMurks. Und da der NV35 trotz deutlich höherer Taktfrequenz deutlich langsamer in diesem ungecheateten Test ist las der R350, spricht nicht wirklich für die Shader-Einheiten der NV3x-Serie.
Originally posted by Richthofen
Der Test ist sowieso für die Tonne, weil NV mit einer ganz anderen Präzision rendert als ATI insofern ist das schonmal murks.

Naja, so sehe ich das nicht. Ich denke, daß sogar 16 Bit fp weit in die Zukunft völlig reichen werden. Insofern ist es egal ob dann 24 Bit fp oder 32 Bit fp zum Einsatz kommen. Ausserdem glaube ich nicht, daß der NV35 Geschwindigkeitsvorteile hätte, wenn man ihn auf 24 Bit fp setzen würde. Ich denke, 8 Bit wären dann als Füll-Bits verschwendet worden.

Winter[Raven]
2003-05-24, 10:43:29
ANWENDEN KANN, ES WIRD ABER NICHT ANGEWANDT und deswegen ist es auch völlig egal.

Exxtreme
2003-05-24, 10:44:58
Originally posted by aths
Oh Gott und jetzt heult NV rum, weil sie da mal nicht die besten sind... wirklich böse von FM, ihr Produkt auf Konkurrenz-HW zu entwickeln. "Aber glaubt uns doch, *fleh*, wir HABEN das beste produkt... auch wenn dieser Bench das nicht zeigt - deshalb cheaten wir auch kräftig!" Wenn NV - in Teilen ja wirklich zurecht - den neuen 3dm kritisiert und als unbrauchbar hinstellt, dann sollten sie diese Schiene glaubwürdig fahren, und keinen Wert auf diesen Score legen.
Sehe ich auch so. Anstatt zu zeigen, daß der Bench unrealistisch weil man in den Real-World-Spielen dann doch meist schneller ist, fangen die an zu cheaten und zeigen jetzt jedem wie wichtig die Ergebnisse in diesem Bench ihnen tatsächlich sind.

Exxtreme
2003-05-24, 10:51:27
Originally posted by Shakiro
ANWENDEN KANN, ES WIRD ABER NICHT ANGEWANDT und deswegen ist es auch völlig egal.
Doch, AFAIK wird es so gemacht, daß man bei bekannteren Spielen die Anweisungsreihenfolgen öfter vertauscht damit es mit dem eigenen Chip besser harmoniert.

StefanV
2003-05-24, 10:53:03
Originally posted by Shakiro
ANWENDEN KANN, ES WIRD ABER NICHT ANGEWANDT und deswegen ist es auch völlig egal.

Da hat ATI selbst aber was GANZ anderes gesagt...
In ihrem Statement steht ja auch was von üblicher Optimierung von Games...

BTW: dadurch, daß du schreist, ändert sich nichts an deiner Aussage ;)...

Winter[Raven]
2003-05-24, 11:06:21
Hehe ... Nvidia antwortet:

Since NVIDIA is not part in the FutureMark beta program (a program which costs of hundreds of thousands of dollars to participate in) we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer. We don't know what they did but it looks like they have intentionally tried to create a scenario that makes our products look bad. This is obvious since our relative performance on games like Unreal Tournament 2003 and Doom3 shows that The GeForce FX 5900 is by far the fastest graphics on the market today.

Ganz meiner Meinung ...

Welch ein Glück das wir in unserem Fan Projekt und unserer eigenen 3D Engine keinen ATi suport haben, da brauch ich mir ja keine Hinetretürchen für die Atioten zu machen.

WeyounTM
2003-05-24, 11:10:03
Originally posted by Shakiro
da brauch ich mir ja keine Hinetretürchen für die Atioten zu machen.

Ich glaube, Thowe vermißt gerade wieder seinen Hund Niveau. Dass die Töle sich aber auch immer aus dem Staub machen muss ;)

Demirug
2003-05-24, 11:10:30
nVidia hat es mit dem optimieren/cheaten definitive übertrieben aber bei machen dieser Dinge die da passieren frage ich mich echt ob es nun ein Cheat oder eine Optimierung ist.

Ich stütze mich jetzt einmal auf folgende Grundthesen:

Benchmarks und Spiele sind grundsätzlich gleich zu behandeln. Was bei einem Spiel erlaubt ist darf auch bei einem Benchmark gemacht werden und umgekehrt.

Die Grenze zwischen einer Optimierung und einem Cheat ist dort erreicht wo sich eine Vorgehensweise nicht mehr in der gleichen Art bei einem Benchmark und bei einem Spiel einsetzten läst. Bestes Beispiel sind Techniken die von einer festen Kamerafahrt abhängen = Cheat.

Ganz klar ein Cheat ist eintauschen von Bildqualität gegen Performances. Diese entscheidung muss immer noch der Anwender und nicht der Treiber treffen.

Kommen wir nun zu den einzelnen Tricks die im Zusammenhang mit den 3dmark angewendet wurde.

1. Austauschen von Shadern. Cheat oder Optimerung?
Solange díe Funktion nicht verändert wird, also aus den gleichen Grunddaten das gleiche ergebniss oder ein den Regeln entsprechende Ergebniss erzeugt wird ist das für mich klar eine Optimierung. Schöner wäre es natürlich wenn die Treiber dafür nicht auf eine Ersetzungdatenbank angewissen wären sondern wie zeckensack schon sagt eine verfahren zum automatischen anpassen hätten. Aber ich nehme trotzdem lieber die datenbank als gar nichts.

2. Ignorieren von Framebuffer löschanweisungen. Cheat oder Optimerung?
Hier ist die Sachelage schon komplizierter. Wenn man genau weiss das ein Spiel/Benchmark immer den Hintergund löscht und dann aber defintive jeden Pixel neu zeichnet ist das löschen eine überflüssige Aktion. Es spricht also IMHO nichts dagegen die Grafikkarte von dieser unnötigen arbeit zu entlasten. Diesen Fall haben wir bei Game 3 und wohl auch 4. Ist das löschen aber nicht immer überflüssig (Game 2) so muss der Treiber entweder eine absolut zuverlässige Methode haben zu erkennen ob nun gelöscht werden muss oder nicht und diese Methode darf natürlich nicht auf einer festen Kamerafahrt aufbauen. Kann man es nicht erkennen muss man sich eben dem Willen der Anwendung beugen und immer löschen. Das beste wäre natürlich wenn die Anwendung schon von vorne herein keine Lösunganweisungen schickt wenn sie nicht notwendig sind den dann kommt kein IHV auf die Idee das man hier noch etwas optimieren könnte.

Da ich die Bildfehler beim Game 4 nicht auf Clipplanes zurückführe sonder eine andere "optimierung" vermute spare ich mir eine genaue Betrachtung. Wobei für mich auch dort das bereits gesagte gilt. Jede Vorgehensweise (und sei sie auch noch so auf ein einzelnes Programm spezializiert) ist für mich solange eine Optimierung wie sie nicht von einer bestimmen festen abfolge (z.b. Kamerafahrt) abhängt.

StefanV
2003-05-24, 11:12:53
Originally posted by Shakiro
Ganz meiner Meinung ...

Welch ein Glück das wir in unserem Fan Projekt und unserer eigenen 3D Engine keinen ATi suport haben, da brauch ich mir ja keine Hinetretürchen für die Atioten zu machen.

1. nein, meine nicht!!
Bei 3DFX und der Kyro wars ja mit den 3DMarks ähnlich (beide keine TnL Einheit) und nun, wo NV auf einmal benachteiligt wird, heulen sie rum??
3DFX und PowerVR habens ja auch nicht gemacht, die sollen sich mal nicht so anstellen und mal lieber bessere Produkte auf den Markt werfen als rumzuheulen und andere für ihre schlechten Shader verantwortlich zu machen!!

2. ach, daher weht der Wind...
Dann wirst du wohl ein Problem haben, da die Verbreitung von ATI Karten stetig zunimmt...
Oder willst du ernsthaft alle Radeon User aussperren, bei 'eurer' Engine??

So einen Scheiß (nur Support für einen Hersteller) gabs mal zu Glide Zeiten, heutzutage ist das nicht mehr angemessen...

Exxtreme
2003-05-24, 11:16:46
Originally posted by Stefan Payne

So einen Scheiß (nur Support für einen Hersteller) gabs mal zu Glide Zeiten, heutzutage ist das nicht mehr angemessen...
Lass ihn doch. Das zeigt wieder, daß deren Programmierer den Sinn eines HW-unabhängigen API nicht verstanden haben... sprich, die Engine wird nichts taugen.


Ich als ein ATidiot lächele nur drüber.

StefanV
2003-05-24, 11:20:23
Originally posted by Exxtreme

Lass ihn doch. Das zeigt wieder, daß deren Programmierer den Sinn eines HW-unabhängigen API nicht verstanden haben... sprich, die Engine wird nichts taugen.


Ich als ein ATidiot lächele nur drüber.

1. oder, um es mal mit Richthofens Worten zu sagen, die Engine wird gnadenlos am Markt scheitern, da die Anzahl der (End) User, die keine NV HW drin haben, zunimmt...
Ansonsten kann ich dir nur Zustimmen!!

Der Sinn von OGL/D3D ist ja eigentlich, daß ich jede belibige Karte von jedem belibigen Hersteller nutzen kann und das Programm sollte laufen...
Wenn es das nicht tut, weil man z.B. unter OGL nur die Extensions von einem Hersteller nutzt (Gruß an Bioware), dann macht man schonmal etwas grundsätzlich falsch bzw hat ein falsches Verständnis von einer API...

2. Naja, einen weiteren Kommentar spare ich mir lieber...
Nur ein Spiel, daß nur auf einer Karte läuft, das kann man in die Tonne treten bzw sich den ganzen Aufwand sparen...

Wennn ich ein Produkt nicht wirklich verkaufen kann, weil die HW Basis dafür fehlt bzw zu gering ist, dann hab ich schonmal ein mittelschweres Problem...

Winter[Raven]
2003-05-24, 11:21:30
Oder willst du ernsthaft alle Radeon User aussperren, bei 'eurer' Engine??

Solange es ein Kostenloses Fan Projekt ist, VORERST JA, sollte ********** sich mal entschließen den Publisher zu spielen dann müssen wir uns mal darum kümmern, wobei Ati bis dahin noch viel Zeit hatt sich zu verbessern.

Ati ist keine Schlechte Firma, nur müssen sie mein VERTRAUEN zurück erobern den sie bei mir seit langem verloren ahben !

StefanV
2003-05-24, 11:25:55
Originally posted by Shakiro
Solange es ein Kostenloses Fan Projekt ist JA, sollte ********** sich mal entschließen den Publisher zu spielen dann müssen wir uns mal darum kümmern, wobei Ati bis dahin noch viel Zeit hatt sich zu verbessern.

Ati ist keine Schlechte Firma, nur müssen sie mein VERTRAUEN zurück erobern den sie bei mir seit langem verloren ahben !

1. dann kannst du dir das Projekt ja auch gleich schenken, siehe meinen Post über deinen...
Endweder für alle oder garnicht, ansonsten kannst du ja auch gleich Glide nehmen, das läuft dank Zeckes Emulator wenigstens auf mehr als nur auf Voodoos...

2. wenn du denn meinst...
Nur denke dran, was passieren könnte, wenn deine Engine "fertig" ist und du dir die Mails von Matrox Parhelia, Xabre und ATI User durchlesen darfst...

Mit dieser Einstellung strafst du doch nur die ATI User ab, die eventuell leicht säuerlich reagieren könnten, wenn dein Projekt nicht auf ihren Karten läuft...

Exxtreme
2003-05-24, 11:26:37
Stefan,

seit wann ist hier im Thread Trollfütterung angesagt?

;)

StefanV
2003-05-24, 11:28:14
Originally posted by Exxtreme
Stefan,

seit wann ist hier im Thread Trollfütterung angesagt?

;)

Sorry, ich wollte ihn nur dezent drauf hinweisen, daß er sich schonmal das Grab für sein Projekt geschaufelt hat :)

Das Post über deinem war das letzte zu dieser 'möchtegernengine'...

WeyounTM
2003-05-24, 11:29:11
Du hast (imho) doch brav mitgefüttert. Dein "Lass ihn doch" wäre für sich allein gesehen ausreichend gewesen ;)

Alles wie gesagt nur "imho" :D

Demirug
2003-05-24, 11:30:03
Originally posted by Exxtreme

Ich weiss es, ich weiss es!

Liegt wohl daran, daß "normale" Spiele bei weitem nicht so shaderlastig sind wie der 3DMurks. Und da der NV35 trotz deutlich höherer Taktfrequenz deutlich langsamer in diesem ungecheateten Test ist las der R350, spricht nicht wirklich für die Shader-Einheiten der NV3x-Serie.

Shaderlastig ist wohl zumindestens bei NV35 gar nichtso das Problem. Ich bin ja inzwischen mehrfach in den zweifelhaften genuss gekommen mir viel Shader code anzuschauen (von ATI programmert, von NVIDIA programmiert, vom MS-Compiler erzeugt, vom Cg Compiler erzeugt und nicht zuletzt die Shader im Shadermark von tb).

Was man dabei unzweifelhaft erkenen kann ist das MS/ATI auf der einen Seite und nVidia auf der anderen Seite dabei völlig anderen Mustern folgen. Was bei den Unterschieden in der Architektur auch nicht verwunderlich ist. Das dumme für nv ist dabei nur das sie jeden Shader der nach dem MS/ATI Muster geschrieben wurde defintive umstellen müssen wenn sie nicht einen Grossteil der möglichen Performance einfach verlieren wollen. Da kommt also noch viel Arbeit auf die Treiberprogrammier zu.

BlackBirdSR
2003-05-24, 11:32:05
Originally posted by Shakiro
Ati ist keine Schlechte Firma, nur müssen sie mein VERTRAUEN zurück erobern den sie bei mir seit langem verloren ahben !


ATI tut das in den letzten Monaten bei mir mit großem Anklang.
Seien es die Hardware, die Treiber oder die Treiber und Marketingleute in den Foren.
die Catalyst Suite samt Feedback Programm und die Einblicke in die Firma durch Besuche von Webseitenbetreibern.

Für mich arbeiten sie schwer daran.
Ich weiss nicht wie es Andere sehen. Nvidia macht momentan für mich jedoch genau das Gegenteil. Und das ist sehr Schade um das aufgebaute Vertrauen :(

Exxtreme
2003-05-24, 11:34:20
Originally posted by Demirug
Was man dabei unzweifelhaft erkenen kann ist das MS/ATI auf der einen Seite und nVidia auf der anderen Seite dabei völlig anderen Mustern folgen. Was bei den Unterschieden in der Architektur auch nicht verwunderlich ist. Das dumme für nv ist dabei nur das sie jeden Shader der nach dem MS/ATI Muster geschrieben wurde defintive umstellen müssen wenn sie nicht einen Grossteil der möglichen Performance einfach verlieren wollen. Da kommt also noch viel Arbeit auf die Treiberprogrammier zu.
Die einfachste Lösung wäre, daß die Spiele-Coder 2 Shader-Sets mitausliefern, einen für MS/ATi und einen für NV.

Das untergräbt aber leider den Sinn einer HW-unabhängigen API.


Eine andere Lösung wäre, daß der NV-Treiber den Shader-Code analysiert und den so ändert, daß dieser besser mit der HW harmoniert ohne das Endergebnis zu beeinflussen. Es wäre so eine Art optimierender Compiler im Treiber.

Demirug
2003-05-24, 11:46:33
Originally posted by Exxtreme

Die einfachste Lösung wäre, daß die Spiele-Coder 2 Shader-Sets mitausliefern, einen für MS/ATi und einen für NV.

Das untergräbt aber leider den Sinn einer HW-unabhängigen API.

Die API bleibt ja unabhängig. Die zusätzlichen Shadersets erfordern also keine Programmierarbeit an der Engine (bei DX) was ja schon mal gut ist.

Ein gutes Spiel braucht sowieso mehere Sets. Derzeit mindestens eines für DX7 und eines für DX8 (PS 1.1) Die ganz guten haben dann auch schon ein PS 1.4 Set (wenn es was bringt) und DX9 (auch hier nur wenn es etwas bringt) Sets.

Da wir sowieso alle Shadersets aus einer Codebasis erzeugen ist es mir von Prinzip her egal ob ich für ATI und nVidia unterschiedliche bauen lassen. Es dauert dann eben etwas länger bis der Shadergen komplett durchgelaufen ist. Aber den kann ich ja auch nebebei laufen lassen.

Eine andere Lösung wäre, daß der NV-Treiber den Shader-Code analysiert und den so ändert, daß dieser besser mit der HW harmoniert ohne das Endergebnis zu beeinflussen. Es wäre so eine Art optimierender Compiler im Treiber.

Wenn das was ich gehört habe stimmt soll genau das gemacht werden. Das ganze hängt aber eng mit dem Cg und OpenGL 2.0 Projekt zusammen und hat wohl noch nicht den nötigen Reifegrad das man es bedenkenloss in den Treiber einbauen möchte.

Exxtreme
2003-05-24, 11:52:30
Tim Sweeney meldet sich zu der Sache zu Wort:

http://www.beyond3d.com/#news6041

nagus
2003-05-24, 11:52:51
Originally posted by Quasar
Eine interessante Passage steht bei W2S aber nicht:


Interessant, dass hier nicht das Wort "cheat" fällt und ATi trotz Mitgliedstatus im Beta-Programm so dämlich war, sich erwischen zu lassen.

Cheaten tun also beide....






CATALYST maker
------------------------
Finally I can post!

Man Rage3D sure is a popular site these days! Thought I would pop in for a couple of points CM style!

1) I have nothing to say about what our competition has done. You guys can decide and hopefully the truth which is in front of you wont be overlooked

2) Looks like Beyond3D has already done my work for me. I quote two items. First from our guy Chris Evenden " We render the scene exactly as intended by Futuremark, in full-precision floating point. Our shaders are mathematically and functionally identical to Futuremark's and there are no visual artifacts; we simply shuffle instructions to take advantage of our architecture."

That is a very important statement you need to understand. When every CATALYST comes out and you see performance boosts, what do you think you are getting? To put it bluntly it is optimizations which make the original code run more efficient.That is how we can continually improve performance. Usually it is applicable to all situations but this one in question was in particular to 3DM (as no other games use its engine).

The second comment I would like to relate that to is from Tim Sweeney, the lead developer for the UT games. (also found on Beyond3d)

".. any code optimization performed on a function that does not change the resulting value of the function for any argument, is uncontroversially considered a valid optimization. "

That guys is exactly what we did. We optimized the code without changing the end resutl.

3) I had a few meetings today and it was decided that we back out the 3DMark optimizations. I was not in favour of this as we are not cheating nor degrading image quality. We are giving ATI users the benefit of our research on the code. Anyways it was decided that we back out the optimizations but I promise you we will continue to work to find ways of getting the percentages back!

So there you have it. A little explanation goes a long way to understand this complex industry.

As anyone who knows me from the threads will tell you, I am a straight up guy, and if ATI was up to funny business I would not be associated with them any longer.

Now get back to some gaming on your RADEON's or "no drivers for you"

PS. Althought our guy Chris promised we would back out the optimizations from 3DMark in our next CATALYST, I will only permit that if it doesnt delay our postings. You have my word we will continue to post at the feverish rate we started last year, that left our competition in our dust!

Later everyone

CM
--------------------

quelle: http://www.rage3d.com/board/showthread.php?threadid=33687789&perpage=20&pagenumber=2


wer ist hier dämlich? hmm?

zeckensack
2003-05-24, 11:53:47
Wenn ich jetzt fies wäre, würde ich sagen daß das wieder nur ein weiterer Beleg ist, daß die 'HW-Unabhängigkeit' von DX Graphics Augenwischerei ist. Oy, ich glaube ich bin fies *eg*

Die Industrie hätte besser daran getan, diese seit DX5 sinnlos verballerte Energie auf das Vorantreiben einer vernünftigen Grafik-API zu verwenden :naughty:

Davon abgesehen ist es mir absolut schleierhaft, was an instruction reordering so schwer sein soll :|

nagus
2003-05-24, 11:55:45
Originally posted by ow



War doch klar, oder?

stimmt, war auch klar für mich dass du auf nvidias seite bist.

btw, http://www.beyond3d.com/forum/viewtopic.php?t=6042

BlackBirdSR
2003-05-24, 12:06:16
Originally posted by nagus


du bist so super

:|

es gibt einen großen unterschied zwischen nvidias cheating und atis optimierungen. das eine verfälscht das endergebnis und die bildqualität erheblich, atis methode der optimierung greift auch bei realen spielen und verfälscht die bildqualität nicht.

ati jetzt des cheatings zu bezichtigen ist und auf die gleiche stufe mit nvidia zu stellen ist schlicht und ergreifend dummdreist.
toll 2 fanatiker treffen aufeinander und lassen ihre gegenseitigen festen Überzeugungen aufeinanderprallen. Am Schluss gewinnt keiner was, und um variable Meinungen geht es sowie so schon lange nicht mehr.

immer weiter so. Der Thread zeigt wirklich gut, wie schön man so ein Thema "diskutieren" kann, Merkt ihr nicht dass ihr hier nicht diskutiert sondern Viele für ihre Überzeugung kämpfen als wäre es eine Religion.
einfach toll.

Exxtreme
2003-05-24, 12:06:37
nagus,

beruhige dich bitte!

nagus
2003-05-24, 12:09:02
Originally posted by seahawk


Die einzige Erkenntnis aus dem ganzen Vorfall ist, 3DMark ist kein Benchmark zur Beurteilung von Grafikkarten und sollte bei der Bewertung keine Rolle mehr spielen.

mit dem neuen patch schon. cheating wird jetzt unterbunden. also wieso nicht damit vergleichen?

ahhh, ich verstehe. weil nvidia jetzt wieder langsamer als ati ist. natürlich, hätte ich fast vergessen, entschuldigung

:|

Demirug
2003-05-24, 12:16:14
Originally posted by zeckensack
Wenn ich jetzt fies wäre, würde ich sagen daß das wieder nur ein weiterer Beleg ist, daß die 'HW-Unabhängigkeit' von DX Graphics Augenwischerei ist. Oy, ich glaube ich bin fies *eg*

Kann eine API die so dicht an der Hardware arbeitet wirklich unahhängig sein?

Nein. DX war es niemals und wird es wohl erst werden wenn es nur noch GPUs gibt die wie CPUs über einen identischen Befehlssatz auf Hardwareebene verfügen. Und selbst dann kan man sich wie man bei den CPUs ja schön sieht immer noch auf einen Hersteller einschiessen.

Die Industrie hätte besser daran getan, diese seit DX5 sinnlos verballerte Energie auf das Vorantreiben einer vernünftigen Grafik-API zu verwenden :naughty:

Gut gebrüllt Löwe aber wenn ich mir anschaue wie lange es teilweise dauert bis man sich bei OpenGL mal zu einer einheitlichen Linie entschliesst habe ich da keine Hoffnung.

Davon abgesehen ist es mir absolut schleierhaft, was an instruction reordering so schwer sein soll :|

Schon mal einen Funktionsbaum eines langen Shaders gesehen? Falls ja solltest du die Antwort auf die Frage eigentlich kennen. Das dumme ist das so etwas absolute Fehlerfrei sind muss. Deswegen überlasse ich diese arbeit nachdem ich den baum erstellt habe auch lieben gerne den Compilern (CPU und GPU).

VoodooJack
2003-05-24, 12:18:47
Zunächst mein Kommentar:

1. Nvidia ist im 3DMark03 beim Cheaten ertappt worden. Da helfen jetzt auch Ablenkungsmanöver nicht. Die Zahlen (20% weniger ohne AA, 18% weniger mit AA) sprechen eine deutliche Sprache. Außerdem haben Extremetech und Beyond3D aufgezeigt, wie Nvidia das hingekriegt hat. Sonst wüssten wir das heute noch nicht.

2. ATI ist nicht beim Cheaten ertappt worden. Ca. 2% weniger ohne AA und ca. 2% mehr mit AA! Wie kann man da nur von Cheaten sprechen? ATIs Optimierungen bewegen sich im Rahmen der üblichen und ganz normalen Verbesserungsanstrengungen seitens IHVs. ATI hat sich bisher explizit an FutureMarks Vorgaben gehalten. Und was ganz wichtig ist, die Bildqualität durfte unter ATIs Optimierungen nicht leiden.


Und nun Catalyst Maker's Stellungsnahme, abgegeben im Rage3D Forum:

CATALYST MAKER (ATI's software product manager) on Rage3D:

Finally I can post!
Man Rage3D sure is a popular site these days! Thought I would pop in for a couple of points CM style!

1) I have nothing to say about what our competition has done. You guys can decide and hopefully the truth which is in front of you wont be overlooked

2) Looks like Beyond3D has already done my work for me. I quote two items. First from our guy Chris Evenden " We render the scene exactly as intended by Futuremark, in full-precision floating point. Our shaders are mathematically and functionally identical to Futuremark's and there are no visual artifacts; we simply shuffle instructions to take advantage of our architecture."

That is a very important statement you need to understand. When every CATALYST comes out and you see performance boosts, what do you think you are getting? To put it bluntly it is optimizations which make the original code run more efficient.That is how we can continually improve performance. Usually it is applicable to all situations but this one in question was in particular to 3DM (as no other games use its engine).

The second comment I would like to relate that to is from Tim Sweeney, the lead developer for the UT games. (also found on Beyond3d)

".. any code optimization performed on a function that does not change the resulting value of the function for any argument, is uncontroversially considered a valid optimization. "

That guys is exactly what we did. We optimized the code without changing the end resutl.

3) I had a few meetings today and it was decided that we back out the 3DMark optimizations. I was not in favour of this as we are not cheating nor degrading image quality. We are giving ATI users the benefit of our research on the code. Anyways it was decided that we back out the optimizations but I promise you we will continue to work to find ways of getting the percentages back!

So there you have it. A little explanation goes a long way to understand this complex industry.

As anyone who knows me from the threads will tell you, I am a straight up guy, and if ATI was up to funny business I would not be associated with them any longer.

Now get back to some gaming on your RADEON's or "no drivers for you"

PS. Althought our guy Chris promised we would back out the optimizations from 3DMark in our next CATALYST, I will only permit that if it doesnt delay our postings. You have my word we will continue to post at the feverish rate we started last year, that left our competition in our dust!

Later everyone

CM

Anárion
2003-05-24, 12:22:50
Originally posted by nagus

Flame...Flame...*feuerspei*



Wieso lässt du dich provozieren? Wenns so weitergeht und du noch mehr Feuer speien willst, dann lass dir gesagt sein, daß du eventuell mal ne Auszeit kriegst. Dein Verhalten geht mir auf den Sack, und nicht nur mir. Ewig dasselbe rumgehacke, hin und her.

Edit: Threadberuhigungsmethode eingeleitet

nagus
2003-05-24, 12:27:04
Originally posted by Anárion


Wieso lässt du dich provozieren? Wenns so weitergeht und du noch mehr Feuer speien willst, dann lass dir gesagt sein, daß du eventuell mal ne Auszeit kriegst. Dein Verhalten geht mir auf den Sack, und nicht nur mir.

Edit: Threadberuhigungsmethode eingeleitet



jemand muß den nvidioten die stirn bieten. richthofens "argumente" sind, verzeihung, milde ausgedrückt "nicht richtig".

WeyounTM
2003-05-24, 12:29:11
Originally posted by nagus


jemand muß den nvidioten die stirn bieten. richthofens "argumente" sind, verzeihung, milde ausgedrückt "nicht richtig".

Das kann man aber auch stilistisch besser hinbekommen. Man muss ja Gleiches nicht mit Gleichem vergelten. Meine Wenigkeit ist ja auch auf Richthofen's Posting eingegangen ohne gleich in die Luft zu gehen ;)

Exxtreme
2003-05-24, 12:29:49
Originally posted by nagus


jemand muß den nvidioten die stirn bieten.

Man muss gar nichts. ;)
Originally posted by nagus
richthofens "argumente" sind, verzeihung, milde ausgedrückt "nicht richtig".
Dann widerlege sie bitte sachlich und ruhig. Dann hat auch niemand was dagegen.

Dein jetziger Argumentationsstil ist leider nicht besonders gut. Du versuchst mit u.A. sarkastischen Mitteln dein Gegenüber lächerlich zu machen.

LovesuckZ
2003-05-24, 12:32:22
Originally posted by nagus
jemand muß den nvidioten die stirn bieten. richthofens "argumente" sind, verzeihung, milde ausgedrückt "nicht richtig".

Nur machen die "nvidioten" deutlich weniger ATi-Bashing auf als die "fanatiker" NV-Bashing threads...

WeyounTM
2003-05-24, 12:32:27
Was mich mal zwischendurch interessieren würde: könnte man zu dem Thema 3DMark-Cheating mal eine Linksammlung erstellen ? Würde mich sehr interessieren, wie andere Websites bzw. die Presse das Thema aufnimmt (wenn überhaupt).

Pathfinder
2003-05-24, 12:32:29
Originally posted by Anárion


Wieso lässt du dich provozieren? Wenns so weitergeht und du noch mehr Feuer speien willst, dann lass dir gesagt sein, daß du eventuell mal ne Auszeit kriegst. Dein Verhalten geht mir auf den Sack, und nicht nur mir. Ewig dasselbe rumgehacke, hin und her.

Edit: Threadberuhigungsmethode eingeleitet



Sicher, deine Kritik ist nicht unberechtigt. Ungerecht jedoch ist sie. Du solltest nicht nur Nagus sondern auch andere, leicht erregbare eingetragene Mitglieder des Forum zur Ordnung rufen. Machst du deine Kritik nur an Nagus fest, ohne dabei weitere "schwere Fälle" einzubeziehen, wirkt sie einfach unglaubwürdig und von parteitaktischem Denken motiviert.

Denk darüber nach, Anarion!

zeckensack
2003-05-24, 12:33:45
Originally posted by Demirug
Schon mal einen Funktionsbaum eines langen Shaders gesehen? Falls ja solltest du die Antwort auf die Frage eigentlich kennen. Das dumme ist das so etwas absolute Fehlerfrei sind muss. Deswegen überlasse ich diese arbeit nachdem ich den baum erstellt habe auch lieben gerne den Compilern (CPU und GPU). Lösungsansatz:
Kompiliere den Shader (aus seiner wie auch immer gearteten Urform) in eine UPN*, dadurch sind alle Abhängigkeiten schonmal klar definiert.
Suche teilunabhängige Unterzweige. Ist in einer UPN trivial (ein binärer Operator 'konsumiert' zwei Werte, entweder einen Operanden oder das Ergebnis eines Operators; folgt also auf einen Operator eine Folge von mindestens zwei Operanden, so ist sein Ergebnis temporär, und wird erst später wieder genutzt => die Zweige kann man parallel ausführen, bzw interleaving betreiben).
Zähle die maximale 'Stack'-Tiefe der UPN. Wird gebraucht, um den Startpunkt des nächsten Schritts zu ermitteln:
Fülle (von hinten nach vorn, also rückwärts!) instruction 'slots'.

Sekundärer positiver Effekt: die (sinnlose, weil statische) Registerauswahl im Shader-Programm wird komplett verworfen. Probleme die aus unvorteilhaftem Registergebrauch entstehen, entfallen komplett.

Nachteil: UPN ist im Grunde eine Beschreibung für eine Stack-Maschine, wodurch ternäre Operationen (kil, predication) schwierig darstellbar sind. Das muß man berücksichtigen, wodurch das ganze komplizierter wird, aber keineswegs unmöglich.
'Richtiges' flow control dagegen kann man überhaupt nicht in UPN packen. Man kann die Technik aber trotzdem für die unabhängigen Glieder nutzen.

*umgekehrt polnische Notation, gehört zur Familie der Postfix-Notationen und beschreibt eindeutig geordnete Operationsbäume, und braucht keine Klammern oder andere explizite Ordnungskonstrukte. Klassisch 'Infix': a*(b+c) => UPN: abc+* oder 'moderner': bc+a*

Exxtreme
2003-05-24, 12:35:15
Hellbinder in Action:

http://www.rage3d.com/board/showthread.php?s=&threadid=33687835

Yeuemmaimais Kommentar dazu ist der Hammer.

:lol: :lol: :lol:

Demirug
2003-05-24, 12:40:00
@zeckensack: Ich glaube das wird hier jetzt zu OT und die meisten könnte uns ab hier jetzt sowieso nicht mehr folgende ;)

Da wir die NV3X Architekturen sowieso nicht bis ins Detail kennen tun wir und sowieso schwer das beste optimierungsverfahren zu finden.

WeyounTM
2003-05-24, 12:40:14
...snip...

And all you trekkies out there have the real reason behind the Federation/Klingon troubles IT WAS NVIDIA'S FAULT!!!

Wirklich genial und ein mega-:rofl: ! Vielleicht sollte man das Script Paramount zur Verfilmung geben. Ist besser als so manches original Star-Trek-Script :D

Mr. Lolman
2003-05-24, 12:45:11
Originally posted by Yosh


Wirklich genial und ein mega-:rofl: ! Vielleicht sollte man das Script Paramount zur Verfilmung geben. Ist besser als so manches original Star-Trek-Script :D

Ich finde, ATi sollts verfilmen lassen :)

BlackBirdSR
2003-05-24, 12:55:23
Originally posted by Yosh


Wirklich genial und ein mega-:rofl: ! Vielleicht sollte man das Script Paramount zur Verfilmung geben. Ist besser als so manches original Star-Trek-Script :D
man kann es auch überteiben ;)

ist sicherlich lustig zu lesen, aber das war es auch schon. Ich möchte gar nicht daran denken, wer sich jetzt in dem Thread wieder Alles persönlich beleidigt fühlt weil ihr statt darüber zu lachen es auch noch groß rausstellen müsst.

Iceman346
2003-05-24, 13:09:11
Originally posted by LovesuckZ


Nur machen die "nvidioten" deutlich weniger ATi-Bashing auf als die "fanatiker" NV-Bashing threads...

Jo und gut das du gleich nochmal Öl ins Feuer giesst. Bist du dir nicht bewusst das du selber flamest? Wenn doch dann betreibe das doch bitte woanders.

Anárion
2003-05-24, 13:10:58
Originally posted by Pathfinder


Sicher, deine Kritik ist nicht unberechtigt. Ungerecht jedoch ist sie. Du solltest nicht nur Nagus sondern auch andere, leicht erregbare eingetragene Mitglieder des Forum zur Ordnung rufen. Machst du deine Kritik nur an Nagus fest, ohne dabei weitere "schwere Fälle" einzubeziehen, wirkt sie einfach unglaubwürdig und von parteitaktischem Denken motiviert.

Denk darüber nach, Anarion!

Für blöd halten kann ich mich auch selbst ;)

So wird mit jedem vorgegangen, egal welcher "Zugehörigkeit"; also glaube nicht mir Parteilichkeit vorwerfen zu können.

Sphinx
2003-05-24, 13:28:08
Hey ~ bei Nvidia sind bestimmt ein paar Köpfe gerollt .=)
*LoL
Mal schauen wer es ist :=) oder sein wird...

Einer von den 4 Vier Peoples in den NV30 Video ? LoL di dort noch so schön nice am lachen waren ,=) nooOOO

LovesuckZ
2003-05-24, 13:38:36
Originally posted by Iceman346
Jo und gut das du gleich nochmal Öl ins Feuer giesst. Bist du dir nicht bewusst das du selber flamest? Wenn doch dann betreibe das doch bitte woanders.

Stimmt Iceman. Ich mache auch jede Woche nen neuen "ATi ist scheiße" Thread auf...

Iceman346
2003-05-24, 13:41:05
Originally posted by LovesuckZ


Stimmt Iceman. Ich mache auch jede Woche nen neuen "ATi ist scheiße" Thread auf...

Das nicht aber deine Äusserungen in diversen Threads sind auch nicht wirklich besser als die von Nagus oder Richthofen.

Aber eigentlich bezog ich mich speziell auf deine Aussage in diesem Thread die ich gequotet habe.

Razor
2003-05-24, 13:56:11
Originally posted by Exxtreme

Die Frage ist halt, kann man Cheats, die im Treiber sind, effektiv verhindern?

Einen Ausweg sehe ich in einer Zertifizierung. Die GraKa-Hersteller müssten ihre Treiber bei FM zertifizieren lassen. Das werden diese aber nicht tun.
Das wäre echt ein Hammer...
Hundert-Tausende von Euro's und dann noch eine Zertifizierung.
Und das bei einem Bench-hersteller !
Echt krass, Exxtreme.
:lol:

Razor

P.S.: Also langsam reichts wirklich... WEG MIT DEM MURKS !
:D

Razor
2003-05-24, 14:06:37
Originally posted by aths
Immerhin cheatet NV gleich 3x so viel wie ATI, insgesamt betrachtet cheatet NV sogar 12x so viel :nono: wie ATI.
Wen interesiert das ?
Fakt ist: beide cheaten !

Oder willst Du das herunter reden ?
???

Razor

Schnitzl
2003-05-24, 14:09:52
Originally posted by Anárion
(..)
So wird mit jedem vorgegangen, egal welcher "Zugehörigkeit"; also glaube nicht mir Parteilichkeit vorwerfen zu können.
Scheint mir irgendwie nicht so zu sein, wenn ich mir die Postings von R, L usw. anschaue.

Mir ist es sowas von egal, ob nVidia beim 3DMurks cheatet, aber mit welchen "Argumenten" hier manche nVidia verteidigen bzw. das ganze runterspielen wollen (wozu eigentlich?) - da wird mir echt schlecht.

MfG

Mr. Lolman
2003-05-24, 14:10:30
Originally posted by Razor

Wen interesiert das ?
Fakt ist: beide cheaten !

Oder willst Du das herunter reden ?
???

Razor

Das ist schon gernicht mehr Fakt. Du solltest dir auch mal hinundwieder nagus' Links ansehen :idea:

Razor
2003-05-24, 14:16:24
Originally posted by aths
Oh Gott und jetzt heult NV rum, weil sie da mal nicht die besten sind... wirklich böse von FM, ihr Produkt auf Konkurrenz-HW zu entwickeln. "Aber glaubt uns doch, *fleh*, wir HABEN das beste produkt... auch wenn dieser Bench das nicht zeigt - deshalb cheaten wir auch kräftig!" Wenn NV - in Teilen ja wirklich zurecht - den neuen 3dm kritisiert und als unbrauchbar hinstellt, dann sollten sie diese Schiene glaubwürdig fahren, und keinen Wert auf diesen Score legen.
Und wie soll das Deiner Meinung nach gehen ?
???

Razor

Schnitzl
2003-05-24, 14:18:11
Originally posted by VoodooJack
Und schon liegen erste Zahlen vor. Hothardware hat soeben ihr 9800Pro 256 MB vs GeforceFX 5900 Ultra Review vom 20. Mai im 3DMark03 Sektor upgedatet.

Before patch 330 vs after patch 330 in %

9800Pro 256mb

- 4xAA/4xAF: 2899 vs 2940 = +1.4%

- noAA: 5834 vs 5747 = -1.5%

GeforceFX 5900 Ultra

- 4xAA/4xAF: 3749 vs 3098 = -17.4%

- noAA: 6067 vs 4886 = -19.5%
:D

was hier jetzt cheat ist oder nicht und wie wichtig das ganze ist ist doch egal.

Geht mal raus in die Sonne ;)

Quasar
2003-05-24, 14:30:12
Originally posted by nagus
[...Cat-Maker Geblubber...]
quelle: http://www.rage3d.com/board/showthread.php?threadid=33687789&perpage=20&pagenumber=2
wer ist hier dämlich? hmm?
ATi.

Iceman346
2003-05-24, 14:31:14
Originally posted by Schnitzl

:D

was hier jetzt cheat ist oder nicht und wie wichtig das ganze ist ist doch egal.

Geht mal raus in die Sonne ;)

Sonne? Haben wir hier nicht :bäh:

@Razor
Lies mal Tim Sweeneys Aussage von Beyond 3D bevor du laut "Cheat0r" schreist.

Schnitzl
2003-05-24, 14:34:38
Originally posted by Quasar

ATi.
Warum ?

Quasar
2003-05-24, 14:43:41
Originally posted by Schnitzl

Warum ?

Denk mal drüber nach... wirst schon drauf kommen.

Der Treiber erkennt den Shadercode und stellt ihn um. Soviel steht fest und ist von ATi auch zugegeben worden.

Also ist der Benchmark-Wert, den man erhält höher, als wenn es keine 3DMark-spezifische Optimierung gegeben hätte, soviel steht nach simpler deduzierender Logik ebenfalls fest.

Insofern ist das genauso ein Versuch, den Kunden zu täuschen.

Ad1) Ob nun 2% oder 20% ist ein quantitativer aber nicht qualitativer Unterschied.

ad2) Inwieweit nun das "Endergebnis", also das fertig gerendert Bild davon beeinflusst wird, vermag ich nicht zu sagen.

edit:
Hier noch ein kleiner Vergleich zwischen "normal" und "330" mit FX5600:
Score: 2603 / 1960
GT1: 104,6 / 81,7
GT2: 17,3 / 14.1
GT3: 15,0 / 11.9
GT4: 12,8 / 7,2

StefanV
2003-05-24, 14:43:45
Originally posted by Razor

Wen interesiert das ?
Fakt ist: beide cheaten !

Oder willst Du das herunter reden ?
???

Razor

Falsch, ATI hat nicht gecheatet, ATI hat optimiert, wie sie jedes Spiel optimieren, NV hat gecheatet...

Lies dir mal die Kommentare von TS und CM durch!!

Exxtreme
2003-05-24, 14:44:46
Originally posted by Razor

Das wäre echt ein Hammer...
Hundert-Tausende von Euro's und dann noch eine Zertifizierung.
Und das bei einem Bench-hersteller !
Echt krass, Exxtreme.
:lol:

Razor

P.S.: Also langsam reichts wirklich... WEG MIT DEM MURKS !
:D
Ähhhm, Razor... Ich habe nicht gesagt, daß man es jetzt so machen soll.

Ich habe nur gesagt, daß dies eine mögliche Lösung wäre.

Nix für ungut.

StefanV
2003-05-24, 14:45:55
Originally posted by LovesuckZ
Stimmt Iceman. Ich mache auch jede Woche nen neuen "ATi ist scheiße" Thread auf...
Nein, du versuchst aber 'ab und an' mal NV schön zu reden bzw ATI schlecht...

Siehe Zeckensacks Postings auf deine...

@MMM
Ich brauch wohl nicht mehr zu sagen, oder?? *eg*

Unregistered
2003-05-24, 14:47:31
Originally posted by CATALYST MAKER on Rage3d.com

http://www.rage3d.com/board/showthread.php?threadid=33687789&perpage=20&pagenumber=2


1) I have nothing to say about what our competition has done. You guys can decide and hopefully the truth which is in front of you wont be overlooked

2) Looks like Beyond3D has already done my work for me. I quote two items. First from our guy Chris Evenden " We render the scene exactly as intended by Futuremark, in full-precision floating point. Our shaders are mathematically and functionally identical to Futuremark's and there are no visual artifacts; we simply shuffle instructions to take advantage of our architecture."

That is a very important statement you need to understand. When every CATALYST comes out and you see performance boosts, what do you think you are getting? To put it bluntly it is optimizations which make the original code run more efficient.That is how we can continually improve performance. Usually it is applicable to all situations but this one in question was in particular to 3DM (as no other games use its engine).

The second comment I would like to relate that to is from Tim Sweeney, the lead developer for the UT games. (also found on Beyond3d)

".. any code optimization performed on a function that does not change the resulting value of the function for any argument, is uncontroversially considered a valid optimization. "

That guys is exactly what we did. We optimized the code without changing the end resutl.

3) I had a few meetings today and it was decided that we back out the 3DMark optimizations. I was not in favour of this as we are not cheating nor degrading image quality. We are giving ATI users the benefit of our research on the code. Anyways it was decided that we back out the optimizations but I promise you we will continue to work to find ways of getting the percentages back!

So there you have it. A little explanation goes a long way to understand this complex industry.

As anyone who knows me from the threads will tell you, I am a straight up guy, and if ATI was up to funny business I would not be associated with them any longer.

Now get back to some gaming on your RADEON's or "no drivers for you"

PS. Althought our guy Chris promised we would back out the optimizations from 3DMark in our next CATALYST, I will only permit that if it doesnt delay our postings. You have my word we will continue to post at the feverish rate we started last year, that left our competition in our dust!

Later everyone

CM





@Quasar

Stellen wir uns wieder im entscheidenden Augenblick dumm?!

Du bist doch sonst so "tiefgründig" und legst gern dar, dass du differenzieren kannst. Warum nicht heute...

Exxtreme
2003-05-24, 14:50:28
Originally posted by Quasar


Denk mal drüber nach... wirst schon drauf kommen.

Der Treiber erkennt den Shadercode und stellt ihn um. Soviel steht fest und ist von ATi auch zugegeben worden.

Soweit richtig bisher.
Originally posted by Quasar
Also ist der Benchmark-Wert, den man erhält höher, als wenn es keine 3DMark-spezifische Optimierung gegeben hätte, soviel steht nach simpler deduzierender Logik ebenfalls fest.

Tja, nur die Art und Weise an sich, wie die beiden Kontrahenten das höhere Ergebnis erreichen unterscheidet sich. ATi stellt, laut Terry Makedon, die Reihenfolge der Shaderanweisungen um. Das visuelle Endergebnis ist aber anscheinend das gleiche, was an den Treiber geschickt wurde.

NVs Treiber wiederum krempelt etwas an der 3D-Szene um. Das Ergebnis ist nicht mehr das, was an den Treiber geschickt wurde.

Lies dir mal durch, was Tim Sweeney zum Thema zu sagen hat.

Quasar
2003-05-24, 14:51:42
Originally posted by Unregistered
@Quasar

Stellen wir uns wieder im entscheidenden Augenblick dumm?!

Du bist doch sonst so "tiefgründig" und legst gern dar, dass du differenzieren kannst. Warum nicht heute...

Erklär's mir.

ATi stellt den Shadercode um. Eine Optimierung oder ein Cheat? Vermittelt der Mother Nature Test jetzt noch das Bild, welches er ohne Optimierung nach aussen hin vermitteln würde?

Ich kann differenzieren, aber hier gibt es nur einen (ich schreib's für dich nochmal) quantitativen und keinen qualitativen Unterschied.

Wenn du von mir hören willst, daß nV hier _mehr_ schummelt als ATi: Ja, tun sie.
Ich frage mich nur, was das weiterhilft, wenn wir sehen, wer _wieviel_ schummelt bzw. wer durch optimierung mehr herausholt. Gar nichts, IMO.

Quasar
2003-05-24, 14:57:01
Originally posted by Exxtreme
Lies dir mal durch, was Tim Sweeney zum Thema zu sagen hat.
Zum zehnten Mal? Nö.

Tim Sweeney geht von einem theoretischen Fall aus. Cat-Maker behauptet, die Endergebnisse würden identisch sein. Futuremark hat das bislang noch nicht bestätigt.

Nach deiner Logik müssten die Optimierungen, die nV in den ersten Gametests vorgenommen hat (Backbuffer etc.) ja auch "gültig" sein, da sie das Endergebnis nicht verfälschen, oder?

Unregistered
2003-05-24, 15:00:56
Originally posted by Quasar


...
Ich kann differenzieren, aber hier gibt es nur einen (ich schreib's für dich nochmal) quantitativen und keinen qualitativen Unterschied.
...

Ein anderer Shader, der als Dreingabe dazu noch ein anderes visuelles Ergebnis liefert ist im Gegensatz zu einem umstrukturierten Shader mit absoluter Sicherheit ein qualitativer Unterschied der "Optimierung?".

Wenn du das nicht wahr haben willst, dann verbreite das doch weiterhin so auf deiner Seite. Ein durchschnittlich begabter Mensch erkennt den Unterschied und weiß diesen auch zu ordnen.

Demirug
2003-05-24, 15:05:11
Könnten wir uns mal auf ein paar Defintionen einigen?

Ich mache mal einen Vorschlag:

Optimierung: Massnahme welche ohne Verletzung der durch die API vorgegenen Regeln die Performance steigert.

Cheat: Massnahmenwelche welche durch absichtliche Verletzung von API-Regeln die Performance steigert.

Geschiet die Verletzung nur unbeachsichtigt haben wir es mit einem Bug zu tun.

Der IHV hat aber nun ein Problem zu beweisen ob es ein Bug oder ein Cheat ist. Kann er die gleiche Performance auch ohne die Regelverletzung erreichen muss man ihm wohl glauben das es ein Bug war. Führt die "Fehlerkorrektur" aber wieder zu einer geringeren Leistung war es wohl definitive ein Cheat.

Im Zweifel glaube ich aber eher an einen Cheat als an einen Bug.

Quasar
2003-05-24, 15:10:26
Originally posted by Unregistered


Ein anderer Shader, der als Dreingabe dazu noch ein anderes visuelles Ergebnis liefert ist im Gegensatz zu einem umstrukturierten Shader mit absoluter Sicherheit ein qualitativer Unterschied der "Optimierung?".

Wenn du das nicht wahr haben willst, dann verbreite das doch weiterhin so auf deiner Seite. Ein durchschnittlich begabter Mensch erkennt den Unterschied und weiß diesen auch zu ordnen.
Wo habe ich zu diesem Thema etwas auf "meiner Seite" (welche im übrigen nicht meine Seite ist) verbreitet?

Als offenbar unterdurchschnittlich begabter Mensch vermag ich das nicht zu sehen....

Was den Wasser-Shader in Game-Test 4 angeht, so produziert er offenbar unterschiedliche Resultate gegenüber dem von Futuremark implementierten. Das ist ein Cheat, keine Frage.

Nur was ist mit dem Shader, den ATi nutzt? Ist das Ergebnis identisch? Ist der Renderaufwand für die Grafikkarte derselbe?

Denn laut Futuremark sehen sie es als Cheat an, wenn der Aufwand der zum Rendern der Szene benötigt wird, ein anderer ist, als der, den sie vorgesehen haben, so wie es nV z.B. durch das unterdrücken des Back-Buffer Clear vorgeworfen wird.

Vielleicht solltest du selber mal versuchen, ein wenig zu differenzieren, bevor du anderen vorwirfst, das nicht beherrschen.

Quasar
2003-05-24, 15:12:32
Originally posted by Demirug
Könnten wir uns mal auf ein paar Defintionen einigen?

Ich mache mal einen Vorschlag:

Optimierung: Massnahme welche ohne Verletzung der durch die API vorgegenen Regeln die Performance steigert.

Cheat: Massnahmenwelche welche durch absichtliche Verletzung von API-Regeln die Performance steigert.

Geschiet die Verletzung nur unbeachsichtigt haben wir es mit einem Bug zu tun.

Der IHV hat aber nun ein Problem zu beweisen ob es ein Bug oder ein Cheat ist. Kann er die gleiche Performance auch ohne die Regelverletzung erreichen muss man ihm wohl glauben das es ein Bug war. Führt die "Fehlerkorrektur" aber wieder zu einer geringeren Leistung war es wohl definitive ein Cheat.

Im Zweifel glaube ich aber eher an einen Cheat als an einen Bug.

Full Ack. Nur sehe ich nicht ein, warum wieder einmal mit zweierlei Maß gemessen werden soll.

Ich für meinen Teil werde mir jetzt mal genau die Screenshots von Mother Nature anschauen, mit Cat3.4 ohne Patch und mit.
Und danach bliebe noch die Frage, was genau denn nun als Cheat von Futuremark angesehen wird (dazu s.o.).

betasilie
2003-05-24, 15:17:44
Originally posted by Quasar
Nur was ist mit dem Shader, den ATi nutzt? Ist das Ergebnis identisch? Ist der Renderaufwand für die Grafikkarte derselbe?

Denn laut Futuremark sehen sie es als Cheat an, wenn der Aufwand der zum Rendern der Szene benötigt wird, ein anderer ist, als der, den sie vorgesehen haben, so wie es nV z.B. durch das unterdrücken des Back-Buffer Clear vorgeworfen wird.

Also ich sehe das als Optimierung an, so lange diese Optimierung nicht nur beim 3DM2k3 greift. ... Was NV gemacht hat, ist imo eine ganz andere Liga.

Demirug
2003-05-24, 15:18:18
Ach übrigends wenn ihr Tim benutzt um die Optimierung von ATI zu rechtfertigen (Ich sehe das auch nur als Optimierung an) kann man ihn aber genauso für die Rechtfertigung der "Wasseroptimierung" von NV benutzten:

3D hardware is still at a point in its infancy that there are still lots of nondeterministic issues in the API's and the hardware itself, such as undefined amounts of precision, undefined exact order of filtering, etc. This gives IHV's some cover for performing additional optimizations that change the semantics of pixel shaders, though only because the semantics aren't well-defined in the base case anyway. In time, this will all go away, leaving us with a well-defined computing layer. We have to look back and realize that, if CPU's operated as unpredictably as 3D hardware, it would be impossible to write serious software.

Ergo: Ein absolute identischer Shader darf auf jeder Hardware leicht unterschiedliche ergebnisse produzieren. Deswegen hat MS ja auch so grosse Probleme die WHQL Prüfung zu automatisieren. Man benutzt dort deswegen ein sehr komplexes Programm zum vergleichen von Bildern ob sich die Abweichungen innerhalb der erlaubten Toleranz bewegen. und im Zweifel entscheidet immer noch ein Mensch.

seahawk
2003-05-24, 15:20:51
Originally posted by nagus


mit dem neuen patch schon. cheating wird jetzt unterbunden. also wieso nicht damit vergleichen?

ahhh, ich verstehe. weil nvidia jetzt wieder langsamer als ati ist. natürlich, hätte ich fast vergessen, entschuldigung

:|

Nö, weil man nicht endgültig sagen kann, wie der Test funktioniert. Sind die Shader vielleicht nur auf ATI optimiert und schlecht für NV ??

Mir ist es egal ob NV gut aussieht oder nicht. Ich halte nur Benchmarks für gefährlich, bei denen nicht eine vollständige Gleichstellung der Kandidaten sicher ist.

Bei einem normalen Spiel kann man davon ausgehen, dass die Programmierer im eigenen Interesse sowohl ATI als auch NV Karten gut unterstützen werden. (die wolllen ihr Spiel ja verkaufen) Bei FM bin ich da nicht sicher.

Demirug
2003-05-24, 15:22:03
Originally posted by betareverse

Also ich sehe das als Optimierung an, so lange diese Optimierung nicht nur beim 3DM2k3 greift. ... Was NV gemacht hat, ist imo eine ganz andere Liga.

Diese Optimierung von ATI greift nur beim 3dmark sonst hätte sie sich ja nicht auch durch den 330 Patch deaktivieren lassen. Eine solche Optimierung kann aber rein theoretisch für jedes Programm gemacht werden. Dadurch wird sie IMHO schon wieder representativ für Treiberoptimierungen

nagus
2003-05-24, 15:27:32
Bilder sagen mehr als tausend Worte

NV35 -> build 320
http://www.beyond3d.com/previews/nvidia/nv35/iq/NV35_320.jpg

NV35 -> build 330
http://www.beyond3d.com/previews/nvidia/nv35/iq/NV35_330.jpg


R350 -> build 320
http://www.beyond3d.com/previews/nvidia/nv35/iq/R350_320.jpg

R350 -> build 330
http://www.beyond3d.com/previews/nvidia/nv35/iq/R350_330.jpg


... wie man anhand der Screenshots sehen kann, ist die Bildqualität beim nv35 (bzw. bei allen nv3x Karten) mit 3dMark Build 320 (also mit "Cheat", wenn man so will) schlechter, als beim 330er Build (mit eingebauter "Cheat"-Unterdrückung).

Bei R3xx Karten ist kein Unterschied zu erkennen ...

IMO ist die Sache damit klar wie Klosbrühe. nVidia schummelt, ATi nicht (nach der Definition von Tim Sweeney).

Quasar
2003-05-24, 15:31:47
Originally posted by betareverse

Also ich sehe das als Optimierung an, so lange diese Optimierung nicht nur beim 3DM2k3 greift. ... Was NV gemacht hat, ist imo eine ganz andere Liga.

Sie greift aber nur beim 3DMark03, wie Catmaker oder wie er genau heisst, bereits sagte. In der nächsten Treiberrevision solle diese Optimierung ja gestrichen werden.

edit:
Oops, hat Demi ja bereits gesagt...

Piffan
2003-05-24, 15:32:06
Originally posted by Demirug
Könnten wir uns mal auf ein paar Defintionen einigen?

Ich mache mal einen Vorschlag:

Optimierung: Massnahme welche ohne Verletzung der durch die API vorgegenen Regeln die Performance steigert.

Cheat: Massnahmenwelche welche durch absichtliche Verletzung von API-Regeln die Performance steigert.

Geschiet die Verletzung nur unbeachsichtigt haben wir es mit einem Bug zu tun.

Der IHV hat aber nun ein Problem zu beweisen ob es ein Bug oder ein Cheat ist. Kann er die gleiche Performance auch ohne die Regelverletzung erreichen muss man ihm wohl glauben das es ein Bug war. Führt die "Fehlerkorrektur" aber wieder zu einer geringeren Leistung war es wohl definitive ein Cheat.

Im Zweifel glaube ich aber eher an einen Cheat als an einen Bug.

Da ist es ja auch glasklar.....

Quasar sieht das aber auf einer anderen Ebene. Er sagt, dass eine Optimierung auf einen Benchmark prinzipiell immer einen Cheat darstellt. Ist irgendwo ja logisch, da eine bessere Performance erreicht wird als im Durch-Schnitt bei "echten" Anwendungen/Spielen....

Aber ich sehe doch noch einen Qualitätssprung vom Schummeln weg bis hin zur Riesensauerei: Wenn wie hier postuliert tatsächlich Teile der Grafik unterschlagen werden, weil man sie aufgrund der Kameraführung in einem festen Script nicht wahrnehmen kann...

Wenn man NV dieses nachweist, dann ist NV nicht nur des Mogeln überführt, sonder klar des Betruges!

Nochmal genauer: OPTIMIEREN sorgt dafür, dass die Hardware effektiver ausgenutzt wird. Das Resultat bei einem Bench ist lediglich, dass der Wert höher wird als im Schnitt der anderen Programme, aber nicht höher, als die Hardware zu leisten imstande ist.

"BETRUG" ist ein qualitativer Quantensprung: Durch Weglassen von nicht sichtbaren Levelteilen aufgrund der gescripteten Kameraführung im Bench wird eine Leistung vorgegaukelt, die noch über dem technischen Potential der Hardware liegen kann...So war auch der Quack- Cheat von Ati klar ein Betrug: Man verschlechterte die BQ heimlich......

Quasar irrt sich, wenn er alle Cheats über einen Kamm scheren will! Es gibt Qualitätsunterschiede. In einem hat er allerdings verdammt recht: Ati wie NV sind schon erwischt worden, also haben beide keine reine Weste! Vielleicht hören jetzt auch die Vorwürfe mal auf und alle fassen an die eigene Nase, wenn es um moralische Fragen geht. Im fachlichen Sinne sollte man die Diskussion um den 3dMark weiterführen und nicht damit abbügeln: Weg mit dem Murks. Wobei der letzte Mark auch in meinen Augen nicht viel wert ist. Der alte Mark taugte so schön als Analysetool, der neue nervt nur.....vor allem, weil die jetzt Geld wollen, wenn ich die Einzelwerte erfahren will ;)

Unregistered
2003-05-24, 15:34:47
@ Quasar

Es gibt da aber einen feinen Unterschied.

Ich argumentiere mit den Fakten, die z.Z. als gesichert angesehen werden, während du, um zu verhindern, daß nVidia allein in der "Buh-Ecke" steht, Behauptungen aufstellst, die unbelegt sind. In dieser Position kann man aber nicht mit solchen Nachdruck vorgehen, wie du das hier praktizierst.

Ebenso wie z.B. nagus bist du in solch gearteten Threads sehr oft anzufinden, die Seite ist ebenso schnell und eindeutig bezogen.

Quasar
2003-05-24, 15:39:29
An Bildvergleich hab' ich auch noch zwei, die nagus bestätigen. Leider geht mein Webspace momentan nicht, so daß ich hier leider zwei Postings erpammen muss (@aths: :P).
Bilder sind Ausschnitte aus GT4, Frame 1669, JPEG-90 komprimiert. Die Unterschiede liegen aber definitiv nicht an der JPG-Kompression!

Quasar
2003-05-24, 15:39:48
#2:

Exxtreme
2003-05-24, 15:40:38
Originally posted by Piffan

Wenn man NV dieses nachweist, dann ist NV nicht nur des Mogeln überführt, sonder klar des Betruges!

Naja, Betrug ist es nicht. Betrug wäre wenn das Produkt eine zugesicherte Eigenschaft nicht erfüllen würde.
Originally posted by Piffan
So war auch der Quack- Cheat von Ati klar ein Betrug: Man verschlechterte die BQ heimlich......

Da bin ich nicht so sicher ob das ein Cheat war. Es wurde zwar die BQ gesenkt, aber der Geschwindigkeitsvorteil war gar nicht vorhanden. Der darauf folgende Treiber senkte die BQ nicht und war sogar etwas schneller.

Deswegen, warum mit Absicht die BQ senken wenn es eh' nicht schneller wird?

Piffan
2003-05-24, 15:44:07
Originally posted by Exxtreme

Naja, Betrug ist es nicht. Betrug wäre wenn das Produkt eine zugesicherte Eigenschaft nicht erfüllen würde.

Da bin ich nicht so sicher ob das ein Cheat war. Es wurde zwar die BQ gesenkt, aber der Geschwindigkeitsvorteil war gar nicht vorhanden. Der darauf folgende Treiber senkte die BQ nicht und war sogar etwas schneller.

Deswegen, warum mit Absicht die BQ senken wenn es eh' nicht schneller wird?

Ich meine "Betrug" als moralischen Begriff :stareup:

Dann war es beim Quack wohl nur ein Bug? Das ist aber blöde, wo ich doch so um Ausgleich und Frieden bemüht bin.....:stareup:

StefanV
2003-05-24, 15:45:55
Originally posted by Piffan


Ich meine "Betrug" als moralischen Begriff :stareup:

Dann war es beim Quack wohl nur ein Bug? Das ist aber blöde, wo ich doch so um Ausgleich und Frieden bemüht bin.....:stareup:

Ja, Quack war eher ein Bug denn ein Cheat, da der Nachfolgende Treiber ja nicht langsamer wurde...

Hm, theoretisch könnte Quack ja ähnlich dem Detailtexutren Bug von UT2003 sein...

Quasar
2003-05-24, 15:48:12
Originally posted by Unregistered
@ Quasar

Es gibt da aber einen feinen Unterschied.

Ich argumentiere mit den Fakten, die z.Z. als gesichert angesehen werden, während du, um zu verhindern, daß nVidia allein in der "Buh-Ecke" steht, Behauptungen aufstellst, die unbelegt sind. In dieser Position kann man aber nicht mit solchen Nachdruck vorgehen, wie du das hier praktizierst.

Ebenso wie z.B. nagus bist du in solch gearteten Threads sehr oft anzufinden, die Seite ist ebenso schnell und eindeutig bezogen.

Zuerst mal sorry, das mit "deine Seite" habe ich mißverstanden und auf eine Website bezogen.

Und wie es ausschaut, hat ATi wirklich nur den Shader umgestellt, ohne jedoch an Bildqualität einzubüßen. Allerdings hebe ich mir solche Urteile gern auf, bis ich selber meine Tests dazu angestellt habe und plappere nicht blind irgendwelchen, oftmals dubiosen Newsseiten (wie The Inquirer) nach.

P.S.:
Bei der R9800Pro konnte ich im Übrigen keine Unterschiede beim Wasser erkennen.

Piffan
2003-05-24, 15:49:39
Originally posted by Stefan Payne


Ja, Quack war eher ein Bug denn ein Cheat, da der Nachfolgende Treiber ja nicht langsamer wurde...

Hm, theoretisch könnte Quack ja ähnlich dem Detailtexutren Bug von UT2003 sein...

Genau. Jetzt ist meine Theorie vom Mogelgleichstand so erschüttert, dass ich mal besser wieder die Klappe halte.

Wenn sich Nvidioten und FanATIker kloppen, hält man sich besser raus; reine Zeitverschwendung! Gehe jetzt raus an die frische Luft! Sollten möglichst viele nachmachen ;)

Quasar
2003-05-24, 15:58:05
Originally posted by Exxtreme
Da bin ich nicht so sicher ob das ein Cheat war. Es wurde zwar die BQ gesenkt, aber der Geschwindigkeitsvorteil war gar nicht vorhanden. Der darauf folgende Treiber senkte die BQ nicht und war sogar etwas schneller.

Deswegen, warum mit Absicht die BQ senken wenn es eh' nicht schneller wird?

Hat damals nicht ein Mitarbeiter von ATi zugegeben, dass dieses absichtlich geschah?

Ist aber eigentlich unerheblich, ich will damit nicht nVs Verdienste in Sachen 3DMark03 schönreden, obwohl ich da noch so einiges vermuten könnte.

Exxtreme
2003-05-24, 15:59:47
Originally posted by Quasar


Hat damals nicht ein Mitarbeiter von ATi zugegeben, dass dieses absichtlich geschah?
Nicht das ich wüsste... :|

Das einzige Statement, das ich gelesen habe, war daß man irgendeinen Detail-Regler in Q3 irgendwie falsch ausgelesen hat.

P.S. Schau mal her:

http://www.tech-report.com/etc/2001q4/radeon-q3/index.x?pg=1

"Most of our optimizations for Quake 3 and other applications have no impact at all on image quality, and therefore it would be pointless to allow users disable them. The current RADEON 8500 driver revision has an issue that prevents it from correctly interpreting the texture quality slider setting in Quake 3. This issue will be corrected in the next driver release.

Note that the texture quality setting is just one of many possible ways that users can increase image quality in Quake 3 at the expense of performance; forcing on anisotropic filtering or disabling texture compression are alternative methods. It is also important to note that the image quality obtained using all of the standard image settings in Quake 3 (fastest, fast, normal, and high quality) can be observed to be equal to or better than any competing product (try it!); it is only in the special case of selecting "high quality" AND turning the texture quality slider up to the highest setting that a potential discrepancy appears. "

betasilie
2003-05-24, 16:06:23
Originally posted by Demirug


Diese Optimierung von ATI greift nur beim 3dmark sonst hätte sie sich ja nicht auch durch den 330 Patch deaktivieren lassen. Eine solche Optimierung kann aber rein theoretisch für jedes Programm gemacht werden. Dadurch wird sie IMHO schon wieder representativ für Treiberoptimierungen
Genau das meinte ich ja, habe mich aber nicht präzise ausgedrückt.
... Es handelt sich um eine Optimierung, aber ATI muss sie dann auch allgemein in die Treiber implementieren. ;)

@nagus
Dein Posting mit den Bildern ist super. Ich glaube besser kann man den Unterschied zwischen echtem Cheating und selektiver echter Optimierung nicht demonstrieren. :)

Razor
2003-05-24, 16:13:17
Originally posted by Demirug
Könnte bitte mal jemand was für mich nachprüfen?

Ich habe mit meiner grausamen 5200 das ganze mal durchgetestet:

Original 876 Punkte
Neu 760 Punkte

Was mich jetzt aber nun schwer gewundert hat ist folgendes:

Beim Original steht bei Settings->Max Anisotrophy eine 1 nachdem ich den Patch installiert habe steht da plötzlich eine 4. Kann das jemand bestätigen?
Aber gerne doch...
:D
AthlonXP 2100+ @ 2700+ (Tbred-'B')
ASUS A7N8X del/gd (nForce2) Rev1.04 Bios1004 UDP2.41
2x 256MB Corsair PC433 CL2 DDR-SDRAM @ 2-2-2-4
Club3D GeForceFX 5200 @ 300/460
WindowsXP Prof. SP1a DX9a
Detonator 44.10

------------------------------------------------
3DMark2003 Murks03 Murks03 Diff
3.2.0 3.3.0
------------------------------------------------
3DMarks 1.692 1.445 -14,60%

-Game1 94,68 81,81 - 13,60%
-Game2 7,49 7,33 - 2,14%
-Game3 7,72 7,58 - 1,91%
-Game4 9,30 5,72 - 38,53%

CPUMarks 577 579 0,35%

-CPU1 57,41 57,62 0,37%
-CPU2 11,39 11,43 0,39%

Fillrate(Single) 703,87 703,66 - 0,03%
Fillrate(Multi) 728,21 729,13 + 0,13%
Vertex Shader 5,24 3,98 - 24,08%
Pixel Shader 2.0 8,95 4,45 - 50,25%
Ragtroll 5,48 5,46 - 0,46%

no sounds 40,04 38,01 - 5,07%
24 sounds 34,66 33,95 - 2,07%
60 sounds 31,52 30,84 - 2,18%
-diff 24 s. - 13,43% - 10,69%
-diff 60 s. - 21,27% - 18,87%
Und ?
Würde mich interessieren, was sich nun daraus erkennen läßt...
(habe extra mein Testsystem wieder aufgesetzt ;-)

Bis dann

Razor

WeyounTM
2003-05-24, 16:14:48
Originally posted by BlackBirdSR
ist sicherlich lustig zu lesen, aber das war es auch schon. Ich möchte gar nicht daran denken, wer sich jetzt in dem Thread wieder Alles persönlich beleidigt fühlt weil ihr statt darüber zu lachen es auch noch groß rausstellen müsst.

Sorry, aber als eingefleischter Trekker der über das Niveau von Enterprise nicht viel gutes sagen kann fand ich diese Persiflage einfach heftig genial =) !

Asche über mein Haupt wenn ich jemandem zu nahe getreten bin ;)

nagus
2003-05-24, 16:15:03
Originally posted by Razor

Wen interesiert das ?
Fakt ist: beide cheaten !

Oder willst Du das herunter reden ?
???

Razor

ok, dann beweis mir bitte mal das ati cheatet.

dein "Fakt" ist unsinnig. nur weil nvidia erwiesernermaßen cheatet, bedeutet das noch lange nicht, ati macht das gleiche. du versuchts nur ati mit nvidia auf die gleiche stufe zu stellen. das klappt aber so nicht. da mußt du die schon was besseres einfallen lassen.

ati ist "schuldig", die treiber zu optimieren, weiter nichts. es gibt ABSOLUT keine beeinträchtigung der bildqualität, so wie bei nvidia.

Demirug
2003-05-24, 16:18:25
Originally posted by Razor
Und ?
Würde mich interessieren, was sich nun daraus erkennen läßt...
(habe extra mein Testsystem wieder aufgesetzt ;-)

Bis dann

Razor

Vielen Dank für die Mühe aber ich wollte doch eigentlich nur wissen ob das mit den Max-Ansio auch von anderen beobachtet werden konnte. Inzwischen hat sich geklärt das das keine Auswirkung hat.

Razor
2003-05-24, 16:20:04
Originally posted by zeckensack
Du fändest es bestimmt wahnsinnig witzig, wenn in Q3 auf 'Campgrounds' zwei Drittel des Levels fehlten, nur weil das gleiche Level im Demo Four gezeigt wird, und das da ja nicht auffällt???
Hmmm...
Q3 ist ein echtes Game... der Murks nicht.
Wo ist hier der Zusammenhang ?
???

Razor

Razor
2003-05-24, 16:22:54
Originally posted by Exxtreme

Ich weiss es, ich weiss es!

Liegt wohl daran, daß "normale" Spiele bei weitem nicht so shaderlastig sind wie der 3DMurks. Und da der NV35 trotz deutlich höherer Taktfrequenz deutlich langsamer in diesem ungecheateten Test ist las der R350, spricht nicht wirklich für die Shader-Einheiten der NV3x-Serie.
Hmmmmmmmmmmmm....
Hast Du Dir den ShaderMark einmal engeschaut ?
Einige Tests gehen an die R9800p256, andere an die FX5900u...
Was sagt das also aus ?

Und wie ist damit ein Murks zu werten, dessen Sourcecodes nicht einmla offen liegen ?
???

Razor

WeyounTM
2003-05-24, 16:23:30
Originally posted by Quasar
Der Treiber erkennt den Shadercode und stellt ihn um. Soviel steht fest und ist von ATi auch zugegeben worden.

Also ist der Benchmark-Wert, den man erhält höher, als wenn es keine 3DMark-spezifische Optimierung gegeben hätte, soviel steht nach simpler deduzierender Logik ebenfalls fest.

Insofern ist das genauso ein Versuch, den Kunden zu täuschen.

Quasar, wenden wir das Beispiel doch mal auf einen Gamebenchmark an. Wenn ein Hardware-Hersteller feststellt, dass das Game X, welches von vielen Testern verwendet wird, ohne visuelle Einbußen schneller läuft, wenn man den Shadercode ein wenig umstrukturiert, wäre das dann auch ein Versuch den Kunden zu täuschen ?

Ich finde man darf das nicht isoliert auf den zweifellos synthetischen Benchmark 3DMark03 betrachten sondern ausschließlich generell. Und daher würde ich im Fall der ATi-Veränderung wirklich von einer Optimierung reden, während es bei nVidia aber defakto ein Cheat ist...oder ?

Razor
2003-05-24, 16:24:03
Originally posted by Exxtreme

Doch, AFAIK wird es so gemacht, daß man bei bekannteren Spielen die Anweisungsreihenfolgen öfter vertauscht damit es mit dem eigenen Chip besser harmoniert.
Beim Murks vermutlich ja, aber bei Spielen ?
Hättest Du dazu vielleicht eine Referenz ?

Razor

mapel110
2003-05-24, 16:24:34
Originally posted by nagus


ok, dann beweis mir bitte mal das ati cheatet.

dein "Fakt" ist unsinnig. nur weil nvidia erwiesernermaßen cheatet, bedeutet das noch lange nicht, ati macht das gleiche. du versuchts nur ati mit nvidia auf die gleiche stufe zu stellen. das klappt aber so nicht. da mußt du die schon was besseres einfallen lassen.

ati ist "schuldig", die treiber zu optimieren, weiter nichts. es gibt ABSOLUT keine beeinträchtigung der bildqualität, so wie bei nvidia.

aber der treiber spart anscheinend arbeit ein. und das gefällt futuremark laut pdf nicht. weil das als leistungskriterium dient.
wie will man sonst chips miteinander vergleichen, wenn sie nicht die gleiche arbeit leisten müssen ?!

ati cheatet hier definitiv auch. die ausrede von wegen optimierung, die sich auch in games auswirkt, glaube ich nicht. und das wird wohl auch nicht so sein. das werden ja zukünftige ati-treiber zeigen.

nagus
2003-05-24, 16:28:05
Originally posted by Razor

Hmmmmmmmmmmmm....
Hast Du Dir den ShaderMark einmal engeschaut ?
Einige Tests gehen an die R9800p256, andere an die FX5900u...
Was sagt das also aus ?

Und wie ist damit ein Murks zu werten, dessen Sourcecodes nicht einmla offen liegen ?
???

Razor


ok, wir wollen aber nicht vergessen, dass die 9800PRO ca. bei 75% der teste schneller ist als die NV35. du versuchtst zum wiederholten mal die relativ schlechte pixelshaderleistung der NV35 schön zu reden.

Exxtreme
2003-05-24, 16:28:07
Originally posted by mapel110


aber der treiber spart anscheinend arbeit ein. und das gefällt futuremark laut pdf nicht. weil das als leistungskriterium dient.
wie will man sonst chips miteinander vergleichen, wenn sie nicht die gleiche arbeit leisten müssen ?!

Und genau hier liegt der Denkfehler bei FM!

Solche Annahmen dürfen sie einfach nicht machen.

mapel110
2003-05-24, 16:29:55
Originally posted by Exxtreme

Und genau hier liegt der Denkfehler bei FM!

Solche Annahmen dürfen sie einfach nicht machen.

wenn nvidia meint, eine art hidden surface removal einzubauen, dann bitte generell und nicht nur in einer szene in einem benchmark.

Exxtreme
2003-05-24, 16:31:33
Originally posted by mapel110


wenn nvidia meint, eine art hidden surface removal einzubauen, dann bitte generell und nicht nur in einer szene in einem benchmark.
Eben darum geht's. :)

HSR haben sie auch schon den neueren Chips drinne.

Iceman346
2003-05-24, 16:33:44
Originally posted by mapel110
weil das als leistungskriterium dient.
wie will man sonst chips miteinander vergleichen, wenn sie nicht die gleiche arbeit leisten müssen ?!


Soweit ich das verstanden habe stellt ATI lediglich die Reihenfolge der Instruktionen um, führt sie im Endeffekt aber alle aus. Wenn es so ist leistet der Chip die gleiche Arbeit, lediglich in einer Reihenfolge die ihm genehmer ist.

Quasar
2003-05-24, 16:36:05
Originally posted by Yosh


Quasar, wenden wir das Beispiel doch mal auf einen Gamebenchmark an. Wenn ein Hardware-Hersteller feststellt, dass das Game X, welches von vielen Testern verwendet wird, ohne visuelle Einbußen schneller läuft, wenn man den Shadercode ein wenig umstrukturiert, wäre das dann auch ein Versuch den Kunden zu täuschen ?

Ich finde man darf das nicht isoliert auf den zweifellos synthetischen Benchmark 3DMark03 betrachten sondern ausschließlich generell. Und daher würde ich im Fall der ATi-Veränderung wirklich von einer Optimierung reden, während es bei nVidia aber defakto ein Cheat ist...oder ?

Ja, nV cheatet, das bestreite ich nicht.

Ob ATi cheatet oder nicht, steht IMO zur Diskussion (der eine Punkt, den die Parhelia absinkt, lassen wir mal wirklich als Meßungenauigkeit durchgehen).

Manche sagen:
ATi cheatet nicht, da das Endergebnis nicht beeinträchtigt wird. So weit so gut. Damit kann ich mich abfinden.

Futuremark dagegen sagt im den Patch begleitenden PDF, es sei ein Cheat, wenn ein Treiber künstlich, d.h. IMO auch durch Shaderumstellung, versucht, den durch Futuremark bestimmten Workload für die Grafikkarte zu reduzieren. In diesem Sinne wäre ATi auch des Cheatens schuldig, da sie durch ihre, ich nenne es mal Optimierung, angeblich 8,4% Leistung im Game-Test 4 herausholen.

Ich komme also zu dem Schluß
Entweder sind Optimierungen, die das endgültig gerenderte Bild nicht beeinflussen erlaubt, dann müsste es nV auch erlaubt sein, Backbuffer-Clears abzuschalten oder Clip-Planes einzufügen.
Oder Optimierungen sind nicht erlaubt, der Benchmark hat 1:1 so abzulaufen, wie FM es wünscht.

Zur Erläuterung:
In Doom, dem originalen Software-Shooter, konnte man IIRC den Kopf mit Tastatursteuerung nicht nach oben und unten bewegen. Eine Art virtuelle Kamera war somit in Teilen definiert. Wäre es hier erlaubt, eine Clip-Plane einzufügen, damit das Spiel schneller läuft? Sicher, man müsste sie abschalten, sobald der Spiele die Maus benutzt.

Anderes Beispiel:
Man nehme einen beliebigen synthetischen Systembenchmark, bei dem ein Treiber einer Chipsatzfirma während der Laufzeit alle Ports, wie Maus, Tastatur, USB usw. um Rechenleistung einzusparen sperrt.
Cheat oder erlaubte Optimierung?

Wie gesagt, es geht mit nicht um den Wasser-Shader. Der steht ausser Frage: PFUI NV!!!

mapel110
2003-05-24, 16:36:11
Originally posted by Iceman346


Soweit ich das verstanden habe stellt ATI lediglich die Reihenfolge der Instruktionen um, führt sie im Endeffekt aber alle aus. Wenn es so ist leistet der Chip die gleiche Arbeit, lediglich in einer Reihenfolge die ihm genehmer ist.

auch hier gilt, dann soll der shice treiber überall neu sortieren, auch in games. aber anscheinend wird das sortieren nur gemacht, wenn 3dmark03.exe ausgeführt wird.

AlfredENeumann
2003-05-24, 16:39:32
Originally posted by LovesuckZ


Nur machen die "nvidioten" deutlich weniger ATi-Bashing auf als die "fanatiker" NV-Bashing threads...

Stimmt. Du bashst für alle zusammen. Da brauchen die anderen nix schreiben.

Razor
2003-05-24, 16:39:57
Originally posted by Mr. Lolman

Das ist schon gernicht mehr Fakt. Du solltest dir auch mal hinundwieder nagus' Links ansehen :idea:
3) I had a few meetings today and it was decided that we back out the 3DMark optimizations. I was not in favour of this as we are not cheating nor degrading image quality. We are giving ATI users the benefit of our research on the code. Anyways it was decided that we back out the optimizations but I promise you we will continue to work to find ways of getting the percentages back!

Dann erzähl mir doch mal, warum Code heruas genommen werden soll, wenn es dafür keinen Grund gibt...

Razor

P.S.: Oder was ist von einer 'Optimierung' zu halten, wenn sie nur mit einer einzigen (Benchmark-)Engine funktioniert und keine Auswirkung auf die RealWorld-Performance hat ?

Salvee
2003-05-24, 16:43:18
Originally posted by Razor

3) I had a few meetings today and it was decided that we back out the 3DMark optimizations. I was not in favour of this as we are not cheating nor degrading image quality. We are giving ATI users the benefit of our research on the code. Anyways it was decided that we back out the optimizations but I promise you we will continue to work to find ways of getting the percentages back!

Dann erzähl mir doch mal, warum Code heruas genommen werden soll, wenn es dafür keinen Grund gibt...

Razor

P.S.: Oder was ist von einer 'Optimierung' zu halten, wenn sie nur mit einer einzigen (Benchmark-)Engine funktioniert und keine Auswirkung auf die RealWorld-Performance hat ?

Damit auch die letzten Zweifler ihrer (imo verständlichen) Argumente beraubt werden :naughty:

WeyounTM
2003-05-24, 16:45:27
Originally posted by Quasar

Oder Optimierungen sind nicht erlaubt, der Benchmark hat 1:1 so abzulaufen, wie FM es wünscht.


Danke für Deinen ausführlichen Post. Auf den zitierten Satz kann man sich irgendwo schon fast einigen. ATi hat's ja inzwischen auch schon "eingesehen" und wird entsprechend verfahren und die "Optimierung" aus dem Treiber entfernen. Fragt sich nur, wie Nvidia in der Zukunft vorgehen wird und was die weitere Vorgensweise von FM sein wird.

Exxtreme
2003-05-24, 16:46:08
Originally posted by Quasar

Futuremark dagegen sagt im den Patch begleitenden PDF, es sei ein Cheat, wenn ein Treiber künstlich, d.h. IMO auch durch Shaderumstellung, versucht, den durch Futuremark bestimmten Workload für die Grafikkarte zu reduzieren. In diesem Sinne wäre ATi auch des Cheatens schuldig, da sie durch ihre, ich nenne es mal Optimierung, angeblich 8,4% Leistung im Game-Test 4 herausholen.

Ich fürchte, hier macht FM einen grossen Fehler wenn sie es so deuten.

Wenn man für ein 3D-API programmiert, dann muss man die Schritte zwischen den API-Aufrufen und dem Ergebnis am Bildschirm als eine Black-Box sehen und behandeln.

Sie versuchen aber dem Grafikchip vorzuschreiben wieviel Arbeit er verrichten muss um die 3D-Szene zu rendern. Und das dürfen sie nicht da DX eigentlich HW-unabhängig ist.

P.S. Für Nicht-Programmierer könnte es vielleicht unverständlich klingen. ;D

Razor
2003-05-24, 16:48:27
Originally posted by Stefan Payne

Falsch, ATI hat nicht gecheatet, ATI hat optimiert, wie sie jedes Spiel optimieren, NV hat gecheatet...

Lies dir mal die Kommentare von TS und CM durch!!
Der Übergang von Cheat zu Optimierung ist fließend...
Warum sollte ATI eine 'Optimierung' entfernen, wenn dazu kein Grund besteht ?
(siehe oben !)

Razor

Razor
2003-05-24, 16:52:40
Originally posted by betareverse

Also ich sehe das als Optimierung an, so lange diese Optimierung nicht nur beim 3DM2k3 greift. ... Was NV gemacht hat, ist imo eine ganz andere Liga.
Tja beta... und genau das hat ATI zugegeben...
Eine Optimierung, die Ausschließlich beim Murks greift und deswegen auch entfernt werden soll.

Razor

Salvee
2003-05-24, 16:57:55
Originally posted by Razor

Tja beta... und genau das hat ATI zugegeben...
Eine Optimierung, die Ausschließlich beim Murks greift und deswegen auch entfernt werden soll.

Razor

Selbst wenn beide Cheaten sollten (je nach Ansichtsweise), ist ATi's Verhalten nicht geradezu vorbildich im Vergleich zur Kunkurrenz ?

Quasar
2003-05-24, 16:58:29
Originally posted by Yosh
ATi hat's ja inzwischen auch schon "eingesehen" und wird entsprechend verfahren und die "Optimierung" aus dem Treiber entfernen.

Ohne jetzt gehässig klingen zu wollen, aber das ist logisch. In dieser Situation ist's ein must-win für ATi.
- Sie haben "weniger" geschummelt
- Sie verlieren bei Verzicht auf den Cheat <4% 3DMarks
- Sie können _hinterher_ behaupten, sie seien "clean"

nVidia dagegen verlöre bei Verzicht auf die Optimierungen 25-30% 3DMarks, weswegen ich denke, dass sie eher versuchen werden, den 3DMark weiter zu diskreditieren.

Und ja, ihre erste Antwort auf FMs PDF, in der sie die Möglichkeit einer bewussten Benachteiligung anreissen, entbehrt nicht jeglicher Grundlage.

Denn:
Angenommen, wir haben nochmal Dezember 2002. Ich bin nVidia und sage zu FM: "Hey, eure Shader gefallen unserer Karte nicht. Entweder ihr schreibt sie um oder wir schreiben unsere Treiber so, dass sie die Shader selber umstrukturieren."
FM sagt: "Nö, leck' mich."
ATi freut sich und denkt: "Wie gut, dass unser Chip nicht so anfällig für die miesen Shader von FM sind...hehehe."
Ich (nv): "Na gut, FM. Dann verzichte auf unsere Kohle."
FM denkt sich: "Mist, weniger Geld. Gut, daß wenigstens ATi noch Kohle rausrückt..."
Ich (nv) verlasse den Raum.
ATi sagt: "Hey, FM, schau mal.... auf einmal sind ja nicht mehr so viele IHVs da, die dir Kohle zahlen. Und nu stell dir mal vor, wenn wir neben den beleidigten nV'lern auch noch sagen: Nö, 3DMark03 ist doof."
FM: "Grummel....ja?"
ATi: "Nu ja, wie war das noch mit den Shadern gleich...."

Nicht dass es sich so abgespielt hätte, aber komplett von der Hand zu weisen wäre ein solches Szenario IMO nicht.

Exxtreme
2003-05-24, 16:58:58
Originally posted by Razor

Der Übergang von Cheat zu Optimierung ist fließend...
Warum sollte ATI eine 'Optimierung' entfernen, wenn dazu kein Grund besteht ?
(siehe oben !)

Razor
Ich denke, der einzige Grund ist die Publicity.

Unregistered
2003-05-24, 17:00:41
Originally posted by Razor

Tja beta... und genau das hat ATI zugegeben...
Eine Optimierung, die Ausschließlich beim Murks greift und deswegen auch entfernt werden soll.

Razor
... Du scheinst mich nicht zu verstehen; wenn diese Optimierung nur bei 3dmark greift ist das nicht ok, denn der Benchmark soll ja die Alltagsperformance wiederspiegeln. Ich will nur differenzieren zwischen Cheating und Optimierung, was nicht heißt, dass ich die selektive Optimierung von ATI gut finde.

Beta

Exxtreme
2003-05-24, 17:00:57
Originally posted by Quasar
Denn:
Angenommen, wir haben nochmal Dezember 2002. Ich bin nVidia und sage zu FM: "Hey, eure Shader gefallen unserer Karte nicht. Entweder ihr schreibt sie um oder wir schreiben unsere Treiber so, dass sie die Shader selber umstrukturieren."
FM sagt: "Nö, leck' mich."
ATi freut sich und denkt: "Wie gut, dass unser Chip nicht so anfällig für die miesen Shader von FM sind...hehehe."
Ich (nv): "Na gut, FM. Dann verzichte auf unsere Kohle."
FM denkt sich: "Mist, weniger Geld. Gut, daß wenigstens ATi noch Kohle rausrückt..."
Ich (nv) verlasse den Raum.
ATi sagt: "Hey, FM, schau mal.... auf einmal sind ja nicht mehr so viele IHVs da, die dir Kohle zahlen. Und nu stell dir mal vor, wenn wir neben den beleidigten nV'lern auch noch sagen: Nö, 3DMark03 ist doof."
FM: "Grummel....ja?"
ATi: "Nu ja, wie war das noch mit den Shadern gleich...."

Guckst du hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73086

;D

WeyounTM
2003-05-24, 17:03:07
Originally posted by Quasar
Nicht dass es sich so abgespielt hätte, aber komplett von der Hand zu weisen wäre ein solches Szenario IMO nicht.

Dein Szenario entbehrt nicht einer gewissen Logik. Nur sind andere natürlich auch denkbar. Zum Bleistift, dass nV zuviel Druck auf FM ausgeübt hat, FM sich dies nicht gefallen lies und nV dann logischerweise auch gegangen ist um dann durch das nun dargelegte Verhalten FM das Wasser abzugraben.

Speku hin Speku her...es wird auf jeden Fall interessant zu sehen sein, wie sich das weiterentwickelt.

Razor
2003-05-24, 17:03:47
Originally posted by nagus
Bilder sagen mehr als tausend Worte

NV35 -> build 320

NV35 -> build 330

R350 -> build 320

R350 -> build 330

... wie man anhand der Screenshots sehen kann, ist die Bildqualität beim nv35 (bzw. bei allen nv3x Karten) mit 3dMark Build 320 (also mit "Cheat", wenn man so will) schlechter, als beim 330er Build (mit eingebauter "Cheat"-Unterdrückung).

Bei R3xx Karten ist kein Unterschied zu erkennen ...

IMO ist die Sache damit klar wie Klosbrühe. nVidia schummelt, ATi nicht (nach der Definition von Tim Sweeney).
Könntest Du mir vielleicht sagen, aus welchem Frame dieser Ausschnitt ist ?
Wäre schon, wenn man das nachvollziehen könnte...

Beim Murks kann man bei der internen ScreenShot-Funktion exakt den Frame (oder die Sequenz) angeben.

Thx im Voraus

Razor

Quasar
2003-05-24, 17:04:15
Originally posted by Exxtreme

Ich fürchte, hier macht FM einen grossen Fehler wenn sie es so deuten.

Wenn man für ein 3D-API programmiert, dann muss man die Schritte zwischen den API-Aufrufen und dem Ergebnis am Bildschirm als eine Black-Box sehen und behandeln.

Sie versuchen aber dem Grafikchip vorzuschreiben wieviel Arbeit er verrichten muss um die 3D-Szene zu rendern. Und das dürfen sie nicht da DX eigentlich HW-unabhängig ist.

P.S. Für Nicht-Programmierer könnte es vielleicht unverständlich klingen. ;D

Tut es auch. In jeder Real-World Applikation gebe ich dir uneingeschränkt recht, nur in synthetischen Benchmarks sehe ich das ein wenig anders.

Wozu rendert FM bsw. die komplette Skybox per Pixelshader VOR dem Rest der Szene? Um jede HSR-Bemühung der IHVs zunichte zu machen?

Was sollen die Backbuffer-Clears in den GT2 und 3? Ein bißchen Bandbreite verschwenden?

Warum nutzten sie den optionalen Wertebereich für den PS-Himmel in GT4?

Entweder, man proggt einen syntethischen Bench, bei dem ein gegebener Arbeitsaufwand abgearbeitet werden soll, oder eine Real-World App, bei der das Ganze egal ist, solange das Endergebnis auf dem Schirm ok ist.

Quasar
2003-05-24, 17:07:16
Originally posted by Exxtreme

Guckst du hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73086

;D

Na sowas, den Thread kannte ich gar nicht. Hätt' ich mir die Tipperei ja sparen können...

Razor
2003-05-24, 17:08:42
Originally posted by Stefan Payne

Ja, Quack war eher ein Bug denn ein Cheat, da der Nachfolgende Treiber ja nicht langsamer wurde...
Ah ja.
Und wir haben schon den Folge-Treiber von nVidia um beim Murks also von einem 'Cheat' zu sprechen ?
(ich gehe auch davon aus, dass es ein Cheat ist ;-)

Die RealWorld-Performance ist beim Murks schlicht nicht nachzuvollziehen, insofern würde ich einen 'Cheat' bei einem Game noch immer anders beurteilen, als bei einem Bench, der es nicht einmal schafft, Hardware-unabhängig zu sein...

Bis denne

Razor

WeyounTM
2003-05-24, 17:09:21
Originally posted by Quasar


Na sowas, den Thread kannte ich gar nicht. Hätt' ich mir die Tipperei ja sparen können...

Der ist genauso gut wie die Star Trek Parodie ;D !

Exxtreme
2003-05-24, 17:10:05
Originally posted by Quasar
Tut es auch. In jeder Real-World Applikation gebe ich dir uneingeschränkt recht, nur in synthetischen Benchmarks sehe ich das ein wenig anders.

Wozu rendert FM bsw. die komplette Skybox per Pixelshader VOR dem Rest der Szene? Um jede HSR-Bemühung der IHVs zunichte zu machen?

Was sollen die Backbuffer-Clears in den GT2 und 3? Ein bißchen Bandbreite verschwenden?

Warum nutzten sie den optionalen Wertebereich für den PS-Himmel in GT4?

Ich weiss leider nicht warum FM den Bench so programmiert hat. Aber solche Vorschriften dürfen sie nicht machen wenn sie für ein HW-unabhängiges API programmieren.

Deswegen nutzte ich das Wort "Denkfehler".

Originally posted by Quasar
Entweder, man proggt einen syntethischen Bench, bei dem ein gegebener Arbeitsaufwand abgearbeitet werden soll, oder eine Real-World App, bei der das Ganze egal ist, solange das Endergebnis auf dem Schirm ok ist.
Beim Punkt 2 gebe ich dir recht. Beim Punkt 1 nicht, siehe oben.

Demirug
2003-05-24, 17:11:07
Ich habe mal gerade ein bischen Research betrieben. Der Shadermark wird von nVidia zumindestens teilweise auch optimiert. Optisch konnte ich aber keinen unterschied entdecken (ich habe aber auch nur schnell einen Shader getestet).

Razor
2003-05-24, 17:17:41
Originally posted by nagus

ok, wir wollen aber nicht vergessen, dass die 9800PRO ca. bei 75% der teste schneller ist als die NV35. du versuchtst zum wiederholten mal die relativ schlechte pixelshaderleistung der NV35 schön zu reden.
[Shadermark]
Es ist völlig unerheblich, ob ATI mehreren Tests schneller ist, als nVidia.
Ich wollte damit lediglich zum Ausdruck bringen, dass man Shader offensichtlich so oder so programmieren kann. Einmal läuft's auf der einen Hardware schneller, das andere mal auf der anderen.

Wenn FM jetzt einen Weg gewählt hat, der (wesentlich) mehr in Richtung ATI geht (die ja Mitglieder in dem Beta-Programm sind und sich das eine Menge Kohle kosten lassen) und damit eindeutig einen Chiphersteller bevorzugt (was auch gut an den PS1.4-Shadern zu erkennen ist), trotzdem aber als ein 'unabhängier' Test angesehen wird, obwohl er das ja wohl offensichtlich nicht ist, gibt dies schon zu denken.

Und dass nVidia nun versucht diesen 'Pseudo'-Bench zu zercheaten kann ich sehr gut nachvollziehen.
Schaun' wir mal, wie das weiter geht.

Lönnte mir gut vorstellen, dass nVidia auch bis vor's Gericht gehen wird, um entweder FM die "Unabhängigkeit" zu entziehen, oder um sie dazu zu bringen, die einseitige Ausrichtung zuzugeben und dies zu korrigieren (im Murks04 z.Bsp. ;-).

Ich hoffe, Du verstehst nun, wie ich das meine...

Bis denne

Razor

Exxtreme
2003-05-24, 17:21:26
Originally posted by Razor

[Shadermark]

Wenn FM jetzt einen Weg gewählt hat, der (wesentlich) mehr in Richtung ATI geht (die ja Mitglieder in dem Beta-Programm sind und sich das eine Menge Kohle kosten lassen) und damit eindeutig einen Chiphersteller bevorzugt (was auch gut an den PS1.4-Shadern zu erkennen ist), trotzdem aber als ein 'unabhängier' Test angesehen wird, obwohl er das ja wohl offensichtlich nicht ist, gibt dies schon zu denken.

Ich fürchte, die Shader beim 3DMurks gehen weder Richtung ATi noch NV noch sonstwem.
;)