PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3DMark03 Patch 340 und die Auswirkungen


Seiten : [1] 2 3

mapel110
2003-11-11, 15:25:17
http://www.futuremark.com/pressroom/pressreleases/?111103

/edit
hier isser
http://www.computerbase.de/news.php?id=6567&sid=e013efc4717d4209c799e492a5c777b9
und nvidia bekommt wieder auf die mütze ;D

/edit2
scheint irgendwie noch kein download mirror up zu sein, auf wenn dort eine liste zu sehen ist. :|
*wart*

/edit3
http://www.dark-tweaker.com/futuremark_2003_340.htm
da :)

reunion
2003-11-11, 15:44:15
Original geschrieben von mapel110
http://www.futuremark.com/pressroom/pressreleases/?111103

/edit
hier isser
http://www.computerbase.de/news.php?id=6567&sid=e013efc4717d4209c799e492a5c777b9
und nvidia bekommt wieder auf die mütze ;D

/edit2
scheint irgendwie noch kein download mirror up zu sein, auf wenn dort eine liste zu sehen ist. :|
*wart*

Soweit zur aussage von NV der neue Treiber beinhaltet keine Applicationsspezifischen "optimierungen" mehr, sondern nurnoch immer aufträtende Cheats...

Außerdem sieht man sehr schön wie es um die Pixelshaderperformace wirklich aussieht, zumindest solange bis NV wieder einen neuen "Wundertreiber" rausbringt ;D

mapel110
2003-11-11, 15:57:47
also bei mir sind die points gleich geblieben. 5600 3dmarks @graka stdtakt und cat 3.9. =)

Gast
2003-11-11, 16:25:44
http://www.badct.de/dlredir.php3?id=1825&type=file

Exxtreme
2003-11-11, 16:26:36
Also Leute,

bitte keine Flames, Beleidigungen, Kloppereien und wehe, einer versucht den Thread kaputtzumachen!

Thowe
2003-11-11, 16:44:31
Genau =)


if flamewars then goto procedure Mauer

Mauer:
Get Flamer
Get Erschiessungskommando
Put Flamer at Mauer
Start procedure Erschiessungskommando

Erschiessungkommando:
Shoot Flamer
Get Flamer
Put Flamer into procedure Sarg

Sarg:
Get Flamer
Ban Flamer

start over

ShadowXX
2003-11-11, 16:46:01
Original geschrieben von Exxtreme
Also Leute,

bitte keine Flames, Beleidigungen, Kloppereien und wehe, einer versucht den Thread kaputtzumachen!

Ist ziemlich schwierig, bei den zu sehenden "Änderungen" im nV-Ergebnis, neutral zu bleiben....

Sagen wir es mal so:
nV scheint eine andere Vorstellung von allgemeinen Tweaks/Cheats/Verbesserungen zu haben, als ich und wahrscheinlich auch als viele andere hier.

Ati scheint relativ clean zu sein....oder sie lassen sich einfach nicht erwischen;D

J.S.Shadow

Gast
2003-11-11, 19:04:57
16,68%....stark!



...seufz...



=> mehr fällt mir dazu im Moment nicht ein. Soviele "Rolling Eyes" gibts gar nicht um das ganze richtig zu würdigen.

Exxtreme,
dann mach dich doch gleich einmal bereit für die ganzen Flames der Nvidia-Fans die bestimmt kommen werden, ala "3DMark03 ist Schexxx" etc... Wetten...

(del676)
2003-11-11, 19:08:07
Original geschrieben von Gast
16,68%....stark!



...seufz...



=> mehr fällt mir dazu im Moment nicht ein. Soviele "Rolling Eyes" gibts gar nicht um das ganze richtig zu würdigen.

Exxtreme,
dann mach dich doch gleich einmal bereit für die ganzen Flames der Nvidia-Fans die bestimmt kommen werden, ala "3DMark03 ist Schexxx" etc... Wetten...

ich warte da eher auf die heiligen krieger (die hänselnden ati gurus)

Sumpfmolch
2003-11-11, 19:22:09
...ich weiß nicht ob ich lachen oder mitleid haben soll... :|


...wobei man wieder mal sieht, dass es mehr reviews geben muss die eine vielzahl auch weniger häufig gebenchter spiele nutzen



ANDERERSEITS....und da muss ein bissl schmäh sein :D ...sollte man anscheinend besonders hardwarefressende games in allen reviews benutzen....mit dme nächsten treiber laufen sie dann 50% schneller auf allen karten :bigl2: :weg:

Gast
2003-11-11, 19:30:55
auf Beyond3D gibt es schon einen schön langen Thread dazu. Hier einmal die Benchmark-Ergebnisse, die DaveBaumann gepostet hat :


Patch Driver 3DMarks GT1 GT2 GT3 GT4
GeForce FX 5950 Ultra 330 52.16 6412 205.7 46.6 37 37.3
GeForce FX 5950 Ultra 333 52.16 5538 205 39.6 33.1 26.3
Radeon 9800 XT 330 3.8 6435 209.7 45.4 38.6 36.3
Radeon 9800 XT 333 3.8 6436 210.5 45.4 38.6 36.3


Die FX5950 "gewinnt" durch das Cheaten 15,78%. Das Ergebnis entspricht also in etwa der FX5700-Ultra.

(del676)
2003-11-11, 19:32:45
also ich bin von 7104 auf 6021

Nedo
2003-11-11, 19:52:29
Original geschrieben von Ulukay
also ich bin von 7104 auf 6021
ähem, alle achtung... das is net gerade wenig...
;)

deekey777
2003-11-11, 19:52:39
http://www.tomshardware.de/graphic/20030820/detonator-22.html (ja, THG):
"...Die von Futuremark durch den 3D Mark 2003 Patch v330 deaktivierten Optimierungen scheinen im neuen Treiber (noch 45.23) wieder aktiv zu sein..."

Aber der 52.16 ist der aktuelle Treiber. Die Frage, die man sich stellen sollte, ist nicht, warum die 5950 in GT4 schwächer wird (wohl FP32), sondern die Schwäche in GT2&3 - immer noch Probleme mit PS1.4 oder was soll das?

reunion
2003-11-11, 20:13:11
Original geschrieben von deekey777
http://www.tomshardware.de/graphic/20030820/detonator-22.html (ja, THG):
"...Die von Futuremark durch den 3D Mark 2003 Patch v330 deaktivierten Optimierungen scheinen im neuen Treiber (noch 45.23) wieder aktiv zu sein..."

Aber der 52.16 ist der aktuelle Treiber. Die Frage, die man sich stellen sollte, ist nicht, warum die 5950 in GT4 schwächer wird (wohl FP32), sondern die Schwäche in GT2&3 - immer noch Probleme mit PS1.4 oder was soll das?

War das nicht schon immer so??
Tatsache ist und bleibt, die Pixelshaderperformace der Fx Chips ist im vergleich zur Radeonkonkurrenz einfach nur erbärmlich den einzigen Weg für NV das zu Umgehn ist die Bildqualität zu senken oder wie bei Halo gleich die Shader selbst zu schreiben...

Thats it!

Edit: Hab nun sogar 4821 statt 4756 Punkte ;D

mapel110
2003-11-11, 20:33:25
http://www.nordichardware.se/artiklar/Grafik/2003/3DMark03_340/
3dmark03 alle einzeltest-ergebnisse von 9800 pro und 5950

wenn man die sich so anguckt, kann man durchaus auch zu dem schluss kommen, dass den FXsen einfach vertex speed geklaut wird. warum sollten sie schliesslich den theoretischen bench zercheaten, der garnicht mit in die wertung einfliesst?!
:grübel:

nggalai
2003-11-11, 20:35:46
Hola,
Original geschrieben von deekey777
Aber der 52.16 ist der aktuelle Treiber. Die Frage, die man sich stellen sollte, ist nicht, warum die 5950 in GT4 schwächer wird (wohl FP32), sondern die Schwäche in GT2&3 - immer noch Probleme mit PS1.4 oder was soll das? Stichwort: Vertex-Shader. Aus irgendeinem unerfindlichen Grund hat z.B. die Tusse in GT3 ohne den aktuellen Patch deutlich weniger Haare als mit. ;)

93,
-Sascha.rb

Piffan
2003-11-11, 20:41:41
Ich möchte mal wissen, warum dieser Thread in die "Provinz" verbannt wird? Imho ist es ein zentral wichtiges Thema........Hat jemand von den Offiziellen hier Angst, dass 3dcenter als reine Ati- Hochburg gelten könnte? Oder ist es Furch vor einem neuen Flamewar ;)

SaTaN
2003-11-11, 20:44:40
*popcornraushol*

mapel110
2003-11-11, 20:49:26
Original geschrieben von Piffan
Ich möchte mal wissen, warum dieser Thread in die "Provinz" verbannt wird? Imho ist es ein zentral wichtiges Thema........Hat jemand von den Offiziellen hier Angst, dass 3dcenter als reine Ati- Hochburg gelten könnte? Oder ist es Furch vor einem neuen Flamewar ;)

ich hab den thread ganz bewusst im benchmark forum erstellt :)

Piffan
2003-11-11, 20:52:45
Original geschrieben von mapel110
ich hab den thread ganz bewusst im benchmark forum erstellt :)

Ja, aber ein vielversrechender Thread "Nv kanns nicht lassen!" wurde geschlossen und auf diesen hier verlinkt....

Im Benchmarkforum findet man normalerweise doch überwiegend Ergebnisse, um nicht zu sagen, Schwanzlängen- Angaben...darum schaue ich hier heute das erste Mal rein...:D

deekey777
2003-11-11, 20:54:42
Original geschrieben von nggalai
Hola,
Stichwort: Vertex-Shader. Aus irgendeinem unerfindlichen Grund hat z.B. die Tusse in GT3 ohne den aktuellen Patch deutlich weniger Haare als mit. ;)

93,
-Sascha.rb

Patch 340 = Bleen? ;D

Vielleicht muss das auch so sein...
Dennoch: Die Leistung in GT2&3 ist einfach peinlich (übertrieben) - aber null Aussagekraft. Wie sieht es eigentlich mit der 5800/NV30 aus? Hier ist ja noch CineFX am Werke - die NV35 hat ja schon CineFX/2.

Woran liegt denn diese Schwäche? Wird in GT2 bzw. GT3 automatisch auf PS1.1 umgeschaltet, wenn PS 1.4 nicht unterstützt wird - aber eine DX9-Grafikkarte muss doch alles können.
@Geforce4- und FX-Besitzer: Könntet ihr aus Spass 3d2003 laufen lassen und zwar nur DX8-Tests (wenn es nur geht, da 3d2003 (standart) keine Möglichkeit hat, einzelne Tests auszuwählen).

Piffan
2003-11-11, 21:05:14
Original geschrieben von nggalai
Hola,
Stichwort: Vertex-Shader. Aus irgendeinem unerfindlichen Grund hat z.B. die Tusse in GT3 ohne den aktuellen Patch deutlich weniger Haare als mit. ;)

93,
-Sascha.rb

Das gibt wieder Stoff für Verschwörungstheoretiker....aber vielleicht ist es wirklich so, dass man die Shaderlast einfach wieder ein bissken hochgetrieben hat, um den Abstand zwischen Ati und NV standesgemäß hoch zu halten *eg*

nggalai
2003-11-11, 21:11:43
Hola,

die folgenden Ergebnisse sind nicht von mir selbst, kann aber dafür bürgen. ;)

GFFX 5800Ultra, 52.16, Patch 330:
5851 Punkte, GT1 = 194.4, GT2 = 40.5, GT3 = 33.7, GT4 = 34.8

GFFX 5800Ultra, 52.16, Patch 340:
5054 Punkte, 194.1, 35.1, 30.4, 23.5


Auch lustig:

GFFX 5900Ultra, 44.03, Patch 330:
4850 Punkte, 175.9, 37.6, 30.5, 19.1

GFFX 5900Ultra, 44.03, Patch 340:
3178 Punkte, 117.8, 18.8, 13.6, 14.2


93,
-Sascha.rb

nggalai
2003-11-11, 21:13:28
Original geschrieben von Piffan
Das gibt wieder Stoff für Verschwörungstheoretiker....aber vielleicht ist es wirklich so, dass man die Shaderlast einfach wieder ein bissken hochgetrieben hat, um den Abstand zwischen Ati und NV standesgemäß hoch zu halten *eg* Nö. Der Output hat sich nicht verändert; bei cheatfreien Treibern darf sich die Punktezahl nicht um mehr als einige wenige Prozent unterscheiden, zwischen 330er und 340er. ATI-Karten verlieren aus gutem Grund auch zwischen 0 und 1% an Leistung, mit dem neuen Patch. ;)

93,
-Sascha.rb

Leonidas
2003-11-11, 21:25:34
Hat hier schonmal jemand dran gedacht, daß Build 340 nichts anderes macht, als den Effekt des Shader-Compilers zu deaktivieren?




/Update: Bin mit dieser Idee aufm Holzweg gewesen.

Pirx
2003-11-11, 21:29:41
Damit wäre aber nggalais Haarausfall;D nicht zu erklären, oder?

Exxtreme
2003-11-11, 21:30:25
Original geschrieben von Leonidas
Hat hier schonmal jemand dran gedacht, daß Build 340 nichts anderes macht, als den Effekt des Shader-Compilers zu deaktivieren?
Daran glaube ich nicht wirklich. Der Shader-Compiler sollte eigentlich applikationsunabhängig funktionieren und sich durch den leicht geänderten Build nicht aus der Ruhe bringen lassen sollen. Es kann aber sein, daß NV den Shader-Compiler nur für bestimmte Applikationen freigeschaltet hat und der alte 3DMark2003 ist eine davon. Macht aber irgendwie keinen Sinn, IMHO.

Exxtreme
2003-11-11, 21:32:30
Original geschrieben von deekey777
Patch 340 = Bleen? ;D

:lol: :rofl:

Der war gut. =)

Leonidas
2003-11-11, 21:34:37
Original geschrieben von Exxtreme
Daran glaube ich nicht wirklich. Der Shader-Compiler sollte eigentlich applikationsunabhängig funktionieren und sich durch den leicht geänderten Build nicht aus der Ruhe bringen lassen sollen.


Die Ergebnisse passen absolut dazu. Und wirkliche BQ-Unterschiede hat dato noch keiner nachgewiesen. Und wenn FM will, dann können die schon den Shader Compiler rauswerfen. Immerhin ist deren Credo, daß kein einziger Befehl verändert werden darf.



/Update: Bin mit dieser Idee aufm Holzweg gewesen.

reunion
2003-11-11, 21:36:15
Original geschrieben von nggalai
Auch lustig:

GFFX 5900Ultra, 44.03, Patch 330:
4850 Punkte, 175.9, 37.6, 30.5, 19.1

GFFX 5900Ultra, 44.03, Patch 340:
3178 Punkte, 117.8, 18.8, 13.6, 14.2


93,
-Sascha.rb

Heißt wohl das bald ein neuer Patch rauskommt der die Cheats der neueren treiber auch deaktiviert ;D

reunion
2003-11-11, 21:38:17
Original geschrieben von Leonidas
Die Ergebnisse passen absolut dazu. Und wirkliche BQ-Unterschiede hat dato noch keiner nachgewiesen. Und wenn FM will, dann können die schon den Shader Compiler rauswerfen. Immerhin ist deren Credo, daß kein einziger Befehl verändert werden darf.



/Update: Bin mit dieser Idee aufm Holzweg gewesen.

Und wie erklärst du dir dann die Tatsache das NV auch mit dem Deto 44.03 deutlich an Leistung verliert??? (siehe nggalais posting)

Edit: wie ich sehe hast dus auch schon bemerkt :D

Exxtreme
2003-11-11, 21:39:04
Original geschrieben von Leonidas
Die Ergebnisse passen absolut dazu. Und wirkliche BQ-Unterschiede hat dato noch keiner nachgewiesen. Und wenn FM will, dann können die schon den Shader Compiler rauswerfen. Immerhin ist deren Credo, daß kein einziger Befehl verändert werden darf.
Wenn der Shader-Compiler applikationsunabhängig ist, dann kann die Applikation diesen nicht deaktivieren. :) Die Applikation bekommt davon gar nichts mehr mit. Sie übergibt die Shader an den Treiber und auf alles andere hat sie keinen Einfluss mehr. Ausserdem hat FM meines Wissens nach, nie was gegen das applikationsunabhängige Optimieren der Shader gesagt.

Crushinator
2003-11-11, 21:39:29
Original geschrieben von nggalai
Stichwort: Vertex-Shader. Aus irgendeinem unerfindlichen Grund hat z.B. die Tusse in GT3 ohne den aktuellen Patch deutlich weniger Haare als mit. ;) :o Darf man bitte auch erfahren, was als Referenz diente?

Keel
2003-11-11, 21:41:42
Irgendetwas sagt mir, dass wir bald wieder einen neuen Deto kriegen werden. :stareup:

@ Leo

Was hätte es für einen Sinn, den Compiler zu deaktivieren? Der verschlechtert doch eigentlich nicht die BQ. Dagegen kann FM doch nichts haben...

deekey777
2003-11-11, 21:42:24
Original geschrieben von Leonidas
Hat hier schonmal jemand dran gedacht, daß Build 340 nichts anderes macht, als den Effekt des Shader-Compilers zu deaktivieren?

Doch, aber ich habe dies für mich behalten.
Wenn ja, würde dann 3d2003 nicht cheaten, da er eine "anerkannte Optimierung" unwirksam macht? Das würde dann heissen, dass der Shader-Compiler doch softwareabhängig ist (wie schon oben bemerkt)und nVidia mit den Softwareentwickler zusammen zusätzliche PS für FX-Karten schreibe bzw. schreiben müsste - wie es schon bei Halo war. Was auch unlogisch wäre, da nVidia wieder Mitglied des Betaprogramms ist und eigentlich ihre eigenen PS für die FX-Serie liefern könnte, da der DX9-Standart die FX-Serie nicht so mag (und nicht umgekehrt :D ).

(del676)
2003-11-11, 21:43:58
FM will wohl mit aller Gewalt aufgekauft werden :|

Leonidas
2003-11-11, 21:44:23
Original geschrieben von reunion
Und wie erklärst du dir dann die Tatsache das NV auch mit dem Deto 44.03 deutlich an Leistung verliert??? (siehe nggalais posting)

Edit: wie ich sehe hast dus auch schon bemerkt :D


Das widerspricht sich nicht. Auch in den letzten 4xer Treiber war der Shader Compiler schon drin, nur halt nicht offiziell.

reunion
2003-11-11, 21:45:21
Original geschrieben von Ulukay
FM will wohl mit aller Gewalt aufgekauft werden :|

nein, FM will verhindern das NV die ganze Zeit unerlaubt die Bildqualität reduziert um sich höhere Punktezahlen zu ercheaten...

Leonidas
2003-11-11, 21:45:50
Original geschrieben von Keel
@ Leo

Was hätte es für einen Sinn, den Compiler zu deaktivieren? Der verschlechtert doch eigentlich nicht die BQ. Dagegen kann FM doch nichts haben...



Doch. FM hat laut eigener Aussage gegen alles was, was irgendwas verändert. Egal ob dadurch eine schlechtere oder besser BQ rauskommt. Insofern ist meine Idee durchaus logisch - das Punkt ist nur, daß der 3DMark03 die Anwnedung des Shader Compilers technisch gesehen nicht verhindern kann. Sagt zumindestens Xmas. Insofern ist meine Idee hinfällig.

reunion
2003-11-11, 21:47:02
Original geschrieben von Leonidas
Das widerspricht sich nicht. Auch in den letzten 4xer Treiber war der Shader Compiler schon drin, nur halt nicht offiziell.

Ahh ???
Hab ich da was verpennt???
Oder wie kommt denn sonst der Performacesprung bei Shaderanwendungen durch den Deto. 5x.xx zustande ???

(del676)
2003-11-11, 21:47:10
Original geschrieben von reunion
nein, FM will verhindern das NV die ganze Zeit unerlaubt die Bildqualität reduziert um sich höhere Punktezahlen zu ercheaten...

echt?

zeig mal bitte die verminderte bildqualität bei version 330 gegenüber der 340?

ach kannst du nicht? dann sei leise :eyes:

reunion
2003-11-11, 21:49:47
Original geschrieben von Ulukay
echt?

zeig mal bitte die verminderte bildqualität bei version 330 gegenüber der 340?

ach kannst du nicht? dann sei leise :eyes:

Wodurch kommt denn deinermeinung deutlich weniger Punkte bei den FXen zustande mit den neuen Patch während sich bei den Radeons absolut gar nicht ändert???


Weißt du nicht??? dann sei leise :D

Keel
2003-11-11, 21:51:14
Original geschrieben von Leonidas
Doch. FM hat laut eigener Aussage gegen alles was, was irgendwas verändert. Egal ob dadurch eine schlechtere oder besser BQ rauskommt. Insofern ist meine Idee durchaus logisch - das Punkt ist nur, daß der 3DMark03 die Anwnedung des Shader Compilers technisch gesehen nicht verhindern kann. Sagt zumindestens Xmas. Insofern ist meine Idee hinfällig.
Wenn FM das nicht verhindern kann, hat sich die Sache damit in der Tat erledigt. Trotzdem gut, dass diese Idee hier geäußert wurde. :)

(PS: Oh Mann, wenn ich morgen hier wieder reinschaue, habt ihr den Thread garantiert um einige weitere Seiten zugebombt, das gibt ja nen Lesespaß :D)

(del676)
2003-11-11, 21:51:37
Original geschrieben von reunion
Wodurch kommt denn deinermeinung deutlich weniger Punkte bei den FXen zustande mit den neuen Patch während sich bei den Radeons absolut gar nicht ändert???


Weißt du nicht??? dann sei leise :D

deaktivierter Shadercompiler der NICHTS an der BQ ändert.

wo sind deine screenshots?

Crushinator
2003-11-11, 21:51:39
Original geschrieben von Leonidas
(...)
Punkt ist nur, daß der 3DMark03 die Anwnedung des Shader Compilers technisch gesehen nicht verhindern kann. Sagt zumindestens Xmas. ...und er hat recht, weil der besagte Compiler hinter dem API-Layer sitzt und während der Runtime somit gar nicht ansprechbar ist.

(del676)
2003-11-11, 21:54:01
könnte mal einer mit der 3dmark vollversion (und ner "baaaad-baaaaaad-cheating-nvidia") vergleichsscreenshots zwischen 330 und 340 machen?

mich würd ja mal interessieren welche grafischen details ich durch 1000 punkte verlust dazugewonnen habe :eyes:

reunion
2003-11-11, 21:54:09
Original geschrieben von Ulukay
deaktivierter Shadercompiler der NICHTS an der BQ ändert.

wo sind deine screenshots?

Original geschrieben von Leonidas
Punkt ist nur, daß der 3DMark03 die Anwnedung des Shader Compilers technisch gesehen nicht verhindern kann.

reicht das ???
:D

(del676)
2003-11-11, 21:55:28
Original geschrieben von reunion
reicht das ???
:D

tja dann isses halt ne andere optimierung die NICHTS an der BQ ändert - das glaube ich solang bis du deine (an den Haaren herbeigezogenen) Beschuldigungen beweisen kannst

Crushinator
2003-11-11, 21:55:47
Original geschrieben von Ulukay
deaktivierter Shadercompiler der NICHTS an der BQ ändert.
wo sind deine screenshots? Hab' ich was mit den Augen oder hatte ich wirklich eine Seite zuvor von "nggalais Haarausfall" gelesen? :kratz2: Kannst Du denn das mit den Haaren des Mädels nachvollziehen? Ich habe - mangels entsprechender Hardware - leider keine Vergleichsmöglichkeit. :ratlos:

Exxtreme
2003-11-11, 21:56:00
Original geschrieben von Ulukay
mich würd ja mal interessieren welche grafischen details ich durch 1000 punkte verlust dazugewonnen habe :eyes:
Anscheinend werden beim GT2 weniger Haare von der Tussi gerendert.

reunion
2003-11-11, 21:56:40
Original geschrieben von Ulukay
tja dann isses halt ne andere optimierung die NICHTS an der BQ ändert - das glaube ich solang bis du deine (an den Haaren herbeigezogenen) Beschuldigungen beweisen kannst

Die haare sind ein gutes Beispiel :

Original geschrieben von nggalai
Aus irgendeinem unerfindlichen Grund hat z.B. die Tusse in GT3 ohne den aktuellen Patch deutlich weniger Haare als mit. ;)


reichts jetzt ??
:D

(del676)
2003-11-11, 21:56:52
Original geschrieben von crushinator
Hab' ich was mit den Augen oder hatte ich wirklich eine Seite zuvor von "nggalais Haarausfall" gelesen? :kratz2: Kannst Du denn das mit den Haaren des Mädels nachvollziehen? Ich habe - mangels entsprechender Hardware - leider keine Vergleichsmöglichkeit. :ratlos:

haare im vergleich zu was?
im vergleich zum software render? oder zu einer ati? im vergleich zur alten version?

(del676)
2003-11-11, 21:57:46
Original geschrieben von reunion
Die haare sind ein gutes Beispiel :



reichts jetzt ??
:D

jaaa genau - die (angeblich) fehlenden haare im gt2 erklären den performancevorsprung im gt4 sehr gut :eyes:

Crushinator
2003-11-11, 21:57:51
Original geschrieben von Ulukay
im vergleich zur alten version? Das würde erstmal reichen. *liebguck*

deekey777
2003-11-11, 21:58:33
Nur bei ATi ändert sich irgendwie nichts...

(del676)
2003-11-11, 22:00:23
Original geschrieben von crushinator
Das würde erstmal reichen. *liebguck*

und wer soll das festgestellt haben? wo sind die screenshots dazu?
wieviel haare rendert die ati? (sind bei der neuen version vielleicht generell mehr haare)

warum nehmt ihr (zur zeit) bei jedem kleinsten theoiretischen und noch nicht belegtem staubwölkchen sofort an das an allem sofort wieder nvidia schuld is?

bald is nvidia noch an der globalen erderwärmung schuld - die 5800er wurde ja so heiss!

reunion
2003-11-11, 22:01:08
Original geschrieben von Ulukay
jaaa genau - die (angeblich) fehlenden haare im gt2 erklären den performancevorsprung im gt4 sehr gut :eyes:

Kannst du nicht eins und eins zusammenzählen???

In GT3 fehlen ein paar Haare, in Gt4 fehlen...

(del676)
2003-11-11, 22:03:28
Original geschrieben von reunion
Kannst du nicht eins und eins zusammenzählen???

In GT3 fehlen ein paar Haare, in Gt4 fehlen...

ich hab noch immer keine beweise das haare fehlen!
und was fehlt gerüchten zufolge im gt4?

auf nvidia einhacken ist zur zeit anscheinend "IN"
vor allem wird man dabei gut von mod gedeckt :asshole:

reunion
2003-11-11, 22:03:48
Original geschrieben von Ulukay
und wer soll das festgestellt haben? wo sind die screenshots dazu?
wieviel haare rendert die ati? (sind bei der neuen version vielleicht generell mehr haare)

warum nehmt ihr (zur zeit) bei jedem kleinsten theoiretischen und noch nicht belegtem staubwölkchen sofort an das an allem sofort wieder nvidia schuld is?

bald is nvidia noch an der globalen erderwärmung schuld - die 5800er wurde ja so heiss!

Nein, NV ist natürlich nicht schuld wenn FM eine Anti Cheat Patch rausbringt und sich dann ganz zufällig die Performace der NV Karten drastisch verschlechtert...

..Während sich bei der Konkurrenz auch ganz zufällig nicht ändert...

...Aber das liegt natürlich an einer optimierung der die Bildqualität nicht verschlechtert :eyes:

Smoking_Red
2003-11-11, 22:04:07
Am Anfang in GT3 erscheint halt die Tusse...Der "Umfang"
ihrer Haarpracht fällt auf nv Karten beim Build 330 und
des 340 unterschiedlich aus. Will heißen, dass beim Build
340 mehr Haare auf ihrem Schädel sitzen als beim 330...
Mehr Haare = Mehr zu rendern = Wenige Murkse.

(del676)
2003-11-11, 22:04:40
Original geschrieben von reunion
...Aber das liegt natürlich an einer optimierung der die Bildqualität nicht verschlechtert :eyes:

gegenbeweise?

Crushinator
2003-11-11, 22:04:46
Könnten bitte die Leute, jene die betroffenen nV-Karten besitzen versuchen rauszufinden, wo genau BQ-Unterschiede auftreten und ggf. Screenies posten? Im Gegenzug sollten dann die ATianer schauen, wieviel Differenzen es - wenn überhaupt - mit denen von Ihnen gibt. Ich glaub' das wäre viel konstruktiver als das Gegenseitige Rumgeflame.

(del676)
2003-11-11, 22:05:26
Original geschrieben von crushinator
Könnten bitte die Leute, jene die betroffenen nV-Karten besitzen versuchen rauszufinden, wo genau BQ-Unterschiede auftreten und ggf. Screenies posten? Im Gegenzug sollten dann die ATianer schauen, wiviel Differenzen es mit denen von Ihnen gibt. Ich glaub' das wäre viel konstruktiver als das Gegenseitige Rumgeflame.

zu flamen haben wir ja noch garned begonnen :D

Exxtreme
2003-11-11, 22:09:33
*hint*
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1346476#post1346476

Kai
2003-11-11, 22:14:25
Bei meinem Sys keine Veränderung bei den Punkten. Mal paar Punkte mehr, mal weniger - innerhalb der Messtoleranz.

Smoking_Red
2003-11-11, 22:23:48
Original geschrieben von Kai
Bei meinem Sys keine Veränderung bei den Punkten. Mal paar Punkte mehr, mal weniger - innerhalb der Messtoleranz.

Kann ich mich mit meiner 9700nonpro anschliessen...Mit dem
Cat 3.9 und jeweils 3 Durchläufen vom Build 330 und 340
gibts bei den Mittelwerten eine Abweichung bei mir die ned
mal 1% ausmacht...K.A. obs Messungenauigkeit ist oder das
neue Build wirklich bissel "langsamer" ist...Unterschiede
in der BQ habe ich für meinen Teil auch ned feststellen
können...Hab aber auch nur mit max. Quality und 4xAA und
8xAF durchlaufen lassen...Meiner Standardeinstellung halt. ;)

tb
2003-11-11, 22:25:01
Original geschrieben von Leonidas
Doch. FM hat laut eigener Aussage gegen alles was, was irgendwas verändert. Egal ob dadurch eine schlechtere oder besser BQ rauskommt.

Ist auch richtig so. Richtige Optimierungen sollten die BQ in Ruhe lassen(so wird der Shader Compiler wohl auch arbeiten) und nicht nur auf eine App. zugeschnitten sein. (jetzt mal von bi/tri/aniso Filter-"Optimierungen" abgesehen)

Hier mal die 45.23'er Treiber auf ner gffx 5900 ultra, 3DMark03 (330) mittels 3DA's Anti-Detect-Mode:

3DMark03 Results
Result 1 Result 2
File Name
Primary Device 3D-Analyze v2.2 - http://www.tommti-systems.com 3D-Analyze v2.2 - http://www.tommti-systems.com
Width 1024 1024
Height 768 768
Anti-Aliasing None None
Post-Processing No No
Texture Filtering Optimal Optimal
Max Anisotropy 4 4
Vertex Shaders Optimal Optimal
Force PS 1.1 in GT2 & GT3 No No
Repeat Tests Off Off
Fixed Framerate Off Off
Comment
3DMark Score 4992 4128 3DMarks
GT1 - Wings of Fury 116,9 116,3 fps
GT2 - Battle of Proxycon 39,1 33,0 fps
GT3 - Troll's Lair 30,9 26,3 fps
GT4 - Mother Nature 32,0 21,2 fps
CPU Score 0 0 CPUMarks
CPU Test 1 0,0 0,0 fps
CPU Test 2 0,0 0,0 fps
Fill Rate (Single-Texturing) 1468,4 1468,5 MTexels/s
Fill Rate (Multi-Texturing) 3157,0 3156,4 MTexels/s
Vertex Shader 16,2 11,7 fps
Pixel Shader 2.0 47,7 26,0 fps
Ragtroll 19,8 17,2 fps
Family AMD Athlon(tm) XP 1800+ AMD Athlon(tm) XP 1800+
Internal Clock 1526 1526 MHz
External Clock 66 66 MHz
Description 3D-Analyze v2.2 - http://www.tommti-systems.com 3D-Analyze v2.2 - http://www.tommti-systems.com
Total Local Video Memory 256 256 MB
Driver Version 4.5.2.3 4.5.2.3
VGA Memory Clock 851 851 MHz
VGA Core Clock 450 450 MHz
Total Physical Memory 1024 1024 MB
Operating System Microsoft Windows XP Microsoft Windows XP

scheinen in die Richtung von Nordic Hardware (http://www.nordichardware.se/artiklar/Grafik/2003/3DMark03_340/) zu gehen, bis auf den Pixel Shader 2.0 Test!!!
Kann mal jemand 3DA mit den 52.16'er Treibern un der neuen buld 340 testen? Ich bin auf den Pixel shader 2.0 Score gespannt, dort kann/könnte man entweder den Shader Compiler oder eine Futuremark+NVIDIA Agreement bewundern...

Thomas

KM
2003-11-11, 23:13:38
Ich habe da ne Frage:
Wenn die Shader zum Treiber geschickt werden, wie wird es dann überprüft, ob es manipuliert wurde?
Wäre es nicht angebrachter, wenn man die ursprünglichen Shader zwischenspeichert, die optimierte einsetzt und bei der Abfrage die zwischengespeicherte zurückgibt? Dann würde man die Cheats nicht entdecken.

Wenn die Frage dumm klingen sollte, möchte ich nur anmerken, dass ich keine D3D-Programmierung behersche.

Exxtreme
2003-11-11, 23:17:39
Original geschrieben von KM
Ich habe da ne Frage:
Wenn die Shader zum Treiber geschickt werden, wie wird es dann überprüft, ob es manipuliert wurde?
Wäre es nicht angebrachter, wenn man die ursprünglichen Shader zwischenspeichert, die optimierte einsetzt und bei der Abfrage die zwischengespeicherte zurückgibt? Dann würde man die Cheats nicht entdecken.

Wenn die Frage dumm klingen sollte, möchte ich nur anmerken, dass ich keine D3D-Programmierung behersche.
Die Shader werden nicht geprüft. :) Es geht AFAIK nämlich nicht. Die einzige Möglichkeit, derartige Cheats zu entdecken, ist die angebliche Applikationserkennungsroutine der Treiber auszutricksen.

Merlin31
2003-11-11, 23:42:27
noch nicht die Möglichkeiten haben, auch Punkte für die BQ
zu vergeben.

Dann würde dieses herum getrickse von den Hardware Firmen endlich mal zu ende sein.

:(

deekey777
2003-11-12, 00:01:47
Und was sind die Folgen daraus? 3d2003 ist immer noch ein Indikator für die Leistung einer DX9-Grafikkarte (umstritten ohne Ende). Die FX-Besitzer fühlen sich verarscht - von beiden Seiten,- und suchen nach Gründen. ATi-Freunde bleiben relaxt. Und ein neuer Streit zw. nVidia und Futuremark ist vorprogrammiert. Echt Kacke...

][immy
2003-11-12, 00:20:48
bei mir mit ner 9500 pro keine erwähnenswerte änderung. mal da nen prozent mehr, mal da... naja.. die typischen minischwankungen eben

nun, nvidia wird wohl dazu noch stellung nehmen, sollten aber trotzdem langsam zugeben, das ihre architektur schwächen aufweist, und das nicht durch optimierungen wieder versuchen gutzumachen, auch wenn der 3d mark wohl immer noch nicht sehr aussagekräftig ist, wiedermal ein kleines paradebeispiel.

ob ati noch optimierungen drin hat.. tja wer weiß das schon, seit dem treiber... (ähm war es 3.4?) sollen ja sämtliche 3d-mark optimierungen verschwunden sein, und wenn da nix auf seiten ati/futuremark gelaufen ist, wurde das wohl auch bestätigt mit dem neuen update.



umgeht der 3d-mark eigendlich die optimierungen am trilinearen filter die ATi und nvidia eingebaut haben? (bzw bei ati ist es ja nur mit eingeschaltetem AF)

Crushinator
2003-11-12, 00:29:15
So, nun habe ich den krampfhaften Akt auch hinter mir, wobei mir einfällt, daß ich Döskop™ vergessen habe vor dem 340er patch auch einen Lauf zu machen. :banghead: Wenn ich mich aber recht erinnere waren es beim letzten Nachmessen (glaub' CAT 3.6) ~4600 Schw***z-Marks.

Jetzt mit dem 340er sind's:

XP2000+, A7V333, DDR266 CL2, Win2K, R97Pro
-------------------------------------------
CAT 3.8 -> 4639
CAT 3.9 -> 4650
-------------------------------------------
all wie immer @default

Irgendwie nicht anders wie vorher. ;(

MadManniMan
2003-11-12, 01:40:44
Och menno :( Warum muß ich gerade morgen Spätschicht haben und in meiner Arbeitsstelle (ohne Netz) schlafen müssen?

...tb, welche konkreten Änderungen am Murks hat der 3DA denn vorgenommen?

Gast
2003-11-12, 01:53:14
Original geschrieben von Ulukay
ich hab noch immer keine beweise das haare fehlen!Dann vergleich halt mal, darauf warten hier doch sowieso schon alle =)

Kannst du beweisen, daß es in beiden Versionen gleich viel Haare sind?

Gast
2003-11-12, 04:38:43
Jetzt fehlt nur noch ein durchsuchungsbefehl für aquamark 3 ;D

Gast
2003-11-12, 05:06:46
Hier mal die Ergebnisse von meinem Sys


3D Mark2003 v330
Game Tests 3DMark Score: 5130
GT1 - Wings of Fury 161,4 fps
GT2 - Battle of Proxycon 36,0 fps
GT3 - Troll's Lair 30,0 fps
GT4 - Mother Nature 31,2 fps
CPU Tests CPU Score: 555
CPU Test 1 58,8 fps
CPU Test 2 10,4 fps
Feature Tests
Fill Rate (Single-Texturing) 1357,1 MTexels/s
Fill Rate (Multi-Texturing) 2833,9 MTexels/s
Vertex Shader 16,0 fps
Pixel Shader 2.0 42,7 fps
Ragtroll
Sound Tests
No sounds 41,8 fps
24 sounds 36,0 fps
60 sounds 32,8 fps

3D Mark2003 v340
Game Tests 3DMark Score: 4348
GT1 - Wings of Fury 160,8 fps
GT2 - Battle of Proxycon 29,7 fps
GT3 - Troll's Lair 25,9 fps
GT4 - Mother Nature 22,1 fps
CPU Tests CPU Score: 553
CPU Test 1 58,4 fps
CPU Test 2 10,4 fps
Feature Tests
Fill Rate (Single-Texturing) 1357,2 MTexels/s
Fill Rate (Multi-Texturing) 2833,9 MTexels/s
Vertex Shader 12,3 fps
Pixel Shader 2.0 42,8 fps
Ragtroll 16,1 fps
Sound Tests
No sounds 41,9 fps
24 sounds 35,9 fps
60 sounds 33,0 fps


System:
Pentium 4B Northwood 2,53 GHz
512 MB RAM SingleChannel
GeForceFX 5900 nonUltra ForceWare 52.16
SB Audigy

P.S. Denn von nggalai erwähnten "Haarausfall" konnte ich auf meinem System nicht festellen

seahawk
2003-11-12, 07:40:29
Wie verhält sich der neue Patch denn bei ATI-Karten. Es gab ja im alten Build keine sichtbaren Unterschiede zwischen NV und ATI mehr.

Oder anders gefragt, rendert ATI immer noch die alte Menge an Haaren im GT2 (ich sehe keine Unterschiede) und NV jetzt mehr ??

Dann würde es das Ergenis imo erklären, der neue Patch wäre aber unbrauchbar.

Gast
2003-11-12, 08:16:53
Beyond3D hat einen schönen Artikel incl. Bildvergleichen. Man sieht den Unterschied bei GT3 sehr deutlich.

Link : http://www.beyond3d.com/articles/3dmark03/340/


At one we asked Derek how this sat with the optimisations guidelines that were given to press by NVIDIA, specifically the guideline that suggests "An optimization must accelerate more than just a benchmark" To which Derek's reply was "But 3DMark03 is only a benchmark" -- it was suggested that this particular guideline should read "An optimization must accelerate more than just a benchmark unless the application is just a benchmark"!



<rolling eyes³³>

Mit anderen Worten; wir cheaten in jedem Benchmark wie es uns beliebt. Wir verarschen alle, FM, unsere Kunden, und den Endverbraucher noch dazu...

<rolling eyes³³>

..seufz..Nvidia ist in weniger als einem Jahr wirklich sehr tief gesunken. Und weil es ihnen noch immer nicht reicht, buddeln sie sich sogar noch tiefer ein. Hoffentlich wird das nicht ihr Grab.

The_Invisible
2003-11-12, 08:40:36
und wie erklärt ihr euch das im PS2.0 Test sich nichts verändert und im GT4 keine Unterschiede zwischen alt und neu bemerkbar sind?

btw und jetzt sagt mir mal einer wenn die unterschiede vor dem patch aufgefallen sind ;D nicht mal eine Onlineseite hat darüber auch nur spekuliert, das sagt alles wie SEHR nvidia gecheatet haben muss...

edit: also nachdem ich mir jetzt die bilder mal selber angesehen habe (ohne differenzbild) ist mir nur aufgefallen, das das schwert mit dem alten patch mehr geleuchtet hat und auch schöner ist :D und kann mir mal wer sagen wer bei den bildern mit den haaren einen unterschied sieht? auch so alle anderen bilder...

vielleicht hat ATI eher FM bezahlt damit sie das machen :asshole: so kommts mir nämlich vor

mfg

nggalai
2003-11-12, 08:41:32
Original geschrieben von Ulukay
deaktivierter Shadercompiler der NICHTS an der BQ ändert.

wo sind deine screenshots? Die reduzierte Bildqualität (z.B. die Haare) findet man deutlich im Free-Modus, wie weiland schon die "Clipplanes", sieht man aber auch schön in der Standard-Ansicht. Futuremark prüft gerade, ob sie nochmals ein PDF zu den "Optimierungen" rauslassen wollen oder nicht, ich persönlich glaube nicht, dass da was kommen wird.

edit: Haare im Vergleich zum Refrast, zu ATI, und zum 340er-Patch (RC 333), natürlich. ;) Und schön, B3D hat den Artikel online.

93,
-Sascha.rb

][immy
2003-11-12, 10:03:14
Original geschrieben von The_Invisible
und wie erklärt ihr euch das im PS2.0 Test sich nichts verändert und im GT4 keine Unterschiede zwischen alt und neu bemerkbar sind?

btw und jetzt sagt mir mal einer wenn die unterschiede vor dem patch aufgefallen sind ;D nicht mal eine Onlineseite hat darüber auch nur spekuliert, das sagt alles wie SEHR nvidia gecheatet haben muss...

edit: also nachdem ich mir jetzt die bilder mal selber angesehen habe (ohne differenzbild) ist mir nur aufgefallen, das das schwert mit dem alten patch mehr geleuchtet hat und auch schöner ist :D und kann mir mal wer sagen wer bei den bildern mit den haaren einen unterschied sieht? auch so alle anderen bilder...

vielleicht hat ATI eher FM bezahlt damit sie das machen :asshole: so kommts mir nämlich vor

mfg

??? nicht eine onlineseite???
man hat doch schon kurz nach erscheinen des letzten patches wieder neue optimierungen in den neuen treibern festgestellt. da z.B. nur leistungsgewinne in benchmarks zu finden waren. das nvidia da cheatet war ansich doch jedem bewusst (das ati da irgendwie cheatet, davon darf man natürlich auch ausgehen)

bei festen benchmarks ist nunmal das problem, das du es nicht als spiel sehen darfst. ein benchmark muss auf jeder karte gleich aussehen damit man überhaupt miteinander vergleichen kann. da kommt es nicht darauf an was du mit dem auge siehst, sondern das die karten das gleiche ergebnis liefern.
willst du etwa in mathematik einen taschenrechner nutzen, der "unnötige" dinge einfach weglässt?
auch die xte stelle nach dem komma kann noch wichtig sein, was würdest du sagen wenn ein hersteller sagt.. "damit das ding schneller läuft, lassen wir diese die 8te stelle nach dem komma unbeachtet" ... viel spass wenn du dann mit sehr kleinen zahlen (z.B. microtechnik oder sowas) rechnen musst

Auf welchem weg man zu einem Endergebniss kommt ist nicht wichtig, aber das endergebnis sollte stimmen. und im bezug zu grafikbenchmarks kann man das nicht mit bloßem auge sagen. denn die firma, die dann das bild nicht mehr ganz sichtbar verfälscht um so gegenüber der anderen firma besser besser zu stehen, kämpft in dem moment mit unfairen mitteln. gegen den shaderkompiler ist nix einzuwenden, der soll (zumindest) die bildqualität nicht beeinflussen, aber etwas weglassen, bzw ungenau zu rechnen, das ist alles andere als fairer wettbewerb (besonders wenn man dann mit solchen werten wirbt)


und nochmal, einen grafikbechnmark kannst du nicht mit spielen vergleichen.


und die verschwörungtheorien kannst du glaub ich auch unterlassen, das ist pures flaming

Gast
2003-11-12, 10:04:18
Wie schon mehrfach erwähnt, der einzige Weg solche Optimierungen von von Seiten der Applikation auszuschalten ist, die Merkmale, an denen sie erkannt wird, zu ändern.

Im Umkehrschluss heisst das aber, daß Nvidia doch applikationspezifisch "optimiert" (ob das nun Clip Planes sind oder veränderte Vertexdaten bzw Pixelshader) und sich somit nicht an die eigens auferlegten und viel propagierte Optimierungs-Regeln hält.

Das ist die wahre Katastrophe für Nvidia.

Gast
2003-11-12, 10:09:35
Original geschrieben von ][immy

Auf welchem weg man zu einem Endergebniss kommt ist nicht wichtig, aber das endergebnis sollte stimmen. und im bezug zu grafikbenchmarks kann man das nicht mit bloßem auge sagen. denn die firma, die dann das bild nicht mehr ganz sichtbar verfälscht um so gegenüber der anderen firma besser besser zu stehen, kämpft in dem moment mit unfairen mitteln. gegen den shaderkompiler ist nix einzuwenden, der soll (zumindest) die bildqualität nicht beeinflussen, aber etwas weglassen, bzw ungenau zu rechnen, das ist alles andere als fairer wettbewerb (besonders wenn man dann mit solchen werten wirbt)


und nochmal, einen grafikbechnmark kannst du nicht mit spielen vergleichen.


und die verschwörungtheorien kannst du glaub ich auch unterlassen, das ist pures flaming


Das ist so nicht richtig. Wenn einer sozusagen die Szene "Realworld" rendert und alle Objekte dur den Z-Test schickt, der andere aber sich durch Clipplanes usw. eine Szene draus bastelt, die nur noch von dem bestimmten Kamerapunkt aus korrekt gerendert wird ist das nicht mehr fair. Von den geringeren Details, Bsp. Haare, mal abgesehen.

Gast
2003-11-12, 10:12:04
Ups, falsch gequotet.

Andre
2003-11-12, 10:13:15
Hmm, also ich hab mir mal den Artikel auf B3D durchgelesen.
Auffällig ist, dass in GT4, wo die meisten Einbußen für die FX sind, am wenigsten BQ-Unterschiede auftreten. Das wundert mich schon. Auf dem Vergleichsbild seh ich nur wenige verteilte Punkte, die sich verändert haben. Die frage ist für mich, warum führt eine relativ kleine BQ-Veränderung zu einem 35 %tigem Punktverlust?

Gast
2003-11-12, 10:17:37
Original geschrieben von Andre
Hmm, also ich hab mir mal den Artikel auf B3D durchgelesen.
Auffällig ist, dass in GT4, wo die meisten Einbußen für die FX sind, am wenigsten BQ-Unterschiede auftreten. Das wundert mich schon. Auf dem Vergleichsbild seh ich nur wenige verteilte Punkte, die sich verändert haben. Die frage ist für mich, warum führt eine relativ kleine BQ-Veränderung zu einem 35 %tigem Punktverlust?

Z.B. deshalb?


Das ist so nicht richtig. Wenn einer sozusagen die Szene "Realworld" rendert und alle Objekte dur den Z-Test schickt, der andere aber sich durch Clipplanes usw. eine Szene draus bastelt, die nur noch von dem bestimmten Kamerapunkt aus korrekt gerendert wird ist das nicht mehr fair. Von den geringeren Details, Bsp. Haare, mal abgesehen.


Und ganz abgesehen vom möglichen BQ Verlust bei ausgetauschten und vorgefertigten Shadern, was sagst du in dem Zusammenhang dazu?


Wie schon mehrfach erwähnt, der einzige Weg solche Optimierungen von von Seiten der Applikation auszuschalten ist, die Merkmale, an denen sie erkannt wird, zu ändern.

Im Umkehrschluss heisst das aber, daß Nvidia doch applikationspezifisch "optimiert" (ob das nun Clip Planes sind oder veränderte Vertexdaten bzw Pixelshader) und sich somit nicht an die eigens auferlegten und viel propagierte Optimierungs-Regeln hält.

Das ist die wahre Katastrophe für Nvidia.

Akira20
2003-11-12, 10:21:56
Original geschrieben von Smoking_Red
Am Anfang in GT3 erscheint halt die Tusse...Der "Umfang"
ihrer Haarpracht fällt auf nv Karten beim Build 330 und
des 340 unterschiedlich aus. Will heißen, dass beim Build
340 mehr Haare auf ihrem Schädel sitzen als beim 330...
Mehr Haare = Mehr zu rendern = Wenige Murkse.
Tach,

wieder mal eine sehr interessante Diskussion...LOL

So als erstes möchte ich mal fragen, ob diese ominöse "Haaranzahl" nur auf NV+Karten gestiegen ist.
Es wäre doch möglich, dass die Haaranzahl bei Ati Karten nicht gestiegen ist, denn ich habe noch nicht mitgekriegt, dass sich Ati-User beschwert haben, dass NV-User beim "Ischen"-Bench weniger Haare zu rendern haben(Beim Build 330).
Oder sind es bei Ati-Usern jetzt auch mehr Haare...;)
Naja Futurmark hat bestimmt auch paar Kröten von Ati bekommen, nachdem Valve mit HL2 so abgek***t ist und als Webeträger imo nicht zu gebrauchen ist.
Außerdem ist der 3dMarks-Scheiß eh nur "Schwanzvergleich", der so pseudo Skiller aufgeilt, wie den ollen Shu von GIGA...LOL der geilt sich immer so stark an seinen 3dMarks auf, ist schon krass;).
So hab bisschen Öl ins Feuer gekippt...:asshole:


Mfg
Akira20

edit: und bestimmt hat FM die Cheatz vom neuen 3.9 noch nicht fixen können...hrhrhrhr! Ist doch nur nen blöder Bench, nicht immer so aufregen :D !

Exxtreme
2003-11-12, 10:23:11
Original geschrieben von Andre
Hmm, also ich hab mir mal den Artikel auf B3D durchgelesen.
Auffällig ist, dass in GT4, wo die meisten Einbußen für die FX sind, am wenigsten BQ-Unterschiede auftreten. Das wundert mich schon. Auf dem Vergleichsbild seh ich nur wenige verteilte Punkte, die sich verändert haben. Die frage ist für mich, warum führt eine relativ kleine BQ-Veränderung zu einem 35 %tigem Punktverlust?
ICh tippe pauschal auf Clipping-Planes und ähnliche Techniken. Es ist so eine Art manuelles HSR. Der Treiber kennt den Kamera-Pfad des Standard-Benchmarks und schmeisst alles, was bedingt durch den vorgegebenen Pfad nicht sichtbar ist, raus. Stell dir vor, du würdes für eine Quake3-Timedemo optimieren und die Level-Teile, die niemals sichtbar werden, würden entfernt werden. Das bringt viel mehr als chipinternes HSR, aber wenn man den vorgegebenen Kamerapfad verlässt, dann sieht man die fehlenden Teile der 3D-Szene.

seahawk
2003-11-12, 10:30:58
Kann aber nicht sein, wenn man Clippinglanes verwendet, dann hätte der Unterschied im Vergleich zu ATI-Karten doch offensichtlich werden müssen.

Man konnte ja beim alten Build in den Testversionen eine freie Kamera wählen und hätte es damit sichtbar machen können.

Mich intressiert immer noch ein Vergleich der Bildqualität zwischen ATI und NV nach dem Build. Rendert ATI wie NV vor dem neuen Patch oder wie NV mit dem neuen Patch ??

nggalai
2003-11-12, 10:35:08
Original geschrieben von seahawk
Mich intressiert immer noch ein Vergleich der Bildqualität zwischen ATI und NV nach dem Build. Rendert ATI wie NV vor dem neuen Patch oder wie NV mit dem neuen Patch ?? ATI rendert ob mit oder ohne Patch 340 gleich, korrekt und identisch zum Refrast. NV erst mit dem Patch 340.

93,
-Sascha.rb

reunion
2003-11-12, 10:36:15
Original geschrieben von Andre
Hmm, also ich hab mir mal den Artikel auf B3D durchgelesen.
Auffällig ist, dass in GT4, wo die meisten Einbußen für die FX sind, am wenigsten BQ-Unterschiede auftreten. Das wundert mich schon. Auf dem Vergleichsbild seh ich nur wenige verteilte Punkte, die sich verändert haben. Die frage ist für mich, warum führt eine relativ kleine BQ-Veränderung zu einem 35 %tigem Punktverlust?

Weil NV nur das geredert hat was man auch wirklich sieht...
So auf Kyro-style, nur das die NV-Karten das nicht unterstützen und man so eben selbst handanlegen musste...

Gast
2003-11-12, 10:37:29
Original geschrieben von Akira20


So als erstes möchte ich mal fragen, ob diese ominöse "Haaranzahl" nur auf NV+Karten gestiegen ist.
Es wäre doch möglich, dass die Haaranzahl bei Ati Karten nicht gestiegen ist, denn ich habe noch nicht mitgekriegt, dass sich Ati-User beschwert haben, dass NV-User beim "Ischen"-Bench weniger Haare zu rendern haben(Beim Build 330).
...



Die Frage wurde doch schon beantwortet, z.B von nggalai. (Lesen bildet)

Original geschrieben von nggalai
Die reduzierte Bildqualität (z.B. die Haare) findet man deutlich im Free-Modus, wie weiland schon die "Clipplanes", sieht man aber auch schön in der Standard-Ansicht. Futuremark prüft gerade, ob sie nochmals ein PDF zu den "Optimierungen" rauslassen wollen oder nicht, ich persönlich glaube nicht, dass da was kommen wird.

edit: Haare im Vergleich zum Refrast, zu ATI, und zum 340er-Patch (RC 333), natürlich. ;) Und schön, B3D hat den Artikel online.

93,
-Sascha.rb

mapel110
2003-11-12, 10:41:28
Original geschrieben von seahawk
Mich intressiert immer noch ein Vergleich der Bildqualität zwischen ATI und NV nach dem Build. Rendert ATI wie NV vor dem neuen Patch oder wie NV mit dem neuen Patch ??

wie nv mit dem patch! und das mit jedem treiber und jeder 3dmark03 version. ausnahme gametest 4 vor cat3.4 und vor 3dmark 330.

Akira20
2003-11-12, 10:42:18
Original geschrieben von Gast
Die Frage wurde doch schon beantwortet, z.B von nggalai. (Lesen bildet)

Das einzige was mich an dieser Antwort stört ist, dass sich beim Build 330 kein einziger Ati-User beschwert hat, dass NV bei den Haaren cheatet(weniger Haare, Haare ausgeblendet).
Hätte doch auffallen müssen, oder nicht???

@Gast
Schön locker bleiben.

Mfg
Akira20

Exxtreme
2003-11-12, 10:47:03
Original geschrieben von Akira20
Das einzige was mich an dieser Antwort stört ist, dass sich beim Build 330 kein einziger Ati-User beschwert hat, dass NV bei den Haaren cheatet(weniger Haare, Haare ausgeblendet).

Mir ist das nicht aufgefallen da ich keine Karte zum Vergleich habe. Ausserdem spielt es keine Rolle ob es auffällt oder nicht. Mit Absicht nicht korrekt gerendert um Speed zu schinden = Cheat, so einfach ist das.

mapel110
2003-11-12, 10:47:04
Original geschrieben von Akira20
Hätte doch auffallen müssen, oder nicht???


fällt eben nicht auf. nvidia ist ja nicht blöd und nimmt einen part, der sofort ins auge sticht. vergleich doch mal selbst bei b3d die screenshots. fällt nur im direkten vergleich auf, und wer hat den schon?!

seahawk
2003-11-12, 10:57:40
Original geschrieben von nggalai
ATI rendert ob mit oder ohne Patch 340 gleich, korrekt und identisch zum Refrast. NV erst mit dem Patch 340.

93,
-Sascha.rb

Ok, danke, dann ist die Sache eindeutig ein Cheat ...

Andre
2003-11-12, 11:00:00
Original geschrieben von Gast
Und ganz abgesehen vom möglichen BQ Verlust bei ausgetauschten und vorgefertigten Shadern, was sagst du in dem Zusammenhang dazu?

Dazu sage ich, dass das nicht in Ordnung geht. Ich stelle mir aber zudem die Frage, ob das in realen Games ebenfalls der Fall ist. Wenn dem so ist, hat NV ein ganz extremes Problem und ich bin der Letzte, der das schönreden will.

Andre
2003-11-12, 11:00:43
@ Exxtreme, reunion und Gast

Danke für die Aufklärung, so wirds auch für einen Nicht-3D-Spezi klarer.

Andre
2003-11-12, 11:02:43
Original geschrieben von seahawk
Ok, danke, dann ist die Sache eindeutig ein Cheat ...

Da gebe ich dir uneingeschränkt Recht.

Sphinx
2003-11-12, 11:05:32
Original geschrieben von The_Invisible
und wie erklärt ihr euch das im PS2.0 Test sich nichts verändert und im GT4 keine Unterschiede zwischen alt und neu bemerkbar sind?

btw und jetzt sagt mir mal einer wenn die unterschiede vor dem patch aufgefallen sind ;D nicht mal eine Onlineseite hat darüber auch nur spekuliert, das sagt alles wie SEHR nvidia gecheatet haben muss...

edit: also nachdem ich mir jetzt die bilder mal selber angesehen habe (ohne differenzbild) ist mir nur aufgefallen, das das schwert mit dem alten patch mehr geleuchtet hat und auch schöner ist :D und kann mir mal wer sagen wer bei den bildern mit den haaren einen unterschied sieht? auch so alle anderen bilder...

vielleicht hat ATI eher FM bezahlt damit sie das machen :asshole: so kommts mir nämlich vor

mfg


Curiously, GT4 displays the largest performance difference, and yet displays the fewest obvious IQ differences. The image difference tool used here shows that there are slight variations in how the pixel shader water surface is rendered, but overall these are slight.

The little sparkles shown by the image difference in the second row are very interesting though - these only show up in areas that tree rendering is done, yet there is no obvious differences between the two images, just these very minor differences. The rendering of the leaves on the trees is done via vertex shaders, and these very minor differences could be indicative of tiny precision differences. It is possible to detect the shader for the trees and then a pre-computed one that replaces it could be executed over the CPU, the difference in precisions between the CPU and graphics chip vertex shader could account for these tiny variations. Obviously, we have no way of actually proving this is what's occurring, but there certainly is something difference occurring between the 330 and 340 patch here, its also the case, as Aces Hardware recently highlighted, that 3DMark03 doesn't load up the CPU at all, hence there would be plenty of cycles to offload some geometry processing from the graphics core to the host CPU.

Many of the image differences displayed here are fairly small and wouldn't be noticeable in play - its only with the use of a comparison tool that we can highlight where the image differences are.

Exxtreme
2003-11-12, 11:11:40
Original geschrieben von Gast
Im Umkehrschluss heisst das aber, daß Nvidia doch applikationspezifisch "optimiert" (ob das nun Clip Planes sind oder veränderte Vertexdaten bzw Pixelshader) und sich somit nicht an die eigens auferlegten und viel propagierte Optimierungs-Regeln hält.

So sieht's aus.

Ich weiss zwar nicht wie bei NV gearbeitet wird aber anscheinend hat die PR-Abteilung keinen Schimmer davon was die Treiberabteilung tut.

Gast
2003-11-12, 11:17:14
Hier ein interessanter Auszug aus dem ATI-Interview:


A new PC game gets released about once a day; about one-third of these are games that really push 3D graphics. Only a tiny percentage of these will receive the dubious "optimizations" that have been directed at previous versions of 3DMark03. Gamers don't want to be locked into these. They don't want to be surprised by poor frame rates when they buy a game outside the top 10. Gamers need uncompromised benchmarks that give them a true picture of performance, so they can find a card that performs for all games, not just the half-dozen for which the drivers are faking it.


Genau das ist auch mein Hauptkritikpunkt an der FX Reihe. "Optimierung" hin oder her, ich will nicht warten bis bei meinem neu erstandenen Game alle Texturen für Intellisample sortiert und alle Shader ordentlich übersetzt wurden, damit mein Game erstmal halbwegs schnell läuft.

Und wenn ich nicht gerade die Top5 Mainstream zocke kann ich teilweise ewig warten.

Byteschlumpf
2003-11-12, 11:42:18
Original geschrieben von Exxtreme
So sieht's aus.

Ich weiss zwar nicht wie bei NV gearbeitet wird aber anscheinend hat die PR-Abteilung keinen Schimmer davon was die Treiberabteilung tut.
Angestellte einer PR-Abteilung sind zumeist freie Mitarbeiter, die mal eine Zeitlang für Firma X "Slips" und für Firma Y "PC-Hardware" anpreisen - diese Personen sind also NICHT vom Fach! ;)

Der Arbeitsmarkt ist in dieser Hinsicht sehr flexibel.

Exxtreme
2003-11-12, 11:45:11
Original geschrieben von Byteschlumpf
Angestellte einer PR-Abteilung sind zumeist freie Mitarbeiter, die mal eine Zeitlang für Firma X "Slips" und für Firma Y "PC-Hardware" anpreisen - diese Personen sind also NICHT vom Fach! ;)

Der Arbeitsmarkt ist in dieser Hinsicht sehr flexibel.
Naja, aber Leute wie Perez oder Humber etc. sollten schon bescheid wissen. Die sind nämlich schon einige Jährchen bei Nvidia.

MadManniMan
2003-11-12, 12:00:05
Original geschrieben von Exxtreme
Naja, aber Leute wie Perez oder Humber etc. sollten schon bescheid wissen. Die sind nämlich schon einige Jährchen bei Nvidia.

Und gerade Perez als Ex-3dfx-Gott ...äh, -Mensch sollte sich mal an den Hintern fassen und fragen, ob er sich nicht selbst mal in den solchen treten möchte.
OMG, wie kann man nen Voodoojünger so desillusionieren?

Hauptsache ich verwechsel da jetz nix...

reunion
2003-11-12, 12:04:28
Original geschrieben von Akira20
Das einzige was mich an dieser Antwort stört ist, dass sich beim Build 330 kein einziger Ati-User beschwert hat, dass NV bei den Haaren cheatet(weniger Haare, Haare ausgeblendet).
Hätte doch auffallen müssen, oder nicht???

@Gast
Schön locker bleiben.

Mfg
Akira20

Nein, hätte nicht auffallen müssen!
Weil NV nur das rausgenommen hat was man im fertigen Bild gar nicht sieht und sich damit eine menge arbeit erspart im Vergleich zu den ATI Karten.

Im übrigen spielt es keine Rolle ob es auffällt oder nicht, denn NV ercheatet sich damit leistung die man in wirklichkeit nie erreichen würde und täuscht damit bewusst die Kunden!

Sumpfmolch
2003-11-12, 12:09:01
hmm ich weiß nicht..wenn ich mit meiner 9700pro hier die gleichen frames mache kommt

a, weder das bild von nvidia 330 noch das von 340 raus und

b, jedes mal sieht der qualm in gt2 anders aus :kratz:

...is ja wohl voll fürn :arsch:

LovesuckZ
2003-11-12, 12:18:23
Ich finde es doch viel erstaunlicher, dass der reine PS2.0 Test vollkommen unberuehrt vom Patch bleibt.
Ein Schelm, wer boeses dabei denkt...

Mr. Lolman
2003-11-12, 12:24:17
Original geschrieben von LovesuckZ
Ich finde es doch viel erstaunlicher, dass der reine PS2.0 Test vollkommen unberuehrt vom Patch bleibt.
Ein Schelm, wer boeses dabei denkt...

Das heisst wohl eher, dass der Shadercompiler weiterhin ungehindert arbeiten kann...

MadManniMan
2003-11-12, 12:25:13
Original geschrieben von LovesuckZ
Ich finde es doch viel erstaunlicher, dass der reine PS2.0 Test vollkommen unberuehrt vom Patch bleibt.
Ein Schelm, wer boeses dabei denkt...

Was denkst du?

LovesuckZ
2003-11-12, 12:31:05
Original geschrieben von MadManniMan
Was denkst du?

Das der Shadercompiler arbeitete und ich mich um DX9 Games keine sorgen machen brauche.
Oder, dass Futurmark, wie es tb ausgedrueckt hat (OT: keine Veraenderung beim Anti Detect Mode und mit dem 52.16), mit Nvidia ein "abkommen" wegem dem Test gemacht habe...

][immy
2003-11-12, 12:35:07
Original geschrieben von LovesuckZ
Das der Shadercompiler arbeitete und ich mich um DX9 Games keine sorgen machen brauche.
Oder, dass Futurmark, wie es tb ausgedrueckt hat (OT: keine Veraenderung beim Anti Detect Mode und mit dem 52.16), mit Nvidia ein "abkommen" wegem dem Test gemacht habe...

irgendjemand hatte hier doch vorher testergebnisse mit nem 40er deto und dem 52.16 reingeschrieben
daraus konnte man doch ansich sehen das der shadercompiler nach wie vor seinen dienst verrichtet (wie schon öfter bemerkt ist er eh nicht abschaltbar), anders könnte ich mir den enormen unterschied zwischen dem 40er und 52.16 nicht erklären

MadManniMan
2003-11-12, 12:36:56
Original geschrieben von LovesuckZ
Das der Shadercompiler arbeitete und ich mich um DX9 Games keine sorgen machen brauche.
Oder, dass Futurmark, wie es tb ausgedrueckt hat (OT: keine Veraenderung beim Anti Detect Mode und mit dem 52.16), mit Nvidia ein "abkommen" wegem dem Test gemacht habe...

Zu ersterem: tja, den Shaderkompiler ham wir jetzt ausschließen können.
Zu letzterem: da erschließt sich mir der Sinn nicht so recht... welcher Art sollte ein solches Abkommen sein, wenn es doch - wie nun geschehen - neuerlicher Dilemmae gibt?

LovesuckZ
2003-11-12, 12:39:58
Original geschrieben von MadManniMan
Zu letzterem: da erschließt sich mir der Sinn nicht so recht... welcher Art sollte ein solches Abkommen sein, wenn es doch - wie nun geschehen - neuerlicher Dilemmae gibt?

Ka, wie bei sovieles, was Nvidia in letzter Zeit PR gemacht hat.
Für mich ist das Ergebnis des reinen PS2.0 Test im Bezug auf dem des GT4 unlogisch. Denn, warum sollte Nvidia auch in diesen Test nicht spezielle Optimierungen einbauen?

Sumpfmolch
2003-11-12, 12:42:12
der pixelshader besser unberühret bleib
damit die welt nicht cheater schreit
man besser unbemerkt am pixelshader bastelt
doch damit man sich hat verhaspelt..

oder so ?

Exxtreme
2003-11-12, 12:46:50
Original geschrieben von LovesuckZ
Ka, wie bei sovieles, was Nvidia in letzter Zeit PR gemacht hat.
Für mich ist das Ergebnis des reinen PS2.0 Test im Bezug auf dem des GT4 unlogisch. Denn, warum sollte Nvidia auch in diesen Test nicht spezielle Optimierungen einbauen?
Naja, vielleicht optimiert der treiberinterne Compiler inzwischen so gut, daß man hier keinen Handlungsbedarf sah.

MadManniMan
2003-11-12, 12:49:31
Original geschrieben von LovesuckZ
Ka, wie bei sovieles, was Nvidia in letzter Zeit PR gemacht hat.
Für mich ist das Ergebnis des reinen PS2.0 Test im Bezug auf dem des GT4 unlogisch. Denn, warum sollte Nvidia auch in diesen Test nicht spezielle Optimierungen einbauen?

Hm, Exxtremes Ansatz ist für mich nur teilbefriedigend. Ich warte mal auf weiterführende Aussagen von tb...

Iceman346
2003-11-12, 12:56:24
Original geschrieben von LovesuckZ
Ka, wie bei sovieles, was Nvidia in letzter Zeit PR gemacht hat.
Für mich ist das Ergebnis des reinen PS2.0 Test im Bezug auf dem des GT4 unlogisch. Denn, warum sollte Nvidia auch in diesen Test nicht spezielle Optimierungen einbauen?

Dieser Test gibt keine Punkte zum Gesamtergebnis. Ich könnte mir durchaus vorstellen das Nvidia hier keinen Optimierungsbedarf sah.

AlfredENeumann
2003-11-12, 12:58:12
Original geschrieben von Piffan
Ja, aber ein vielversrechender Thread "Nv kanns nicht lassen!" wurde geschlossen und auf diesen hier verlinkt....

Im Benchmarkforum findet man normalerweise doch überwiegend Ergebnisse, um nicht zu sagen, Schwanzlängen- Angaben...darum schaue ich hier heute das erste Mal rein...:D

Wäre etwas reisserisch. Solange man die wirkliche Ursache des Performancedrops nicht kennt, würde ich da nicht so laut nach Cheat schreien. Klar sieht es auf dem ersten Blick nach Cheat aus, aber wenn man so die Ergebnisse sich anschaut, geht praktisch nur die Vertexshader Performance in den Keller.

LovesuckZ
2003-11-12, 13:00:50
Original geschrieben von Iceman346
Dieser Test gibt keine Punkte zum Gesamtergebnis. Ich könnte mir durchaus vorstellen das Nvidia hier keinen Optimierungsbedarf sah.

Er wird aber zur Ermittelung der reinen PS2.0 Geschwindigkeit benutzt und damit zu einem Indikator für die zukünftige Spielegeschwindigkeit gemacht.

Exxtreme
2003-11-12, 13:09:37
http://www.xbitlabs.com/news/video/display/20031112031947.html

"However, it appears that some technical specialists have something to say against the new patch. Hans-Wolfram Tismer, a Managing Director for Gainward Europe GmbH said today: “According to my information patch 340 disables the GPU compiler. The compiler has to run on the CPU instead resulting in code harder to digest and taking away 20% of the performance. This may not reflect gaming performance and may point in the wrong direction. To me 3DMark03 may look less and less suitable to be used for benchmarking. By the end of the day the end users are running games and applications, not 3DMark03.”

Sumpfmolch
2003-11-12, 13:15:36
wie genau sollen die szenen denn jetz aussehen..irgendwie rendert da jeder die frames wie er grad lustig is !

NVIDIA 3dmark03 v330
http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/gt2_1043OLD_NVIDIA.jpg

NVIDIA 3dmark03 v340
http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/gt2_1043_NVIDIA.jpg


ATI 3dmark03 v340
http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/gt2_01043_ATI.jpg

ATI 3dmark03 2.test direkt im anschluss
http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/gt2_01043_ATI2.jpg

Andre
2003-11-12, 13:19:32
Original geschrieben von Exxtreme
http://www.xbitlabs.com/news/video/display/20031112031947.html

"However, it appears that some technical specialists have something to say against the new patch. Hans-Wolfram Tismer, a Managing Director for Gainward Europe GmbH said today: “According to my information patch 340 disables the GPU compiler. The compiler has to run on the CPU instead resulting in code harder to digest and taking away 20% of the performance. This may not reflect gaming performance and may point in the wrong direction. To me 3DMark03 may look less and less suitable to be used for benchmarking. By the end of the day the end users are running games and applications, not 3DMark03.”

Verstehe ich nicht. FM hat doch immer auf die reine Grakabezogene Messung Wert gelegt und das auch so propagiert. Warum deaktivieren sie dann den GPU-Compiler und gehen auf die CPU?
Ich versteh nix mehr...

Exxtreme
2003-11-12, 13:24:43
Original geschrieben von Andre
Verstehe ich nicht. FM hat doch immer auf die reine Grakabezogene Messung Wert gelegt und das auch so propagiert. Warum deaktivieren sie dann den GPU-Compiler und gehen auf die CPU?
Ich versteh nix mehr...
Was ich mich eher frage:

Was ist ein GPU-Compiler? Ich habe davon noch nie gehört.

Edit: Wenn die den Shader Compiler meinen, dann ist die Aussage des PR-Fuzzies schlicht falsch. Ein Shader Compiler lässt sich normalerweise per Applikation nicht deaktivieren.

nggalai
2003-11-12, 13:38:43
Hola,

zum Thema "Cheat oder nei"--es gab vor zwei Abenden eine Telefonkonferenz mit NV. Mit dabei: Derek Perez. Ich darf den genauen Wortlaut nicht wiederholen, aber Wavey von B3D hat's im bereits erwähnten Artikel schön zusammengefasst:

At one we asked Derek how this sat with the optimisations guidelines that were given to press by NVIDIA, specifically the guideline that suggests "An optimization must accelerate more than just a benchmark" To which Derek's reply was "But 3DMark03 is only a benchmark" -- it was suggested [by Dave Baumann] that this particular guideline should read "An optimization must accelerate more than just a benchmark unless the application is just a benchmark"!

Hint: Er hat's aus naheliegenden Gründen auf "sehr vorsichtig" umformuliert. Der genaue Wortlaut war ein wenig ... eindeutiger. ;)

93,
-Sascha.rb

Akira20
2003-11-12, 13:58:02
[SIZE=1]Original geschrieben von Sumpfmolch
wie genau sollen die szenen denn jetz aussehen..irgendwie rendert da jeder die frames wie er grad lustig is !


???
Also ich sehe überhaupt keinen Unterschied bei den Screenies...
Naja irgendwie ist die ganze Geschichte doch sehr, sehr suspekt. Erinnert mich irgendwie an die Aussage von Valve "Mit NV-Karte ist bei HL2 kein AA möglich!"

Mfg
Akira20

Andre
2003-11-12, 14:12:02
Original geschrieben von Akira20
???
Also ich sehe überhaupt keinen Unterschied bei den Screenies...
Naja irgendwie ist die ganze Geschichte doch sehr, sehr suspekt. Erinnert mich irgendwie an die Aussage von Valve "Mit NV-Karte ist bei HL2 kein AA möglich!"

Mfg
Akira20

Genau da liegt auch mein Problem.

mapel110
2003-11-12, 14:29:44
Original geschrieben von Iceman346
Dieser Test gibt keine Punkte zum Gesamtergebnis. Ich könnte mir durchaus vorstellen das Nvidia hier keinen Optimierungsbedarf sah.

sehe ich genauso.

Original geschrieben von LovesuckZ
Er wird aber zur Ermittelung der reinen PS2.0 Geschwindigkeit benutzt und damit zu einem Indikator für die zukünftige Spielegeschwindigkeit gemacht.

hö? die reviews, die das ergebnis des einzeltests ps2.0 überhaupt erwähnen, kann man wohl an einer hand abzählen. und auch sonst vergleicht sogut wie keiner diese werte.

/edit
ausserdem verliert die FX ja im vertexshader-test frames. daher kann man sich ja auch den performanceverlust bei den gametests erklären.

btw ich glaube, dass nvidia extra manche einzeltests des 3dmark03, die nicht zum score gezählt werden, zercheatet, um zu verhindern, dass man anhand der ergebnisse eine allgemeine aussage treffen kann.

Asuka
2003-11-12, 14:51:30
Original geschrieben von nggalai
Hola,

die folgenden Ergebnisse sind nicht von mir selbst, kann aber dafür bürgen. ;)

GFFX 5800Ultra, 52.16, Patch 330:
5851 Punkte, GT1 = 194.4, GT2 = 40.5, GT3 = 33.7, GT4 = 34.8

GFFX 5800Ultra, 52.16, Patch 340:
5054 Punkte, 194.1, 35.1, 30.4, 23.5


Auch lustig:

GFFX 5900Ultra, 44.03, Patch 330:
4850 Punkte, 175.9, 37.6, 30.5, 19.1

GFFX 5900Ultra, 44.03, Patch 340:
3178 Punkte, 117.8, 18.8, 13.6, 14.2


93,
-Sascha.rb Ist ja interessant... da waren selbst im 44.03 noch jede Menge Cheats drin :freak:
Das wird ja immer schlimmer mit nVidias Cheaterei... :eyes:
Na, sollen sie nur so weitermachen, dann haben sie ihren Ruf bald völlig ruiniert.

Gast
2003-11-12, 14:59:57
Original geschrieben von Asuka
Ist ja interessant... da waren selbst im 44.03 noch jede Menge Cheats drin :freak:
Das wird ja immer schlimmer mit nVidias Cheaterei... :eyes:
Na, sollen sie nur so weitermachen, dann haben sie ihren Ruf bald völlig ruiniert.

...und dann lebt's sich völlig ungeniert. h3h3

Weitermachen.

Gast
2003-11-12, 15:04:45
Original geschrieben von Akira20
???
Also ich sehe überhaupt keinen Unterschied bei den Screenies...
Naja irgendwie ist die ganze Geschichte doch sehr, sehr suspekt. Erinnert mich irgendwie an die Aussage von Valve "Mit NV-Karte ist bei HL2 kein AA möglich!"

Mfg
Akira20

Den Zusammenhang musst du uns jetzt mal erklären.

PS: Ich kann mir nur vorstellen, daß du alles, was nicht Nv-konform ist, in die zwielichtige Ecke stellen willst. Jedenfalls ist für mich die Annahme, dass Nvidia notorisch schummelt plausibler als die, dass alle Nvidia eins reinwürgen wollen.

aths
2003-11-12, 15:09:54
Original geschrieben von Andre
Verstehe ich nicht. FM hat doch immer auf die reine Grakabezogene Messung Wert gelegt und das auch so propagiert. Warum deaktivieren sie dann den GPU-Compiler und gehen auf die CPU?
Ich versteh nix mehr... Hat mit der CPU auch nix zu tun. Der Typ meint den Shader-(Re-)Compilier. Dieser läuft immer im Treiber, also auf der CPU. Um die GPU zu beschleunigen. Diese PR-Fuzzi-Aussage ist aber falsch und soll davon ablenken, dass NV an anderer Stelle schlicht und ergreifend beschissen hat. Kann man den Bench nicht gewinnen, kann man ja noch versuchen, ihn in Misskredit zu bringen...

aths
2003-11-12, 15:10:27
Original geschrieben von Kai
Bei meinem Sys keine Veränderung bei den Punkten. Mal paar Punkte mehr, mal weniger - innerhalb der Messtoleranz. Mein System hat sogar ganz leicht gewonnen :)
Original geschrieben von reunion
War das nicht schon immer so??
Tatsache ist und bleibt, die Pixelshaderperformace der Fx Chips ist im vergleich zur Radeonkonkurrenz einfach nur erbärmlich Da hat ja jemand Ahnung... :|

Gast_01
2003-11-12, 15:10:37
Original geschrieben von Asuka
Ist ja interessant... da waren selbst im 44.03 noch jede Menge Cheats drin :freak:
Das wird ja immer schlimmer mit nVidias Cheaterei... :eyes:
Na, sollen sie nur so weitermachen, dann haben sie ihren Ruf bald völlig ruiniert.

wieso ruinieren?? entweder gehen sie unter mit ihren schlechten grafikkarten oder sie versuchen das letzte (cheaten) und hoffen das keine sau es bemerkt aber dem ist nicht so :freak2:

HEHE

Gast
2003-11-12, 15:11:20
Original geschrieben von nggalai
Hola,

zum Thema "Cheat oder nei"--es gab vor zwei Abenden eine Telefonkonferenz mit NV. Mit dabei: Derek Perez. Ich darf den genauen Wortlaut nicht wiederholen, aber Wavey von B3D hat's im bereits erwähnten Artikel schön zusammengefasst:



Hint: Er hat's aus naheliegenden Gründen auf "sehr vorsichtig" umformuliert. Der genaue Wortlaut war ein wenig ... eindeutiger. ;)

93,
-Sascha.rb

Also wenn diese Aussage sinngemäss von Perez kam, kann ich das nur als absoluten Hohn nehmen. Vielleicht erzählt er das nächste Mal, dass er die Finger hinterm Rücken gekreuzt hatte, als er seine Marketing-Versprechungen verlas.

Gast
2003-11-12, 15:13:42
Original geschrieben von aths
Hat mit der CPU auch nix zu tun. Der Typ meint den Shader-(Re-)Compilier. Dieser läuft immer im Treiber, also auf der CPU. Um die GPU zu beschleunigen. Diese PR-Fuzzi-Aussage ist aber falsch und soll davon ablenken, dass NV an anderer Stelle schlicht und ergreifend beschissen hat. Kann man den Bench nicht gewinnen, kann man ja noch versuchen, ihn in Misskredit zu bringen...

Ack! Gainward vorgeschoben, somit sind wenigstens noch die Fanboys zufrieden.

Asuka
2003-11-12, 15:20:22
Original geschrieben von Exxtreme
http://www.xbitlabs.com/news/video/display/20031112031947.html

"However, it appears that some technical specialists have something to say against the new patch. Hans-Wolfram Tismer, a Managing Director for Gainward Europe GmbH said today: “According to my information patch 340 disables the GPU compiler. The compiler has to run on the CPU instead resulting in code harder to digest and taking away 20% of the performance. This may not reflect gaming performance and may point in the wrong direction. To me 3DMark03 may look less and less suitable to be used for benchmarking. By the end of the day the end users are running games and applications, not 3DMark03.” Nichts als Marketing-Geschwätz :down:
Da Gainward ausschließlich nVidiot-Karten herstellt, können sie gar nichts anderes sagen, denn das wäre ihrem Absatz sicher nicht zuträglich...

Gast
2003-11-12, 15:20:34
Wenn eine Lüge sehr oft verbreitet und erzählt wird, wird sie iregendwann zur Wahrheit...

Asuka
2003-11-12, 15:25:58
Original geschrieben von Gast
Wenn eine Lüge sehr oft verbreitet und erzählt wird, wird sie iregendwann zur Wahrheit... nVdidia kann so viel rumlügen, wie sie wollen, daß ihre Treiber angeblich keine Cheats enthalten, aber von der Wahrheit ist das trotzdem meilenweit entfernt, egal wie oft sie es erzählen.

Gast
2003-11-12, 15:31:31
lol, ich wollte euch nur doch die America/Bush sichtweise näher bringen, daß das in Old Europe nicht wirkt, das ist unsere Schuld ;)

Winter[Raven]
2003-11-12, 15:32:03
Original geschrieben von Asuka
nVdidia kann so viel rumlügen, wie sie wollen, daß ihre Treiber angeblich keine Cheats enthalten, aber von der Wahrheit ist das trotzdem meilenweit entfernt, egal wie oft sie es erzählen.

Quelle ? Beweis ?

Irgend ein Hirnschmalz ohne Beweise erzählen kann ich auch.

Und komme mir jetzt nicht mit dem 340 Patch für den 3D Murks2003.

aths
2003-11-12, 15:39:06
Original geschrieben von Winter[Raven]
Quelle ? Beweis ?

Irgend ein Hirnschmalz ohne Beweise erzählen kann ich auch.

Und komme mir jetzt nicht mit dem 340 Patch für den 3D Murks2003. Das ist imo ein hinreichender Beweis, zumal wenn man den B3D-Artikel gelesen hat.

mapel110
2003-11-12, 15:42:22
Original geschrieben von aths
Das ist imo ein hinreichender Beweis, zumal wenn man den B3D-Artikel gelesen hat.

den patch ansich kann man nicht als beweiss ansehen. kommt ja schliesslich vom hersteller himself und nicht von einem unbeteiligten dritten. daher läuft er immer gefahr "parteiisch" zu sein, in die eine oder andere richtung. :)

auf den beyond3d artikel wollt ich auch gerade hinweissen. das sollte genügen.

Gast_02
2003-11-12, 15:45:26
Original geschrieben von Winter[Raven]
Quelle ? Beweis ?

Irgend ein Hirnschmalz ohne Beweise erzählen kann ich auch.

Und komme mir jetzt nicht mit dem 340 Patch für den 3D Murks2003.

wozu beweise?? hat nVidia nicht schon 3 mal unqualifiziert versucht sich an ati vorbei zu schmugeln?? hat nVidia diese cheatings einmal zugegeben?? NEIN!!

*Stichelei entfernt*

Exxtreme
2003-11-12, 15:53:03
*grrr*

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1346476#post1346476

Iceman346
2003-11-12, 15:58:48
Original geschrieben von Winter[Raven]
Quelle ? Beweis ?

Irgend ein Hirnschmalz ohne Beweise erzählen kann ich auch.

Und komme mir jetzt nicht mit dem 340 Patch für den 3D Murks2003.

Damals wurde mit der Beta Version vom 3DMark bewiesen das Nvidia gecheatet hat (durch die veränderbare Kamera). Seitdem sehe ich für mich Nvidia in der Beweispflicht. Wenn soetwas erscheint wie jetzt der 340er Patch und Nvidia wieder massiv Leistung verliert, dann muss für mich Nvidia beweisen das sie nicht cheaten, ansonsten gehe ich aus Prinzip davon aus, dass da was faul ist (und ich denke durch den Beyond 3D Artikel sind die Nvidia Cheats sehr eindeutig nachgewiesen).
Ich finde dieses Verhalten dem Kunden gegenüber einfach nur unglaublich. Anstatt einen fairen Vergleich zu ermöglichen wird versucht um alle Ecken herum mit der Konkurrenz gleichzuziehen. Glücklicherweise gibt es mittlerweile immer mehr Webseiten die Abseits der ausgetretenen Benchpfade testen und damit die Misstände in den Nvidia Treibern aufdecken.

Sumpfmolch
2003-11-12, 16:16:55
Original geschrieben von Andre
Genau da liegt auch mein Problem.

sehr seltsam..die beidne nvidia bilder sind nämlich die bilder ausm beyond3d artikel mit welchem die unterschiede = cheat bewiesen worden sind :bigl:

die beiden ati bilder sind von meiner karte...wenn man die bilder schnell hin und her wechselt sieht man, dass der dampf 4x anders aussieht....sowas sollte in einem benchmark screenshot vergleich eigentlich nicht sein ;)

nggalai
2003-11-12, 16:26:19
Die Gerüchteküche brodelt weiter:

Wavey hat heute Morgen einen Anruf eines ungenannten Web-Journalisten erhalten, der wissen wollte, ob am Gerücht was dran ist, dass DELL als ATI-Partner Futuremark dazu genötigt hätte, den Patch 340 so zu bauen, dass NV an Leistung verliert. ;D

93,
-Sascha.rb

Exxtreme
2003-11-12, 16:29:32
Original geschrieben von nggalai
Die Gerüchteküche brodelt weiter:

Wavey hat heute Morgen einen Anruf eines ungenannten Web-Journalisten erhalten, der wissen wollte, ob am Gerücht was dran ist, dass DELL als ATI-Partner Futuremark dazu genötigt hätte, den Patch 340 so zu bauen, dass NV an Leistung verliert. ;D

93,
-Sascha.rb
:bonk:

Da fällt mir nix mehr ein. ;D ;D
Sowas würde Nvidia sehr schnell erkennen, daß sie künstlich ausgebremst werden. Das würde FM sehr viel Glaubwürdigkeit kosten. Deswegen denke ich nicht, daß FM sowas durchziehen würde.

X-D

StefanV
2003-11-12, 16:30:16
Original geschrieben von Iceman346
Damals wurde mit der Beta Version vom 3DMark bewiesen das Nvidia gecheatet hat (durch die veränderbare Kamera). Seitdem sehe ich für mich Nvidia in der Beweispflicht. Wenn soetwas erscheint wie jetzt der 340er Patch und Nvidia wieder massiv Leistung verliert, dann muss für mich Nvidia beweisen das sie nicht cheaten, ansonsten gehe ich aus Prinzip davon aus, dass da was faul ist (und ich denke durch den Beyond 3D Artikel sind die Nvidia Cheats sehr eindeutig nachgewiesen).
Ich finde dieses Verhalten dem Kunden gegenüber einfach nur unglaublich. Anstatt einen fairen Vergleich zu ermöglichen wird versucht um alle Ecken herum mit der Konkurrenz gleichzuziehen. Glücklicherweise gibt es mittlerweile immer mehr Webseiten die Abseits der ausgetretenen Benchpfade testen und damit die Misstände in den Nvidia Treibern aufdecken.

Sehe ich auch so.

Wobei ich mich frage, warum nV nicht einfach die Wahrheit sagt und im gleichen Satz hinterherschiebt, daß sie es mit der nächsten Genearation wieder geradebügeln, was mit der FX (performancetechnisch) schief gelaufen ist...

nute
2003-11-12, 16:36:34
Original geschrieben von nggalai
Die Gerüchteküche brodelt weiter:

Wavey hat heute Morgen einen Anruf eines ungenannten Web-Journalisten erhalten, der wissen wollte, ob am Gerücht was dran ist, dass DELL als ATI-Partner Futuremark dazu genötigt hätte, den Patch 340 so zu bauen, dass NV an Leistung verliert. ;D

93,
-Sascha.rb

quelle??

StefanV
2003-11-12, 16:38:01
Original geschrieben von nute
quelle??

Telefon, Webconference, Forum, Telefon usw...

nute
2003-11-12, 16:47:19
Original geschrieben von Stefan Payne
Telefon, Webconference, Forum, Telefon usw...

ich möchte eine quelle und keine quellen aufzählung ;D

Sumpfmolch
2003-11-12, 16:54:59
kann bitte einer antworten welchen sinn screenshotvergleiche machen wenn ich hier sogar zwei versch. bilder bekomme auf dem gleichen system bei zwei testdurchläufen ?

nggalai
2003-11-12, 17:00:42
Hola,
Original geschrieben von nute
quelle?? Original geschrieben von DaveBaumann

Actually, according to a call from one Journo I had this morning its all Dell's fault... You know, Dell, who are currently carrying all ATI's high end, asked for a patch from Futuremark that purposefully disables NVIDIA's shader optimiser... (!)
http://www.beyond3d.com/forum/viewtopic.php?t=8952&postdays=0&postorder=asc&start=180

93,
-Sascha.rb

nggalai
2003-11-12, 17:04:36
Original geschrieben von Sumpfmolch
kann bitte einer antworten welchen sinn screenshotvergleiche machen wenn ich hier sogar zwei versch. bilder bekomme auf dem gleichen system bei zwei testdurchläufen ? Als Illustration, nicht als Beweis. Punkt ist, dass es starke Hinweise auf "Optimierungen" gibt--nicht zuletzt direkt von NVIDIA, wie von Wavey in seinem Artikel angedeutet--, diese aber nur mit Screenshots in Form eines Artikels gezeigt werden können. B3D ist Beta-Mitglied bei Futuremark, hat entsprechend auch Zugriff auf die ganzen Frei-Rumlaufen-Optionen und natürlich die Entwickler selbst. Nur darf man nicht alles publizieren. :(

Ja, Du kriegst auch zwei verschiedene Bilder. Die Frage wäre jetzt erstmal weshalb das so ist, und dann, WAS unterschiedlich ist. Dass Rauch mal etwas anders wabbert ist vielleicht unschön, aber nicht weiter schlimm. Dass bei einem Model die Hälfte der Haare nicht gerendert werden ist jedoch "etwas" anderes.

93,
-Sascha.rb

Gast
2003-11-12, 17:12:07
Original geschrieben von Sumpfmolch
kann bitte einer antworten welchen sinn screenshotvergleiche machen wenn ich hier sogar zwei versch. bilder bekomme auf dem gleichen system bei zwei testdurchläufen ?

wie machst du die vergleiche?? wartest ab und drückst dann mitten in nirvada die druck taste und dann nochmals?? sprich nix genau der gleiche frame also was du wollen mit deinen ungenauen vergleich ;D

zeckensack
2003-11-12, 17:43:33
Original geschrieben von Exxtreme
http://www.xbitlabs.com/news/video/display/20031112031947.html

"However, it appears that some technical specialists have something to say against the new patch. Hans-Wolfram Tismer, a Managing Director for Gainward Europe GmbH said today: “According to my information patch 340 disables the GPU compiler. The compiler has to run on the CPU instead resulting in code harder to digest and taking away 20% of the performance. This may not reflect gaming performance and may point in the wrong direction. To me 3DMark03 may look less and less suitable to be used for benchmarking. By the end of the day the end users are running games and applications, not 3DMark03.” Quatsch mit Sauce :)

Es gibt schlicht keine Möglichkeit für eine Applikation, Shader-Optimizer selektiv abzuknipsen. Die API (hier: DirectX Graphics) erlaubt solche Eingriffe in die Arbeitsweise der Treiber überhaupt nicht, noch hat die API Kenntnis davon, ob, wo und wie der Shader-Optimizer überhaupt existiert.

Da müssen wir uns auch nochmal mit dem Sinn eines 'richtigen' Shader-Optimizers beschäftigen:
Er läuft einfach über alle Shader drüber, die im Treiber ankommen, um diese besser auf die zugrundeliegende Hardware anzupassen. Das ganze ist völlig transparent für die Applikationen und für die DX-Runtime.

Das einzige was man auf Applikationsebene abschalten kann, ist - indirekt, durch Wechsel des Shader-Codes - eine statische Shader-Optimierung, ie Erkennung eines Shaders und Ersetzung desselben durch eine 'schnellere' Version (wie auch immer diese beschaffen sein mag). Das geschieht aber wie gesagt nicht überDXG-> DisableShaderReplacement(); //diese Funktion gibt's überhaupt nichtoder ähnliches, sondern einfach durch Änderungen am übergebenen Shader-Code.

Eine solche statische Shader-Ersetzung fällt unter den Oberbegriff "applikationsspezifisch". Ich hoffe wir sind uns inzwischen einig, daß das nicht der Sinn eines herstellerübergreifenden Benchmarks sein kann.

Fazit für mich: der Mutz hat indirekt zugegeben, daß der Treiber schummelt. Er hätte besser die Klappe gehalten.

zeckensack
2003-11-12, 17:50:33
Original geschrieben von mapel110
/edit
ausserdem verliert die FX ja im vertexshader-test frames. daher kann man sich ja auch den performanceverlust bei den gametests erklären.Ich würde das so interpretieren, daß eben die Animation des Trolls über einen VS realisiert wird. Dieser VS kommt immer dann zum Einsatz, wenn der Troll gerendert wird. Und das ist eben sowohl in GT3 als auch im VS-Test, als auch in Ragtroll immer der gleiche Shader, der immer die gleiche Shader-Ersetzung auslösen könnte.

Disclaimer: dies war ein Erklärungsversuch, der mir plausibel erscheint. Er muß nicht zwingend der Wirklichkeit entsprechen.

Sumpfmolch
2003-11-12, 17:52:44
Original geschrieben von Gast
wie machst du die vergleiche?? wartest ab und drückst dann mitten in nirvada die druck taste und dann nochmals?? sprich nix genau der gleiche frame also was du wollen mit deinen ungenauen vergleich ;D

haha sehr witzig...natürlich mit der eingebauten bildqualitätsfunktion :o

nggalai
2003-11-12, 17:56:56
Hola Sumpfmolch,
Original geschrieben von Sumpfmolch
haha sehr witzig...natürlich mit der eingebauten bildqualitätsfunktion :o Zwei Fragen:

1) Ändern sich die fps für GT2, bei einem Re-run?

2) Kriegst Du auch unterschiedliche Resultate, wenn Du 3DMark03 startest, Screenshot, 3DMark03 schliessen, starten, Screenshot machst?

93,
-Sascha.rb

zeckensack
2003-11-12, 17:57:34
Original geschrieben von nggalai
Die Gerüchteküche brodelt weiter:

Wavey hat heute Morgen einen Anruf eines ungenannten Web-Journalisten erhalten, der wissen wollte, ob am Gerücht was dran ist, dass DELL als ATI-Partner Futuremark dazu genötigt hätte, den Patch 340 so zu bauen, dass NV an Leistung verliert. ;D

93,
-Sascha.rb Gerüchte in die Welt setzen für Anfänger.

Schritt 1:
Gerücht selbst ausdenken

Schritt 2:
Jemanden, der eine große Website hat (oder sonst die nötige 'Präsenz'), fragen, ob an dem in Schritt 1 selbstgebauten Gerücht was dran ist.

Schritt 3:
Hoffen, daß das Opfer aus Schritt 2 das Gerücht weiterverbreitet.
Goto Schritt 2 until zufrieden.

Schritt 4:
Laut loslachen.

Kai
2003-11-12, 18:00:25
Übrigens Exxtreme, lagst ziemlich korrekt mit deiner Kristallkugel *zwinker* ;)

nggalai
2003-11-12, 18:01:35
Original geschrieben von zeckensack
Gerüchte in die Welt setzen für Anfänger.

Schritt 1:
Gerücht selbst ausdenken

Schritt 2:
Jemanden, der eine große Website hat (oder sonst die nötige 'Präsenz'), fragen, ob an dem in Schritt 1 selbstgebauten Gerücht was dran ist.

Schritt 3:
Hoffen, daß das Opfer aus Schritt 2 das Gerücht weiterverbreitet.
Goto Schritt 2 until zufrieden.

Schritt 4:
Laut loslachen. Schritt 5: Zehn Jahre später mit der Verfilmung der Grossen Weltverschwörungs-Story des Jahrtausends ganz dick Kohle machen.

Schritt 6: Kurz nachdem der Film 8 Oscars abgeholt hat, noch mehr Kohle mit Exklusivinterviews machen, wo man die Geschichte als "Hoax" bezeichnet und sich davon distanziert.

;D

93,
-Sascha.rb

Tigerchen
2003-11-12, 18:10:10
Original geschrieben von LovesuckZ
Ich finde es doch viel erstaunlicher, dass der reine PS2.0 Test vollkommen unberuehrt vom Patch bleibt.
Ein Schelm, wer boeses dabei denkt...

Fließt dieser Test mit in den Score ein? :|

nggalai
2003-11-12, 18:14:34
Damien von TT-Hardware hat mal die Shader im GT4 verglichen:
AFAIK, Futuremark has not modified instructions order. They have made register name inversion (ie r0 -> r1 and r1 -> r0) and terms inversion (ie r0 + r1 -> r1 + r0).

Here's an exemple of a shader used in Mother Nature :

v330
ps_2_0

dcl t0
dcl t1
dcl t2
dcl t3
dcl t4
dcl_2d s0
dcl_2d s1
dcl_2d s2
dcl_2d s3
dcl_cube s4
dcl_2d s5
texld r0 , t0 , s3
texld r1 , t3 , s3
texld r2 , t0 , s0
mad r2 , r2 , c1.xxxx , c1.yyyy
rcp r3.w , t1.wwww
mul r3 , r3.wwww , t1
mad r3 , r2 , c0 , r3
mad r0 , r0 , c1.xxxx , c1.yyyy
mad r1 , r1 , c1.xxxx , c1.yyyy
add r0 , r0 , r1
mul r0 , r0 , c2.xxxx
dp3 r1.x , r0 , t2
add r2.x , r1.xxxx , r1.xxxx
mad r0 , r2.xxxx , r0 , -t2
add r4.x , c1.wwww , -r1
pow r4.x , r4.xxxx , c1.zzzz
texld r0 , r0 , s4
texld r1 , r3 , s1
texld r2 , r3 , s2
texld r3 , t4 , s5
mul r4.x , r4.xxxx , r3.wwww
add r1 , r0 , r1
lrp r0 , r4.xxxx , r1 , r2
mul r0 , r0 , r3
mov oC0 , r0

v340
ps_2_0

dcl t0
dcl t1
dcl t2
dcl t3
dcl t4
dcl_2d s0
dcl_2d s1
dcl_2d s2
dcl_2d s3
dcl_cube s4
dcl_2d s5
texld r0 , t0 , s3
texld r4 , t3 , s3
texld r3 , t0 , s0
mad r3 , c1.xxxx , r3 , c1.yyyy
rcp r2.w , t1.wwww
mul r2 , t1 , r2.wwww
mad r2 , c0 , r3 , r2
mad r0 , c1.xxxx , r0 , c1.yyyy
mad r4 , c1.xxxx , r4 , c1.yyyy
add r0 , r4 , r0
mul r0 , c2.xxxx , r0
dp3 r4.x , t2 , r0
add r3.x , r4.xxxx , r4.xxxx
mad r0 , r0 , r3.xxxx , -t2
add r1.x , r4 , -c1.wwww
pow r1.x , r1.xxxx , c1.zzzz
texld r0 , r0 , s4
texld r4 , r2 , s1
texld r3 , r2 , s2
texld r2 , t4 , s5
mul r1.x , r2.wwww , r1.xxxx
add r0 , r4 , r0
lrp r0 , r1.xxxx , r0 , r3
mul r0 , r2 , r0
mov oC0 , r0
Können solche Änderungen einen so gewaltigen Framerate-Einbruch auf GFFX nach sich ziehen? ?(

93,
-Sascha.rb

zeckensack
2003-11-12, 18:49:21
Original geschrieben von nggalai
Damien von TT-Hardware hat mal die Shader im GT4 verglichen:
<schnüpp>
Können solche Änderungen einen so gewaltigen Framerate-Einbruch auf GFFX nach sich ziehen? ?(

93,
-Sascha.rb "Shader-Erkennung und Ersetzung" :flower:

Sumpfmolch
2003-11-12, 19:22:52
Original geschrieben von nggalai
Hola Sumpfmolch,
Zwei Fragen:

1) Ändern sich die fps für GT2, bei einem Re-run?

2) Kriegst Du auch unterschiedliche Resultate, wenn Du 3DMark03 startest, Screenshot, 3DMark03 schliessen, starten, Screenshot machst?

93,
-Sascha.rb

werd gleich nochmal gucken...

aber zu

1) mit der image quality funktion wird doch nur ein bild von mir aufgenommen, keine szene...deshalb steht auch überall 0fps dabei ;)

2) die unterschiedlichen werte waren bei 3dmark03 starten, imag quality funktion nutzen um bestimmten frame als .bmp abzuspeichern, danach einfach nochmal auf "run" klicken um den screen nochmal aufzunehmen --> trotzdem versch. ergebnisse ?-)

Sumpfmolch
2003-11-12, 19:31:09
Original geschrieben von nggalai
Hola Sumpfmolch,
Zwei Fragen:

1) Ändern sich die fps für GT2, bei einem Re-run?

2) Kriegst Du auch unterschiedliche Resultate, wenn Du 3DMark03 startest, Screenshot, 3DMark03 schliessen, starten, Screenshot machst?

93,
-Sascha.rb

werd gleich nochmal gucken...

aber zu

1) mit der image quality funktion wird doch nur ein bild von mir aufgenommen, keine szene...deshalb steht auch überall 0fps dabei ;)

2) die unterschiedlichen werte waren bei 3dmark03 starten, imag quality funktion nutzen um bestimmten frame als .bmp abzuspeichern, danach einfach nochmal auf "run" klicken um den screen nochmal aufzunehmen --> trotzdem versch. ergebnisse ?-)

SKYNET
2003-11-13, 04:05:25
Original geschrieben von Exxtreme
:bonk:

Da fällt mir nix mehr ein. ;D
Sowas würde Nvidia sehr schnell erkennen, daß sie künstlich ausgebremst werden. Das würde FM sehr viel Glaubwürdigkeit kosten. Deswegen denke ich nicht, daß FM sowas durchziehen würde.

X-D


du weißt ja garnicht was manche für nen paar millionen dollar$ alles tun :D ;)

Onkelpappe
2003-11-13, 04:25:05
schade, dass du nicht liest bevor du postest, obe nsteht doch schon beschrieben, dass man diese optimierung nicht per software abschalten kann.

und die ganzen fm bestochen gesponsered genötigt etc von ati kann ich auch nimmer hören

aths
2003-11-13, 07:59:57
Original geschrieben von nute
ich möchte eine quelle und keine quellen aufzählung ;D "Quellenschutz". Wer eine gute Quelle hat, wird sie nicht preis geben, weil sie sonst versiegt.

Original geschrieben von mapel110
den patch ansich kann man nicht als beweiss ansehen. kommt ja schliesslich vom hersteller himself und nicht von einem unbeteiligten dritten. daher läuft er immer gefahr "parteiisch" zu sein, in die eine oder andere richtung. :)Warum sollte FM parteiisch sein?

Exxtreme
2003-11-13, 09:05:01
Original geschrieben von Kai
Übrigens Exxtreme, lagst ziemlich korrekt mit deiner Kristallkugel *zwinker* ;)
Hrhr. Einige Rollen sind zwar vertauscht aber im großen und ganzen stimmt es. ;)

nggalai
2003-11-13, 09:26:59
Original geschrieben von zeckensack
"Shader-Erkennung und Ersetzung" :flower: Seh ich auch so. Der "GPU-Compiler" ;D lässt sich eh nicht von der Applikation aushebeln, und sollte bei SOLCHEN Anpassungen eigentlich gleich "gut" optimieren können wie mitm Original-330er-Code. Ausser eben, wenn applikationsspezifisch Shader erkannt und ersetzt wurden. Und danach sieht's wirklich aus.

93,
-Sascha.rb

Exxtreme
2003-11-13, 09:29:57
Original geschrieben von nggalai
Seh ich auch so. Der "GPU-Compiler" ;D lässt sich eh nicht von der Applikation aushebeln, und sollte bei SOLCHEN Anpassungen eigentlich gleich "gut" optimieren können wie mitm Original-330er-Code. Ausser eben, wenn applikationsspezifisch Shader erkannt und ersetzt wurden. Und danach sieht's wirklich aus.

93,
-Sascha.rb
Hihi, offizielles Statement von FM zu den Vorwürfen von Gainward:
http://www.dvhardware.net/article2116.html

"Futuremark has made an official comment to Gainward his accusations:

The accusation is totally wrong because what it suggests is not even feasible technically. 3DMark03 does not talk to graphics driver, it talks to the DirectX API, which then talks to the driver. Thus, it is impossible for the application to disable GPU compiler.

The only change in build 340 is the order of some instructions in the shaders or the registers they use. This means that new shaders are mathematically equivalent with previous shaders. A GPU compiler should process the old and the new shader code basically with the same performance. Of course, if there are application specific optimizations in the driver that depend on identifying a shader or parts of it, then you might see performance differences because these optimizations will not work if the driver is not able to detect the shader.

Let's also repeat that 3DMark specific driver optimizations are forbidden in our run rules because they invalidate the performance measurement and the resulting score is not comparable to other hardware.

Thus, the right conclusion is that the new version of 3DMark03 is now very suitable for objective performance measurement between different hardware.

Will the optimizations madness ever stop?


You will have problably noticed that there is a list on Futuremark his website, with approved drivers. You may be wondering why the ForceWare 52.16 is in that list having in mind that it still contains benchmark optimizations. Here is Futuremark his answer :

Reason why any given driver is listed there is that those drivers produce a valid performance measurement result with 3DMark03 build 340. Looking from our point of view, the most important thing for us to do is to enable our customers get a comparable score. "

Gast
2003-11-13, 09:55:33
Original geschrieben von nggalai
Seh ich auch so. Der "GPU-Compiler" ;D lässt sich eh nicht von der Applikation aushebeln, und sollte bei SOLCHEN Anpassungen eigentlich gleich "gut" optimieren können wie mitm Original-330er-Code. Ausser eben, wenn applikationsspezifisch Shader erkannt und ersetzt wurden. Und danach sieht's wirklich aus.

93,
-Sascha.rb

Man hat doch erreicht was man wollte. Alle Newssites, auch solche die es besser wissen sollten, schreiben dass FM den Compiler disabled hätte.

Ablenkungsmanover geglückt, FM ist ganz böse zu Nvidia und über die Falschaussage von irgend einen Gainward-Heini regt sich doch keiner auf. "Ist ja nur PR, wers glaubt ist selber schuld."

Gast
2003-11-13, 09:57:24
Original geschrieben von nggalai
Seh ich auch so. Der "GPU-Compiler" ;D lässt sich eh nicht von der Applikation aushebeln, und sollte bei SOLCHEN Anpassungen eigentlich gleich "gut" optimieren können wie mitm Original-330er-Code. Ausser eben, wenn applikationsspezifisch Shader erkannt und ersetzt wurden. Und danach sieht's wirklich aus.

93,
-Sascha.rb

Wer weiss, ob es überhaupt einen richtigen GPU-Compiler gibt.

Exxtreme
2003-11-13, 09:58:47
Original geschrieben von Gast
Wer weiss, ob es überhaupt einen richtigen GPU-Compiler gibt.
Ich denke, sowas gibt's gar nicht. CPUs haben tatsächlich einen Code-Optimizer in Hardware.

zeckensack
2003-11-13, 10:32:37
Original geschrieben von Exxtreme
Ich denke, sowas gibt's gar nicht.Der Begriff ist shice, aber "für GPUs optimierende Compiler" gibt es durchaus.
CPUs haben tatsächlich einen Code-Optimizer in Hardware.Jein ;)
Einen guten optimierenden Compiler braucht's schon noch. Die Ressourcen innerhalb der CPU sind ziemlich begrenzt. CSE kann zB bisher noch keine einzige CPU ...

Sumpfmolch
2003-11-13, 10:53:46
Original geschrieben von nggalai
Hola Sumpfmolch,
Zwei Fragen:

1) Ändern sich die fps für GT2, bei einem Re-run?

2) Kriegst Du auch unterschiedliche Resultate, wenn Du 3DMark03 startest, Screenshot, 3DMark03 schliessen, starten, Screenshot machst?

93,
-Sascha.rb

1) fps ändern sich natürlich nicht, da mit der image quality funktion nur ein einzelner screenshot angefertigt wird..deshalb steht da auch überall 0fps

2) die 2 versch. bilder kamen zustande indem ich nach dem ersten screenshot einfach nochmal auf run geklickt habe..also ohne neustart von 3dmark03

nggalai
2003-11-13, 11:11:48
Hi Sumpfmolch,
Original geschrieben von Sumpfmolch
1) fps ändern sich natürlich nicht, da mit der image quality funktion nur ein einzelner screenshot angefertigt wird..deshalb steht da auch überall 0fps

2) die 2 versch. bilder kamen zustande indem ich nach dem ersten screenshot einfach nochmal auf run geklickt habe..also ohne neustart von 3dmark03 1) Das ist mir klar, nur schon, weil Du dasselbe Frame erwischt hast. ;) Was ich meinte war: WENN Du zweimal den GT2 durchlaufen lässt, ändern sich dann die fps?

2) Und wenn Du 3DMark03 neu startest, um das zweite Bild zu nehmen, besteht der Unterschied dann noch immer?

Ich frage deshalb, weil im B3D-Forum einer den Einwand brachte, dass Futuremark beim 3DMark03 den Random-Seed-Generator*) nicht resettet, bei wiederholtem Laufenlassen der Tests ohne Applikationsneustart.

93,
-Sascha.rb

*) FM verwendet da ein ähnliches System wie Epic bei den UT2003-Benchmarks: Es wird mit einem Grundwert der Zufallsgenerator für die Partikeleffekte (eben: Rauch) gestartet. Bei gleichem Grundwert bleiben die Werte, die der Zufallsgenerator ausspuckt, identisch, die Ergebnisse also vergleichbar, aber es scheint so, als ob der Grundwert nicht zurückgesetzt wird, wenn man 3DMark03 nicht schliesst und wieder öffnet -> andere zufallsgenerierte Werte -> anderer Verlauf der Partikeleffekte.

MadManniMan
2003-11-13, 11:54:53
Fassen wir zusammen, was die Indizien(!) bis zum jetzigen Zeitpunkt vermuten lassen:

- nV hat den selben shice gemacht, der schon Ursache für den Build 330 war, namentlich Shader ausgetauscht

...

Ja, das wars schon. Was soll man jetzt noch davon halten?

Sumpfmolch
2003-11-13, 12:00:39
Original geschrieben von nggalai
Hi Sumpfmolch,
1) Das ist mir klar, nur schon, weil Du dasselbe Frame erwischt hast. ;) Was ich meinte war: WENN Du zweimal den GT2 durchlaufen lässt, ändern sich dann die fps?

2) Und wenn Du 3DMark03 neu startest, um das zweite Bild zu nehmen, besteht der Unterschied dann noch immer?

Ich frage deshalb, weil im B3D-Forum einer den Einwand brachte, dass Futuremark beim 3DMark03 den Random-Seed-Generator*) nicht resettet, bei wiederholtem Laufenlassen der Tests ohne Applikationsneustart.

93,
-Sascha.rb

*) FM verwendet da ein ähnliches System wie Epic bei den UT2003-Benchmarks: Es wird mit einem Grundwert der Zufallsgenerator für die Partikeleffekte (eben: Rauch) gestartet. Bei gleichem Grundwert bleiben die Werte, die der Zufallsgenerator ausspuckt, identisch, die Ergebnisse also vergleichbar, aber es scheint so, als ob der Grundwert nicht zurückgesetzt wird, wenn man 3DMark03 nicht schliesst und wieder öffnet -> andere zufallsgenerierte Werte -> anderer Verlauf der Partikeleffekte.


1. die fps sind relativ konstant (+-2%)

2. ja ich hab es bis jetz noch nicht geschafft 2 identische bilder zu bekommen...auch neustart hat nicht geholfen

Exxtreme
2003-11-13, 12:21:26
Hihihi, jetzt hat sich Mr. Perez dazu geäussert:
http://www.hardocp.com/article.html?art=NTQ5

Auch er labert, daß der Shader Compiler deaktiviert wurde. :bonk:

Gast07
2003-11-13, 12:29:45
Futuremark hat mit der aktuellen Version die Shadermanipulation unterbunden...

Als im Feb. 2003 Nvidia zum grossen Geschrei anhob, ob der Gültigkeit bzw. Brauchbarkeit von 3DMark03, weil sie speziell im Gametest 4 übel einknickten, machte schlussendlich FM im Mai einen Rückzieher und gestand NV die Legmität ihrer "Optimierungen" zu.

Erst die Entwicklungen der letzten zwei Monate mit NV haben es möglich gemacht, dass FM nun Gehör findet und sich selbst wieder rehabilitieren kann.

Offen bleibt, welche Optimierungen noch im Spiel sind.
NV wurde damals auch erwischt, Texturkompression im Gametest 1 zu verwenden(afaik sogar noch nach der Entdeckung ihrer damaligen Tweaks).

Evtl. gibt es beim nächsten Update von 3dMark03 die nächste Überraschung, wenn FM die Dateinamen bzw. Hashwerte der Texturen ändert und sie so auch der Entdeckung von eingebauten Optimierern entzieht.

Wenn Texturkompression oder downscale/resize aus dem Framebuffer unterbunden werden, könnten einige Demopassagen wie Ragtroll oder die mit mehrfachverwendeten Texturen auch ein paar Fps verlieren.

Würde mich nicht wundern, wenn mehr als ein Pfad zum Schummeln benutzt wird.

meine 2 cent.

MadManniMan
2003-11-13, 12:32:11
Original geschrieben von Exxtreme
Hihihi, jetzt hat sich Mr. Perez dazu geäussert:
http://www.hardocp.com/article.html?art=NTQ5

Auch er labert, daß der Shader Compiler deaktiviert wurde. :bonk:

:madman:

Diesen Schwachsinn kann man gar nicht ohne Kopfschmerzen zu Ende lesen...

Winter[Raven]
2003-11-13, 12:52:24
Hmmm ... könnt ihr es 100% ausschllißen das der Compiler weiter aktiv ist ? und nicht doch auf irgend eine "wundersame" weise deaktiviert wurde ?

Gast
2003-11-13, 13:02:20
Original geschrieben von Winter[Raven]
Hmmm ... könnt ihr es 100% ausschllißen das der Compiler weiter aktiv ist ? und nicht doch auf irgend eine "wundersame" weise deaktiviert wurde ?


Schau dir die PixelShader Ergebnisse an. Die sind identisch geblieben. Ergo ist der Compiler aktiv da ansonsten die Befehlsreihenfolge den GFFx schlecht bekommen würde.

Exxtreme
2003-11-13, 13:03:22
Original geschrieben von Winter[Raven]
Hmmm ... könnt ihr es 100% ausschllißen das der Compiler weiter aktiv ist ? und nicht doch auf irgend eine "wundersame" weise deaktiviert wurde ?
Also direkt ausschliessen kann man sowas nie wenn man den Quellcode der Treiber nicht hat. Es könnte nämlich sein, daß der Shader-Cpmpiler nur bei "bekannten" Anwendungen aktiv ist und der 330'er Build des 3DMark2003 eine dieser Anwendungen ist. Das ist aber seeeehr unwahrscheinlich denn so ein Shader-Compiler ist nie so effektiv wie speziell für die Anwendung angepasste Shader. Ausserdem ist so ein Shader Compiler viel aufwändiger zu implementieren als eine Shaderaustausch-Routine.

Also ich von meiner Seite kann sowas "praktisch" ausschliessen aber ohne den Quellcode der Treiber begutachtet zu haben, kann ich es nicht 100%'ig ausschliessen. :)

Edit: Die reinen PS2-Ergebnisse haben sich nicht geändert. Von daher gehe ich davon aus, daß der Shader-Compiler weiterhin aktiv ist.

Demirug
2003-11-13, 13:42:06
Wer lesen kann ist klar im Vorteil. :D

Man nehme die Aussagen von Perez und das Dokument zur "Unified Compilier Technology" und schon wird ganz klar was passiert ist.

Der Shadercompiler arbeitet mit "Intrinsic Code" was auch ganz klar zugegeben wird. Intrinsic Code heist bei Compiler das sobald die Verwendung einer bestimmten Funktion erkannt wird der normale Code verworfen wird und ein voroptimiertes Stück code an der Stelle eingesetzt wird. Die gleiche Technik benutzten auch "normale" Compiler für häufig genutzte Funktionen wie zum Beispiel das Kopieren von Speicherblöcken.

Was Perez nun sagt ist das der neue Patch das erkennen solcher austauschbaren Codeteile unterläuft. Da dies eine Funktion des Shadercompilers ist wurde dieser auch unterlaufen. Der Rest des Compilers arbeitet sicherlich nach wie vor.

Kurz um der Treiber enthält nach wie vor für Shadercode(teile) welcher der automatische Compiler nicht aleine in die optimale Form bringt voroptimierten Shadercode. Das ganze verstösst noch nicht einmal gegen die neuen Optimierungsvorschriften da jede Applikation welche diesen Shadercode(teile) benutzt davon profitiert. Es ist also nicht Applikationsspezifisch. :D

][immy
2003-11-13, 13:49:01
Original geschrieben von Demirug
Wer lesen kann ist klar im Vorteil. :D

Man nehme die Aussagen von Perez und das Dokument zur "Unified Compilier Technology" und schon wird ganz klar was passiert ist.

Der Shadercompiler arbeitet mit "Intrinsic Code" was auch ganz klar zugegeben wird. Intrinsic Code heist bei Compiler das sobald die Verwendung einer bestimmten Funktion erkannt wird der normale Code verworfen wird und ein voroptimiertes Stück code an der Stelle eingesetzt wird. Die gleiche Technik benutzten auch "normale" Compiler für häufig genutzte Funktionen wie zum Beispiel das Kopieren von Speicherblöcken.

Was Perez nun sagt ist das der neue Patch das erkennen solcher austauschbaren Codeteile unterläuft. Da dies eine Funktion des Shadercompilers ist wurde dieser auch unterlaufen. Der Rest des Compilers arbeitet sicherlich nach wie vor.

Kurz um der Treiber enthält nach wie vor für Shadercode(teile) welcher der automatische Compiler nicht aleine in die optimale Form bringt voroptimierten Shadercode. Das ganze verstösst noch nicht einmal gegen die neuen Optimierungsvorschriften da jede Applikation welche diesen Shadercode(teile) benutzt davon profitiert. Es ist also nicht Applikationsspezifisch. :D

vielleicht ist es nicht applikationsspezifisch, allerdings darf nvidia dann auch nicht meckern wenn der shadercompiler diesen code nicht erkennt und nicht ersetzt. aktiv ist er ja nach wie vor, und laut perez sollte der ja deaktiviert worden sein
also punkt 1:
nvidia verschweigt einen teil der wahrheit
punkt 2:
der shadercompiler ist kein bisschen dynamisch

Exxtreme
2003-11-13, 13:52:38
Original geschrieben von Demirug
Der Shadercompiler arbeitet mit "Intrinsic Code" was auch ganz klar zugegeben wird. Intrinsic Code heist bei Compiler das sobald die Verwendung einer bestimmten Funktion erkannt wird der normale Code verworfen wird und ein voroptimiertes Stück code an der Stelle eingesetzt wird. Die gleiche Technik benutzten auch "normale" Compiler für häufig genutzte Funktionen wie zum Beispiel das Kopieren von Speicherblöcken.

Errm, kann schon sein, daß das in den Whitepapers drinne steht. :D

Wenn das Teil aber wirklich applikationsunabhängig arbeiten würde dann dürfte das bloße Umbenennen der Register keinerlei Auswirkung auf die Performance haben. Denn die die Funktionen an sich ändern sich nicht wirklich.

Hier gibt es einige Shader des 3DMark2003:
http://www.beyond3d.com/forum/viewtopic.php?t=8952&postdays=0&postorder=asc&start=220

Bis auf einige Register, sind die Shader identisch.

P.S. Demi, irgendwie erinnert mich dein Posting an ein "Wer findet den Fehler"-Posting. Vielleicht sind's die Smileys. :|

X-D

nggalai
2003-11-13, 13:54:22
Original geschrieben von Winter[Raven]
Hmmm ... könnt ihr es 100% ausschllißen das der Compiler weiter aktiv ist ? und nicht doch auf irgend eine "wundersame" weise deaktiviert wurde ? Zu 100% ausschliessen können wir das kaum, aber die Indizien sprechen eigentlich für sich.

a) Perez stellt klar, dass der "Unified Compiler" eine Mischung aus automatischem Optimieren und "handgeschriebenem Code, der Shader ersetzt" ist:The unified compiler a collection of techniques that are not specific to any particular application but expose the full power of GeForce FX. These techniques are applied with a fingerprinting mechanism which evaluates shaders and, in some cases substitutes hand tuned shadersIn anderen Worten--da sind shaderspezifische Optimierungen mit dabei, aber Perez behauptet, dass die nicht applikationsspezifisch seien.

b) PS2-Ergebnisse wurden nicht beeinträchtigt.

c) Die Änderungen, die FM vorgenommen hat (resp. sagt gemacht zu haben), können den "automatischen Optimierer" nicht aushebeln. Jedoch werden applikationsspezifische Ersetzungen unterbunden.

d) Auch mit Patch 340 ist eine NV30 immernoch deutlich flotter unter 52.16 als 44.03, besonders bei den Shader-Tests. Der "automatische Optimierer" des "Unified Compilers" scheint also zu tun.

Mit a) widerspricht Perez zumindest ansatzweise den NV-Optimierungs-Richtlinien, die mit grossem Traraaa am Editor's Day vorgestellt wurden. Man vergleiche dazu auch die Stelle ausm Perez-Interview mit B3D:At one we asked Derek how this sat with the optimisations guidelines that were given to press by NVIDIA, specifically the guideline that suggests "An optimization must accelerate more than just a benchmark" To which Derek's reply was "But 3DMark03 is only a benchmark" -- we suggested that this particular guideline should read "An optimization must accelerate more than just a benchmark unless the application is just a benchmark"!

Ausserdem, naja--verstösst NV mit so einem "Unified Compiler" gegen die 3DMark03-Benchmarkrichtlinien. Selbst wenn man zu c) sagt, dass Futuremark in böswilliger Absicht und mit ungehörtem Gehacke den gesamten "Unified Compiler" deaktiviert hat (äusserst unwarscheinlich), wäre das noch immer eine akzeptable Reaktion auf NV's "Optimierungs-Ansatz", den Perez selbst eingestanden hat. Einfach WEIL das beim 3DMark03 nicht akzeptiert wird. Aber eben--warscheinlich wurden nur die "handoptimised shaders" gesperrt.

In wiefern 3DMark03 dadurch praxistauglicher wird, ist natürlich eine ganz andere Diskussion. ;)

edit: Demirug war schneller

93,
-Sascha.rb

MarioK
2003-11-13, 13:54:26
warum sagt niemand (FM,NV ...) was über Haare von der Tussi ??

MadManniMan
2003-11-13, 13:54:36
Original geschrieben von Demirug
Wer lesen kann ist klar im Vorteil. :D

Und wer nicht lesen kann, der hat halt Demi :naughty:

Tja, der ach-so-tolle Complier ist so super also nicht, ich als Treiberproger bei nV hätte wohl schon gewisse asoziale Tendenzen an den Tag gelegt...

:wink: Huhu! Liest hier einer von nV mit?

... -> :asshole:

MadManniMan
2003-11-13, 13:59:29
Original geschrieben von MarioK
warum sagt niemand (FM,NV ...) was über Haare von der Tussi ??

Du siehst doch, daß man sich dreht und windet, wie man nur kann. Die würden nie zugeben, daß da was anderes passiert ist, als ein rumgewurschtel im Complier...

Also langsam find ich "Wer andern eine Lüge tut, Lügt wieder und der Hahn kräht" oder so immer passender.

Demirug
2003-11-13, 14:11:00
MadManniMan, der automatische Compiler arbeitet schon ganz gut. Allerdings beherscht er nur das Umsortieren von Anweisungen und das einsparen von Temp-Registern.

Es gibt jedoch noch drei Optimierungen die er (noch) nicht automatisch durchführt.

1. Austauschen von Rechenformeln gegen mathematisch idetische aber für NV3X einfacher zu rechnenden.

2. Böses Varianten beim Teilen von Registern

3. Reduzieren der Rechen/Speicher-Genauigkeit.

Zudem ist auch bei dem was er automatisch macht noch nicht immer das Optimum erreicht.

MadManniMan
2003-11-13, 14:16:27
Original geschrieben von Demirug
MadManniMan, der automatische Compiler arbeitet schon ganz gut. Allerdings beherscht er nur das Umsortieren von Anweisungen und das einsparen von Temp-Registern.

Es gibt jedoch noch drei Optimierungen die er (noch) nicht automatisch durchführt.

1. Austauschen von Rechenformeln gegen mathematisch idetische aber für NV3X einfacher zu rechnenden.

2. Böses Varianten beim Teilen von Registern

3. Reduzieren der Rechen/Speicher-Genauigkeit.

Zudem ist auch bei dem was er automatisch macht noch nicht immer das Optimum erreicht.

Danke für die Infos, ändert nichts an meiner Sicht. Daß der Compiler das Optimum nicht erreichen kann ist nur logisch, aber dann - klingt albern, ich weiß - hat NV halt Pech gehabt!
Die 3 von dir genannten Dinge sind Sachen, die FM ausschließen wollte und außerdem doch nicht zu leise nach reiner App-Optimierung schreien.
Zudem kann man sich nicht sicher sein, daß 3. auch wirklich nur da angewandt wird, wo de facto keine Unterschiede erkennbar werden.

:no:

Was meinst du?

Demirug
2003-11-13, 14:24:21
Original geschrieben von MadManniMan
Danke für die Infos, ändert nichts an meiner Sicht. Daß der Compiler das Optimum nicht erreichen kann ist nur logisch, aber dann - klingt albern, ich weiß - hat NV halt Pech gehabt!

Klar hat nV da Pech gehabt. Nur Perez hat ja auch schon ganz klar gesagt was die Reaktion von nVidia darauf sein wird. Sie werden die Rountine zum Erkennen von austauschbaren Code(teilen) verbessern.

Die 3 von dir genannten Dinge sind Sachen, die FM ausschließen wollte und außerdem doch nicht zu leise nach reiner App-Optimierung schreien.

Ja und Nein. Es gibt durchaus immer wieder gleiche Berechungen in unterschiedlichen Shadern. Gerade wenn es um solche Sache wie Beleuchtungen geht gibt es die Formeln aus den Lehrbüchern und eine dazu passende nV-Variante.

Zudem kann man sich nicht sicher sein, daß 3. auch wirklich nur da angewandt wird, wo de facto keine Unterschiede erkennbar werden.

:no:

Was meinst du?

Sicher sein kann man natürlich nicht. Aber inzwischen passen da ja viele mit iheren Adleraugen auf.

mapel110
2003-11-13, 14:30:39
Original geschrieben von MadManniMan
Die 3 von dir genannten Dinge sind Sachen, die FM ausschließen wollte und außerdem doch nicht zu leise nach reiner App-Optimierung schreien.


sehe ich ganz genauso. sowas hat zumindest beim 3dmark03 nichts zu suchen.

Gast
2003-11-13, 14:35:21
Original geschrieben von mapel110
sehe ich ganz genauso. sowas hat zumindest beim 3dmark03 nichts zu suchen.

Inwieweit?
Oder anders: Ein "Gamer's Benchmark" Programm sollte erst recht wegen solchen Sachen nicht meckern, sonst koennte der ganze Bezug auf "Gamer" hinterfragt werden koennen.

Exxtreme
2003-11-13, 14:44:30
Original geschrieben von mapel110
sehe ich ganz genauso. sowas hat zumindest beim 3dmark03 nichts zu suchen.
Also wenn das applikationsunabhängig funktioniert.. warum nicht? :???: Dann wäre es wieder repräsentativ.

Das Problem an der derzeitigen Lösung von Nvidia ist, daß diese eben nicht applikationsunabhängig funktioniert. Schon das simple Umbenennen der Register bewirkt, daß die "Optimierungen" deaktiviert werden obwohl der Shader an sich identisch bleibt und identische Ergebnisse liefert.

auki
2003-11-13, 14:45:58
Original geschrieben von Gast
Inwieweit?
Oder anders: Ein "Gamer's Benchmark" Programm sollte erst recht wegen solchen Sachen nicht meckern, sonst koennte der ganze Bezug auf "Gamer" hinterfragt werden koennen.

Damit man aber mit einem Benchmark die Hardware vergleichen kann, müssen die Funktionen so ausgeführt werden, wie es der Benchmark will (und nicht irgendwelche Optimierungen).
In Spielen ist das legitim wenn die Bildqualität gleich bleibt - aber in einem Benchmark geht es in erster Linie um die Vergleichbarkeit.

Gast
2003-11-13, 14:46:26
Original geschrieben von Andre
Genau da liegt auch mein Problem.

meins auch.
FM ist für mich nicht glaubwürdig.
Sie sind kein unabhängiges Gremium sondern eine Firma die Geld verdienen muss.
Also wird das gemacht, was derjenige wünscht, der am meissten zahlt.

Mir persönlich ist es vollkommen Jacke wie Hose, was Nvidia da macht.
Wenn am Ende das selbe Ergebnis herauskommt ist mir das total egal, wie das erreicht wurde.
Und wenn Nvidia der Ansicht ist, 100 Entwickler
einzustellen, die dann bei Games von Hand nachprüfen was der ein oder andere unfähige Spieleentwickler fabriziert hat und sie das dann einfach dreist ersetzen, so dass es auf ihrer Hardware schneller läuft, dann kann ich damit leben.

Am Ende interessiert mich nur die Performance bei gleicher Qualität (hier im speziellen was ich sehe wenn ich spiele und nicht wenn ich einen Screenshot 1000fach vergrößer).

Und ob das nun von Hand oder vom Compiler oder weiss der Geier von was kommt ist für mich so bedeutsam wie der Wasserstand vom Nil.

Gast
2003-11-13, 14:49:28
Original geschrieben von auki
Damit man aber mit einem Benchmark die Hardware vergleichen kann, müssen die Funktionen so ausgeführt werden, wie es der Benchmark will (und nicht irgendwelche Optimierungen).
In Spielen ist das legitim wenn die Bildqualität gleich bleibt - aber in einem Benchmark geht es in erster Linie um die Vergleichbarkeit.

und wer legt fest, was ein adäquater und unabhängiger Benchmark ist?
Richtig niemand und ganz sicher nicht Futuremark.

Wenn Futuremark sagt, nur das und jenes darf enthalten sein um mit unserem Benchmark Grafikkarten zu vergleichen, dann kann Nvidia sich ja hinstellen und demnächst sagen nur diese und jene Benchmarks dürfen bei Vergleichen mit unserer Hardware genutzt werden.
Wir drehen uns im hier im Kreis.
FM ist nicht unabhängig und FM hat demzufolge auch keine Vorschriften zu machen.
Wer auf der Lohnliste anderer Firmen steht kann nicht unparteiisch sein.

Crushinator
2003-11-13, 14:57:57
Original geschrieben von Gast
(...) Am Ende interessiert mich nur die Performance bei gleicher Qualität (hier im speziellen was ich sehe wenn ich spiele und nicht wenn ich einen Screenshot 1000fach vergrößer). Dem kann man zwar generell zustimmen, aber ich vermisse a) die gleiche Qualität und b) bin ich nicht bereit - egal wie lange - darauf zu warten, daß ein Treiber bzw. die darin integrierte Technik wieder in neuer Version auf das jeweilig betroffene Spiel angepasst wird. Es würde mich beispielsweise extrem nerven, wenn ich ein Spiel jenseits vom Mainstream toll fände, und gerade dieses erst eine Shader-Ersetzung braucht. Deshalb fände zumindest ich eine möglichst "unoptimierte" Benchmarksmöglichkeit doch sehr interessant.

Exxtreme
2003-11-13, 16:21:23
Könnte der Beweis sein, daß applikationsspezifisch "optimiert" wurde:
http://www.beyond3d.com/forum/viewtopic.php?p=191836#191836

I've tried v330 and v340 shaders in another application. They showed exactly the same execution speed. So NVIDIA is doing replacement of these shaders ONLY in 3Dmark03. If a game uses the same shaders it won't have the enhancement.

Gipsel
2003-11-13, 16:29:11
Um mal zu einer Schlußfolgerung in der Sache Bildqualität <-> Optimierung zu kommen:

Welche Optimierungen haben denn jetzt Bildqualität gekostet?

Die Vergleich-Screenshots bei B3D sind ja weitgehend wertlos, wie Sumpfmolch belegt hat. Einige Effekte (Nebel oder das Leuchten des Schwertes) werden offensichtlich im Zusammenspiel mit einem Zufallsgenerator erzeugt, so daß diese Effekte auch bei gleicher Karte, gleichem Treiber und gleicher 3DMark-Version zwischen 2 Durchläufen unterschiedlich aussehen. Die großen Differenzen die B3D hier festgestellt haben, sind somit geklärt.

Die Pixel-Shader haben also allem Anschein nach auch mit der 330-Version größtenteils korrekt gerechnet.

Das was übrig bleibt, sind wohl die Vertex-Shader (Haare, oder sind die teilweise auch zufallsgesteuert?) bzw. wie B3D mutmaßen, der Offload von Vertex-Shader-Berechnungen auf die CPU (das haben meines Wissens auch schon alte Treiber-Versionen gemacht).

Habe ich irgendetwas übersehen? Gibt es Ergänzungen?

Gipsel

nggalai
2003-11-13, 20:15:17
Hola,
Original geschrieben von Gipsel
Die Vergleich-Screenshots bei B3D sind ja weitgehend wertlos, wie Sumpfmolch belegt hat. Einige Effekte (Nebel oder das Leuchten des Schwertes) werden offensichtlich im Zusammenspiel mit einem Zufallsgenerator erzeugt, so daß diese Effekte auch bei gleicher Karte, gleichem Treiber und gleicher 3DMark-Version zwischen 2 Durchläufen unterschiedlich aussehen. Die großen Differenzen die B3D hier festgestellt haben, sind somit geklärt.Naja, bei B3D waren das die EINZIGEN Screenshot-Päärchen, wo man Unterschiede sah. Die anderen Päärchen (u.a. ATI 330 vs/ 340) waren identisch.

Solange also nicht geklärt ist, ob sich jetzt Sumpfmolchs ATI komisch verhält oder alle von Waveys Testrechnern, kann man das so nicht stehen lassen. Kann wer Sumpfmolchs Ergebnisse nachvollziehen, auch nach Restarten von 3DMark03? Ich hab' leider die Pro-Version nicht, kann also keine Screenshotvergleiche machen.

93,
-Sascha.rb

Exxtreme
2003-11-13, 20:36:04
Update vom Dave Baumann:
http://www.beyond3d.com/forum/viewtopic.php?p=191935#191935

Update - Just had some information in from Futuremark, IQ differences from the Fire, fog and hair effects should be discounted.

Gipsel
2003-11-13, 20:36:34
Original geschrieben von nggalai
Naja, bei B3D waren das die EINZIGEN Screenshot-Päärchen, wo man Unterschiede sah. Die anderen Päärchen (u.a. ATI 330 vs/ 340) waren identisch. Solange also nicht geklärt ist, ob sich jetzt Sumpfmolchs ATI komisch verhält oder alle von Waveys Testrechnern, kann man das so nicht stehen lassen.
In dem B3D-Artikel gibt es nur nVidia-Screenshots (immer einer mit 330 und 340). Von ATI gibt es da überhaupt keine Screenies. Oder habe ich einen zweiten Artikel übersehen?

Wenn man sich die Shots mal anschaut (sowohl bei B3D und auch Sumpfmolchs), dann sehe ich da keine Qualitätsunterschiede oder ein unterschiedliches Rendering, sondern immer nur andere Verteilungen von Nebel / Flammen / Leuchtpartikeln am Schwert, also was sich problemlos mit dem Einfluß dieses Zufallsgenerators erklären läßt. Wenn ich ehrlich bin, will ich auch noch nicht sehen, daß mit dem 340-Patch mehr Haare in "Trolls Lair" gerendert werden, eventuell liegen die auch nur anders (ebenfalls mit Physikengine berechnet).

Wenn der 3DMark als Startwert die Systemzeit oder sowas nimmt, ist das zwischen mehreren Runs auch überhaupt nicht reproduzierbar.

Gipsel

Gipsel
2003-11-13, 20:38:31
Original geschrieben von Exxtreme
Update vom Dave Baumann:
http://www.beyond3d.com/forum/viewtopic.php?p=191935#191935

Das kam ja gerade zur rechten (gleichen) Zeit!

Gipsel

Edit:

Jetzt stellt sich langsam wirklich die Frage:

Was bleibt überhaupt noch übrig an bildqualitätsverschlechternden Optimierungen?

nggalai
2003-11-13, 20:41:52
Original geschrieben von Gipsel
In dem B3D-Artikel gibt es nur nVidia-Screenshots (immer einer mit 330 und 340). Von ATI gibt es da überhaupt keine Screenies. Oder habe ich einen zweiten Artikel übersehen?Nein, aber eine interne Diskussion verpasst. ;)

Aber jetzt haben wir ja das Update. Also bleibt echt die Frage, weshalb das Wavey zuvor nicht aufgefallen ist (er hatte angedeutet, nicht nur NV-Bildvergleiche gemacht zu haben), und weshalb Futuremark ausgerechnet Szenen für die eingebauten IQ-Tests nimmt, die nie gleich aussehen. :|

Die Sache mit den IQ-Vergleichen beim 3DMark03 muss man also anders angehen. *Futuremark anmail*

93,
-Sascha.rb

Gast
2003-11-13, 20:50:17
Original geschrieben von nggalai
Nein, aber eine interne Diskussion verpasst. ;)

Aber jetzt haben wir ja das Update. Also bleibt echt die Frage, weshalb das Wavey zuvor nicht aufgefallen ist (er hatte angedeutet, nicht nur NV-Bildvergleiche gemacht zu haben), und weshalb Futuremark ausgerechnet Szenen für die eingebauten IQ-Tests nimmt, die nie gleich aussehen. :|

Die Sache mit den IQ-Vergleichen beim 3DMark03 muss man also anders angehen. *Futuremark anmail*

93,
-Sascha.rb

einspruch ! die von beyond 3d verwendeten frames sind nicht identisch mit den von 3dmark03 vorgeschlagenen frames seltsamerweise....hab schnell mal gt2 geguckt...der vom murks vorgeschlagene frame enthält keine partikeleffekte

Sumpfmolch
2003-11-13, 20:52:48
hoppla vergessen anzumelden ^^

update: in gt3 allerdings sieht man das flammenschwert...wieder jedesmal anders aussehend

DrumDub
2003-11-13, 21:21:09
habs jetzt grad erst gelesen, aber echt spannend und super wie sachlich die diskussion verläuft! :up:

bin echt mal gespannt, was dabei rauskommt. :)

deekey777
2003-11-13, 23:19:29
Kleines Fazit: Der neue Patch deaktiviert nicht den Unified Compiler, sondern deaktiviert andere anwendungsspezifische Optimierungen der nVidia-Treiber (aller?) , die sonst den Aussagewert der 3dMarks verfälschen. Der Patch beeinflusst die Ergebnisse der R3x0-Grafikkarten nicht - egal mit welchem Treiber? bestimmt erst ab 3.4 oder 3.5 - auch die Bildqualität bleibt unberührt.
Unter http://www.beyond3d.com/articles/3dmark03/340/results.csv sind alle Ergebnisse zu finden.

Zu dem ersten "Streit" zw. nVidia und FM: 3 Punkte (Quelle THG). Einmal war es die Herabsetzung der FP-Genauigkeit von der vollen auf partielle. Dann war die Sache mit den Bereichen, die von der "Kamera" nicht erfasst wurden und deswegen nicht gerendert wurden. Und die Nummer 3 war, dass die Veränderung der 3DMark03.exe in zB 3Dmurks03.exe dazu führte, dass unter AF8x die Points bis um 30% Sanken.
Lustig: der Artikel "Testen mit Benchmarks: Das 3D-Spiel mit Hase und Igel" unter http://www.tomshardware.de/column/20030702/index.html erscheint aktueller denn je, obwohl von THG.

Ich persönlich tippe auf eine wiederholte Deaktivierung des Vorwurfs Nr. 2 durch den Patch. Vielleicht wird es Zeit, dass FM einige Szenen in den Tests durch neue Ersetzt oder ähnliches. Egal, denn die meisten, die hier posten, halten eh nichts von 3DMarks03, denn seine Ergebnisse sind alles andere als aussagefähig für andere DX9-Anwendungen. Das ist und bleibt nur ein "Schwanzvergleichbenchmark" (heise-Forum). Auf der anderen Seite bedeutet die hohe Punktzahl, dass die Grafikkarte nicht zum alten Eisen gehört.

Coolj100
2003-11-14, 00:32:59
Original geschrieben von deekey777
Kleines Fazit: Der neue Patch deaktiviert nicht den Unified Compiler, sondern deaktiviert andere anwendungsspezifische Optimierungen der nVidia-Treiber (aller?) , die sonst den Aussagewert der 3dMarks verfälschen. Der Patch beeinflusst die Ergebnisse der R3x0-Grafikkarten nicht - egal mit welchem Treiber? bestimmt erst ab 3.4 oder 3.5 - auch die Bildqualität bleibt unberührt.
Unter http://www.beyond3d.com/articles/3dmark03/340/results.csv sind alle Ergebnisse zu finden.

Zu dem ersten "Streit" zw. nVidia und FM: 3 Punkte (Quelle THG). Einmal war es die Herabsetzung der FP-Genauigkeit von der vollen auf partielle. Dann war die Sache mit den Bereichen, die von der "Kamera" nicht erfasst wurden und deswegen nicht gerendert wurden. Und die Nummer 3 war, dass die Veränderung der 3DMark03.exe in zB 3Dmurks03.exe dazu führte, dass unter AF8x die Points bis um 30% Sanken.
Lustig: der Artikel "Testen mit Benchmarks: Das 3D-Spiel mit Hase und Igel" unter http://www.tomshardware.de/column/20030702/index.html erscheint aktueller denn je, obwohl von THG.

Ich persönlich tippe auf eine wiederholte Deaktivierung des Vorwurfs Nr. 2 durch den Patch. Vielleicht wird es Zeit, dass FM einige Szenen in den Tests durch neue Ersetzt oder ähnliches. Egal, denn die meisten, die hier posten, halten eh nichts von 3DMarks03, denn seine Ergebnisse sind alles andere als aussagefähig für andere DX9-Anwendungen. Das ist und bleibt nur ein "Schwanzvergleichbenchmark" (heise-Forum). Auf der anderen Seite bedeutet die hohe Punktzahl, dass die Grafikkarte nicht zum alten Eisen gehört.

Eher halten die meisten user nichts von den aussagen von tomshardware, die völlig blödsinnige hardware tests und dumme aussagen machen. Ich finde tomshardware nicht als glaubwürdig und denke, dass sie genug geld kriegen von manchen firmen und dann das schreiben was ihnen gesagt wird!!!

Wie manche andere zeitschriften(gamestar usw.;D) und testseiten!!!

mapel110
2003-11-14, 01:12:11
GeForce FX 5900 Ultra,330,44.03,4850,175.9,37.6,30.5,19.1,673.0,67.9,13.1,1480.2,3181.0,10.9,20. 9,19.2
GeForce FX 5900 Ultra,333,44.03,3178,117.8,18.8,13.6,14.2,677.0,68.6,13.2,1480.2,3180.6,10.7,14. 6,10.6
GeForce FX 5900 Ultra,330,52.16,6189,200.0,44.9,35.7,35.9,763.0,79.5,14.5,1480.3,3181.0,18.3,48. 7,20.7
GeForce FX 5900 Ultra,333,52.16,5342,200.3,38.1,31.9,25.1,771.0,80.2,14.7,1480.3,3181.2,18.4,48. 9,18.4


3178 zu 5342
und da will sich nvidia beschweren, dass der interne compiler nicht funktioniert?! :grübel:

ich würd mich da eher freuen, dass wohl immernoch genug cheats aktiv sind.
teilweise verdreifachung der frames hat bislang noch keine anwendung gezeigt durch den deto50.

SKYNET
2003-11-14, 02:30:58
also die vertex und pixelshader werden von dem neuem patch ganzschön beschnitten, siehe auch hier:




http://www.ocworkbase.com/wbb/thread.php?threadid=7111&sid=c07e9fb72195f3de9edd6c76c0b5bd06&hilight=patch&hilightuser=0

Gast
2003-11-14, 02:41:02
Original geschrieben von SKYNET
also die vertex und pixelshader werden von dem neuem patch ganzschön beschnitten, siehe auch hier:




http://www.ocworkbase.com/wbb/thread.php?threadid=7111&sid=c07e9fb72195f3de9edd6c76c0b5bd06&hilight=patch&hilightuser=0

subba, man muss sich in diesen scheiss forum erst registrieren um bilder anschauen zu können!!! oder wolltest du werbung für dieses forum da machen, damit sich welche registrieren oder wat ever????

poste die bilder hier du honk typ ;D

Gast
2003-11-14, 02:42:04
ps: dein avatar erinnert mich an den film "kondom des grauens" :D

mapel110
2003-11-14, 03:13:10
damit gäste hier auch mal zufrieden sind, bin ich mal so frei...

Gast
2003-11-14, 03:35:43
danke. (gäste können auch höfflich sein) O_o

Razor
2003-11-14, 06:05:06
Unter Vorbehalt... denn noch konnte ich nicht alles lesen...
;-)
Original geschrieben von Exxtreme
Anscheinend werden beim GT2 weniger Haare von der Tussi gerendert. Analog dem Pflanzen-Prob' bei Aquamark ?
Hat da auch nichts an Performance gebracht...

Razor

Razor
2003-11-14, 06:07:50
Unter Vorbehalt... denn noch konnte ich nicht alles lesen...
;-)
Original geschrieben von Leonidas
Doch. FM hat laut eigener Aussage gegen alles was, was irgendwas verändert. Egal ob dadurch eine schlechtere oder besser BQ rauskommt. Insofern ist meine Idee durchaus logisch - das Punkt ist nur, daß der 3DMark03 die Anwnedung des Shader Compilers technisch gesehen nicht verhindern kann. Sagt zumindestens Xmas. Insofern ist meine Idee hinfällig. Nun ja, durch die Shader-Struktur könnte amn das Ergebnis des Shader-Compilers schon beeinflussen. Das setzt allerdings voraus, dass man weiß, wie der Shader-Compiler arbeitet...

Ganz vom Tisch ist dieses Thema noch nicht.

Und ob wirklich weniger Haare gerendert werden, oder hier (wie beim Flammenschwert und dem Feuer erkennbar) einfach nur ein "anderes Bild", also eine andere Abfolge des Renderings zugrunde liegt, kann IMO auch noch keiner sagen...

Bin ja mal gespannt, was sich da noch so ergibt.

Razor

Razor
2003-11-14, 06:14:57
Original geschrieben von nggalai
ATI rendert ob mit oder ohne Patch 340 gleich, korrekt und identisch zum Refrast. NV erst mit dem Patch 340.Was vorherige Bildvergleiche aber nicht gezeigt haben...
Ganz im Gegenteil, wich ATI (aufgrund des fp24 zu fp32-Problems) heftiger von RefRest ab, als es nVidia tat. Und plötzlich rendert ATI 'identisch' zum RefRast ?

Wie soll das gehen ?
:???:

Razor

Razor
2003-11-14, 06:22:32
Original geschrieben von AlfredENeumann
Wäre etwas reisserisch. Solange man die wirkliche Ursache des Performancedrops nicht kennt, würde ich da nicht so laut nach Cheat schreien. Klar sieht es auf dem ersten Blick nach Cheat aus, aber wenn man so die Ergebnisse sich anschaut, geht praktisch nur die Vertexshader Performance in den Keller. Du hast es absolut auf den Punkt gebracht !
Und hier scheint was im Busch zu liegen...

Entweder nVidia cheatet hier tatsächlich, obwohl es mit der Vertex-Shader-Performance ja eigentlich nie Probleme gab. Oder aber FM hat da eine heftige Kinke für nVidia-Karten eingebaut, was nicht zwangsläufig mit Absicht geschehen sein muss.

Schaun' mer ma.

Razor

Razor
2003-11-14, 06:28:55
Original geschrieben von nggalai
Die Gerüchteküche brodelt weiter:

Wavey hat heute Morgen einen Anruf eines ungenannten Web-Journalisten erhalten, der wissen wollte, ob am Gerücht was dran ist, dass DELL als ATI-Partner Futuremark dazu genötigt hätte, den Patch 340 so zu bauen, dass NV an Leistung verliert. ;D

93,
-Sascha.rb Na DAS wäre doch mal eine Erklärung !
:D

Razor

Razor
2003-11-14, 06:30:39
Original geschrieben von Exxtreme
Sowas würde Nvidia sehr schnell erkennen, daß sie künstlich ausgebremst werden. Das würde FM sehr viel Glaubwürdigkeit kosten. Deswegen denke ich nicht, daß FM sowas durchziehen würde.Hätte man bei Valve wohl auch nicht vermutet...
Aber es bleibt ein Gerücht.

Wer weiß, was jetzt gerade passiert ?
Und vielleicht ist Perez Aussage ja in diesem Kontext zu verstehen ?

Fragen über Fragen...
;-)

Razor

Razor
2003-11-14, 06:32:52
Original geschrieben von nggalai
Dass bei einem Model die Hälfte der Haare nicht gerendert werden ist jedoch "etwas" anderes.Die Hälfte ?
:???:

Razor

Razor
2003-11-14, 06:41:06
Original geschrieben von Gast
Schau dir die PixelShader Ergebnisse an. Die sind identisch geblieben. Ergo ist der Compiler aktiv da ansonsten die Befehlsreihenfolge den GFFx schlecht bekommen würde. Jeder Test muss hier für sich betrachtet werden...

Razor

Razor
2003-11-14, 06:46:20
Original geschrieben von Demirug
Wer lesen kann ist klar im Vorteil. :D

Man nehme die Aussagen von Perez und das Dokument zur "Unified Compilier Technology" und schon wird ganz klar was passiert ist.

Der Shadercompiler arbeitet mit "Intrinsic Code" was auch ganz klar zugegeben wird. Intrinsic Code heist bei Compiler das sobald die Verwendung einer bestimmten Funktion erkannt wird der normale Code verworfen wird und ein voroptimiertes Stück code an der Stelle eingesetzt wird. Die gleiche Technik benutzten auch "normale" Compiler für häufig genutzte Funktionen wie zum Beispiel das Kopieren von Speicherblöcken.

Was Perez nun sagt ist das der neue Patch das erkennen solcher austauschbaren Codeteile unterläuft. Da dies eine Funktion des Shadercompilers ist wurde dieser auch unterlaufen. Der Rest des Compilers arbeitet sicherlich nach wie vor.

Kurz um der Treiber enthält nach wie vor für Shadercode(teile) welcher der automatische Compiler nicht aleine in die optimale Form bringt voroptimierten Shadercode. Das ganze verstösst noch nicht einmal gegen die neuen Optimierungsvorschriften da jede Applikation welche diesen Shadercode(teile) benutzt davon profitiert. Es ist also nicht Applikationsspezifisch. :D Und da haben wir auch schon des Rätsels Lösung !

Danke Demirug.

Insofern habel alle Recht... oder auch irgendwie nicht.
Gainward, Perez und Derek haben recht. Aber auch B3D etcpp. haben recht... Jetzt muss nur noch geklärt werden, ob diese 'Shader-Replacemnts' tatsächlich die BQ reduzieren (wie man beim 'Haarverlust' vermuten könnte), oder aber die BQ gleich bleibt und FM somit 'legale' Optimierungen (weil nicht BQ-reduzierenz und nicht App-spezifisch) unterbunden hat...

Razor

Razor
2003-11-14, 06:50:36
Original geschrieben von nggalai
In wiefern 3DMark03 dadurch praxistauglicher wird, ist natürlich eine ganz andere Diskussion. ;)Und damit bliebe eingetlich nicht mehr zusagen...

"Murks bleibt Murks !"Sollen sie ihn doch alle zercheaten und lasst RealWorld-Benches an seine Stelle treten !
Zumal es ja mittlerer Weile eine Handvoll davon gibt...
;-)

Razor

P.S.: muss jetzt in die Firma... zumindest von Reg-Posts meinerseits wird das Forum vorerst 'verschont'... ;)

seahawk
2003-11-14, 08:01:47
Original geschrieben von Demirug
Wer lesen kann ist klar im Vorteil. :D

Man nehme die Aussagen von Perez und das Dokument zur "Unified Compilier Technology" und schon wird ganz klar was passiert ist.

Der Shadercompiler arbeitet mit "Intrinsic Code" was auch ganz klar zugegeben wird. Intrinsic Code heist bei Compiler das sobald die Verwendung einer bestimmten Funktion erkannt wird der normale Code verworfen wird und ein voroptimiertes Stück code an der Stelle eingesetzt wird. Die gleiche Technik benutzten auch "normale" Compiler für häufig genutzte Funktionen wie zum Beispiel das Kopieren von Speicherblöcken.

Was Perez nun sagt ist das der neue Patch das erkennen solcher austauschbaren Codeteile unterläuft. Da dies eine Funktion des Shadercompilers ist wurde dieser auch unterlaufen. Der Rest des Compilers arbeitet sicherlich nach wie vor.

Kurz um der Treiber enthält nach wie vor für Shadercode(teile) welcher der automatische Compiler nicht aleine in die optimale Form bringt voroptimierten Shadercode. Das ganze verstösst noch nicht einmal gegen die neuen Optimierungsvorschriften da jede Applikation welche diesen Shadercode(teile) benutzt davon profitiert. Es ist also nicht Applikationsspezifisch. :D

Ist es denkbar, dass die "Intrinsic Code" besonders für bekannte Shader nutzen, die durch ihren Aufbau für den automatischen Compiler schlecht zu verdauen sind. Der Aufbau der FM-Shader entsprach ja eigentlich nie auch nur ännährend den Optimierungsrichtlinien von NV. Und wie z.B. EPIC sagt gilt auf einer ATI, entweder der Shader läuft, dann ist die Karte schnell, oder die Compilierung schlägt fehl -> Shader läuft gar nicht. Bei NV gibt es wohl kaum einen Shadercode der nicht läuft, allerdings gibt es Performanceunterschiede die im 3-4fachen liegen.
Wenn FM jetzt einen schlecht zu optimierenden Shader nutzt, ersetzt der Treiber den durch einen anderen, indem er den Shader erkennt.
Ich vermute mal, dass man da wird diskutieren können. Wahrscheinlch tut das der Treiber immer, wenn er den Shader erkennt. Die Optimierung selber dürfte also nicht applikationsspezifisch sein. Leider ist der Shader wahrscheinlich applikationsspezifisch.

Imo verliert der Murks dadurch nur weiter an Bedeutung. Die müssen den Schritt zu eigenen Shadercodes für ATI und NV machen (gerne auch Power VR usw. wenn nötig). Sollen die doch NV und ATI die Shader selber schreiben lassen und dann immer nur prüfen ob beide dasselbe Ergebnis liefern. Dann würde man wirklich die Leistungsfähigkeit der Karten vergleichen können.

MikBach
2003-11-14, 08:58:20
Ich glaube Einigen ist die Bedeutung eines Benchmarks nicht allzu klar.

Nun, die Aufgabe eines Benchmarks ist zu prüfen wie schnell bestimmte Befehle(hier Shader) auf einer Hardware
abgearbeitet werden.
Aber der Programmierer eines Benchmarks geht davon aus, dass auch DIESE Befehle abgearbeitet werden
und nicht durch andere ersetzt werden.
Beispiel: (2+2)*(2+2)=16 kann man durch 4*4=16 ersetzen. Das Ergebniss ist ja GLEICH.
ABER: Ich habe nicht die gleichen Rechenschritte und damit keine Vergleichbarkeit, also ist es nur logisch,
dass FM das rumspielen an den Shadern unterbinden will.
Man muss also zugeben, dass NVidia hier cheatet.
Bei Spielen ist dass wieder eine andere Sache, solange das Ergebnis=Bildquali stimmt, OK.
Aber dass Nvidia bei Spielen selbst Hand anlegen muss(Shader bei HALO) ist schon peinlich.

nggalai
2003-11-14, 09:03:48
Moin,
Original geschrieben von Razor
Jetzt muss nur noch geklärt werden, ob diese 'Shader-Replacemnts' tatsächlich die BQ reduzieren (wie man beim 'Haarverlust' vermuten könnte), oder aber die BQ gleich bleibt und FM somit 'legale' Optimierungen (weil nicht BQ-reduzierenz und nicht App-spezifisch) unterbunden hat...Nein. NV hat zugegeben, Shader "von Hand" zu ersetzen, als Teil des "Unified Compilers". TT-Hardware hat zumindest einen Ansatz geliefert um zu belegen, dass das Shader-Replacement NICHT 100% per Shader geschieht, sondern applikationsabhängig ist (Damien hat Shader ausm 330er und 340er Patch genommen, in eine neue Applikation eingesetzt, und siehe da--beide Versionen sind auf GFFX / 52.16 exakt gleich schnell).

So oder so--die Futuremark-Richtlinien zum 3DMark03 verbieten explizit hand-optimiertes Shader-Replacement, was laut NV selbst aber hier geschieht. NV behauptet jetzt dafür, dass Futuremark in voller Absicht den GESAMTEN "Unified Compiler" deaktiviert hätte und legt Reviewern nahe, nur mit Patch 330 zu benchen, unter keinen Umständen mit Patch 340.

Wavey hatte gestern Nacht (bis halb drei :|) eine interessante Diskussion mit Perez. Am Schluss meinte er dann, er bräuche einen Ingenieur, um Waveys Fragen zu beantworten. Sollte also demnächst ein Update des B3D-Artikels geben. Stay tuned.

93,
-Sascha.rb

P.S. das mit "Hälfte des Haares" war klar ein Hyperbole. Sorry, wenn man das nicht gesehen hat, ich werd' in Zukunft auch bei solchen Dingern Smileys setzen. -.rb

seahawk
2003-11-14, 09:29:25
Original geschrieben von MikBach
Ich glaube Einigen ist die Bedeutung eines Benchmarks nicht allzu klar.

Nun, die Aufgabe eines Benchmarks ist zu prüfen wie schnell bestimmte Befehle(hier Shader) auf einer Hardware
abgearbeitet werden.
Aber der Programmierer eines Benchmarks geht davon aus, dass auch DIESE Befehle abgearbeitet werden
und nicht durch andere ersetzt werden.
Beispiel: (2+2)*(2+2)=16 kann man durch 4*4=16 ersetzen. Das Ergebniss ist ja GLEICH.
ABER: Ich habe nicht die gleichen Rechenschritte und damit keine Vergleichbarkeit, also ist es nur logisch,
dass FM das rumspielen an den Shadern unterbinden will.
Man muss also zugeben, dass NVidia hier cheatet.
Bei Spielen ist dass wieder eine andere Sache, solange das Ergebnis=Bildquali stimmt, OK.
Aber dass Nvidia bei Spielen selbst Hand anlegen muss(Shader bei HALO) ist schon peinlich.

Deinem Vergleich kann ich nicht ganz zustimmen. Ich würde eher sagen. Die Shader laufen so.

NV :

(4*2)+(4*2)=16

ATI :

(4+4)*(1+1)=16

Entscheidend ist oft die Reihenfolge der Befehle und deshalb würde ich nie behaupten, dass eine nicht auf die Hardware abgestimmte Befehlsreihenfolge ein wahres Bild der Leistungsfähigkeit abgibt.

Was ich mich immer noch Frage ist wie FM eigentlich seine Shader erzeugt. Mit dem DX9 SDK oder anders ??

deekey777
2003-11-14, 09:33:31
Original geschrieben von Coolj100
Eher halten die meisten user nichts von den aussagen von tomshardware, die völlig blödsinnige hardware tests und dumme aussagen machen. Ich finde tomshardware nicht als glaubwürdig und denke, dass sie genug geld kriegen von manchen firmen und dann das schreiben was ihnen gesagt wird!!!

Wie manche andere zeitschriften(gamestar usw.;D) und testseiten!!!

Ich bin auch dieser Meining, aber der Artikel an sich ist gar nicht so schlecht - aber meilenweit entfernt von der Qualität eines Artikels zB in der c't.

Exxtreme
2003-11-14, 09:42:53
Original geschrieben von Razor
Und da haben wir auch schon des Rätsels Lösung !

Razor
Tja, wenn alles so einfach wäre. ;D

http://www.beyond3d.com/forum/viewtopic.php?p=191836#191836

Tridam von TT-Hardware hat die Shader genommen und in eine andere Applikation eingebaut. Tja, in der anderen Applikation gab es keinerlei Geschwindigkeitsunterschiede zw. den 330'er und 340'er Shader.

P.S. Ausserdem sind auch die Pre-5x.xx-Detos betroffen und diese hatten AFAIK definitiv keinen "Unified Compiler".

Exxtreme
2003-11-14, 10:06:02
Jetzt antwortet ATi auf die Sache mit dem "Unified Compiler":

http://www.gamersdepot.com/ed/mkting_hype/002.htm


"It's been claimed that Futuremark's changes have disabled compilers. This is complete nonsense. ATI has had a compiler since CATALYST 3.6 and it didn't have any problems with Futuremark's changes. Shader replacement and compilers are completely different operations.

ATI has had a compiler since CATALYST 3.6. We didn't have any problems with Futuremark's changes. The new build of 3DMark03 gives an honest picture of the relative DX9 game performance of graphics cards. It accurately reflects what gamers will see with titles such as Half-Life 2, and what they already see with today's DX9 games, such as Tomb Raider: Angel of Darkness.

Secondly, it is disingenuous to claim that Shader replacement better reflects the performance in games. Only a tiny fraction of games get the attention that 3DMark03 has had from our competitors. It requires too much programming time. Over 300 PC games are launched a year, and 100 of these will really tax the graphics hardware. Maybe a half-dozen - the ones most used as benchmarks - will receive the gentle caress of the driver engineer. An honest run of 3DMark03 will give a true indication of performance for the overwhelming majority of DirectX 9 games. Gamers need to be able to play any game they want; they don't want to be locked into the six that have had all their shaders replaced.

Even assuming that you somehow found the resources to replace all the shaders in every game, it's still not a practical solution. Shader replacement is a massive step back for reliability and game compatibility. Every year you'll be writing thousands of Shader programs that each have to be checked for image quality, taken through QA and supported. And changed whenever the developer issues a patch. Treating every game as a special case is a huge stability issue. Developers have come out against Shader replacement. John Carmack is on record as saying "Rewriting shaders behind an application's back in a way that changes the output under non-controlled circumstances is absolutely, positively wrong and indefensible." The opinions of Gabe Newell, Valve Software's CEO, on Shader replacement are well-known. Developers hate it. What if they release a new level, the gamer downloads it and performance sucks? The hardware vendor isn't going to get any grief, because all the user sees is the old levels working fine and the new one running like molasses in January. The problem's obviously with the game, right? Developers are worried about the support nightmare this approach will generate and the damage to their own brand when they get blamed.�

Chris Evenden
PR Director
ATI Technologies

Gast
2003-11-14, 10:34:00
Soweit ich das jetzt hier alles gelesen habe, zeigt sich doch bisher einfach nur das, was doch eigentlich bereits bekannt war.
Die NV3x brauchen per Hand angepasste Shader, die die speziellen Merkmale der Architektur berücksichtigen, um auf konkurrenzfähige Geschwindigkeit zu kommen.
Der Shadercompiler im Treiber ist wohl nur im begrenzten Maße dazu in der Lage dort zu optimieren.
Falls die Vermutungen stimmen, dass wohl nur die Shader durch handoptimierte Versionen ersetzt werden, zeigt das doch nur, dass der nötige Speed auch auf NVidia Hardware herauszuholen ist, ohne dabei die Bildqualität herabzusetzen (zumindest habe ich dazu in diesem Fall noch nichts beweisbares gefunden) obwohl man (NVidia) sicher an der "Präzisionsschraube" dreht.
Das einzige was daraus in diesem Benchmark mit dieser "Manipulation" seitens NVidia "realitätsverzerrend" ist, ist wohl die Tatsache, dass wohl kaum alle Entwickler sich die Mühe machen werden, ihre Shader intensiv (und damit auch _kosten_ -intensiv), was auch zum einen sicherlich damit zusammenhängt, dass die Anzahl der Shader ja in den kommenden Projekten wohl immer stärker ansteigen wird, was damit wohl sicher dann doch für die derzeitigen ATI Produkte sprechen würde, die die Shader im Großen und Ganzen wohl wesentlich besser auch ohne Handoptimierung verdauen.

Exxtreme
2003-11-14, 10:38:54
Original geschrieben von Gast
Soweit ich das jetzt hier alles gelesen habe, zeigt sich doch bisher einfach nur das, was doch eigentlich bereits bekannt war.
Die NV3x brauchen per Hand angepasste Shader, die die speziellen Merkmale der Architektur berücksichtigen, um auf konkurrenzfähige Geschwindigkeit zu kommen.
Der Shadercompiler im Treiber ist wohl nur im begrenzten Maße dazu in der Lage dort zu optimieren.
Falls die Vermutungen stimmen, dass wohl nur die Shader durch handoptimierte Versionen ersetzt werden, zeigt das doch nur, dass der nötige Speed auch auf NVidia Hardware herauszuholen ist, ohne dabei die Bildqualität herabzusetzen (zumindest habe ich dazu in diesem Fall noch nichts beweisbares gefunden) obwohl man (NVidia) sicher an der "Präzisionsschraube" dreht.

Hmmm, ich glaube auch nicht, daß es die Pixelshader sind. Vor allem gibt es deutliche Geschwindigkeitseinbussen bei VS-lastigen Tests. Kann sein, daß die VS-Codes ausgetauscht wurden. Ich weiss nämlich nicht ob die aktuellen NV-Treiber einen Vertexshader-Compiler haben.
Original geschrieben von Gast
Das einzige was daraus in diesem Benchmark mit dieser "Manipulation" seitens NVidia "realitätsverzerrend" ist, ist wohl die Tatsache, dass wohl kaum alle Entwickler sich die Mühe machen werden, ihre Shader intensiv (und damit auch _kosten_ -intensiv), was auch zum einen sicherlich damit zusammenhängt, dass die Anzahl der Shader ja in den kommenden Projekten wohl immer stärker ansteigen wird, was damit wohl sicher dann doch für die derzeitigen ATI Produkte sprechen würde, die die Shader im Großen und Ganzen wohl wesentlich besser auch ohne Handoptimierung verdauen.
Naja. viel müssen die Entwickler nicht tun. Die schreiben ihre Shader und schicken diese an den Dev-Support von ATi und Nvidia. Ein Paar Stunden/Tage später gibt's die optimierte Version.

Gast
2003-11-14, 10:50:42
Original geschrieben von Exxtreme
Naja. viel müssen die Entwickler nicht tun. Die schreiben ihre Shader und schicken diese an den Dev-Support von ATi und Nvidia. Ein Paar Stunden/Tage später gibt's die optimierte Version.

Das mag ja noch für eine überschaubare Anzahl von Shadern funktionieren, aber mittlerweile gehen die Entwickler ja dahin, dass die Shader aus Fragmenten zusammengesetzt werden (u.a. bei HL2 gesehen) zum Beispiel und damit steigt die Anzahl der Kombinationen von verschiedenen Gesamtshadern doch erheblich, in wie weit sich da dann noch zuverlässig handoptimieren lässt, sei mal dahin gestellt.

Zum anderen, falls DevRels wirklich dies erledigen, dann wäre eine Shaderersetzung seitens NVidia doch legitim, obwohl ATI dies natürlich anders sieht (wer hätte das gedacht) und damit eigentlich auch meine Meinung eher reflektiert: "[...]Secondly, it is disingenuous to claim that Shader replacement better reflects the performance in games. Only a tiny fraction of games get the attention that 3DMark03 has had from our competitors. It requires too much programming time. Over 300 PC games are launched a year, and 100 of these will really tax the graphics hardware. Maybe a half-dozen - the ones most used as benchmarks - will receive the gentle caress of the driver engineer.[...]"

zeckensack
2003-11-14, 10:51:46
Original geschrieben von seahawk
Deinem Vergleich kann ich nicht ganz zustimmen. Ich würde eher sagen. Die Shader laufen so.

NV :

(4*2)+(4*2)=16

ATI :

(4+4)*(1+1)=16Die an die API übergebenen Shader sind für alle Karten gleich.
Die 'neuen' Shader (340) sind ggü den 'alten' Shadern (330) nur insofern verändert, daß die Registernamen verändert wurden. Hier wurde keine 'Kompilierung' verhindert, sondern die Erkennung verhindert.

Entscheidend ist oft die Reihenfolge der Befehle und deshalb würde ich nie behaupten, dass eine nicht auf die Hardware abgestimmte Befehlsreihenfolge ein wahres Bild der Leistungsfähigkeit abgibt.Die Anpassung der Shader an die Hardware ist Aufgabe der Treiber.

zeckensack
2003-11-14, 10:56:49
Original geschrieben von Exxtreme
Hmmm, ich glaube auch nicht, daß es die Pixelshader sind. Vor allem gibt es deutliche Geschwindigkeitseinbussen bei VS-lastigen Tests. Kann sein, daß die VS-Codes ausgetauscht wurden. Ich weiss nämlich nicht ob die aktuellen NV-Treiber einen Vertexshader-Compiler haben.Klar ist da ein Compiler drin, keine Hardware wird jemals die DXG intermediary representation direkt ausführen können.
Nur den Terminus 'Optimieren' hat man bei NV wohl noch nicht so ganz begriffen :no:
Naja. viel müssen die Entwickler nicht tun. Die schreiben ihre Shader und schicken diese an den Dev-Support von ATi und Nvidia. Ein Paar Stunden/Tage später gibt's die optimierte Version. ... was bei hunderten von kommerziellen Spielen/tausenden von Shadern pro Jahr sicher keine sinnvolle Lösung darstellt. Und überhaupt: wozu?

Steel
2003-11-14, 11:02:53
Original geschrieben von zeckensack
... was bei hunderten von kommerziellen Spielen/tausenden von Shadern pro Jahr sicher keine sinnvolle Lösung darstellt. Und überhaupt: wozu?

Um den Längsten (Balken) zu haben! :D