PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3DMark03 als Benchmark unbrauchbar ?


BlueRaven
2003-02-12, 20:43:08
Durch das Benchmarken versprach man sich ursprünglich einen Systemübergreifenden-Leistungsvergleich, so dass ähnliche Komponenten verschiedenster Hersteller auf einen gemeinsamen Nenner reduziert werden konnten und damit vergleichbar wurden.
Obwohl die präsentierten Aussagen niemals eine Garantie auf eine inhaltliche Korrektheit geben konnten, scheint es mittlerweile fraglicher den je, ob die präsentierten Werte überhaupt eine Aussage geben können.

Zum Release des 3DMark03 erschienen nun auch neue Treiber für ATIs wie auch für nVidias Grafikkarten. Diesen Zufall prüfte HardOCP mit einem Vergleich der alten und neuen Treiber unter dem nun erhältlichen 3DMark03. Und wie es scheint, ergab sich speziell beim GeforceFX ein wundersamer Leistungssprung von 50%.

Schuld für diesen Benchmark-Optimierungseifer der Grafikchip-Hersteller sind tatsächlich die Kunden selbst, die sich zu sehr auf die Aussage eines einzelnen Benchmarks verlassen, der alleine auch keine verlässlichen Aussagen machen kann. Relevant wären tatsächlich Vergleiche unter diversen Spielen, doch da diese oft zu Zeitraubend und zu speziell erscheinen, begnügen sich Anwender wie auch Redaktionen auf einfache Benchmarks, welche mittlerweile schon eine eigenen Softwarezweig darstellen und mit tatsächlichen Spielen nichts mehr zu tun haben.


hmm... die GeForce FX wird ja schnell

Quelle: K-Hardware

MFG
BlueRaven

Byteschlumpf
2003-02-12, 21:59:25
Es gibt derzeit wohl kein nutzloseres Programm, als den 3DMark2003!


Byteschlumpf

smallB
2003-02-12, 22:14:41
war 3DMark jemals brauchbar? NEIN!

Unregistered
2003-02-12, 22:28:50
aber trotzdem PHAT ;)

BlueRaven
2003-02-12, 22:38:19
die von MadOnion oder auch jetzt Futuremark übertreiben Maßlos. Die bringen etwas auf dem Markt wofür erst die Grafikkarten in 2 Jahren rauskommen.

Die die sind nicht dicht irgendwo die könnten ein Benchmark heraus bringen das auf heuten 3D Engines basiert, dann hätten wir alle was davon.


MFG
BlueRaven

Piffan
2003-02-12, 23:03:26
Originally posted by smallB
war 3DMark jemals brauchbar? NEIN!

Widerspruch! Das Ding war schon immer brauchbar zum testen und analysieren......hat zwar nicht immer was mit der Spieleleistung in realen Spielen zu tun gehabt, dennoch waren die Einzelergebnisse schon immer hochinteressant....

Oder kennt jemand ein Tool, mit dem man die die Funktionen moderner Grakas einzeln austesten kann? Ich nicht.....

nggalai
2003-02-12, 23:09:44
Hola,Originally posted by Piffan
Widerspruch! Das Ding war schon immer brauchbar zum testen und analysieren......hat zwar nicht immer was mit der Spieleleistung in realen Spielen zu tun gehabt, dennoch waren die Einzelergebnisse schon immer hochinteressant....Das ist beim 03er allerdings nur eingeschränkt der Fall. Mit der Pro-Version hat's einige gute Features dabei (AF-Tester z.B.), aber die Spieletests laufen auf unterschiedlichen Plattformen so, well, unterschiedlich ab, dass man technische Quervergleiche (fast) vergessen kann. Der Füllratentest (single texturing) ist wieder mehr ein Bandbreitentest geworden, Ragtroll mischt munter PS1.1, VS1.1 und CPU-Auslastung (kaum Rückschlüsse möglich) etc.

Naja. Warscheinlich müssen wir uns erst wieder da rantasten. Beim 3DMark2001 war's ja auch nicht sofort klar, welche Tests wie limitieren und zu was für Aussagen führen können.

ta,
-Sascha.rb

[-Leo-]
2003-02-12, 23:48:06
wenn dann endlich ne vernünftige NV Karte mit Direct X 9 kommt, wird der Bench auch wieder sehr aussagekräftig, denke mal mitte bis ende des jahres werden wieder alle mit 3dmark zufrieden sein.

Major J
2003-02-13, 00:05:01
Zum System-Vergleich nicht zu gebrauchen.
Für den Stabilitäts-Test schon eher.

Gruß Jan

zeckensack
2003-02-13, 00:08:45
Aber eins können wir festhalten, Game Test 2 zB wird nie etwas mit Spielen zu tun haben.
Die Stencil-Schatten und das Normal mapping legen Verwandtschaft mit Doom 3 nahe, aber halt, weit gefehlt!
Das Ding ist nämlich ausgesprochen dämlich programmiert und verschwendet Leistung, wo's nur kann.
Eine richtige Spiele-Engine mit Stencil-Schatten wird nur die Silhouetten der Figuren für die Volumenerzeugung verwenden. 3DM03 bratzt einfach alles durch. Führt visuell zum gleichen Endergebnis, braucht aber schätzungsweise die zwanzigfache Füllrate :eyes:

Wenn's ein Spiel wäre, müßte man sagen daß man es dämlicher garnicht mehr programmieren kann. Gut, ist ein Benchmark, aber Verbindungen zu Spiele-Performance darf man nun überhaupt nicht mehr ziehen, während es bei der Vorversion wenigstens noch ansatzweise Parallelen gab.

Auch die Feature-Tests sind wieder voll für'n Arsch. ST-Fillrate mißt Bandbreite.
CPU-Speed 1 mißt auch wieder Bandbreite.
Ragtroll und CPU-Speed 2 messen PS1.4-Performance.
Vertex Shader mißt - na was wohl - PS1.1-Performance.

Rundum ein Griff ins Klo ohne Handschuhe.

Byteschlumpf
2003-02-13, 00:53:00
Jau, Griff in's Klo trifft die Sache ziemlich gut!

Wer erinnert sich da nicht gerne an diese schöne Szene aus "TrainSpotting"? :bonk:



Byteschlumpf

MadManniMan
2003-02-13, 01:42:42
Originally posted by zeckensack
Aber eins können wir festhalten, Game Test 2 zB wird nie etwas mit Spielen zu tun haben.
Die Stencil-Schatten und das Normal mapping legen Verwandtschaft mit Doom 3 nahe, aber halt, weit gefehlt!
Das Ding ist nämlich ausgesprochen dämlich programmiert und verschwendet Leistung, wo's nur kann.
Eine richtige Spiele-Engine mit Stencil-Schatten wird nur die Silhouetten der Figuren für die Volumenerzeugung verwenden. 3DM03 bratzt einfach alles durch. Führt visuell zum gleichen Endergebnis, braucht aber schätzungsweise die zwanzigfache Füllrate :eyes:


wäre doch ne wunderbare werbung, zumindest an n00b0rs angewandt... "...die 20fache füllrate von doom3!"

Originally posted by zeckensack
Wenn's ein Spiel wäre, müßte man sagen daß man es dämlicher garnicht mehr programmieren kann. Gut, ist ein Benchmark, aber Verbindungen zu Spiele-Performance darf man nun überhaupt nicht mehr ziehen, während es bei der Vorversion wenigstens noch ansatzweise Parallelen gab.


heißt halt "gamers' benchmark" und net "benchmark for gamers refering to games"... (haut mich, wenn das englisch falsch war!)

Originally posted by zeckensack
Auch die Feature-Tests sind wieder voll für'n Arsch. ST-Fillrate mißt Bandbreite.
CPU-Speed 1 mißt auch wieder Bandbreite.
Ragtroll und CPU-Speed 2 messen PS1.4-Performance.
Vertex Shader mißt - na was wohl - PS1.1-Performance.

Rundum ein Griff ins Klo ohne Handschuhe.

also ham wir jetzt doch nen wunderbaren PS und bandbreitenbench :)

Unregistered
2003-02-13, 08:57:44
Originally posted by zeckensack

Rundum ein Griff ins Klo ohne Handschuhe.

Aber es reicht um den meisten Usern, insbesondere denen ohne DirectX9 Karte, ein schlechtes Gewissen zu machen. Wir haben ja alle sooooooo laaaahme System ;). Die hatten mit ihrer "pfeilschnellen" ;) Ti4600 irgendwas um die 12.000-13.000 Punkte im 3DMark 2001, nu krepeln sie bei irgendwas um die 1.500 herum, auch die Radeon Leute sehen keine 17.000 Punkte mehr sondern nur ein 1/3 davon. Tja..alles veraltete und langsame Hardware.

Grüße

Daenzer
2003-02-13, 10:34:47
Ich glaub das Thema 3DMark wird auch ein wenig zu eng gesehen ;) Was bringt es mir konkret wenn ich in einem Benchmark fulminante, oder eben beschissene Ergebnisse habe? Ich kaufe mir eine neue Graka um flüssig und mit guter Grafik/Bildquali SPIELE zocken zu können. Schlussfolgerung für mich lautet dann: Ich kack auf die Ergebnisse in einem Benchmark der eh keine vergleichbaren und objektiven Ergebnisse liefert und seh lieber zu was mein System in realen, tatsächlich vorhandenen Games bringt.

Nachtrag:

Wenn ich sehen will was meine Graka leistet kann ich mir vom Hersteller auch gleich die TechDemos saugen. Kommt in etwa auf´s Gleiche raus :D

zeckensack
2003-02-13, 10:37:26
Ups :)

Ich muß mein Urteil wohl revidieren, nachdem ich ein paar Ergebnisse in unterschiedlichen Auflösungen (http://www.tech-report.com/onearticle.x/4736) gesehen habe ;)

Erstmal ist 3DM03 der erste Benchmark, bei dem sich die Füllrate abhängig von der Auflösung ändert :lol:
Darüberhinaus scheinen fast alle Tests durch Vertex Shader limitiert zu sein.
Ich muß nochmal drüber nachdenken
*grübel*

BlueRaven
2003-02-13, 12:02:24
Ich glaube Nvidia hat es schon December gemerkt das dass Programm nur nix nutze sein wird und hat sich aus dem BETA TEST Programm ausgeschlossen.

eine echt Kluge entscheidung.


MFG
BlueRAven

Unregistered
2003-02-13, 12:03:17
Originally posted by BlueRaven
Ich glaube Nvidia hat es schon December gemerkt das dass Programm nur nix nutze sein wird und hat sich aus dem BETA TEST Programm ausgeschlossen.

eine echt Kluge entscheidung.


MFG
BlueRAven

:lol:

*schenkelklopf*

Unregistered
2003-02-13, 12:14:41
ich dachte nvidia supportet 3dmark nichtmehr da es nicht spieleszenariotauglich ist, warmu machen die dan treiber wo die fx 50 % schneller wird ?

daflow
2003-02-13, 12:28:28
Das der 3DMark03 auch wieder genügend Leute in Kaufentscheidungen beeinflusst ist NVidia vollkomen klar-> Treiberotimierung für VS, PS die ja stark gefordert werden im Bench.
Das NV 'etwas' angesäuert ist über die Tests wie sie jetzt sind, kann ich gut nachvollziehen, mit derzeit KEINER erhältlichen DX9 Karte gegen ein fast komplettes Sortiment DX9 Karten bei ATI, mit der PUnktezusammensetzung und der ps 1.4 Geschichte...
Andererseits denk ich mal war NV auch schon seit längerer Zeit bewusst wie wohl dieser 3DMark aussieht und was er von einer Graka in etwa fordert; wenn man sich dann den URSPRÜNGLICHEN Produktzeitplan der NV Karten anschaut wird klar das NV eigentlich auch zum Launch der 03Marks eine Palette DX9 geplant hatte...

Andre
2003-02-13, 12:47:05
Originally posted by Unregistered
ich dachte nvidia supportet 3dmark nichtmehr da es nicht spieleszenariotauglich ist, warmu machen die dan treiber wo die fx 50 % schneller wird ?

Weil sie vielleicht generell die PS-Performance angepackt haben - man hat ja schon vorher gesehen, dass da noch Potential seien würde.
Und da im 3DMark eben PS/VS-Performance sehr gefragt ist, wirkt sich das entsprechend aus.

nggalai
2003-02-13, 12:52:23
Hola,
Originally posted by zeckensack
Ich muß mein Urteil wohl revidieren, nachdem ich ein paar Ergebnisse in unterschiedlichen Auflösungen (http://www.tech-report.com/onearticle.x/4736) gesehen habe ;)

Erstmal ist 3DM03 der erste Benchmark, bei dem sich die Füllrate abhängig von der Auflösung ändert :lol:ROFL :rofl:

Geil. :D

ta,
-Sascha.rb

Piffan
2003-02-13, 13:10:21
Das wars ja dann wohl mit meiner Aussage von gestern...da dachte ich noch, dass der Mark wenigstens als Analyse- Tool taugt....na ja, dann werde ich es garantiert nicht saugen, das Teil....

Byteschlumpf
2003-02-13, 13:33:26
Der 3DMark2001 sagt zumindest bei Game1 HighDetail aus, ob die CPU schnell genug für UT2003 ist oder nicht!

Ebenso zeigt sich anhand von Nature, ob die Karte für "AN2 Revelation" die nötige Power mitbringt oder nicht.

Als äußerst interessant stellen sich auch die reinen Karten-Meßwerte dar, wodurch sich die einzelnen GPU-Generationen sehr schön miteinader vergleichen lassen.



Byteschlumpf

Unregistered
2003-02-13, 14:53:59
Originally posted by Major J
Zum System-Vergleich nicht zu gebrauchen.
Für den Stabilitäts-Test schon eher.

Gruß Jan Der Demo-Loop des 3DM2K ist ein netter Stabilitätstest, jedenfalls der einzige Test, bei dem mein System nicht länger als 2h durchhält, anders als Prime95, Unreal1-Flyby, Memtest 3.0, hotcpu, x-isle usw.
Aber die Freeware-Version des 03 erlaubt kein Demo-Loop.

askibo
2003-02-13, 15:00:02
Originally posted by Byteschlumpf
Der 3DMark2001 sagt zumindest bei Game1 HighDetail aus, ob die CPU schnell genug für UT2003 ist oder nicht!

Ebenso zeigt sich anhand von Nature, ob die Karte für "AN2 Revelation" die nötige Power mitbringt oder nicht.



Dann warten wir mal ab wie aussagekräftig die neuen Gamtest im Jahr 2005 sind.

Madkiller
2003-02-15, 13:05:14
Originally posted by smallB
war 3DMark jemals brauchbar? NEIN!

Beim 2003 gebe ich dir recht, aber gerade der 2001se (und eigentlich auch der 2000)ist relativ gut für Performance-Vergleiche.

Ich habe z.B. mal einige Tests(siehe Sig) mit unterschiedlichem CPU-Takt gemacht, und der 3DMark ist - durchschnittlich gesehen - so mitskaliert, wie die Games auch.

nggalai
2003-02-15, 15:11:54
Naja, Futuremark meinte im Whitepaper zum 3DMark03, dass man den 3DMark2001 idealerweise für Spieleperformance bei DX7-Spielen einsetzen soll. Und dem schliesse ich mich einigermassen an. Bis auf einige Vertex-Shader in den High-Detail-Tests hat's echt nur wenig mit DX8 zu tun.

Für mich ist der 3DMark03 hauptsächlich ein DX8.1-Benchmark. Bis auf den letzten Gametest (und den Feature-Test) werden keine DX9-Features eingesetzt, alles maximal DX8.1.

Ach ja, Futuremarks Meinung zu solchen Diskussionen:

http://www.futuremark.com/companyinfo/Response_to_3DMark03_discussion.pdf

ta,
-Sascha.rb

aths
2003-02-15, 17:51:00
Originally posted by nggalai
Ach ja, Futuremarks Meinung zu solchen Diskussionen:

http://www.futuremark.com/companyinfo/Response_to_3DMark03_discussion.pdfSo ganz unberechtigt sind ihre Ausführungen nicht, muss ich zugeben.

Razor
2003-02-15, 18:25:11
Originally posted by nggalai
Hola,Das ist beim 03er allerdings nur eingeschränkt der Fall. Mit der Pro-Version hat's einige gute Features dabei (AF-Tester z.B.), aber die Spieletests laufen auf unterschiedlichen Plattformen so, well, unterschiedlich ab, dass man technische Quervergleiche (fast) vergessen kann. Der Füllratentest (single texturing) ist wieder mehr ein Bandbreitentest geworden, Ragtroll mischt munter PS1.1, VS1.1 und CPU-Auslastung (kaum Rückschlüsse möglich) etc.

Naja. Warscheinlich müssen wir uns erst wieder da rantasten. Beim 3DMark2001 war's ja auch nicht sofort klar, welche Tests wie limitieren und zu was für Aussagen führen können.

ta,
-Sascha.rb
Für Quervergleiche war der Murks eigentlich noch nie sonderlich zu gebrauchen...
...wohl aber für den Vergleich im eigenen System...

- was passiert, wenn ich einen neuen Treiber aufspiele ?
- sind die Grunddaten noch die gleichen ?
- arbeitet der Treiber fehlerfrei ?
- wie verändern sich die Tech-Werte ?

Da gibt's schon so einiges, was interessant war und auch sicher bei dem 'Neuen' interessant sein wird.
Ja, ich denke auch, dass wir uns da erst mal wieder ran tasten müssen...

Und um dem schon mal einen Vorgeschmack zu geben...
ASUS A7N8X del/gd (nForce2)
AthlonXP 2100+ (Tbred-'B')
2x 256MB Corsair PC433 CL2 DDR-SDRAM @ 2-2-2-4
ELSA Gladiac 920 (GeForce3)
WindowsXP Prof. SP1a DX9
Detonator 42.01

------------------------------------------------
3DMark2003 XP2100+ XP2700+ Diff
200/230 200/230
------------------------------------------------
3DMarks 1.027 1.051 2,34%

-Game1 73,76 76,99 4,38%
-Game2 5,98 5,95 - 0,48%
-Game3 5,69 5,72 0,54%
-Game4 - - -

CPUMarks 471 597 26,75%

-CPU1 47,97 60,74 26,63%
-CPU2 9,14 11,57 26,66%

Fillrate(Single) 543,40 542,98 - 0,08%
Fillrate(Multi) 1185,93 1181,85 - 0,34%
Vertex Shader 3,37 3,84 13,80%
Pixel Shader 2.0 - - -
Ragtroll 2,91 3,02 3,85%

no sounds 31,12 39,40 26,59%
24 sounds 27,99 35,36 26,31%
60 sounds 25,15 32,10 27,62%
-diff 24 s. - 10,06% - 10,25%
-diff 60 s. - 19,18% - 18,52%
Die Fragestellung, die hier beantwortet wird: Wie wirken sich GPU-extere Einflüsse aus ?
- der FSB wurde von 133MHz auf 166MHz angehoben
- die GraKa-Taktraten blieben auf Default

Wie man gut erkennen kann, profitiert lediglich Game1 davon und natürlich (massiv !) die CPU-Tests. Was mich allerdings wundert, ist, dass sowohl Ragtroll (nicht wirklich ;-), vor allem aber der Vertex-Shader-Test mit satten 14% reagiert !

Das dürfte doch eigentlich gar nicht sein, oder ?

Allerdings sollte man dabei berücksichtigen, dass bei der Anzahl von Frames schon leichte Schwankungen GROSSE Einflüsse haben können...
:D
ASUS A7N8X del/gd (nForce2)
AthlonXP 2100+ @ 2700+ (Tbred-'B')
2x 256MB Corsair PC433 CL2 DDR-SDRAM @ 2-2-2-4
ELSA Gladiac 920 (GeForce3)
WindowsXP Prof. SP1a DX9
Detonator 42.01

----------------------------------------------------------------------------------------
3DMark2003 200/230 200/265 Diff 235/230 Diff 235/265 Diff
+00/+00 +00/+15 +17/+00 +17/+15
----------------------------------------------------------------------------------------
3DMarks 1.051 1.080 2,76% 1.145 8,94% 1.183 12,56%

-Game1 76,99 80,05 3,98% 80,96 5,16% 84,81 10,15%
-Game2 5,95 6,00 0,93% 6,74 13,28% 6,84 14,91%
-Game3 5,72 5,82 1,67% 6,49 13,50% 6,63 15,84%
-Game4 - - - - - - -

CPUMarks 597 595 - 0,34% 598 0,17% 595 - 0,34%

-CPU1 60,74 60,58 - 0,27% 60,66 - 0,14% 60,65 - 0,15%
-CPU2 11,57 11,55 - 0,20% 11,61 0,32% 11,54 - 0,26%

Fillrate(Single) 542,98 604,06 11,25% 562,48 3,59% 629,21 15,88%
Fillrate(Multi) 1181,85 1242,32 5,12% 1290,04 9,15% 1381,50 16,89%
Vertex Shader 3,84 3,87 0,85% 4,16 8,35% 4,23 10,27%
Pixel Shader 2.0 - - - - - - -
Ragtroll 3,02 2,97 - 1,68% 3,37 11,80% 3,44 14,11%

no sounds 39,40 40,33 2,35% 40,52 2,84% 39,85 1,15%
24 sounds 35,36 35,22 - 0,40% 35,27 - 0,25% 35,32 - 0,12%
60 sounds 32,10 32,16 0,18% 32,06 - 0,13% 32,11 0,03%
-diff 24 s. - 10,25% - 12,66% - 12,96% - 11,38%
-diff 60 s. - 18,52% - 20,25% - 20,88% - 19,42%
Hier nun die Steigerung der GraKa-Takte...
- erst wurde nur der Speichertakt angehoben (+15%)
- dann nur der GPU-Takt (+17%)
- schlussendlich dann GPU- und Speichertakt (+17%/+15%)

Sehr interessant, gell ?
:D

Man kann genau sehen, wie hier welcher Test reagiert und dieses dann bei späteren Betrachtungen berücksichtigen !
Allerdings nur den '3DMark-Score' zu vergleichen ist schlicht fahrlässig...

IMHO ist es nicht einmal zulässig, auf unterschiedlichen Systemen zu messen und dies zu vergleichen, aber das hatten wir im Bench-Forum wohl schon zur Genüge. Sehr interessat fand ich auf jeden Fall, die PS1.4-Geschichte... somit der Murks03 zumindest die erste 'echte' Anwendung ist, die davon gebrauch macht...
(ich hoffe, die Ironie des letzten Satzes ist angekommen ;-)

Aber Reaktionen auf dem eigenen System zu betrachten ist zulässig und sogar nachvollziehbar !
Das wurde zwar sicher nicht direkt von der "bösen Zwiebelzukunft" beabsichtigt, ist aber zumindest ein Anwendungsgebiet.

Bis denne

Razor

P.S.: Die Soundtests sind allerdings EXTREM unglaubwürdig. Eigene Tests mit aktuellen Applikationen (Games ;-) hat ergeben, dass diese nie mehr als 3-5% Performance kosteten... selbst wenn EAX aktiviert wurde... ist da meine CPU vielleicht nicht ausgelastet gewesen ?
;-)

nggalai
2003-02-16, 10:53:32
Hola,

ATIs Antwort auf, err, Futuremarks Antwort auf NVIDIAs Antwort auf 3DMark03:ATI fully supports this new graphics benchmark, 3Dmark03. We feel it is a valuable diagnostic tool for estimating the performance of current and future graphics products when running future game titles (to be released over the next 1-2 years). We believe that using synthetic benchmarks such as 3DMark03 in combination with real applications and game benchmarks provides the most complete picture of the overall performance and value of graphics hardware.

It takes significant development time for developers to incorporate new DX features into their games and engines. So, it is virtually impossible to predict the performance of future games using only existing games. From a business perspective, game developers generally wait for a minimum install-base of a certain generation of graphics products before they incorporate features that rely on those products. Synthetic benchmarks aren't necessarily subject to these limitations, and therefore can be designed to stress the limits of even the most powerful and leading-edge graphics hardware available.

Every game uses different features and techniques, and places emphasis on different aspects of the PC. Some stress pixel fill rate, or vertex processing, or memory bandwidth, or CPU performance, or some combination. It is not often clear in such benchmarks what aspects of the hardware are being tested most strongly. Synthetic benchmarks, on the other hand, can run a diverse set of tests that are specifically designed to stress all aspects of the hardware, and pinpoint specific strengths or deficiencies much more conclusively.

We feel that benchmarks of all kinds are very important tools in our ongoing efforts to improve the performance and quality of our products. Every benchmark or diagnostic that we run provides us with feedback on what things we are doing well and what things need more work. It is often the case that optimizations we come up with for one application end up benefiting other applications as well.

Synthetic benchmarks provide us with valuable feedback because they often stress features and paths that are not yet used in shipping game titles. They may help us find bugs and inefficiencies before game developers encounter them. By evaluating our performance in these benchmarks, we can often improve the performance of future game titles long before they are released, and improve the overall robustness of our drivers.

Synthetic benchmarks also offer us a lot of help in designing future hardware. Relying solely on existing game benchmarks in this case would leave us in danger of producing new products that run old games well, but run new games poorly.(Von Beyond3D; ist eine E-Mail von ATI).

ta,
-Sascha.rb

Razor
2003-02-16, 11:13:35
Dassa Krass, nggalai...

Die ganze Welt schreit: "Was für ein Mist !"
Wir versuchen dem wenigstens noch etwas abzugewinnen und nun kommt ATI mit diesem Kommentar.

War ja klar, nur weil ihre Hardware da der Konkurrenz gegenüber (noch) so gut abschneidet, finden sie die Demo ganz toll... kann es sein, dass sie selber mit der "bösen Zwiebelzukunft" (tm) daran gewerkelt haben ?

Echt 'nett' !
:D

Razor

aths
2003-02-16, 11:45:16
Auch ATI gibt also zu, treiberseitig speziell für Benchmarks zu optimieren.

Warten wir mal ab, welche HW als erstes die 10000 knackt.

skampi
2003-02-16, 13:42:17
Originally posted by Razor
Dassa Krass, nggalai...

Die ganze Welt schreit: "Was für ein Mist !"
Wir versuchen dem wenigstens noch etwas abzugewinnen und nun kommt ATI mit diesem Kommentar.
Razor


???

Ohne diese "Zukunftsstudien mit Frame-/Zeitmessung" würden wir nie entsprechende Grafik in Games sehen. Dieser Benchmark schafft Nachfrage nach entsprechender Hardware. Was gibt es daran falsch zu deuten.

Die Hersteller entwickeln HW, die in solchen Situationen gut performt, ist das schlecht?

Ich zumindest hab keinen Bock, auf ewig CS etc. zu gamen und daß der nächste Shooter immer noch auf der inzw. 4-jährigen Q3-Engine basiert.

Andre
2003-02-16, 16:37:44
Originally posted by skampi
Ohne diese "Zukunftsstudien mit Frame-/Zeitmessung" würden wir nie entsprechende Grafik in Games sehen. Dieser Benchmark schafft Nachfrage nach entsprechender Hardware. Was gibt es daran falsch zu deuten.


Das ist richtig, skampi, nur ist der
3DMark 03 nun wirklich nicht als wünschenswert für die Zukunft zu sehen.
Die haben in der "Engine" so ziemlich alles vermüllt, was möglich war.
Ich bete, dass kein Game mit einer ähnlichen Engine auf den Markt kommt.

Das war beim 01er noch ganz anders.
Um nichts anderes geht es.

Razor
2003-02-16, 17:06:56
Originally posted by skampi

Ohne diese "Zukunftsstudien mit Frame-/Zeitmessung" würden wir nie entsprechende Grafik in Games sehen. Dieser Benchmark schafft Nachfrage nach entsprechender Hardware. Was gibt es daran falsch zu deuten.

Die Hersteller entwickeln HW, die in solchen Situationen gut performt, ist das schlecht?
Das ist doch Blödsinn, skampi...
Die Hersteller entwickeln Hardware, die in (synthetischen) Benchmarks gut läuft ?

Deiner Meinung nach scheint ATI das ja so zu machen (was ich nicht so recht glauben mag), bei nVidia kann ich mir das beim besten Willen nicht vorstellen.

Was ist den passiert, als dieser super-tolle Murks03 heraus gekommen ist ?

Alles hat "Hirnriß", "Unrealistisch" und "abenteuerlich programmiert" (geschönt ausgedrückt ;-) geschrien. Experten haben sich dazu geäussert und auch nVidia hat dazu Stellung genommen - sich darüber beschwert, dass sie das gar nicht witzig finden (oder was soll toll daran sein, eine veraltete, nicht angewandte Technologie zu nutzen ?) und haben einen neuen Treiber heraus gebracht, der selbst die Plattform schlug, für die dieser Benchmark ideal gewesen sein sollte.

Was hat das alles bitteschön mit Hardwareentwicklung zu tun ?
???
Originally posted by skampi

Ich zumindest hab keinen Bock, auf ewig CS etc. zu gamen und daß der nächste Shooter immer noch auf der inzw. 4-jährigen Q3-Engine basiert.
Ich auch nicht !

Und ich glaube nicht, dass solche Dinge wie Murks03 dabei helfen werden, das zu beschleunigen...
'Echte' und 'reine' DX8-Applikationen wären da schon hilfreicher !
(und reiche Papi's, die dem Sohnemann mehr 'Kleingeld' geben, um sich teuere GraKa's zu kaufen ;-)

Na ja, aber jedem das seine...

Razor

Unregistered
2003-02-16, 21:03:16
Originally posted by Razor

Das ist doch Blödsinn, skampi...
Die Hersteller entwickeln Hardware, die in (synthetischen) Benchmarks gut läuft ?

Deiner Meinung nach scheint ATI das ja so zu machen (was ich nicht so recht glauben mag), bei nVidia kann ich mir das beim besten Willen nicht vorstellen.

Was ist den passiert, als dieser super-tolle Murks03 heraus gekommen ist ?

Alles hat "Hirnriß", "Unrealistisch" und "abenteuerlich programmiert" (geschönt ausgedrückt ;-) geschrien. Experten haben sich dazu geäussert und auch nVidia hat dazu Stellung genommen - sich darüber beschwert, dass sie das gar nicht witzig finden (oder was soll toll daran sein, eine veraltete, nicht angewandte Technologie zu nutzen ?) und haben einen neuen Treiber heraus gebracht, der selbst die Plattform schlug, für die dieser Benchmark ideal gewesen sein sollte.

Was hat das alles bitteschön mit Hardwareentwicklung zu tun ?
???

Ich auch nicht !

Und ich glaube nicht, dass solche Dinge wie Murks03 dabei helfen werden, das zu beschleunigen...
'Echte' und 'reine' DX8-Applikationen wären da schon hilfreicher !
(und reiche Papi's, die dem Sohnemann mehr 'Kleingeld' geben, um sich teuere GraKa's zu kaufen ;-)

Na ja, aber jedem das seine...

Razor

1. Keine Ahnung, warum du dich jetzt so aufregst. Viel hat sich nicht geändert. Daß der alte 3d-Mark sich in Teilen auf die Verwandschaft zu einer "richtigen" Game-Engine berufen kann, war für die Ergebnisse (3DMark - MaxPayne) relativ nebensächlich.

2. Die Ergebnisse der alten "DX-8-Generation" sind schlecht in ein Verhältnis zu den neuen Karten zu setzen, zumindest was die Performance in aktuellen Spielen betrifft.
Andererseits, was glaubst du, woher der Leistungsüberschuss für den Einsatz von AA/AF auf dem R300 herkommt?! Mit aktuellen Prozessoren kann dieser sein Leistungsvermögen überhaupt noch nicht ausspielen, bei den DX8-Karten ist schon Schicht. So gesehen wären die 200% aufwärts "Mehrperformance", die sich in den Murksen wiederspiegeln, schon gerechtfertigt.

3. Beziehend auf 3D-Mark-Vergleich R9700 - GFFX:

Ich kann ja deine "Aufregung" verstehen, aber ist es nicht auch so, daß die Ergebnisse vom konstruierten 3DMark im Großen und Ganzen das bestätigen, was auch schon die Reviews der GFFX aufzeigt haben. Es ist für dich sicherlich unglaublich, dass eine zukunftsorientierte GeForce FX mit 500 MHz keine R9700Pro-Karte in die Schranken weisen kann, eher schon schlechter dasteht (Treiber-Unterstellung usw.)

Insofern halt ich die Bewertung für gerechtfertigt.

Hast du schonmal in Betracht gezogen, dass diese wirklich gravierende Mängel/Kompromisse in ihrer Architektur aufweisen könnte, so daß die FX den Erwartungen, die u.a. durch das aggressive Bewerben der neuen DX9+Features geweckt wurden, gar nicht gerecht werden kann.

Manche haben sich im neuen 3D-Mark sicherlich den letzten Notnagel für die FX(Ultra) erhofft, das hat sich nicht bestätigt und u.a. auch deswegen ist das Geschrei jetzt groß. Sich auf NV's "Einwände" beim Streit um deren Verkaufsinteressen zu berufen find ich schon naiv.

skampi
2003-02-16, 21:09:24
Wo sind meine Kekse???

Salvee
2003-02-17, 02:40:53
Originally posted by Andre


Das ist richtig, skampi, nur ist der
3DMark 03 nun wirklich nicht als wünschenswert für die Zukunft zu sehen.
Die haben in der "Engine" so ziemlich alles vermüllt, was möglich war.
Ich bete, dass kein Game mit einer ähnlichen Engine auf den Markt kommt.

Das war beim 01er noch ganz anders.
Um nichts anderes geht es.

Skampi meinte wohl eher, dass er Games erwartet, die so aussehen wie der 3DMark, also rein auf die Grafikqualität bezogen.

Dass die Engine nicht auf Performance optimiert ist, spielt dabei doch überhaupt keine Rolle.

Die (meiner Meinung nach bewusst implementierte) Ineffizienz äussert sich beispielsweise dadurch,
dass viel mehr Vertexoperationen durchgeführt werden, als eigentlich zum Erreichen des Ziels benötigt würden.
Bei einem Spiel würde es mich natürlich ankotzen, wenn es mies performt und ineffizient programmiert ist, bei diesem Benchmark jedoch ist es doch schnurzegal: jede getestete Grafikkarte muss da durch den selben 'miesen' Code durch, eine effizientere Engine würde nur bedeuten, dass statt 30 erreichten Frames am Ende 100 dastehen, nicht mehr und nicht weniger.

Eventuell ist die Ineffiezienz sogar ausgesprochen positiv zu bewerten, da durch die ganze Mehrarbeit, die die Chips leisten müssen, eventuelle Schwachstellen sogar viel offensichtlicher werden.

Zum erhöhten Absatz moderner Grafikhardware (von welcher Chipschmiede auch immer) wird der Benchmark sicherlich seinen Teil beitragen, seine Fans hat er scheinbar schon gefunden ;) :

'We spoke with company officials from ATI and Dell, and both companies believe that 3DMark03's methodology and implementation are essentially sound. Dell, in particular, will be using the benchmark as one of its metrics for qualifying 3D GPUs.

So it seems that nVidia may just have to suck it up and live with whatever issues they have, since the biggest system OEM in the world will be judging its GPUs with this benchmark.'

Klick (http://www.extremetech.com/article2/0,3973,888246,00.asp)

Razor
2003-02-17, 06:41:04
Originally posted by Unregistered

1. Keine Ahnung, warum du dich jetzt so aufregst. Viel hat sich nicht geändert. Daß der alte 3d-Mark sich in Teilen auf die Verwandschaft zu einer "richtigen" Game-Engine berufen kann, war für die Ergebnisse (3DMark - MaxPayne) relativ nebensächlich.
Wer regt sich hier auf ?
Ich sicher nicht !
Kann nur die Argumente 'gegen' den Murks03 sehr gut nachvollziehen...
Originally posted by Unregistered

2. Die Ergebnisse der alten "DX-8-Generation" sind schlecht in ein Verhältnis zu den neuen Karten zu setzen, zumindest was die Performance in aktuellen Spielen betrifft.
Andererseits, was glaubst du, woher der Leistungsüberschuss für den Einsatz von AA/AF auf dem R300 herkommt?! Mit aktuellen Prozessoren kann dieser sein Leistungsvermögen überhaupt noch nicht ausspielen, bei den DX8-Karten ist schon Schicht. So gesehen wären die 200% aufwärts "Mehrperformance", die sich in den Murksen wiederspiegeln, schon gerechtfertigt.
Sorry, aber irgendwie scheinst Du nicht mitbekommen zu haben, wo diese 'Mehrperformance' herkommt, oder ? Bitte informiere Dich und sage dann nochmals dass dies der effektiven Rohleistung zu verdanken ist.

Und von einem Leistungsüberschuss bei der R300 zu reden...
... ist ebenfalls unsinn !
(aber zumindest bei älteren Engines richtig)

Schon mal versucht beim Murks so etwas wie AA/AF zu aktivieren ?
;-)

Gerne auch bei einem 'richtigen' Botmatch unter UT2003 (highest Details), unter U2 und auch mal im SplinterCell Demo. Wo ist denn da der 'Leistungsüberschuss' ?
???
Originally posted by Unregistered

3. Beziehend auf 3D-Mark-Vergleich R9700 - GFFX:

Ich kann ja deine "Aufregung" verstehen, aber ist es nicht auch so, daß die Ergebnisse vom konstruierten 3DMark im Großen und Ganzen das bestätigen, was auch schon die Reviews der GFFX aufzeigt haben. Es ist für dich sicherlich unglaublich, dass eine zukunftsorientierte GeForce FX mit 500 MHz keine R9700Pro-Karte in die Schranken weisen kann, eher schon schlechter dasteht (Treiber-Unterstellung usw.)
Aufregen tut sich hier niemand... Du vielleicht ?
;-)

Auch hier scheinst Du nicht mitbekommen zu haben, dass eine 'einfache' Treiberoptimierung ca. 30-80% in den relevnten Benches heraus geholt hat, was sogar dazu führte, dass die R9700pro sehr wohl (und das mit den schon bekannten 10% ;-) in dies 'Schranken' gewiesen wurde. Und das noch immer mit 'beta'-Treibern, die sicherlich noch immer Potential haben (wie man an den Tech-Werten gut erkennen kann).

Aber es geht hier doch wohl um den Murks und nicht schonwieder um einen ATI vs. nVidia-Fight, oder ?
Einige Leute schaffen es immer wieder, selbst eindeutige Themen zu 'verhunzen'...
;-)
Originally posted by Unregistered

Insofern halt ich die Bewertung für gerechtfertigt.
Ich nicht !
;-)
Originally posted by Unregistered

Hast du schonmal in Betracht gezogen, dass diese wirklich gravierende Mängel/Kompromisse in ihrer Architektur aufweisen könnte, so daß die FX den Erwartungen, die u.a. durch das aggressive Bewerben der neuen DX9+Features geweckt wurden, gar nicht gerecht werden kann.
Welches auch für andere Hersteller gelten würde...
Aber wie soll absolut schlecht und damit ineffizient programmierter Code 'Schwachstellen' in der Hardware 'aufdecken' können ?

Du gehtst ja anscheinend davon aus, das (noch nicht mal erschienene) Hardware mit Beta-Treibern absolut 'rund' zu laufen hat. Insofern können das ja nur Hardware-'Fehler' sein, die die gffx z.Bsp. dazu führt, statt dem effizenten fp16-Pfad den sehr viel komplexeren fp32-Pfad zu gehen...
:bonk:

Warten wir also auf finale Treiber und sprechen dann nochmal darüber, oder ?
;-)
Originally posted by Unregistered

Manche haben sich im neuen 3D-Mark sicherlich den letzten Notnagel für die FX(Ultra) erhofft, das hat sich nicht bestätigt und u.a. auch deswegen ist das Geschrei jetzt groß. Sich auf NV's "Einwände" beim Streit um deren Verkaufsinteressen zu berufen find ich schon naiv.
So ein quatsch !
Viele haben genau das prognostiziert: Noch mehr Realitätsferne, als beim Vorgänger !
Jetzt sind sogar unterschiedliche Renderingpfade für nahezu gleiche Hardware implementiert, was einen Vergleich eigentlich unmöglich macht. Sorry, aber der Murks ist mehr denn je ein Griff ins Klo !

Und Du scheinst 'irgendwie' übersehen zu haben, dass sich nicht nur nVidia darüber beschwert hat. Ganz im Gegenteil haben sich wohl erst alle Hardwareteseter bzw. Hardwareseiten etc.pp dazu geäussert, bis auch nVidia etwas dazu gesagt hat. Und erst dann kamen diese Statements von der "bösen Zwiebelzukunft" (tm) und eben ATI, die ganz alleine (!) auf der anderen Seite stehen...

...na ja, zumindest Dich haben sie ja auch auf ihrer Seite, oder ?
:D

Bis denne und glaub mir, niemand regt sich hier auf...

Razor

skampi
2003-02-17, 09:27:10
Originally posted by Razor

Wer regt sich hier auf ?
Ich sicher nicht !
Kann nur die Argumente 'gegen' den Murks03 sehr gut nachvollziehen...

Sorry, aber irgendwie scheinst Du nicht mitbekommen zu haben, wo diese 'Mehrperformance' herkommt, oder ? Bitte informiere Dich und sage dann nochmals dass dies der effektiven Rohleistung zu verdanken ist.

Und von einem Leistungsüberschuss bei der R300 zu reden...
... ist ebenfalls unsinn !
(aber zumindest bei älteren Engines richtig)

Schon mal versucht beim Murks so etwas wie AA/AF zu aktivieren ?
;-)

Gerne auch bei einem 'richtigen' Botmatch unter UT2003 (highest Details), unter U2 und auch mal im SplinterCell Demo. Wo ist denn da der 'Leistungsüberschuss' ?
???

Aufregen tut sich hier niemand... Du vielleicht ?
;-)

Auch hier scheinst Du nicht mitbekommen zu haben, dass eine 'einfache' Treiberoptimierung ca. 30-80% in den relevnten Benches heraus geholt hat, was sogar dazu führte, dass die R9700pro sehr wohl (und das mit den schon bekannten 10% ;-) in dies 'Schranken' gewiesen wurde. Und das noch immer mit 'beta'-Treibern, die sicherlich noch immer Potential haben (wie man an den Tech-Werten gut erkennen kann).

Aber es geht hier doch wohl um den Murks und nicht schonwieder um einen ATI vs. nVidia-Fight, oder ?
Einige Leute schaffen es immer wieder, selbst eindeutige Themen zu 'verhunzen'...
;-)

Ich nicht !
;-)

Welches auch für andere Hersteller gelten würde...
Aber wie soll absolut schlecht und damit ineffizient programmierter Code 'Schwachstellen' in der Hardware 'aufdecken' können ?

Du gehtst ja anscheinend davon aus, das (noch nicht mal erschienene) Hardware mit Beta-Treibern absolut 'rund' zu laufen hat. Insofern können das ja nur Hardware-'Fehler' sein, die die gffx z.Bsp. dazu führt, statt dem effizenten fp16-Pfad den sehr viel komplexeren fp32-Pfad zu gehen...
:bonk:

Warten wir also auf finale Treiber und sprechen dann nochmal darüber, oder ?
;-)

So ein quatsch !
Viele haben genau das prognostiziert: Noch mehr Realitätsferne, als beim Vorgänger !
Jetzt sind sogar unterschiedliche Renderingpfade für nahezu gleiche Hardware implementiert, was einen Vergleich eigentlich unmöglich macht. Sorry, aber der Murks ist mehr denn je ein Griff ins Klo !

Und Du scheinst 'irgendwie' übersehen zu haben, dass sich nicht nur nVidia darüber beschwert hat. Ganz im Gegenteil haben sich wohl erst alle Hardwareteseter bzw. Hardwareseiten etc.pp dazu geäussert, bis auch nVidia etwas dazu gesagt hat. Und erst dann kamen diese Statements von der "bösen Zwiebelzukunft" (tm) und eben ATI, die ganz alleine (!) auf der anderen Seite stehen...

...na ja, zumindest Dich haben sie ja auch auf ihrer Seite, oder ?
:D

Bis denne und glaub mir, niemand regt sich hier auf...

Razor


Was hat der 3dMark mit einem Botmatch zu tun? Er erhebt doch gar nicht den Anspruch, dort vergleichbare Werte zu liefern. Es ist ein Grafikkartenbench.

Und mal nebenbei, ein Botmatch ist auch nicht soo repräsentativ, die meisten werden's wohl im Netzwerk/Inet zocken.

Ansonsten finde ich dein obiges Posting ziemlich wirr, auf keinen Fall schlüssig.

Andre
2003-02-17, 10:28:29
Originally posted by Salvee


Skampi meinte wohl eher, dass er Games erwartet, die so aussehen wie der 3DMark, also rein auf die Grafikqualität bezogen.


W00t?
Mal ehrlich, DAS soll die Zukunft der Grafik sein?!?!?
Alles schon gesehen, da ist doch nix Neues dran, außer das die Performance unterirdisch ist.

skampi
2003-02-17, 10:38:55
So ich wer das jetzt mal auf die gleiche Art und Weise kommentieren. Ich find das zwar ziemlich bescheuert, da am Schluß nur noch zerhackte und zusammenhangslose Textfetzen dastehen, aber deinen "vielgedanklichen" Postings ist nicht anders beizukommen.

Originally posted by Razor

Wer regt sich hier auf ?
Ich sicher nicht !
Kann nur die Argumente 'gegen' den Murks03 sehr gut nachvollziehen...


Ich find schon, daß du ein wenig erregt bist.

Originally posted by Razor
Sorry, aber irgendwie scheinst Du nicht mitbekommen zu haben, wo diese 'Mehrperformance' herkommt, oder ? Bitte informiere Dich und sage dann nochmals dass dies der effektiven Rohleistung zu verdanken ist.

Und von einem Leistungsüberschuss bei der R300 zu reden...
... ist ebenfalls unsinn !
(aber zumindest bei älteren Engines richtig)

Schon mal versucht beim Murks so etwas wie AA/AF zu aktivieren ?
;-)


Äusserst zusammenhangslos, ich versuch das mal zu deuten und darauf zu antworten:

Ja, ich bin überzeugt, daß der R300 eine deutlich höhere "Rohperformance" hat als eine GF4. Auf der Haben-Seite wären da ein doppelt so breites Speicherinterface, 8 Pipelines mit effektiverer TMU, deutlich bessere HSR-Technik, Kompression.

Daß sich das auch in diesem Bench niederschlägt, war wohl zu erwarten, aufgrund dessen weitestgehender Prozessorunabhängigkeit sieht man den Unterschied sogar ziemlich deutlich.

Wenn du das nicht glaubst, geh ins Technologie-Forum und mach dich schlau.

Originally posted by Razor
Gerne auch bei einem 'richtigen' Botmatch unter UT2003 (highest Details), unter U2 und auch mal im SplinterCell Demo. Wo ist denn da der 'Leistungsüberschuss' ?
???


Sag mal, was verstehst du denn daran nicht?!

PS: Das 'richtig' steht bei dir wohl nicht umsonst im Apostroph.

Originally posted by Razor
Aufregen tut sich hier niemand... Du vielleicht ?
;-)


Ich hab schon den Eindruck, daß du ein wenig erregt bist. (;-) :-( *g*)

Originally posted by Razor

Auch hier scheinst Du nicht mitbekommen zu haben, dass eine 'einfache' Treiberoptimierung ca. 30-80% in den relevnten Benches heraus geholt hat, was sogar dazu führte, dass die R9700pro sehr wohl (und das mit den schon bekannten 10% ;-) in dies 'Schranken' gewiesen wurde. Und das noch immer mit 'beta'-Treibern, die sicherlich noch immer Potential haben (wie man an den Tech-Werten gut erkennen kann).


Das hab ich mitbekommen, auch hab ich nichts Gegenteiliges geschrieben. Indirekt bestätigst du meine Aussage, daß der 3dMurks die Ergebnisse der Reviews weitestgehend deckt. WO IST DAS ARGUMENT?

Originally posted by Razor

Aber es geht hier doch wohl um den Murks und nicht schonwieder um einen ATI vs. nVidia-Fight, oder ?
Einige Leute schaffen es immer wieder, selbst eindeutige Themen zu 'verhunzen'...
;-)


Langsam wird's lustig. Wenn es darum geht, in Thread's mit Themenbezug durch relativ sinnbefreite Postings vom Thema abzulenken, fällt mein Blick auch ganz stark auf dich.

Vielleicht machst du das ja gar nicht mit Absicht; keine Ahnung, es kommt einem aber oft so vor.

Originally posted by Razor

Du gehtst ja anscheinend davon aus, das (noch nicht mal erschienene) Hardware mit Beta-Treibern absolut 'rund' zu laufen hat. Insofern können das ja nur Hardware-'Fehler' sein, die die gffx z.Bsp. dazu führt, statt dem effizenten fp16-Pfad den sehr viel komplexeren fp32-Pfad zu gehen...
:bonk:


Ist mir das vorzuwerfen? Entschuldige, ich war in dem Irrglauben, daß die GF-FX problemlos mit der aggressiv beworbenen 128bittigen Präzision rendern kann und und es gar nicht nötig hat auf "popeliges" 64bit-Rendering runter zugehen. (Mir persönlich ist die Präzision ab solchen Größenordnungen relativ Schnuppe).
Des Weiteren kann ich mir gar nicht vorstellen, daß die Treiberprogger nur sooowenig Zeit hatten, da Nvidia sich offiziell schon im Dezember aus dem Beta-Test-Programm bei Futuremark ausgetragen hat.

Ist der Benchmark deswegen zu früh erschienen. Hat Fururemark deinen so oft propagierten Leitspruch einfach ignoriert und nicht abgewartet?


Originally posted by Razor
So ein quatsch !
Viele haben genau das prognostiziert: Noch mehr Realitätsferne, als beim Vorgänger !
Jetzt sind sogar unterschiedliche Renderingpfade für nahezu gleiche Hardware implementiert, was einen Vergleich eigentlich unmöglich macht. Sorry, aber der Murks ist mehr denn je ein Griff ins Klo !


Verschiedene Renderingpfade? Hab ich was verpasst?

Achso, du beziehst dich auf das Vorgehen, einfach die Hartwarelimitierung der GF3/GF4 bezüglich der DX8.1-Features zu ignorieren, eine DX8.1-Benchmark zu schreiben und Features zu testen, die diese gar nicht nativ unterstützen, obwohl sie sich mit der DX8.1-Kombatibilität schmücken. Frechheit! Das braucht man doch alles gar nicht! (Bei den Voodoos und Kyros war das noch ok, die wollte eh keiner haben.) Man braucht doch nur das, was von der GF3/4 direkt unterstützt wird. Das sehen die Spieleprogger auch so. Die haben gar keine Lust auf was anderes, weil Nvidia denen die Wünsche von den Augen abliest.

Und außerdem, einen Aspekt hab ich noch gar nicht angesprochen. Futuremark ignoriert einfach, daß die Optimierung auf Nvidia-HW in der Games-Branche bisher gängige Praxis war. Das schlägt sich gar nicht ordentlich in der Bewertung nieder. Völlig realitätsfremd, das.

Originally posted by Razor

Und Du scheinst 'irgendwie' übersehen zu haben, dass sich nicht nur nVidia darüber beschwert hat. Ganz im Gegenteil haben sich wohl erst alle Hardwareteseter bzw. Hardwareseiten etc.pp dazu geäussert, bis auch nVidia etwas dazu gesagt hat. Und erst dann kamen diese Statements von der "bösen Zwiebelzukunft" (tm) und eben ATI, die ganz alleine (!) auf der anderen Seite stehen...



Und du glaubst hier einen Aufstand zu sehen, wo keiner ist. Die Szene lacht genauso über Nvidia, da diese sich auf einmal gegen Futuremark stellen, seit Jahren deren liebstes Kind.

Auch wenn sich diesmal die Mehrzahl (da höhere Marktdurchdringung mit GF3/GF4) "gefoppt fühlt", so hat sich doch an der Situation (Leistungsvergleich anhand eines synt. Benchmarks, z.B. 3dMurks) wenig geändert, wie ich schon weiter oben beschrieben habe.


gruß
skampi

Crushinator
2003-02-17, 10:59:31
Originally posted by Andre Mal ehrlich, DAS soll die Zukunft der Grafik sein?!?!?
Alles schon gesehen, da ist doch nix Neues dran, außer das die Performance unterirdisch ist. Ich kann die technische Umsetzung nicht beurteilen, aber die "Demos" sind wirklich schön anzusehen. Was ist so schlimm daran, sich Spiele zu wünschen, die zumindest genau so schön aussehen und meinetwegen besser programmiert sind.? ???

Andre
2003-02-17, 11:01:06
Originally posted by crushinator
Ich kann die technische Umsetzung nicht beurteilen, aber die "Demos" sind wirklich schön anzusehen. Was ist so schlimm daran, sich Spiele zu wünschen, die zumindest genau so schön aussehen und meinetwegen besser programmiert sind.? ???

Weil ich persönlich einfach net schön finde - zumindest die Game-Tests. Wirklich, ich seh da nichts Besonderes.

aths
2003-02-17, 11:27:31
Originally posted by Andre
Weil ich persönlich einfach net schön finde - zumindest die Game-Tests. Wirklich, ich seh da nichts Besonderes. Einzelne Haare mit Anisotropic Lighting hast du ganz sicher in noch keinem Spiel gesehen :) Die Tiefenunschärfe war mir ebenfalls neu.

ow
2003-02-17, 11:27:59
Originally posted by crushinator
Ich kann die technische Umsetzung nicht beurteilen, aber die "Demos" sind wirklich schön anzusehen. Was ist so schlimm daran, sich Spiele zu wünschen, die zumindest genau so schön aussehen und meinetwegen besser programmiert sind.? ???


Gar nichts ist da schlimm dran.
Der 3DM03 ist aber völlig praxisfremd weil keine Spiele derart beschi..en programmiert werden, wie es bei den 3DM03-Szenen der Fall ist. Und genau jene Praxisuntauglichkeit wird dem 3DM03 zurecht angelastet.

Andre
2003-02-17, 11:35:16
Originally posted by aths
Einzelne Haare mit Anisotropic Lighting hast du ganz sicher in noch keinem Spiel gesehen :) Die Tiefenunschärfe war mir ebenfalls neu.

Mag sein.
Aber ich bin Gamer, kein Techniker.
Für mich zählt, was ich aufm Bildschitm sehe und da beeindruckt mich z.B. Alice, Q3, UT2003 mit 2xFSAA und 4xAniso mehr, als diese 800x600 Demos bzw. die Game-Tests.
Mag sein, dass da tolle technische Errungenschaften werkeln - richtig sehen tu ich aber nix davon.

skampi
2003-02-17, 11:35:21
Originally posted by ow



Gar nichts ist da schlimm dran.
Der 3DM03 ist aber völlig praxisfremd weil keine Spiele derart beschi..en programmiert werden, wie es bei den 3DM03-Szenen der Fall ist. Und genau jene Praxisuntauglichkeit wird dem 3DM03 zurecht angelastet.

Ja, das ist richtig. War aber bisher auch nicht wirklich anders.

Originally posted by skampi
......Daß der alte 3d-Mark sich in Teilen auf die Verwandschaft zu einer "richtigen" Game-Engine berufen kann, war für die Ergebnisse (3DMark - MaxPayne) relativ nebensächlich. ...

Crushinator
2003-02-17, 11:46:09
Originally posted by Andre Für mich zählt, was ich aufm Bildschitm sehe und da beeindruckt mich z.B. Alice, Q3, UT2003 mit 2xFSAA und 4xAniso mehr, als diese 800x600 Demos bzw. die Game-Tests. Also, mir persönlich gehen diese Games inzwischen heftig auf den Sack, weil nichts graviernd Neues dabei ist oder zumindest mein Auge das nicht so toll findet. Ich würde mir z.B. das Wasser (Mother nature) in Spielen wünschen und einiges mehr. Mag sein, dass da tolle technische Errungenschaften werkeln - richtig sehen tu ich aber nix davon. Hast Du eigentlich eine DX9-Karte?

Razor
2003-02-18, 04:27:34
Originally posted by skampi

Was hat der 3dMark mit einem Botmatch zu tun? Er erhebt doch gar nicht den Anspruch, dort vergleichbare Werte zu liefern. Es ist ein Grafikkartenbench.

Und mal nebenbei, ein Botmatch ist auch nicht soo repräsentativ, die meisten werden's wohl im Netzwerk/Inet zocken.

Ansonsten finde ich dein obiges Posting ziemlich wirr, auf keinen Fall schlüssig.
Der Murks soll die 'zukünftige' Performance bei Spielen (!) 'simulieren' und Aussage darüber treffen, ob jetzige oder bald erscheinende GarKa's dafür tauglich sind. Ich habe Dir Beispiele ausgezeigt, wo die 'Überlegenheit' einer DX9-Karte gar nicht mehr so 'überlegen' ist. Insofern spreche ich dem Murks JEDEN Praxisbezug ab !

Und wenn Du mein Posting 'wirr' findest, bitte ich Dich einfach mal, es vernünftig zu lesen.
Jedenfalls war Dein Posting nicht sonderlich hilfreich...
Hast Du überhaupt 'irgendetwas' gesagt ?
???

Razor

Razor
2003-02-18, 05:06:12
Oh, es hat doch noch 'etwas' ausführlicher geantwortet...
:D
Originally posted by skampi

Ich find schon, daß du ein wenig erregt bist.
Ich kann Dir versichern, dass dem nicht so ist...
...woran auch immer Du das erkannt haben willst...
Äusserst zusammenhangslos, ich versuch das mal zu deuten und darauf zu antworten:

Ja, ich bin überzeugt, daß der R300 eine deutlich höhere "Rohperformance" hat als eine GF4. Auf der Haben-Seite wären da ein doppelt so breites Speicherinterface, 8 Pipelines mit effektiverer TMU, deutlich bessere HSR-Technik, Kompression.

Daß sich das auch in diesem Bench niederschlägt, war wohl zu erwarten, aufgrund dessen weitestgehender Prozessorunabhängigkeit sieht man den Unterschied sogar ziemlich deutlich.

Wenn du das nicht glaubst, geh ins Technologie-Forum und mach dich schlau.
Du weisst doch wohl aber, wie die "3DMarks" zustande kommen, oder ?
Und Du weisst doch wohl hoffentlich auch, wie hier StencilOps genutzt werden ?

Nur zur Erinnerung:
3DMark score = (GT1fps * 7.3) + (GT2fps * 37) + (GT3fps * 47.1) + (GT4fps * 38.7)

Der Anteil des Game4-Tests liegt also bei 30% und diese absolut 'daneben' geproggte Engine für Game 2&3 dann sogar bei satten 65%. Und wieso werden Game 2 und 3 unterschiedlich bewertet, obwohl hier die gleiche Engine benutzt wird ?

Das einzige, wo ich Dir hier recht geben kann, ist die Prozessorunabhängigkeit (zumindest bei den Tech-Werten und Game 2&3), aber ansonsten kann ich Deinem Kommentar keine verwertbaren Fakten entnehmen (ausser den von Dir rezitierten Hardware-Specs, die Du aber IMHO überbewertest).

OK, die Rohperformance einer R300 ist 'deutlich' höher... aber wo ist sie bitte 3x so hoch ?
(3DMarks, wenn Du wieder nicht wissen willst, worauf ich hinaus will ;-)
Sag mal, was verstehst du denn daran nicht?!

PS: Das 'richtig' steht bei dir wohl nicht umsonst im Apostroph.
Völlig korrekt, skampilein, das 'richtig' ist schon völlig richtig...
;-)

Sollte es doch den Unterschied zwischen einem RealWorld-Bench und einem Phantasie-Bench verdeutlichen...
Ich hab schon den Eindruck, daß du ein wenig erregt bist. (;-):-(*g*)
Scheint ja wohl eher auf Dich zu zutreffen, oder ?
;-)
Das hab ich mitbekommen, auch hab ich nichts Gegenteiliges geschrieben. Indirekt bestätigst du meine Aussage, daß der 3dMurks die Ergebnisse der Reviews weitestgehend deckt. WO IST DAS ARGUMENT?
Ich frage micht ernsthaft wo Deine Argumente sind...
Aber offensichtlich hast Du keine !
Langsam wird's lustig. Wenn es darum geht, in Thread's mit Themenbezug durch relativ sinnbefreite Postings vom Thema abzulenken, fällt mein Blick auch ganz stark auf dich.

Vielleicht machst du das ja gar nicht mit Absicht; keine Ahnung, es kommt einem aber oft so vor.
Und schon wieder ein völlig sinnfreies Kommentar von Dir !
Bravo, skampi, schon wieder nix gesagt, gell ?
;-)
Ist mir das vorzuwerfen? Entschuldige, ich war in dem Irrglauben, daß die GF-FX problemlos mit der aggressiv beworbenen 128bittigen Präzision rendern kann und und es gar nicht nötig hat auf "popeliges" 64bit-Rendering runter zugehen. (Mir persönlich ist die Präzision ab solchen Größenordnungen relativ Schnuppe).
Des Weiteren kann ich mir gar nicht vorstellen, daß die Treiberprogger nur sooowenig Zeit hatten, da Nvidia sich offiziell schon im Dezember aus dem Beta-Test-Programm bei Futuremark ausgetragen hat.

Ist der Benchmark deswegen zu früh erschienen. Hat Fururemark deinen so oft propagierten Leitspruch einfach ignoriert und nicht abgewartet?
Endlich mal ein themenbzogenes Kommentar...

Ja, das ist Dir vorzuwerfen !

Wo steht denn bitte geschrieben, dass 128Bit-Rendering 'problemlos' möglich sei ?
Und was bitte ist an 64Bit 'popelig' ?
(gut, dass Du das selbst relativiertest ;-)

An der jüngsten Performance-Steigerung (Deto 42.62 zu Deto42.67), bei wechem ein 'looser' zum 'winner' wurde, dürfte dies selbst für Dich erkennbar gewesen sein... oder was genau hast Du davon nicht mitbekommen ?
???

Und Deine letzten Fragen könntest Du ruhig mit etwas Leben füllen, denn diese klingen in diesem Zusammenhang wirklich 'etwas' wirr...
Verschiedene Renderingpfade? Hab ich was verpasst?

Jain...
Ich habe mich da etwas unglücklich ausgedrücht...
Sagen wir einfach, dass bestimmte Hardware durch die Wahl der Features bevorteiligt wird, obwohl es in RealWorld-Anwendungen keine Relevanz hat (und stell dich hier nicht doof, ich denke Du weisst, was ich meine und um es deutlich zu machen, falls nicht: PS1.4 und noch so einiges andere ;-).
Achso, du beziehst dich auf das Vorgehen, einfach die Hartwarelimitierung der GF3/GF4 bezüglich der DX8.1-Features zu ignorieren, eine DX8.1-Benchmark zu schreiben und Features zu testen, die diese gar nicht nativ unterstützen, obwohl sie sich mit der DX8.1-Kombatibilität schmücken. Frechheit! Das braucht man doch alles gar nicht! (Bei den Voodoos und Kyros war das noch ok, die wollte eh keiner haben.) Man braucht doch nur das, was von der GF3/4 direkt unterstützt wird. Das sehen die Spieleprogger auch so. Die haben gar keine Lust auf was anderes, weil Nvidia denen die Wünsche von den Augen abliest.
Rede nicht so ein Unsinn, Skampi...
PS 1.4 sind optionale Komponenten für DX8.1 !
Und das waren sie auch schon immer, oder willst Du hier was anderes behaupten ?

Genauso wie PS 3.0 für DX9...
Schmückt sich eine R9700pro nun zu unrecht mit dem DX9-Prädikat ?

Zusätzlich kommt noch hinzu, dass diese KEINE Anwendung in Game-Engines gefunden haben.
Wieso sollten diese dann bitte an einem Anteil von 65% (!) der 'Marks' teil haben ?
(sicher nicht zu 100% ;-)
Aber DAS erkläre mir bitte mal...

Ansonsten kann ich Deinem Kommentar wieder nur wildes Gequatsche, aber keinerlei ernst zu nehmenden Inhalt entnehmen. Wäre schon sehr hilfreich, skampi, wenn Du Dich selber an die von Dir aufgestellten Qualitätsmerkmale eine Postings halten würdest...
(muss aber nicht sein, denn ich habe diesen Anspruch nicht ;-)
Und außerdem, einen Aspekt hab ich noch gar nicht angesprochen. Futuremark ignoriert einfach, daß die Optimierung auf Nvidia-HW in der Games-Branche bisher gängige Praxis war. Das schlägt sich gar nicht ordentlich in der Bewertung nieder. Völlig realitätsfremd, das.
Nö, vielleicht eher die 'Rache', dass nVidia sie ignorierte ?
('wilde' Spekulation ! ;))
Und du glaubst hier einen Aufstand zu sehen, wo keiner ist. Die Szene lacht genauso über Nvidia, da diese sich auf einmal gegen Futuremark stellen, seit Jahren deren liebstes Kind.
Die 'Scene' ?
Na, dann sag mir mal wo ?
Auch wenn sich diesmal die Mehrzahl (da höhere Marktdurchdringung mit GF3/GF4) "gefoppt fühlt", so hat sich doch an der Situation (Leistungsvergleich anhand eines synt. Benchmarks, z.B. 3dMurks) wenig geändert, wie ich schon weiter oben beschrieben habe.
Das ist doch wohl schon wieder eine reine Vermutung von Dir, oder ?
Du willst also [H]ardOCP und B3D (um nur einige zu nennen) als nVidia-lastig ansehen ?
Und das nur, weil sie gegen Futuremark und damit wohl auch gegen ATI (die sich ja selbst plazierten) ausgesprochen haben ?

Und noch etwas:

Die Situation ist schon etwas anders. Früher konnte man über die Sinnfreiheit der Game-Tests (welches ich übrigens auch immer so vertrat) diskutieren, weil die benutzten Engines zwar an real existierende angelehnt waren, aber wohl nie zum Einsatz kommen werden. Heute ist es 'etwas' anders, da die Engines so dermaßen ineffizient geproggt sind (siehe dazu auch die Kommentare von zeckensack und Demirug aus unserem Forum, auf welches Du vorhin verwiesen hast), dass ihnen jeglicher Realitätsbezug abgesprochen werden kann. So wäre also zu sagen, dass diese Engines a) niemlas in realen Games benutzt werden und b) auch kein Entwickler so dämlich sein würde, eine Engine so zu programmieren.

Ein kleiner, aber sehr gewichtiger Unterscheid.

-

So, ich hoffe, dass Du aus meinem 'wirren' Geschreibsel doch noch was heraus lesen kannst und zudem, dass von Dir auch mal vernünftige Argumente kommen, als immer nur dieses leere, anklagende Gewäsch.

Thx

Razor

P.S.: Nein, ich bin nicht sauer...
:D ( <- dies ist ein Smilie und Smilies find' ich gut ! ;-)

Razor
2003-02-18, 05:22:43
Originally posted by aths
Einzelne Haare mit Anisotropic Lighting hast du ganz sicher in noch keinem Spiel gesehen :) Die Tiefenunschärfe war mir ebenfalls neu.
Die Haare des Mädels fand ich klasse !

Was aber an den Schatten so besonderes sein soll, da diese ja so dermaßen Leistung schlucken, weiß ich allerdings nicht. Gibt es da an den Schatten etwas 'Besonderes', was ich übersehen habe ?
:D

Razor

Razor
2003-02-18, 05:26:43
Originally posted by crushinator
Also, mir persönlich gehen diese Games inzwischen heftig auf den Sack, weil nichts graviernd Neues dabei ist oder zumindest mein Auge das nicht so toll findet. Ich würde mir z.B. das Wasser (Mother nature) in Spielen wünschen und einiges mehr. Hast Du eigentlich eine DX9-Karte?
Na, da würde Dir Deine DX9-Karte aber nicht viel nutzen...
Klar, ansehen kannst Du so etwas schon, aber spielen ?
:D

Na ja, aber jedem das seine.
Für solche Games brauchts sicherlich mehr, als heutige GraKa's (ja uach gffx ;-) und heutige Systeme...

Bis denne

Razor

P.S.: Hier nochmal ein Performance-Vergleich auf High-End-Maschinchen:

Unregistered
2003-02-18, 09:38:22
Originally posted by nggalai
Für mich ist der 3DMark03 hauptsächlich ein DX8.1-Benchmark. Bis auf den letzten Gametest (und den Feature-Test) werden keine DX9-Features eingesetzt, alles maximal DX8.1.

ta,
-Sascha.rb

Und warum ist dann die R9500nonPro um so vieles schneller wie eine R9000Pro obwohl beide DX 8.1 bzw. PS 1.4 unterstützen und die gleiche Füllrate (1100MPixel) haben? Die Unterschiede beim HyperZ können imho jedenfalls die großen Unterschiede bei allen 3DMark03 Tests nicht erklären.

Link : http://www.beyond3d.com/articles/3dmark03/tests/index.php


Da muss also noch was anderes wichtiges passieren, damit die beiden Karten diese großen Unterschiede zeigen können. IMHO bleiben da nur die zusätzlichen DX 9.0 Features der R9500 übrig, um den Unterschied zu erklären. So wie es aussieht ist der 3DMark03 also tatsächlich (auch und vor allem) ein DX9.0 Test.

skampi
2003-02-18, 09:40:40
Du scheinst nicht wirklich gelesen zu haben, was ich schrieb:

Der 3DMark nimmt gar nicht für sich in Anspruch, ein Realworld-Benchmark zu sein.

Ansonsten sehe ich zwischen deinem und meinem letzten Post keine wirklichen Meinungsverschiedenheiten.

Ja, das Ding ist absolut ineffizient geproggt.
Ja, die Gewichtung der Tests ist Scheisse und nur in der Auslegung als DX9-Benchmark nachzuvollziehen.
Ja, prozessorunabhängig - Grafikkarten-Benchmark.

Ich hab nichts Gegenteiliges geschrieben, auch wenn du mir (und jedem anderen auch) das 5x vorbetest.

Schonmal gesehen, daß der Villagemark in einem Review gebencht wurde? Realworld-Bezug? Wir wissen doch, daß dem nicht so ist (und auch noch nie so war). Mir scheint, eher hast du Bedenken, daß das die ganzen "Stöpsel" nicht wissen, wenn sie mit Papas Kohle einkaufen gehen. Wann hast du dich eigentlich das letze Mal über irreführendes Marketing aufgeregt?

Ausserdem, dein jetziger Ärger über diese "Schwächen" impliziert doch, daß für dich diese Mängel vorher so nicht bestanden oder nicht störend waren. Zumindest war es dir nicht wert, sich darüber aufzuregen oder dagegen stark zu machen. Diese Doppelmoral kotzt mich mehr an.


Das einzige, wo ich Dir hier recht geben kann, ist die Prozessorunabhängigkeit (zumindest bei den Tech-Werten und Game 2&3), aber ansonsten kann ich Deinem Kommentar keine verwertbaren Fakten entnehmen (ausser den von Dir rezitierten Hardware-Specs, die Du aber IMHO überbewertest).

Hey, ich glaube jetzt kommst du auf die völlig falsche Schiene. Ich will hier nicht mit den Whitepaper-Daten fetzen;) sondern darlegen, daß es sich mit dem neuen 3DMark genau so verhält wie mit den meisten synt. Benchmarks.

Daß du plötzlich abgehst wie eine Rakete wegen dieses Benchmarks ist für mich einfach nicht verständlich.


Und schon wieder ein völlig sinnfreies Kommentar von Dir !
Bravo, skampi, schon wieder nix gesagt, gell ?

Diesen, deiner obigen Antwort vorausgehenden Kommentar hielt ich eigentlich für sehr wichtig. Schade, daß du in trotzdem nicht verstanden hast.

Gruß, mit 3 x gelle und ohne Grinsesmilie,

skampi

ow
2003-02-18, 10:11:56
Originally posted by skampi
Du scheinst nicht wirklich gelesen zu haben, was ich schrieb:

Der 3DMark nimmt gar nicht für sich in Anspruch, ein Realworld-Benchmark zu sein.


skampi

Doch, afaik tut er das. Heisst ja nicht umsonst 'the Gamers´ Benchmark'.
MO scheint wirklich anzunehmen, dass der 3DM03 representativ für zukünftige Games ist.

Unregistered
2003-02-18, 10:56:22
Originally posted by ow


Doch, afaik tut er das. Heisst ja nicht umsonst 'the Gamers´ Benchmark'.
MO scheint wirklich anzunehmen, dass der 3DM03 representativ für zukünftige Games ist.

najo ich denke gamers benchmark kann man ganz schön dehnen :) in jeweils die gewünschte richtung.


also an sich war ich beim erstenmal anschauen auch enttäsucht von dem teil, glücklicherweise war das schon am montag abend :) Und irgendwie dachte ich mein pc ist zu langsam oder irgendwas an dem teil ist komplett falsch :) Denn mit so einer ruckelorgie hab ich nicht gerechnet. Allerdings nach mehrmaligem ansehen und dann acuh nach dem Ansehen mit Frames (es wird jedes frame gerendert) fand ich den Mark vor allem grafisch ziemlich geil. Vor allem die Tiefenunschärfe ist super gemacht.

Alleine aus der Gewichtung der einzelnen Benchmarks kann man imho erkennen dass es ein Directx8/9 Benchmark werden soll. Und ich denke auch dass es trifftige Gründe dafür gibt warum auch der Directx 9 benchmark stark in die Berechnung einfliesst. Diese sind für mich dass es die nächsten 2 Jahre keinen neuen 3dmark mehr geben wird. Und deshalb brauchen sie einen directx9 test der auch mit in die PUnktzahl zählt. Denn in nächster Zeit kommt wohl so gut wie keine directx 8 hardware mehr raus.

Dass es somit natürlich gewissen missstände gibt was die bewertung angeht ist ja klar und ich denke man ist dies bewusst eingegangen.

Crushinator
2003-02-18, 12:30:37
Originally posted by ow Doch, afaik tut er das. Heisst ja nicht umsonst 'the Gamers´ Benchmark'.
MO scheint wirklich anzunehmen, dass der 3DM03 representativ für zukünftige Games ist. AFAIR irrst Du Dich, bzw. Du hast bedingungslos die NV-Brille aufgesetzt. ;)

http://www.futuremark.com/companyinfo/Response_to_3DMark03_discussion.pdf

"Synthetic Benchmark Versus Games as Benchmarks

3DMark03 is a synthetic benchmark that is designed for the sole purpose of enabling objective
performance measurement of DirectX® 9 compatible hardware today. There are no other significant
DirectX 9 applications published yet, and the most awaited DirectX 9 game is most likely at least six
months away. 3DMark03 is a forward-looking tool that provides unique value to consumers in the form of
impartial information to support their purchasing decisions today.

We continue to recommend to independent testers to complement their analysis by using published
games in measuring performance. However, it has to be noted that those results are valid only for that
game, whereas 3DMark03 can provide a forward-looking overall view of the performance and features of
the hardware. "

ow
2003-02-18, 13:01:42
Originally posted by crushinator
AFAIR irrst Du Dich, bzw. Du hast bedingungslos die NV-Brille aufgesetzt. ;)



:lol::lol:

Ich bin sicher, dass kein zukünftiges Game mehr als 6-8fps auf meiner GF4 liefert (Game 2/3 im 3DM03)....

:lol::lol:

Mehrpack
2003-02-18, 14:28:57
.

Demirug
2003-02-18, 14:36:43
Originally posted by Mehrpack


hi,
aehm räusper.
ich denke du solltest das zukünfigt etwas präzisieren, ansonsten treffen wir uns nochmal 2010 und schaun mal wieviel SPF gebraucht werden bis da die GF4 fertig ist :D;).

Mehrpack

Wieso? ow schreibt doch das in Zukunft kein Spiel mit mehr als 6-8 fps laufen wird. SPF < 6-8 FPS. Passt also.

Ich wollte ja eigentlich nichts mehr zu dem Thema 3dmark sagen, aber wenn ich schon mal dabei bin.

Der 3dmark ist wie ein 10 Kampf bei dem man einigen Sportlern verbietet an allen Diziplinen teilzunehmen. Aleine das zeigt IMHO schon das es nicht wirklich fair ist was da gemessen wird. Bei einem guten Game-Benchmark müssen entweder alle Karten alle Tests durchlaufen können und wenn eine Karte einen Effekt absolute nicht erreichen kann muss es eben dafür eine Abwertung wegen geringerer IQ geben. Der zweite Weg ist am Ende nicht 1 Zahl rauszuwerfen sondern 3 (eine für DX7, DX8 und DX9 Karten).

zeckensack
2003-02-18, 15:19:32
Originally posted by Razor
Du weisst doch wohl aber, wie die "3DMarks" zustande kommen, oder ?
Und Du weisst doch wohl hoffentlich auch, wie hier StencilOps genutzt werden ?

Nur zur Erinnerung:
3DMark score = (GT1fps * 7.3) + (GT2fps * 37) + (GT3fps * 47.1) + (GT4fps * 38.7)

Der Anteil des Game4-Tests liegt also bei 30% und diese absolut 'daneben' geproggte Engine für Game 2&3 dann sogar bei satten 65%. Und wieso werden Game 2 und 3 unterschiedlich bewertet, obwohl hier die gleiche Engine benutzt wird ?Lies bitte das Tech-Whitepaper :)
Die Framraten in Game 1 sind sehr hoch, die anderen eher nicht. Die Gewichtung ist so gewählt, daß auf heute kaufbaren Systemen die Punkte relativ gleichmäßig aus allen Game-Tests kommen. GT4 ist mit 'nur' 20% der Punkte sogar leicht unterbewertet.
Jain...
Ich habe mich da etwas unglücklich ausgedrücht...
Sagen wir einfach, dass bestimmte Hardware durch die Wahl der Features bevorteiligt wird, obwohl es in RealWorld-Anwendungen keine Relevanz hat (und stell dich hier nicht doof, ich denke Du weisst, was ich meine und um es deutlich zu machen, falls nicht: PS1.4 und noch so einiges andere ;-).


Rede nicht so ein Unsinn, Skampi...
PS 1.4 sind optionale Komponenten für DX8.1 !
Und das waren sie auch schon immer, oder willst Du hier was anderes behaupten ?
Und PS1.0 ist eine optionale Komponente von DX8. Das bringt uns nicht weiter.
Wenn eine HW PS2.0 beherrscht, dann gibt es keine Entschuldigung dafür, PS1.4 nicht ordentlich zu unterstützen. Die Lauffähigkeit von 1.4er-PS ist dann sogar Pflicht.
Außerdem ist die Anwendung von PS1.4 in einem solchen Test sehr wohl sinnvoll. PS2.0 ist (abgesehen natürlich von der höheren Instruktionszahl und der FP-Präzision) sehr eng mit 1.4 verwandt. Da 1.4er Shader auf mehr Hardware laufen, ist es logisch, einen Pixel Shader der die Vorteile von PS2.0 nicht braucht als 1.4er zu implementieren. Wie gesagt, laufen muss er auf PS2.0-Hardware sowieso.

Die Situation ist schon etwas anders. Früher konnte man über die Sinnfreiheit der Game-Tests (welches ich übrigens auch immer so vertrat) diskutieren, weil die benutzten Engines zwar an real existierende angelehnt waren, aber wohl nie zum Einsatz kommen werden. Heute ist es 'etwas' anders, da die Engines so dermaßen ineffizient geproggt sind (siehe dazu auch die Kommentare von zeckensack und Demirug aus unserem Forum, auf welches Du vorhin verwiesen hast), dass ihnen jeglicher Realitätsbezug abgesprochen werden kann. So wäre also zu sagen, dass diese Engines a) niemlas in realen Games benutzt werden und b) auch kein Entwickler so dämlich sein würde, eine Engine so zu programmieren.

Ein kleiner, aber sehr gewichtiger Unterscheid.So weit ack, und da mein Name gefallen ist: ich halte 3DMark03 nicht nur ausdrücklich für völlig praxisfremd, sondern sogar irreführend. Völlig unbalancierte Grafikchips werden von diesem Benchmark mit voraussichtlich riesigen Punktzahlen belohnt werden. Es würde mich nicht wundern, wenn ein auf eine einzige Pixelpipeline reduziertes R300-/NV30-Derivat jede wirklich sinnvolle Grafikkarte der Vorgängergenerationen laut 3DM03 in den Boden rammt. GT2/3 erzeugen eine solche Überlast im Vertex Shader und im Triangle Setup, daß die Praxisuntauglichkeit solch dämlicher Architekturen überhaupt nicht mehr meßbar ist.

edit:
Alle schmutzigen Details gibt's hier (http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/008757.html). Vor allem die Ex-Beta-Tester Matt und Cass wissen recht genau, wie diese 'Engine' aufgebaut ist.

Crushinator
2003-02-18, 15:27:48
Originally posted by ow Ich bin sicher, dass kein zukünftiges Game mehr als 6-8fps auf meiner GF4 liefert (Game 2/3 im 3DM03).... :lol::lol: NV-Brille war im Sinne von NV's Kritik zu 3DMark 2003 gemeint, weil NV dies auch als "aussagekräftigen Benchmark" in Frage stellt. Nun krieg' Dich wieder ein. ;)

Mehrpack
2003-02-18, 16:06:20
Originally posted by Demirug


Wieso? ow schreibt doch das in Zukunft kein Spiel mit mehr als 6-8 fps laufen wird. SPF < 6-8 FPS. Passt also.

[...]


hi,
hatte auch schon gesehn das ich da was falsch verstanden hatte.

Mehrpack

Crushinator
2003-02-18, 16:45:11
Originally posted by Demirug ...Bei einem guten Game-Benchmark müssen entweder alle Karten alle Tests durchlaufen können und wenn eine Karte einen Effekt absolute nicht erreichen kann muss es eben dafür eine Abwertung wegen geringerer IQ geben. Der zweite Weg ist am Ende nicht 1 Zahl rauszuwerfen sondern 3 (eine für DX7, DX8 und DX9 Karten). Leute, ich weiß daß Euch meine Meinung sowieso nicht interessiert :) aber dennoch muß ich in den Raum stellen, daß selbst ich als Leie/Gamer mitbekommen habe, daß 3DM2K3 hauptsächlich für DX9-Karten gedacht ist und daß Eure Kritikpunkte hätten zu dem damaligen Zeitpunkt genau so zu der 2001er Version gepasst.

Und zu Zeckensack: Wie Du schon schreibst, sind die Vertex-Shader bzw. Triangle-Setup Tests von den Punkten so verteilt, daß die Theorie mit Bevorzugung solch unausbalancierten Schrotts nicht richtig hinkäme, weil sie in GT1/2 dann um so schlechter abschneiden würden. Oder hab' ich da was falsch verstanden? ???

Nichts desto trotz bin ich damit einverstanden, daß 3DM2K3 zumind. heute sehr praxisfemd zu sein scheint -> eben sehr syntetisch.

ow
2003-02-18, 16:53:50
Originally posted by Demirug


Wieso? ow schreibt doch das in Zukunft kein Spiel mit mehr als 6-8 fps laufen wird. SPF < 6-8 FPS. Passt also.



hehe, war ein falscher Fehler von mir, es war natürlich anders gemeint.:D

ow
2003-02-18, 16:59:43
Originally posted by crushinator
NV-Brille war im Sinne von NV's Kritik zu 3DMark 2003 gemeint, weil NV dies auch als "aussagekräftigen Benchmark" in Frage stellt. Nun krieg' Dich wieder ein. ;)


Ja, und ich stelle mich voll hinter NVs Kritik (ohne Brille;)) und die Kritik unserer Programmierer im Forum hier: der 3DM03 ist Müll und sowas schlecht zusammengeproggtes wird NIE in irgendeiner Game-Engine auftauchen.

Das sollte auch den R300 Usern nur recht sein, ich glaube nicht, dass da irgendjemand orgasm...., wo er selbst noch keine 30fps in den Tests 2-4 erreicht.

Extrem gute Leistung von MadO, selbst den R300 so abkacken zu lassen.:D

ow
2003-02-18, 17:02:52
Originally posted by crushinator
Leute, ich weiß daß Euch meine Meinung sowieso nicht interessiert :) aber dennoch muß ich in den Raum stellen, daß selbst ich als Leie/Gamer mitbekommen habe, daß 3DM2K3 hauptsächlich für DX9-Karten gedacht ist und daß Eure Kritikpunkte hätten zu dem damaligen Zeitpunkt genau so zu der 2001er Version gepasst.



???

Das ist überhaupt kein Vergleich zum 2001er. Da krieg ich über 2500 Punkte mit einer GF2MX, und jetzt nur 1230 mit ner GF4 im 3DM03?

Die GF2MX erreicht über 40fps in den low-detail und etwa 20 fps in den high-detail Szenen des 2001.
Die GF4 erreicht kaum 10 fps in den Test 2/3 des 3DM03. Wo ist denn da der Vergleich??

Eine TNT2 hat im 2001er mehr Punkte als ne GF4 im 2003er!!

Andre
2003-02-18, 17:13:45
Originally posted by ow



Ja, und ich stelle mich voll hinter NVs Kritik (ohne Brille;)) und die Kritik unserer Programmierer im Forum hier: der 3DM03 ist Müll und sowas schlecht zusammengeproggtes wird NIE in irgendeiner Game-Engine auftauchen.


U2 ist schon nah dran ;)

ow
2003-02-18, 17:53:02
Originally posted by Andre


U2 ist schon nah dran ;)

:D

Ich denke, da ist der Fall etwas anders.
U2 braucht wohl massivst CPU-Power, der 3DMark scheinbar nicht.

Crushinator
2003-02-18, 17:56:05
Originally posted by ow Ja, und ich stelle mich voll hinter NVs Kritik (ohne Brille;)) und die Kritik unserer Programmierer im Forum hier: der 3DM03 ist Müll und sowas schlecht zusammengeproggtes wird NIE in irgendeiner Game-Engine auftauchen. Lauf' doch wem auch immer hinterher, das sei Dir freigestellt. ;) Jetzt im ernst: Ihr stellt Ansprüche an 3DM2K3, für die es selbst laut Hersteller nicht geschaffen wurde. Ganz objektiv gesehen ist dieses Programm (für mich) nichts weiteres als eine Vorführung, was mit DX9 möglich wäre und wie es schlechten Falls mit der Performance meiner Hardware ausehen könnte, nicht mehr und nicht weniger.
Das sollte auch den R300 Usern nur recht sein, ich glaube nicht, dass da irgendjemand orgasm...., wo er selbst noch keine 30fps in den Tests 2-4 erreicht. Siehst Du, für mich der Beweis, daß auch Du das Ding u.A. deshalb ätzend findest, weil Deine Hardware da nicht besonders abschneidet.
Extrem gute Leistung von MadO, selbst den R300 so abkacken zu lassen.:D Naja, ich habe mit der R300 auf meinem bescheidenen System (XP2000+, KT333A, PC2100) ~4370 Punkte, ich weiß nicht was da schlimmes daran sei, zumal sich anscheinend kein Mensch mehr an die ersten Werte bei 3DM2001 erinnern möchte. :bonk:

ow
2003-02-18, 18:09:01
Originally posted by crushinator
Lauf' doch wem auch immer hinterher, das sei Dir freigestellt. ;) Jetzt im ernst: Ihr stellt Ansprüch an 3DM2K3, für die es selbst laut Hersteller nicht geschaffen wurde. Ganz objektiv gesehen ist dieses Programm (für mich) nichts weiteres als eine Vorführung, was mit DX9 möglich wäre und wie es schlechten Falls mit der Performance meiner Hardware ausehen könnte, nicht mehr und nicht weniger.


Klar, der 3DM03 ist ein erstklassigens Beispiel, wie man mit DX8(Tests 2/3) und DX9 (Test4) absolut beschissene Performance hinkriegt. Respekt@MadOnion:O.

Da läuft selbst die D3 alpha auf meiner GF2MX doppelt so schnell, wie die Tests 2/3 des Murks auf einer GF4ti4200.


Siehst Du, für mich der Beweis, daß auch Du das Ding u.A. deshalb ätzend findest, weil Deine Hardware da nicht besonders abschneidet.


Nö, was interessiert mich so ein blöder Bench? Der ist doch heute wie in Zukunft völlig realitätsfern. Ich denke schon, dass meine GF4 in zukünftigen Games mit DX8-Shadern noch zweistellige fps erreichen wird. (btw. meine Radeon8500 sieht übrigens trotz PS1.4 noch etwas schlechter aus als die GF4 im 3DM03.)


Naja, ich habe mit der R300 auf meinem bescheidenen System (XP2000+, KT333A, PC2100) ~4370 Punkte, ich weiß nicht was da schlimmes daran sei, zumal sich anscheinend kein Mensch mehr an die ersten Werte bei 3DM2001 erinnern möchte. :bonk:


Dass es zwischen dem 2001 und 2003 Murks nichts zu vergleichen gibt, habe ich oben schon geschrieben. Kannst es dir ja nochmal durchlesen. Insbesondere die verwendeten Karten und erreichten Punktzahlen.

Und um es mal mit deinen Worten zu formulieren:
Was wäre denn so schlimm daran gewesen, wenn eine GF4 3000 Punkte oder sagen wir 15-20 fps in den Tests 2/3 erreicht hätte?
Wäre IMO bei guter Programmierung in gleicher grafischer Qualität möglich gewesen, unsere 3D-Progger hier werden mir da doch zustimmen, oder???

Crushinator
2003-02-18, 18:15:49
Originally posted by ow Das ist überhaupt kein Vergleich zum 2001er. Da krieg ich über 2500 Punkte mit einer GF2MX, und jetzt nur 1230 mit ner GF4 im 3DM03? Was hattest Du mit der GF2MX in 3DM2000? :naughty: Und dann in 2001?
Die GF2MX erreicht über 40fps in den low-detail und etwa 20 fps in den high-detail Szenen des 2001.
Die GF4 erreicht kaum 10 fps in den Test 2/3 des 3DM03. Wo ist denn da der Vergleich?? siehe oben.
Eine TNT2 hat im 2001er mehr Punkte als ne GF4 im 2003er!! Willst Du jetzt wirklich behaupten, daß die TNT2 für DX8-Spiele brauchbar ist oder nur anmerken, daß Die die neue Punkteverteilung nicht paßt? ???

ow
2003-02-18, 18:25:40
Originally posted by crushinator
Was hattest Du mit der GF2MX in 3DM2000? :naughty: Und dann in 2001?



2000 default: ~5300 /32Bit: ~4000
2100 default: ~2600 /16Bit: ~3300


Willst Du jetzt wirklich behaupten, daß die TNT2 für DX8-Spiele brauchbar ist oder nur anmerken, daß Die die neue Punkteverteilung nicht paßt? ???


Nein, eine TNT ist da sicher nicht zu gebrauchen, ich will hier nur die Punktzahl/fps älterer HW in neueren Marks (hier: TNT2/3DM01 <-> GF4/3DM03) vergleichen.

Die Punkteverteilung ist nur indirekte Folge der üblen Programmierung des 3DM03.

Crushinator
2003-02-18, 18:26:30
Originally posted by ow Nö, was interessiert mich so ein blöder Bench? Der ist doch heute wie in Zukunft völlig realitätsfern. Ich denke schon, dass meine GF4 in zukünftigen Games mit DX8-Shadern noch zweistellige fps erreichen wird. (btw. meine Radeon8500 sieht übrigens trotz PS1.4 noch etwas schlechter aus als die GF4 im 3DM03.) Zukünftige Spiele - wenn nur mit DX8 - sind es IMHO nicht mal wert als "zukünftige" bezeichnet zu werden -> Ist allerdings nur meine Meinung. Dann bin ich auch noch der meinung, daß die 8500 auch in Reallife der GF4 untelegen ist, also realistischer Wert oder nicht? ???
Und um es mal mit deinen Worten zu formulieren:
Was wäre denn so schlimm daran gewesen, wenn eine GF4 3000 Punkte oder sagen wir 15-20 fps in den Tests 2/3 erreicht hätte? Gar nichts wäre da schlimm, weil dann die R300 IMHO zwangsläufig mehr Punkte wie jetzt bekäme, und Du würdest da nicht mehr über 1230 Punkte meckern sondern über 3000. ;)
Wäre IMO bei guter Programmierung in gleicher grafischer Qualität möglich gewesen, unsere 3D-Progger hier werden mir da doch zustimmen, oder??? Ich kann ehrlich gesagt die Seite nicht beurteilen und muß die Frage stellen: Wenn es denn so wäre, warum tut es Keiner (besser)? :naughty:

Crushinator
2003-02-18, 18:46:36
Originally posted by ow
2000 default: ~5300 /32Bit: ~4000
2100 default: ~2600 /16Bit: ~3300
Oha, hätte ich nicht gedacht. Mit anderen Worten: 3DM2003 zu sehr auf DX9 ausgelegt, was FutureMark selbst ja auch zugibt -> Kann die Kritik verstehen habe aber auch für FutureMark verständnis.
Nein, eine TNT ist da sicher nicht zu gebrauchen, ich will hier nur die Punktzahl/fps älterer HW in neueren Marks (hier: TNT2/3DM01 <-> GF4/3DM03) vergleichen. Wenn ich jetzt Haare splaten wollte, müßte ich demnach ja behaupten, daß die TNT2 in 3DM2001 zuviel Punkte bekommt, oder? :D Die Punkteverteilung ist nur indirekte Folge der üblen Programmierung des 3DM03. Ich weiß nicht ow. Ich bin der Meinung, daß Ihr die Sache etwas überbewertet, und kein Mensch weiß bisher wie es mit der Performance von Realworld DX9-Spielen sein wird, weil davon halt noch Keins existiert. Was mir auch nicht in den Kopf will ist, wie man ohne Gegenbeweis bzw. Einblick in den Quellcode von schlampigem Programmieren reden kann. :|

ow
2003-02-18, 18:56:09
@crushinator:

Soviel DX9 ist im 3DM03 gar nicht, es ist nur eine der 4 Szenen. Die DX9 Szene will ich gar nicht beurteilen, dafür hab ich zuwenige davon gesehen:D. Aber die zwei DX8 Szenen hat Madonion programmiermässig versaut. Es sollte JEDER froh sein, dass künftige DX8 Games weitaus besser performen werden.
Mit DX9 hat der 3DM03, wie schon gesagt, nicht viel zu tun.

Salvee
2003-02-18, 19:19:38
Originally posted by ow
Mit DX9 hat der 3DM03, wie schon gesagt, nicht viel zu tun.


Genauso wie eine GF4 mit DX 8.1 ;)

zeckensack
2003-02-18, 19:24:16
Originally posted by crushinator
Und zu Zeckensack: Wie Du schon schreibst, sind die Vertex-Shader bzw. Triangle-Setup Tests von den Punkten so verteilt, daß die Theorie mit Bevorzugung solch unausbalancierten Schrotts nicht richtig hinkäme, weil sie in GT1/2 dann um so schlechter abschneiden würden. Oder hab' ich da was falsch verstanden? ???Ich glaube schon ;)
Ich meinte nicht den Vertex Shader-Test (Trisetup-Test gibt's garnicht :| ). Ich meinte die Methode die bei den Stencil-Schatten angewandt wird. Erstmal möchte ich dir versichern daß meine Quelle (http://www.opengl.org/discussion_boards/cgi_directory/ubbmisc.cgi?action=getbio&UserName=cass) sich mit den 3DMark03-Interna auskennt.

Ich zitiere malEVERY edge has an extra quad inserted. Edges that are not on the silhouette (most of them) *are* degenerate.
Dieser Ansatz wird verfolgt, um ohne CPU-Hilfe die Silhuette des Objekts in ein Schattenvolumen verformen zu können. Das Thema ist vielleicht etwas heavy für dieses Forum, aber ich versuch's trotzdem mal:
Ein Vertex Shader kann die Modelltopologie (ie Anzahl und Zusammenhalt der Dreiecke untereinander) nicht ändern. Ein Schattenvolumen hat aber eine andere Topologie als das schattenwerfende Objekt selbst. Ich zerteile jetzt mal gedanklich das Objekt in Vorder- und Rückseiten. Das kennt man vielleicht schon vom Backface culling.
Die Vorderseite des Objekts bildet nun erstmal auch die Vorderseite des Schattenvolumens. Die Rückseite muß 'an die nächste Wand', von der Lichtquelle weg projiziert werden. Wenn man das Schattenvolumen so erzeugt, ist es aber kein geschlossener Körper. Die Seiten müssen auch abgeschlossen werden. Deswegen sucht die Doom-Engine auf der CPU pro Frame, pro Objekt und pro Licht die Silhuette und fügt dort Vierecke ein (=Quads) ein, die die seitlichen Abschlüsse bilden.
___________________
Wenn cass Recht hat (wovon ich überzeugt bin), dann sitzen beim 3DM03 zwischen allen Dreiecken in der Modelltopologie 'degenerate quads' (Vierecke mit Fläche = 0; ergeben null Pixel), nur für den Fall daß die Berührungskante zwischen zwei Dreiecken zur Silhuette gehört, und 'verlängert' werden muß.

Das Problem was ich damit habe, ist daß diese Quads wie gesagt zu 99% null Fläche haben, und das Triangle Setup verstopfen. Denn dort müssen sie verworfen werden. Da normale Hardware nicht auf solche Mengen 'Schrott' ausgelegt ist, kommt es dann schnell zu Engpässen.

Ich bewerte die Qualität von Grafikhardware doch nicht danach, wieviele nichtexistente Flächen sie pro Takt verwerfen kann. Ich habe nix dagegen, wenn man den Vertex Shader zum Rauchen bringt. Hohen Polygondurchsatz kann man immer brauchen, und wenn ich dafür auf 320x240 runtergehen muß (weil sonst die Füllrate limitiert). Wenn ich gerade dazu lustig bin, kann ich das Nutzen. Füllrate das gleiche, Auflösung rauf und ich stoße da ans Limit. Das sind Sachen, die ich (ausreichende CPU-Leistung vorausgesetzt) mit jedem Spiel nutzen und demonstrieren kann.

Ein fettes Tri-Setup, das zig degenerates pro Takt verwerfen kann, nützt mir in Spielen aber nichts, und wird es auch nie.


Und wegen 'besser machen', hmmm ... schau dir Tenebrae an. Oder gleich Doom 3. Die selbe Optik, trotzdem wesentlich effizienter.

Demirug
2003-02-18, 19:31:08
Originally posted by Salvee



Genauso wie eine GF4 mit DX 8.1 ;)


sie beherscht immerhin 66% der zusätzlichen DX 8.1 Shader und ausser den Pixelshader hat sich von 8.0 zu 8.1 an D3D ja nicht geändert.

zeckensack
2003-02-18, 19:31:52
Originally posted by crushinator
Was mir auch nicht in den Kopf will ist, wie man ohne Gegenbeweis bzw. Einblick in den Quellcode von schlampigem Programmieren reden kann. :| Schlampig programmiert ist's wohl eher nicht. Aber 'eigenwillig' designt. Der Algorithmus ist der, der am unwahrscheinlichsten in realen Spielen zur Anwendung kommen wird, da er die schlechtest mögliche Performance liefert (es sei denn, man paart einen Pentium 100 mit 'ner Radeon 9700Pro ... :| ).

Und die Ex-Betatester dürften schon wissen was da passiert, keine Sorge ;)

Demirug
2003-02-18, 19:53:33
zeckensack, das mit den degenerates wäre an sich gar nicht mal so schlimm. Die Trisetups sind da recht gut und man verliert kaum etwas. Das Problem sind eher die Vertexshader. Dort werden unzählige Vertices geskinnt (pro Kantev 4 stück) die dann in degenerates enden. Das reinste verheizen von Rechenleistung. Mit den Shadern des NV30 läst sich das möglicherweise durch dynamisches Branching besser regeln aber für nur einen Chip lohnt die Mühe kaum und die Vertexshader würden trotzdem nicht nachkommen.

Edit: Ich hätte gerne eine Funktion mit der ich einen Vertexbuffer von der Grafikkarte durchrechnen lassen und dann wiederverwenden kann um die last für solche Aufgaben von der CPU runter zu bekommen.

zeckensack
2003-02-18, 20:05:39
Originally posted by Demirug
zeckensack, das mit den degenerates wäre an sich gar nicht mal so schlimm. Die Trisetups sind da recht gut und man verliert kaum etwas. Das Problem sind eher die Vertexshader. Dort werden unzählige Vertices geskinnt (pro Kantev 4 stück) die dann in degenerates enden. Das reinste verheizen von Rechenleistung. Mit den Shadern des NV30 läst sich das möglicherweise durch dynamisches Branching besser regeln aber für nur einen Chip lohnt die Mühe kaum und die Vertexshader würden trotzdem nicht nachkommen.Ich find's schon schlimm :)
Verheizen von Rechenleistung ist zwar in Spielen unvorteilhaft, in Benches IMO aber tragbar. Die Last finde ich also iO, aber die fehlende Balance nicht.
Wir reden hier von drei Degenerates pro Dreieck, ich glaube nicht daß die Pixelpipes da noch viel Arbeit haben.
Edit: Ich hätte gerne eine Funktion mit der ich einen Vertexbuffer von der Grafikkarte durchrechnen lassen und dann wiederverwenden kann um die last für solche Aufgaben von der CPU runter zu bekommen. 'Vertex buffer' als float-Textur speichern, durch einen Pixel Shader rattern und hinten rausgreifen (NV_pixel_data_range fällt mir jetzt ein). Nur so als Idee :)

Ich glaube aber kaum, daß das ernsthaft schneller sein kann als wenn man's gleich auf der CPU macht :(

Crushinator
2003-02-18, 20:13:49
Originally posted by zeckensack Ich meinte nicht den Vertex Shader-Test (Trisetup-Test gibt's garnicht :| ). Ich meinte die Methode die bei den Stencil-Schatten angewandt wird. Erstmal möchte ich dir versichern daß meine Quelle (http://www.opengl.org/discussion_boards/cgi_directory/ubbmisc.cgi?action=getbio&UserName=cass) sich mit den 3DMark03-Interna auskennt. Jetzt mach' ich mich bestimmt unbeliebt :D Aber trotzdem muß ich fragen, wieso ein NVidiaer als Betatester sich soooo gut mit den Internas auskennen muß? Bekommen auch die Betatester den Quellcode zu sehen oder wie ist es zu verstehen? Gibt's auch Andere die das bestätigien, welche natürlich keine ATi/NV-Employies sind?
Wenn cass Recht hat (wovon ich überzeugt bin), dann sitzen beim 3DM03 zwischen allen Dreiecken in der Modelltopologie 'degenerate quads' (Vierecke mit Fläche = 0; ergeben null Pixel), nur für den Fall daß die Berührungskante zwischen zwei Dreiecken zur Silhuette gehört, und 'verlängert' werden muß.
...
Das Problem was ich damit habe, ist daß diese Quads wie gesagt zu 99% null Fläche haben, und das Triangle Setup verstopfen. Denn dort müssen sie verworfen werden. Da normale Hardware nicht auf solche Mengen 'Schrott' ausgelegt ist, kommt es dann schnell zu Engpässen. OK, soweit begriffen und stimme Dir sogar zu.
Ein fettes Tri-Setup, das zig degenerates pro Takt verwerfen kann, nützt mir in Spielen aber nichts, und wird es auch nie.
...
Und wegen 'besser machen', hmmm ... schau dir Tenebrae an. Oder gleich Doom 3. Die selbe Optik, trotzdem wesentlich effizienter. Bei Tenebrae kann ich leider nicht viel mitreden (weil noch nie gesehen) und DooM III kann ich noch nicht kaufen. ;) Die E3-Demo verursachte bei mir bei weitem nicht den Aaha-Effekt, den "mother nature" in 3DM03 tat, und Die Frameraten sind zumind. auf meinem bescheidenen Rechner bei den Beiden (E3-Demo vs. 3DM03 (GT4)) in etwa vergleichbar, wobei das E3-Demo um längen "CPU/RAM-Bandbreitenlimitierter" ist.

Naja, wie dem auch sei. Ihr beurteilt zu sehr die technische Seite und ich sehe nur, was ich sehen will nämlich coole Effekte und endlich einen nicht wirklich CPU-limitierten Bench, mitdem ich feststellen kann, welche dieser Effekte meine Karte wie schnell/langsam kann. ;)

Demirug
2003-02-18, 20:25:12
Originally posted by zeckensack
Ich find's schon schlimm :)
Verheizen von Rechenleistung ist zwar in Spielen unvorteilhaft, in Benches IMO aber tragbar. Die Last finde ich also iO, aber die fehlende Balance nicht.
Wir reden hier von drei Degenerates pro Dreieck, ich glaube nicht daß die Pixelpipes da noch viel Arbeit haben.

das dürfte davon abhängen in wie weit das trisetup am eingang Degenerates verwerfen kann und weiter hinten ein "gültiges" Dreieck in Pixel zerlegt. Wenn das natürlich nicht gleichzeitig geht sieht es üble aus. Ich habe hier irgendwo den den minimal Shader für das vollständige berechen von Schattenvolumen im VS rumliegen. AFAIR sind dafür mehr als 15 ops notwenig. Das ganze 4 mal pro Kante ergibt 60 ops pro Kante. Eine GF4 schaft gerade mal 2 Ops/Takt ein R300 dürfte nicht mehr als 4 Schaffen und der NV30 liegt wohl irgendwo dazwischen. Das heist für mich das man das Trisetup bei diesem Verfahren gar nicht schnell genug füttern kann. Der Engpass sind die Vertexshader die in abhängigkeit der Kopplungsstärke im Trisetup dann auch die Pixelshader lahmlegen.

'Vertex buffer' als float-Textur speichern, durch einen Pixel Shader rattern und hinten rausgreifen (NV_pixel_data_range fällt mir jetzt ein). Nur so als Idee :)

Ich glaube aber kaum, daß das ernsthaft schneller sein kann als wenn man's gleich auf der CPU macht :(

Ich will die Daten ja nur durch den Vertexshader jagen. Das Problem mit den floattexturen ist ja das ich damit nur maximal einen Vertexstream pro Shaderlauf erzeugen könnte und diesen dann aus der Texture wieder in einen Vertexbuffer umkopieren müsste. Das ist sicher nicht schneller als es gleich mit der CPU zu machen.

DX hat dafür zwar schon eine Funktion um einen Vertexbuffer in einen anderen umzukopieren und dabei auf jede Vertices ein Vertexshader anzuwenden. Dummerweise läuft das aber nur mit Softwarevertexprocessing.

Demirug
2003-02-18, 20:29:47
Originally posted by crushinator
Jetzt mach' ich mich bestimmt unbeliebt :D Aber trotzdem muß ich fragen, wieso ein NVidiaer als Betatester sich soooo gut mit den Internas auskennen muß? Bekommen auch die Betatester den Quellcode zu sehen oder wie ist es zu verstehen? Gibt's auch Andere die das bestätigien, welche natürlich keine ATi/NV-Employies sind?

Weil NVIDIA Logprogramme hat die genau aufzeichnen was eine Software so alles macht. Dort hat man sogar Tools die anzeigen wo die Flaschenhälse sind. Wenn ich Lust und Laune hätte könnte ich über einen DX9 Layer ebenfalls genau mitlogen und analysieren was der 3dmark denn so alles macht. Ist mir aber jetzt echt zu aufwendig.

Crushinator
2003-02-19, 14:14:33
Originally posted by Demirug Weil NVIDIA Logprogramme hat die genau aufzeichnen was eine Software so alles macht. Dort hat man sogar Tools die anzeigen wo die Flaschenhälse sind.... Das ist zwar sehr schön für sie, wobei ich mir beim besten Willen nicht vorstellen kann, daß es nur diese "kleine" Furz-Firma (im globalen Vergleich) geben wird, die sowas mitloggen und auswerten kann. ;) Komisch ist dabei, daß sich von den "offiziellen" nur nVidianer bzw. Befreundete diesbezüglich kritisch äußern. Aus der Sicht eines Verbrauchers (wie mir) hört sich das nicht sehr glaubwürdig an, auch wenn es das in wirklichkeit so wäre.

Um das Ganze nicht in Flames ausarten zu lassen: Mich braucht Ihr nicht mit irgendwelchen Aussagen von direkt betroffenen Herstellern zu beglücken, ich traue Solchen (egal welcher Hersteller) nur soweit wie ich ihre Produkte schmeissen kann. :D

BTW: Ich würde mich gerne aus dieser Diskussion erstmal zurückziehen und bedanke mich bei Euch allen, daß ich wieder viel dazu gelernt habe.

Demirug
2003-02-19, 14:23:47
Originally posted by crushinator
Das ist zwar sehr schön für sie, wobei ich mir beim besten Willen nicht vorstellen kann, daß es nur diese "kleine" Furz-Firma (im globalen Vergleich) geben wird, die sowas mitloggen und auswerten kann. ;) Komisch ist dabei, daß sich von den "offiziellen" nur nVidianer bzw. Befreundete diesbezüglich kritisch äußern. Aus der Sicht eines Verbrauchers (wie mir) hört sich das nicht sehr glaubwürdig an, auch wenn es das in wirklichkeit so wäre.

Um das Ganze nicht in Flames ausarten zu lassen: Mich braucht Ihr nicht mit irgendwelchen Aussagen von direkt betroffenen Herstellern zu beglücken, ich traue Solchen (egal welcher Hersteller) nur soweit wie ich ihre Produkte schmeissen kann. :D

BTW: Ich würde mich gerne aus dieser Diskussion erstmal zurückziehen und bedanke mich bei Euch allen, daß ich wieder viel dazu gelernt habe.

Nein, mitlogen kann das im Prinzip jeder. Mir ist es aber ehrlich gesagt zuviel Aufwand die Unmengen an Daten die dabei anfallen auszuwerten und für eine automatische auswertung habe ich mir noch keine Tools geschrieben weil ich ja normalerweise weiss was ich so an Daten einer Karte übergebe und mir sie deshalb nicht über umwege wieder beschafen muss. NVIDIA, ATI und all die anderen haben aber oft nicht den Quellcode und aus diesem Grund machen für diese Firmen die Entwicklung solcher Tools auch Sinn. Wie soll man sonst auch rausbekommen wieso ein bestimmtes Programm einfach nicht gut (bzw. falsch) läuft?

ow
2003-02-19, 15:26:18
Originally posted by crushinator

Um das Ganze nicht in Flames ausarten zu lassen: Mich braucht Ihr nicht mit irgendwelchen Aussagen von direkt betroffenen Herstellern zu beglücken, ich traue Solchen (egal welcher Hersteller) nur soweit wie ich ihre Produkte schmeissen kann. :D




Inwiefern ist den ATi glaubwürdiger als NV, denn das ist doch deine Kernaussage??

ATi weiss ebenso wie NV, was für ein Scheisse der 3DM03 ist, nur erwartest du ernsthaft von denen, dass sie das eingestehen, wo ihre Produkte so gut in diesem Bench dastehen?

Für mich macht sich ATi hier unglaubwürdig, und nicht NVidia.

Crushinator
2003-02-19, 16:11:03
Originally posted by ow Inwiefern ist den ATi glaubwürdiger als NV, denn das ist doch deine Kernaussage?? Wer lesen kann, ist klar im Vorteil. ;) Denn ich schrieb:
Originally posted by crushinator ...Gibt's auch Andere die das bestätigien, welche natürlich keine ATi/NV-Employies sind?
ATi weiss ebenso wie NV, was für ein Scheisse der 3DM03 ist, nur erwartest du ernsthaft von denen, dass sie das eingestehen, wo ihre Produkte so gut in diesem Bench dastehen? Wo stehen ATi Produkte besonders gut da? R300 -> ~4700 gegen FX Ultra -> ~5100 und wenn ich Dich auf Deine eigene Aussage festnageln darf, schneiden die R200 auch nicht gerade besser als NV25 ab. ???
Für mich macht sich ATi hier unglaubwürdig, und nicht NVidia. Häää? Was hat ATi denn unglaubwürdiges gerade im Bezug auf 3DM03 von sich gegeben? Habe ich was nicht mitbekommen? ??? Oder meinst Du die Aussage, daß sie zu 3DM03 stehen? Was soll daran unglaubwürdig sein?

Abgesehen davon würde mich ja noch nicht mal interessieren, was ATi von sich gäbe aber das schrieb ich ja bereits. Ihr tut "traditionell" ja auch nicht gerade sehr unvoreingenommen, so daß ich mich als User nicht mit nur Euren Aussagen zufrieden geben möchte, punkt aus.

ow
2003-02-19, 16:24:08
Originally posted by crushinator Was hat ATi denn unglaubwürdiges gerade im Bezug auf 3DM03 von sich gegeben? Habe ich was nicht mitbekommen? ???

Ja, da hast du was nicht mitbekommen wie mir scheint.

http://www.hardocp.com/article.html?art=NDMx

Zitat:

"ATI fully supports this new graphics benchmark, 3Dmark03. We feel it is a valuable diagnostic tool for estimating the performance of current and future graphics products when running future game titles (to be released over the next 1-2 years)."


:lol::lol: @ ATi

aths
2003-02-19, 17:30:48
ow, vielleicht behält ATI ja recht...

ow
2003-02-19, 17:40:09
Originally posted by aths
ow, vielleicht behält ATI ja recht...


Womit? Dass alle Progger jetzt technisch nur noch solchen Dünnsinn wie den 3DM03 proggen? Glaub ich nicht. Das wird schon eher in Richtung Doom3-Performance gehen.

Mr. Lolman
2003-02-19, 17:46:52
Ich denke eher, dass ATi damit schon recht hat. In den nächsten 2 Jahren werden die Shader massiv beansprucht werden. Das der 3dmurks ein Indikator für die benötigte Leistung in 2 Jahren sein kann, können viele nicht glauben, was ja in Anbetracht der vermurksten 3d Engine leicht zu verstehen ist.

Die Engines in 2 Jahren werden sicher ähnlich laufen wie der 3dmark aber halt viel besser aussehen.

Crushinator
2003-02-19, 17:48:47
Originally posted by ow "ATI fully supports this new graphics benchmark, 3Dmark03. We feel it is a valuable diagnostic tool for estimating the performance of current and future graphics products when running future game titles (to be released over the next 1-2 years)." Lern' English und versuch' rauszufinden, was diagnotistic tool, estimating und future bedeuten und wende das Ganze auf DX9-Hardware + GT4 an, und schon wirst Du feststellen, daß nichts an dieser Aussage unwahr geschweige denn unglaubwürdig ist. Wenn Du dann noch rum:lol:st, wird's wahrscheinlich über Dich selbst sein. ;D

Wie dem auch sei, Fakt ist daß NV nichts und auch gar nichts gegen 3DM2001 hatte, obwohl deren Chips dort zu oft überbewertet sind und der ganze Bench (wie auch 3DM2K3) zu syntetisch ist. Jetzt zu behaupten, daß die neuen Marks viel zu unrealistisch seien hört sich für mich so an, als hätte jemand in Erklärungsnot versucht zu verteidigen, warum realworld Games nur das unterstützen, was nur NV-Hardware kann. (Beispielsweise keine/unbrauchbare PS 1.4 oder auch zukünftig kein Displacement Mapping)

BTW: Einen bestimmten Presse-Treiber zu realisieren, der u.A. Details nicht darstellt und dafür in 3DM03 schnell ist findest Du also glaubwürdiger? Sorry, ich kann unter gegebenen Umständen nichts an NV für glaubwürdig halten.

Auch die Tatsache, daß u.A. Du ow zu sehr ein NV-fettischist bist, würde weder ATi unglaubwürdig machen, noch 3DMarkXXXX schlechter. Letzteres bleibt, was es immer war, nämlich eine schöne Demonstartion davon was einem alles nicht geboten werden wird nur weil eine einzige Firma darüber entscheidet, was in Games eingebaut wird oder nicht und definitiv kein "realistischer" Benchmark.

Nur weil jetzt schon wieder auf ATi rumgehackt wird: Immerhin haben sie es überhaupt geschafft, seit 6 Monaten mind. 2 "bezahlbare" Karten auf dem Markt zu haben, womit man ziemlich gut daddeln kann. Dabei haben sie sich nicht mal mit Marketings-Gequirle a la 48 GB/s völlig geoutet.

Kurz gesagt: ATi ist zwar nicht die Wahrheit in Person/Firma, NV ist aber diesbezüglich noch weniger als GAR NICHTS!!! :D

Crushinator
2003-02-19, 17:51:18
Originally posted by ow ...Das wird schon eher in Richtung Doom3-Performance gehen. Weil Du ja sicherlich weißt, wie die DooM III Performance aussieht? :|

Mehrpack
2003-02-19, 18:12:48
Originally posted by ow



Womit? Dass alle Progger jetzt technisch nur noch solchen Dünnsinn wie den 3DM03 proggen? Glaub ich nicht. Das wird schon eher in Richtung Doom3-Performance gehen.

hi,
naja, es wurde und wird immer wieder schlamip programmierten code geben.
ich denke man kann kaum sagen das alle spiele in zukunft die reinheit und optimierung in person sind.
man könnte zumindestens sagen wenn der 3dmark2003 flüssig läuft, müsste der rest sehr gut bis spitze laufen.

aber mal ne frage könnte man nicht die game-test in bestimmten teilen nicht mit einer realtiv guten AI ausstatten so das die test eine grössere dynamisch erreichen?
oder wäre sowas eher kontraproduktiv auf einen benchmark bezogen?

Mehrpack

ow
2003-02-19, 18:31:22
@Crushinator

Na, fehlen mal wieder die Argumente, so dass du beleidigend werden musst??
Ernsthafte Diskussion ist wohl nicht deine Sache.

Mehr sage ich dazu nicht.

Crushinator
2003-02-19, 18:36:26
Originally posted by ow Na, fehlen mal wieder die Argumente, so dass du beleidigend werden musst??
Ernsthafte Diskussion ist wohl nicht deine Sache. Ups, sorry, aber wo hab' Ich Dich denn beleidigt? Smilie übersehen? falscher Smily? ???

/edit: untersuch....untersuch.... meinst Du "NV-fettischist" oder "Englisch lernen"?

/edit2: Mannnnnn....das läßt mir jetzt keine Ruhe. Egal woran Du Dich nun störst, ich entschuldige mich hiermit und gelobe in Zukunft Besserung bei meiner Zynik.

:bier: ?

Crushinator
2003-02-19, 18:40:46
Originally posted by ow Ernsthafte Diskussion ist wohl nicht deine Sache. ow, ernste Diskussionen sind eher nicht Deine Sache, weil Du in meinen Augen nur ein einziges Ziel bei allen Deinen "Diskussionen" verfolgst, nämlich NV auf Biegen und Brechen zu verteidigen. Einfach aufhören rumzuhacken bzw. das letzte Haar zu spalten bin ich von Dir ja auch nicht gewohnt. Denk' bitte mal darüber nach. ;)

zeckensack
2003-02-22, 12:38:32
Quelle: http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/008757-3.html
As for everything else...

If 3DMark's algorithm was part of a synthetic vertex program benchmark, that might be OK. However, it's not presented as such. It's presented as a gaming benchmark, and it's presented as even being comparable to what Doom3 does, and certainly as being a reasonably representative shadow-volume-employing game. However, it is grossly incomparable to Doom3, and it is definitely a very, very poor way for any game to implement shadow volumes.

This isn't in any way comparable to how some developers get all paranoid about "T&L doesn't let me output intermediate vertices". That was always a stupid complaint, and now it's even a false complaint -- there are ways to do this by using an appropriate vertex/fragment program plus techniques like PDR.

First of all, in this case, that previous problem is taken to an extreme. This is not some app that, say, draws a model with 2 rendering passes and has to skin twice; it uses a *very* large number of rendering passes, and the skinning program is complicated, *and* the shadow volume stuff is particularly bad in how much skinning it does.

Second, there are far better ways for the app to accomplish the same thing. (Skinning on the CPU is not the only one!)

But third, *because* the benchmark does *so much* stupid and wasteful work, the best way for us to win the benchmark down the road is to put in incredibly convoluted driver logic that -- in short -- detects everything stupid that the app is doing, and reimplements it using a smarter/faster algorithm, all behind the app's back. I'll leave thinking of the possible ways we could do this up to you; suffice it to say that implementing such code will help 3DMark03 and 3DMark03 *only*, at the expense of our time and at the cost of making our driver quite a bit bigger and buggier.

Klartext:
Die beste mögliche Treiber-Optimierung für 3DM03 ist - laut Matt Craighead, c/o NVIDIA; Treiber-Abteilung - zu erkennen daß 3DM03 läuft, und die 'wischi-waschi'-Algorithmen einfach nicht auszuführen, sondern es ganz anders zu machen. Dh daß der Treiber nicht mehr, wie es seine eigentlich Aufgabe ist, Schritt für Schritt die Anweisungen der App ausführt, sondern etwas völlig anderes macht, was zum gleichen visuellen Ergebnis führt, aber schneller läuft.

nggalai
2003-02-22, 14:48:44
"the best way for us to win the benchmark down the road is to put in incredibly convoluted driver logic that -- in short -- detects everything stupid that the app is doing, and reimplements it using a smarter/faster algorithm, all behind the app's back."

ROFL :rofl:

Geil! Ich mag Matt. :D

ta,
-Sascha.rb

]skc[TiE]Gottos|GB
2003-02-23, 09:25:18
tag an alle,
ich finde 3DMark03 so einen dreck...schon alleine das ich mit meiner sig bei 3DMark01 9200 Punkte bei default hate,und mein freund 9300...aber bei 3DMark03 hab ich auf einmal nur 1200 punkte und mein freund 3500,kann des sein ???und des beste sind ja wohl die bugs...ich test bei mir auf einmal 800 punkte....mach restart und hab 500 punkte (danach wieder normal ).....geh ich zum freund hinüber und wollte schauen ob des bei ihm auch so is und auf einmal steht dann da 99999999999999 punkte,also wirklich....
meine sig:Athlon XP 1800+ @2100+
Hercules 3D Prophet FDX 8500 LE
256 DDR-Ram

sig meines freundes:Athlon XP 2400+
Hercules 3D Prophet 9000 Pro SE
512 DDR-Ram

Unregistered
2003-02-24, 22:34:55
Originally posted by Byteschlumpf
Jau, Griff in's Klo trifft die Sache ziemlich gut!

Wer erinnert sich da nicht gerne an diese schöne Szene aus "TrainSpotting"? :bonk:



Byteschlumpf

ich.
hab den movie da, aber noch nicht gesehen. aber ich weiß jetzt, worauf ich unter anderem zu gucken hab...
CU

mapel110
2003-02-24, 23:01:02
wirklich unbrauchbar ! mehr gibts dazu nicht zu sagen. ich bekomm das teil noch nicht einmal dazu, komplett durchzulaufen.
alles andere löppt bei mir, nur der 3dmark2003 nicht. also is nix mit zuviel übertaktet.

Aquaschaf
2003-02-25, 22:51:14
hm ich krieg immer in irgendeinem test einfach nen schwarzen bildschirm , mit escape kann ich aber noch zu windows zurückkehren .
aber was ich gesehen hab reicht mir : recht unschöne und extrem langsame demos ... dem statement von nvidia stimme ich zu ...

nagus
2003-03-03, 19:55:04
Originally posted by zeckensack
Quelle: http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/008757-3.html


Klartext:
Die beste mögliche Treiber-Optimierung für 3DM03 ist - laut Matt Craighead, c/o NVIDIA; Treiber-Abteilung - zu erkennen daß 3DM03 läuft, und die 'wischi-waschi'-Algorithmen einfach nicht auszuführen, sondern es ganz anders zu machen. Dh daß der Treiber nicht mehr, wie es seine eigentlich Aufgabe ist, Schritt für Schritt die Anweisungen der App ausführt, sondern etwas völlig anderes macht, was zum gleichen visuellen Ergebnis führt, aber schneller läuft.


zeigt sich wiedermal wunderbar, wie SUPER nvidia für bestimte benchmarks optimiert. +50% :rail:

LovesuckZ
2003-03-03, 19:58:30
Originally posted by nagus
zeigt sich wiedermal wunderbar, wie SUPER nvidia für bestimte benchmarks optimiert. +50% :rail:

ATi brauch ja auch nicht mehr optimieren, da der 3DMark2003 ja klomplett auf diese Karte zugeschnitten ist...
Somit ist das doch nen patt.

Unregistered
2003-03-03, 20:11:09
Wenn es wirklich so ist wie da verlautet wird und NV programmiert einen eigenen Renderpfad für eigens den 3DMark, dann ist doch eigentlich die Schlammschlacht komplett eröffnet?

Ich weis nicht wirklich, ob solche "Wege" schon ein anderer Hersteller in der Treiberentwicklung gegangen ist. Aber im Grunde genommen ist es doch Betrug? Sei nun mal dahingestellt ob die Rendermethoden und dergleichen, welche Futermark genommen haben zukunftsträchtig/effektiv sind, aber es ist vom Benchmark nicht so gedacht. Das Programm sagt: Ich will, liebe Graka, dass du dieses Bild auf dem Bildschirm so und so machst und nicht anders.

Ich hab ja nichts gegen dermassen extreme "Optimierungen". Es nützt ja im Endeffekt nur uns Gamer. Unser Spiel ist schneller.

Aber ich finde NV hat damit ne empfindliche Grenze durchstossen. Wenn dieses Beispiel Schule macht, werden sicherlich die anderen Hersteller nachziehen. Und populäre Benchmarks sind total für die Katz. Auch Spiele! ich seh schon die Szenarien im geistigen Auge, dass wegen der next Gen UT-Engine Ati und co eigens 100 Treiberentwickler beschäftigen nur um die Treiber auf ein paar "Vorzeige-Marketingträchtige-super-duper-ultra" Timedemos so dermassen umzuschreiben das nur ein paar ausgesuchte Programme gut drauf laufen.

Ich find diese Art Hahnekampf nicht gut.

deBlacki

nagus
2003-03-03, 20:14:10
Originally posted by LovesuckZ


ATi brauch ja auch nicht mehr optimieren, da der 3DMark2003 ja klomplett auf diese Karte zugeschnitten ist...
Somit ist das doch nen patt.

das coolste ist ja, dass dies Geforce FX ULTRA TROTZ dieser super-cheating treiber nicht viel schneller ist als eine normale Radeon9700PRO!

siehe signatur: vergleich meiner Radeon auf 400/760 und Geforce FX ULTRA + "spezial" treiber und 550/1000Mhz. lächerlich, oder? dann kommt noch das geile staubsauger-geräusch dazu und der preis.... naja, nur was für hartgesottene nvidia-fans ;)

ps. meine cpu ist noch dazu um 300Mhz niedriger getaktet

LovesuckZ
2003-03-03, 20:18:08
Originally posted by Unregistered
Ich find diese Art Hahnekampf nicht gut.


Das Problem ist aber, dass der Futuremark die r300 Karten deutlich bevorzugt. Somit ist schon von vornerein kein richtiger Vergleich zwischen den Karten gegeben ist.

tEd
2003-03-03, 20:21:12
Originally posted by zeckensack
Quelle: http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/008757-3.html


Klartext:
Die beste mögliche Treiber-Optimierung für 3DM03 ist - laut Matt Craighead, c/o NVIDIA; Treiber-Abteilung - zu erkennen daß 3DM03 läuft, und die 'wischi-waschi'-Algorithmen einfach nicht auszuführen, sondern es ganz anders zu machen. Dh daß der Treiber nicht mehr, wie es seine eigentlich Aufgabe ist, Schritt für Schritt die Anweisungen der App ausführt, sondern etwas völlig anderes macht, was zum gleichen visuellen Ergebnis führt, aber schneller läuft.

Nennt man das beim skifahren nicht ein Tor auslassen? :chainsaw:

auki
2003-03-03, 20:24:33
Originally posted by LovesuckZ


ATi brauch ja auch nicht mehr optimieren, da der 3DMark2003 ja klomplett auf diese Karte zugeschnitten ist...
Somit ist das doch nen patt.

soweit man Futuremark glauben darf, ist es standart MS directX code, den sie verwendet haben - ohne jegliche optimierung.
das die FX bei standartcode schlecht abschneidet, hat ja schon Carmack gezeigt (dass die FX langsamer als die 9700pro ist unter standart openGL).
warum sollte das bei großartig DX anders sein?
und was nVidia mit dem neuen treiber macht ist nicht zu vertreten.

Demirug
2003-03-03, 20:27:25
Nemmt doch den guten Matt nicht so ernst.

Im Kontext des Threads im OpenGL Forum erkennt man IMHO das er das sarkastisch meint.

Demirug
2003-03-03, 20:36:17
Originally posted by auki


soweit man Futuremark glauben darf, ist es standart MS directX code, den sie verwendet haben - ohne jegliche optimierung.
das die FX bei standartcode schlecht abschneidet, hat ja schon Carmack gezeigt (dass die FX langsamer als die 9700pro ist unter standart openGL).
warum sollte das bei großartig DX anders sein?
und was nVidia mit dem neuen treiber macht ist nicht zu vertreten.

Natürlich ist das ganz normaler standard DX9 Code sonst würde es sich ja gar nicht compilieren lassen.

Was NVIDIA da nun auf die nerven geht ist das die in 3dmark benutzten Techniken (Single texturing, massive PS 1.4, Sinnlosses Verbraten von Vertextleistung) keiner NVIDIA Karte wirklich liegt. Der R300 gerade diese Dinge aber zum Frühstück futtert.

Was hat den NVIDIA böses mit den Treibern gemacht? Scheinbar habe ich da was nicht mitbekommen.

Unregistered
2003-03-03, 20:51:16
Originally posted by LovesuckZ


Das Problem ist aber, dass der Futuremark die r300 Karten deutlich bevorzugt. Somit ist schon von vornerein kein richtiger Vergleich zwischen den Karten gegeben ist.

Da hätte ich gerne mal beweise bevor du so eien scheiß schreibst.

Mr. Lolman
2003-03-03, 20:54:36
Also ist es doch möglich, DirectX Programme auf bestimmte KArten zu optimieren. Ich kenn wem, der hat das immer vehement abgestritten. ;)

Ich sehe da nur grosse Arbeit auf NV zukommen, am Beispiel von Doom, da macht sich der Chefentwickler selbst noch die Mühe einen NV30 Pfad zu implementieren. Aber ob das jedes knoch so kleine Softwarehaus für NV bei DirectX auch macht?

@Demirug:

Du weisst anscheinend ziemlich genau wie man Engines proggen muss, damit sie auf NV30+ HW gut/optimal laufen. Hat da Futuremark wirklich 'absichtlich' so geproggt, dass der Murks auf R300s besser läuft, oder war es einfach die simplere Methode animierte DX9 Grafik auf den Schirm zu bringen... (Bei zweiterem sehe ich schwarz für NV)

Ist der NV30 immernoch des Entwicklers (nicht ausschliesslich auf ich beziehen) Liebling, oder können die sich an R300 Karten mittlerweile nicht besser austoben, da sie Texturing, Pixelshader, Vertexshader einsetzen können, ohne auf Limitationen (bezüglich Geschwindigkeit) mancher Highend HW achten zu müssen.

Eine letzte Frage: Ist es möglich das NV den alternativen Renderingpfad standardmässig in die Treiber implementiert, dass der Treiber jedesmal falls er die Anforderung bekommt: "Lass die Karte jetzt mal so richtig viel VS Leitung verbraten" seinen eigenen intelligenteren Weg wählt?

Unregistered
2003-03-03, 21:16:35
Originally posted by LovesuckZ


Das Problem ist aber, dass der Futuremark die r300 Karten deutlich bevorzugt. Somit ist schon von vornerein kein richtiger Vergleich zwischen den Karten gegeben ist.


JaJa, soosoo .... weisste, ich kenne da jemand der immer abgestritten hat das sowas überhaupt möglich ist.



@ all: Auserdem, was soll der blödsinn, ist doch logisch das sie auf die DX9 minimum specs optimieren, und da das ding 1-2 jahre halten soll müssen sie auch massiv irgendwo renderleistung vergeuden.

Und DA ES KEINE NV30 GAB hat man halt die Radeon möglichkeiten sich angesehen und ist davon ausgegangen das nv wie immer, so ziemlich alle bereiche schneller implementiert.


Und liebe leute, DX kann nicht wirklich optimiert werden, mann kann höchstens funktionen nutzen die auf machen chips SCHLECHT IMPLEMENTIERT SIND. Also sucht mal die schuld beim Chio, und nicht nach dem Motto: "Oh, die bösen bösen Programmierer haben sich einen scheissdreck um nv gekümmert sondern einfach was programmiert wo der chip schwächen hat."


Fazit: ob ihrs wollt oder nicht, 3D Mark zeigt eine REALISTISCHE implementierungsqualität der verwendeten funktionen.

Und ja, ich hab ne GF4 und ne Radeon8500. Also kommt mir gar nicht erst von wegen ATi Fan.


Zum Treiber kann ich nur sagen, das gewisse optimierungen akzeptabel sind, aber anderen code ausführen ist ja wohl das letzte.
Das ist wie wenn der nächste P4 bei SiSoft Sandra den code patcht und einfach gar keine rechnungen mehr macht und somit 3x so hohe punkte schafft als sonst. Oder Mazda bei neuen Autos den Verbrauch testet mit einem modell aus Kohlefaser oder was anderen was sehr leicht ist gegenüber dem serienmodell.

MadManniMan
2003-03-03, 21:25:43
Originally posted by LovesuckZ


Das Problem ist aber, dass der Futuremark die r300 Karten deutlich bevorzugt. Somit ist schon von vornerein kein richtiger Vergleich zwischen den Karten gegeben ist.

*ärgert sich präventiv über seine ausdrucksweise*

och komm, laß stecken. wärs das erste mal, würd ich ja gern noch drüber diskutieren, aber so ists gewiß schon jeder überdrüssig.

Demirug
2003-03-03, 21:28:13
Originally posted by Mr. Lolman
Also ist es doch möglich, DirectX Programme auf bestimmte KArten zu optimieren. Ich kenn wem, der hat das immer vehement abgestritten. ;)

Moment, ich habe immer nur gesagt das man nicht so optimieren kann das nur ein Chip davon profitiert. Man kann natürlich so Programmieren das es auf einen Chip bescheiden und auf einem anderen noch schlechter läuft. Aber sowas ist nur noch mit pure Absicht oder absoluter Unfähigkeit zu erklären.

Ich sehe da nur grosse Arbeit auf NV zukommen, am Beispiel von Doom, da macht sich der Chefentwickler selbst noch die Mühe einen NV30 Pfad zu implementieren. Aber ob das jedes knoch so kleine Softwarehaus für NV bei DirectX auch macht?

Unwahrscheinlich. Aber wenn NVIDIA JC sagt das gerade beim Umsetzten der Shader auf die Hardware noch Luft in den Treibern ist glaube ich das mal. Mit JC will es sich wohl kein IHV verderben.


@Demirug:

Du weisst anscheinend ziemlich genau wie man Engines proggen muss, damit sie auf NV30+ HW gut/optimal laufen. Hat da Futuremark wirklich 'absichtlich' so geproggt, dass der Murks auf R300s besser läuft, oder war es einfach die simplere Methode animierte DX9 Grafik auf den Schirm zu bringen... (Bei zweiterem sehe ich schwarz für NV)

So genau weiss ich das auch nicht. Aber bestimmte Dinge sind ja mehr oder minder inzwischen offne Geheimnisse. Absicht möchte ich Futuremark nun nicht unterstellen. Und das was sie gerade bei dem 2 und 3 Test gemacht haben läuft ja auch auf einem R300 nicht so gloreich als das sich ein Spieleentwickler darauf einlassen würden.

Ist der NV30 immernoch des Entwicklers (nicht ausschliesslich auf ich beziehen) Liebling, oder können die sich an R300 Karten mittlerweile nicht besser austoben, da sie Texturing, Pixelshader, Vertexshader einsetzen können, ohne auf Limitationen (bezüglich Geschwindigkeit) mancher Highend HW achten zu müssen.

Geschwindigkeit ist beim Entwickeln ein Sekundäres Kriterium. Der Debugcode welcher in einer Engine hängt bremst sowieso. Das wichtigste Kriterium ist das die Karte die man im Rechner hat es erlaubt einen möglichst grossen Umfang der Gesamtfunktinalität eines Games/Engines durchzutesten. Entwickler schrauben nun mal nicht so gerne ständig am Rechner rum.

Eine letzte Frage: Ist es möglich das NV den alternativen Renderingpfad standardmässig in die Treiber implementiert, dass der Treiber jedesmal falls er die Anforderung bekommt: "Lass die Karte jetzt mal so richtig viel VS Leitung verbraten" seinen eigenen intelligenteren Weg wählt?

Dazu müsstes es erst mal einen solchen Pfad geben. Ein solcher macht aber sowieso nur in Verbindung mit einem staren Benchmark Sinn. Bei einem richtigen Spiel funktioniert das nicht.

Unregistered
2003-03-03, 21:43:42
"
Wenn es wirklich so ist wie da verlautet wird und NV programmiert einen eigenen Renderpfad für eigens den 3DMark, dann ist doch eigentlich die Schlammschlacht komplett eröffnet?

Ich weis nicht wirklich, ob solche "Wege" schon ein anderer Hersteller in der Treiberentwicklung gegangen ist. Aber im Grunde genommen ist es doch Betrug? Sei nun mal dahingestellt ob die Rendermethoden und dergleichen, welche Futermark genommen haben zukunftsträchtig/effektiv sind, aber es ist vom Benchmark nicht so gedacht. Das Programm sagt: Ich will, liebe Graka, dass du dieses Bild auf dem Bildschirm so und so machst und nicht anders.

Ich hab ja nichts gegen dermassen extreme "Optimierungen". Es nützt ja im Endeffekt nur uns Gamer. Unser Spiel ist schneller.

Aber ich finde NV hat damit ne empfindliche Grenze durchstossen. Wenn dieses Beispiel Schule macht, werden sicherlich die anderen Hersteller nachziehen. Und populäre Benchmarks sind total für die Katz. Auch Spiele! ich seh schon die Szenarien im geistigen Auge, dass wegen der next Gen UT-Engine Ati und co eigens 100 Treiberentwickler beschäftigen nur um die Treiber auf ein paar "Vorzeige-Marketingträchtige-super-duper-ultra" Timedemos so dermassen umzuschreiben das nur ein paar ausgesuchte Programme gut drauf laufen.

Ich find diese Art Hahnekampf nicht gut.
"

Was hast du dagegen?
Ich find es super.
Wenn Nvidia hier heimlich was machen wollte ohne grosses Aufsehen, würden sie kaum darüber berichten was am 3DMark03 so alles katastrophal ist und wie man es umgehen kann.
Zeigt doch nur, dass dieser Bench für die Tonne ist.
Letztlich cheaten sie ja nicht rum.
Sie organisieren nur einen eigenen Renderablauf, der die selbe visuelle Qualität bietet bei erheblich mehr Speed.
Das ist alles im Grünen Bereich und kein Cheaten.
Wenn sie cheaten wollten, würden sie es zudem nicht an die grosse Glocke hängen.
Mit dem Bench hat sich Futuremark keinen Gefallen gemacht.

Demirug
2003-03-03, 21:49:08
Lesst euch doch bitte mal das Zitat von Matt Craighead komplett durch und nicht nur den von zeckensack hervorgehobenen Teil.

Dann dürfte wohl auch klar sein was Matt von einer solchen Lösung wirklich hält

LovesuckZ
2003-03-03, 21:51:50
Originally posted by MadManniMan
[...]aber so ists gewiß schon jeder überdrüssig.

Dann erklaere mir bitte, wie eine TI4600 im Naturetest von 3DMark2001 so deutlich schneller ist und im Test 2 und 3 von 03 so deutlich langsamer als eine 9500.

Nature von Digit-Life
http://www.bigsmedia.de/3dmark-p4-xp-1024-g4.bmp

Test 2 und 3: Einmal meine 9500 auf 276/276 und eine GF4Ti4600 auf 300/650 und fast den selben Backsystem.
http://www.bigsmedia.de/Beispiel.jpg

paradox... Und nicht zu vergessen, alle Benches sind DX8 benches. Somit stellt sich nun die Frage, ist der 03 auf r300 Karten optimiert von vornerein ?

Exxtreme
2003-03-03, 21:56:03
Originally posted by LovesuckZ
paradox... Und nicht zu vergessen, alle Benches sind DX8 benches. Somit stellt sich nun die Frage, ist der 03 auf r300 Karten optimiert von vornerein ?
Es kann gut sein, daß die R300 sich vom unoptimierten Shadercode überhaupt nicht beeindrucken lässt. Das zweite Problem ist, daß hier oft der PS1.4 verwendet wird und dieser dürfte der Architektur der R300 gut liegen. Die Pixelshader-Einheit der R200 scheint andererseits nicht wirklich ausgewogen zu sein.

LovesuckZ
2003-03-03, 21:57:14
Originally posted by Exxtreme
Das zweite Problem ist, daß hier oft der PS1.4 verwendet wird und dieser dürfte der Architektur der R300 gut liegen.

Somit ist ein direkter Vergleich also unmoeglich, bzw. fast unmoeglich?
Welche version des PS kommt beim Naturetest zum tragen?

Crushinator
2003-03-03, 21:59:10
Originally posted by Unregistered ... Letztlich cheaten sie ja nicht rum. Sie organisieren nur einen eigenen Renderablauf, der die selbe visuelle Qualität bietet bei erheblich mehr Speed. Das ist alles im Grünen Bereich und kein Cheaten. Wenn das kein Cheaten ist, sollte das Ersetzen vom SourceCode der SPEC-Suite durch Eigenes (per Assembler + Constanten hochoptimiert) was zum selben Ergebnis führt (bei viel mehr Speed) auch kein Cheaten sein oder wie? Mein lieber Richthofen, wo soll das noch hinführen? ;)

Virtual
2003-03-03, 22:00:18
Originally posted by zeckensack
Quelle: http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/008757-3.html


Klartext:
Die beste mögliche Treiber-Optimierung für 3DM03 ist - laut Matt Craighead, c/o NVIDIA; Treiber-Abteilung - zu erkennen daß 3DM03 läuft, und die 'wischi-waschi'-Algorithmen einfach nicht auszuführen, sondern es ganz anders zu machen. Dh daß der Treiber nicht mehr, wie es seine eigentlich Aufgabe ist, Schritt für Schritt die Anweisungen der App ausführt, sondern etwas völlig anderes macht, was zum gleichen visuellen Ergebnis führt, aber schneller läuft.

Im Umkehrschluß kann das auch bedeuten, daß eine aufwendige Treiberoptimierung (fast) pro Spiel notwendig werden könnte, damit der NV30 auf Speed kommt.
Mmmh! - Ist das nun ein Design-Feature oder ein Design-Flaw der Hardware? :)

Irgendwie erinnert mich das ganze an Intel's Itanium bzw. die ersten PVRs mit infinte planes anstelle von Triangles. Man muß viel Gribs in Fütterungsmaschine stecken (Compiler/Treiber mit Wrapper) um einigermaßen Ergebnis auf einer eigentlich leistungsstarken Architektur erziehlen zu können.

Interessant ist auch, daß wohl sämtliche Game-Test des 3DMurks2003 optimiert worden sind, und nicht nur der Doom3-Clone. Die NV30-Extension für Doom3 scheint ja bereits den Optimierungslauf hinter sich zu haben.

Trifft das wirklich zu, dann sollte NVidia schleunigst noch weitere Treiberprogrammierer anheuern, denn es gibt viel zu tun ;)

G.
V.

Exxtreme
2003-03-03, 22:04:21
Originally posted by LovesuckZ
Somit ist ein direkter Vergleich also unmoeglich, bzw. fast unmoeglich?

Also AFAIK wird ein Fallback benutzt wenn die HW kein PS1.4 kann. Deswegen laufen die meisten Tests auch auf dem NV2x nur halt mit mehreren Passes. Ob ein direkter Vergleich möglich ist? Tja schwer zu sagen. Ich sage mal ja. Was kann ATi oder Futuremark dafür, daß NV keinen PS1.4 richtig auf die Reihe kriegt?
Originally posted by LovesuckZ
Welche version des PS kommt beim Naturetest zum tragen?
Bei welchem 3DMark?

Aquaschaf
2003-03-03, 22:04:53
... suffice it to say that implementing such code will help 3DMark03 and 3DMark03 *only*, at the expense of our time and at the cost of making our driver quite a bit bigger and buggier.

LovesuckZ
2003-03-03, 22:05:09
Originally posted by Exxtreme
Bei welchem 3DMark?

01

Exxtreme
2003-03-03, 22:06:48
Originally posted by LovesuckZ


01
AFAIK PS1.1. Beim Adv. Pixelshader-Test kommt wahlweise PS1.1 oder PS1.4 zum Einsatz. Komischerweise kann die R200 vom PS1.4 nicht richtig profitieren.

Crushinator
2003-03-03, 22:07:05
Originally posted by Aquaschaf ... suffice it to say that implementing such code will help 3DMark03 and 3DMark03 *only*, at the expense of our time and at the cost of making our driver quite a bit bigger and buggier. Ich will hiermit zwar nichts unterstellen, aber das was die mit ihrer "Optimierung" getan haben hat auch AFAIR nur bei 3DM03 was gebracht. :D

LovesuckZ
2003-03-03, 22:11:36
Originally posted by Exxtreme

AFAIK PS1.1.

Warum ist die 9500 dann noch langsamer als ne TI4200 auf 250/444?

Exxtreme
2003-03-03, 22:15:07
Originally posted by LovesuckZ
Warum ist die 9500 dann noch langsamer als ne TI4200 auf 250/444?
Nur eine Vermutung... also AFAIK muss die R200/R300 den Pixelshader <1.4 in so einer Art Emulation laufen lassen da dieser AFAIK nicht direkt in HW ausgeführt werden kann. Die PS <1.4-Befehle müssen in PS >=1.4 konvertiert werden.

Demirug
2003-03-03, 22:15:44
Der Thread wird langsam echt lustig. Ich sehe den armen Matt schon bei Jen-Hsun in der kleinen Bürozelle stehen wo er sich anhören muss was er mit seiner unbedachten Äusserung angestellt hat.

@virtual: Das mit den Shaderoptimierungen ist ein addaptiver Process. Man optimiert dabei ja nicht Shader für Shader (Ok beim 3dmark hat man das möglicherweise oder sogar wahrscheinlich gemacht) sonder optimiert den Treibercode welcher für das automatische umsetzten verantwortlich ist. Das ist das gleiche wie bei einem Compiler welcher zum Beispiel C++ in Maschinencode übersetzt. Diesen optimiert man ja auch nicht für jeden Sourcecode einzeln.

LovesuckZ
2003-03-03, 22:16:48
Originally posted by Exxtreme

Nur eine Vermutung... [...] Die PS <1.4-Befehle müssen in PS >=1.4 konvertiert werden.


Dann beherrscht ATI's r200/300 nur PS 1.0 und 1.4 /sowieso 2.0...

Exxtreme
2003-03-03, 22:17:53
Originally posted by LovesuckZ



Dann beherrscht ATI's r200/300 nur PS 1.0 und 1.4 /sowieso 2.0...
AFAIK kann die R200/R300 auch PS1.0 nicht direkt ausführen und muss den auch konvertieren.

Demirug
2003-03-03, 22:20:51
Originally posted by Exxtreme

Nur eine Vermutung... also AFAIK muss die R200/R300 den Pixelshader <1.4 in so einer Art Emulation laufen lassen da dieser AFAIK nicht direkt in HW ausgeführt werden kann. Die PS <1.4-Befehle müssen in PS >=1.4 konvertiert werden.

Ja das ist auch mein Kenntnissstand. Bei einfachen Shader ist das umsetzten 1:1 möglich. Benutzt man allerding die spezielen Texturoperationen der 1.x Shader muss zumindestens der R200 (beim R300 habe ich da keine Infos) teilweise etwas rumrudern.

Salvee
2003-03-03, 22:26:35
Originally posted by Exxtreme

AFAIK kann die R200/R300 auch PS1.0 nicht direkt ausführen und muss den auch konvertieren.

Sowas ähnliches habe ich auch schonmal gelesen.
Tendenziell könnt man dann ja sagen, dass shaderlastige Spiele/Benchmarks mit PS<=1.3 eher nV-freundlich sind und auf diesen Karten proportional besser performen, und dass selbiges für ATi gilt für PS>=1.4

MadManniMan
2003-03-03, 22:37:38
Originally posted by LovesuckZ


Dann erklaere mir bitte, wie eine TI4600 im Naturetest von 3DMark2001 so deutlich schneller ist und im Test 2 und 3 von 03 so deutlich langsamer als eine 9500.




eigentlich wäre diese beobachtung mit einer gewissen(nicht zwangsläufig objektiven, jeder darf seine eigene haben) meinung ok, nur hast du sie schon tausendmal dargelegt -> nerv!

Virtual
2003-03-03, 23:43:19
Originally posted by Demirug
Der Thread wird langsam echt lustig. Ich sehe den armen Matt schon bei Jen-Hsun in der kleinen Bürozelle stehen wo er sich anhören muss was er mit seiner unbedachten Äusserung angestellt hat.

@virtual: Das mit den Shaderoptimierungen ist ein addaptiver Process. Man optimiert dabei ja nicht Shader für Shader (Ok beim 3dmark hat man das möglicherweise oder sogar wahrscheinlich gemacht) sonder optimiert den Treibercode welcher für das automatische umsetzten verantwortlich ist. Das ist das gleiche wie bei einem Compiler welcher zum Beispiel C++ in Maschinencode übersetzt. Diesen optimiert man ja auch nicht für jeden Sourcecode einzeln.


Er spricht nicht vom Optimieren des Code, sondern ausdrücklich vom Austausch der Programm-Logik!

Damit geht NV eigentlich zu weit. Diese Vorgehensweise ist weder korrekt noch dauerhaft anwendbar.

Der NVler soll nicht jammern, sondern endlich die Treiber so optimieren, daß kein Austausch von Programmlogik nötig wird, um mit der R300 konkurrieren zu können. Schließlich muß der R300 ja den gleichen "Schrott" (nach NV) schlucken und dessen Treiber-Programmierer maulen dabei nicht so rum!

G.
V.

zeckensack
2003-03-03, 23:53:32
Originally posted by Virtual



Er spricht nicht vom Optimieren des Code, sondern ausdrücklich vom Austausch der Programm-Logik!

Damit geht NV eigentlich zu weit. Diese Vorgehensweise ist weder korrekt noch dauerhaft anwendbar.

Der NVler soll nicht jammern, sondern endlich die Treiber so optimieren, daß kein Austausch von Programmlogik nötig wird, um mit der R300 konkurrieren zu können. Schließlich muß der R300 ja den gleichen "Schrott" (nach NV) schlucken und dessen Treiber-Programmierer maulen dabei nicht so rum!

G.
V. Da ich ja anscheinend hier ordentlich den Stein ins Rollen gebracht habe:

Er spricht davon, aber so wie er darüber spricht, ist es klar daß er es selbst für Blödsinn hält. Er äußert sich nicht in die Richtung "Wir werden das so machen", sondern er hat in Kurzform nur gesagt
"3DM03 ist so blöd ... die beste Weg, diesen Benchmark zu gewinnen* ..."

*was er selbst für Zeitverschwendung hält.

zeckensack
2003-03-03, 23:54:31
Originally posted by Demirug
Nemmt doch den guten Matt nicht so ernst.

Im Kontext des Threads im OpenGL Forum erkennt man IMHO das er das sarkastisch meint. Ack.

zeckensack
2003-03-03, 23:55:06
Originally posted by Demirug
Lesst euch doch bitte mal das Zitat von Matt Craighead komplett durch und nicht nur den von zeckensack hervorgehobenen Teil.

Dann dürfte wohl auch klar sein was Matt von einer solchen Lösung wirklich hält Doppel-Ack ;)

ow
2003-03-04, 08:58:51
Originally posted by LovesuckZ


Somit ist ein direkter Vergleich also unmoeglich, bzw. fast unmoeglich?
Welche version des PS kommt beim Naturetest zum tragen?


Nature nutzt VS1.0&1.1 und PS1.0.

ow
2003-03-04, 09:00:56
Originally posted by Exxtreme

AFAIK PS1.1. Beim Adv. Pixelshader-Test kommt wahlweise PS1.1 oder PS1.4 zum Einsatz. Komischerweise kann die R200 vom PS1.4 nicht richtig profitieren.

S.o. PS1.0 wird im 01er Nature genutzt.

Die R200 PS taugen scheinbar einfach nix, da zu langsam.

nggalai
2003-03-04, 09:05:44
Originally posted by nagus
zeigt sich wiedermal wunderbar, wie SUPER nvidia für bestimte benchmarks optimiert. +50% :rail: Naja, so problematisch seh' ich das nicht. NV hat ein klares Statement zum 3DMark03 abgegeben, hat alle Reviewer gebeten, das Ding nicht einzusetzen, hat Gründe gegen den 3DMark03 angebracht (ob gute oder schlechte sei mal dahingestellt) . . . NV hält nix vom 3DMark03. Weshalb also nicht den Sinn des Benchmarkes noch weiter untergraben? ;)

Und Matts Kommentar ist äusserst sarkastisch. Lest doch mal im Kontext.

93,
-Sascha.rb

RaumKraehe
2003-03-04, 09:07:18
Originally posted by Unregistered
Der Demo-Loop des 3DM2K ist ein netter Stabilitätstest, jedenfalls der einzige Test, bei dem mein System nicht länger als 2h durchhält, anders als Prime95, Unreal1-Flyby, Memtest 3.0, hotcpu, x-isle usw.
Aber die Freeware-Version des 03 erlaubt kein Demo-Loop.


Merkwürdig ist nur: Das Demo läuft bei mir nicht durch ... Absturz bei Battel of Proxicon .. obwohl sonst nichts einfach so abstürtzt ??!!
Mother Nature hab ich noch nie gesehen ...

Ich glaube die Jungs wurden von Microsoft bezahlt um den Verkauf von Hardware anzukurbeln. Ansonsten kann ich mir so ein mißlungenes Stück Software nicht erklären ....

Weiß eigentlich jemand wie hoch die Entwicklungskosten waren ???

Unregistered
2003-03-04, 11:43:48
Bah...

Ist doch erbärmlich von nvidia, dass die nur mit tricks gewinnen können.

Anscheinend hat ati ja die renderpower auch ohne die zu gewinnen...

das sagt doch einiges...

BTW: Woher weiss ich nicht, dass nvidia einfach 'nen pass verschwinden lässt, bzw. die Texturequality runterschraubt ?

Einfach nur arm...

BlueRaven
2003-03-04, 12:05:00
Ich sage nur das, dass von Nvidia ein guter Schachzug war.



MFG
BlueRaven

Kennung Eins
2003-03-04, 12:31:55
Taktisch war dieser Schritt ja echt clever.
Man will damit den 3dmark unglaubwürdig machen, will sagen, "ist doch eh egal, was dieser dumme Benchmark sagt, unsere Karte ist super".
Das wäre ja auch prinzipiell ok, wenn es nur nicht von nVidia kommen würde :)

Denn sie sind ja diejenigen, die den 3dmark01 am meisten gepusht, gehyped und gelobt haben.
Und nun ist dessen nachfolger das schlechteste Mittel um Performance anzuzeigen - da fragt man sich doch, was da los ist.

Egal ob ATi oder nVidia, das sind beides faule Eier was Marketing und Veröffentlichungen angeht.
Ich finde, das ist grad wie in der aktuellen deutschen Politik. SPD macht - CDU schreit. CDU macht - SPD schreit.

naja, wie Virtual schon sagte:
Der NVler soll nicht jammern, sondern endlich die Treiber so optimieren, daß kein Austausch von Programmlogik nötig wird, um mit der R300 konkurrieren zu können. Schließlich muß der R300 ja den gleichen "Schrott" (nach NV) schlucken und dessen Treiber-Programmierer maulen dabei nicht so rum! FULL ACK.

Kennung Eins
2003-03-04, 12:42:59
Im übrigen, ein Kommentar von nVidia ggü. guru3d.com zu dem Thema:
We did that driver to show how easy it is to optimise for the benchmark and how the scores should not be taken at face value - I know the good sites, including yourself, understand the balance needed between synthetic and real world benchmarks, but a lot of sites take that benchmark to be the final word on GPU performance and our point is that it should only, if at all, be used as a background test and not a measure of actual game performance or for that matter DX9, given it's shortcomings in using true DX9 shaders.Mal ohne Kommentar von mir.

Virtual
2003-03-04, 13:28:02
Originally posted by zeckensack
Da ich ja anscheinend hier ordentlich den Stein ins Rollen gebracht habe:

Er spricht davon, aber so wie er darüber spricht, ist es klar daß er es selbst für Blödsinn hält. Er äußert sich nicht in die Richtung "Wir werden das so machen", sondern er hat in Kurzform nur gesagt
"3DM03 ist so blöd ... die beste Weg, diesen Benchmark zu gewinnen* ..."

*was er selbst für Zeitverschwendung hält.

In der Sache kann man durchaus Verständnis für seine Kritik aufbringen. Allerdings sollte er als Mitarbeiter von NVidia die Öffentlichkeitsarbeit der PR-Abteilung überlassen. Die können das erwiesenermaßen einfach besser und darüber hinaus werde ich das Gefühl nicht los, NV möchte von eigenen/anderen (Treiber?,Hardware?) Schwierigkeiten ablenken. Und damit meine ich nicht nur den Herstellungsprozess bei TMSC...

Letztlich hat/will er uns nicht verraten, wo NV die 50% Performance "gewinnen" konnte. Wenn er sich denn schon ungefragt meldet, dann wäre anstelle von zweifelhaften Andeutungen konkrete Angaben zur Sache(50% mehr Perf!-Woher?) dienlicher gewesen!

So erscheint mir seine Äußerung eher im Zwielicht:
- War es nun PR-Veranstaltung, die einzig dazu dient, 3DMark2003 in Entwicklerkreisen zu diskeditieren?
oder
- Wollte er seinem Frust einfach nur Luft machen?! (Ein Mann in seiner Postition...!)

Eine Antwort auf die 50%-Frage ist er uns leider schuldig geblieben. Und es bleiben weitere Fragen offen:
- Merkwürdig ist, daß NVidia erst gegen Ende 2002 aus dem Beta-Programm ausgestiegen ist. Warum? - NV hatte sicherlich genug Zeit, auf die Umsetzung frühzeitig einzuwirken und konstruktive! Kritik vor und nicht nach dem Release-Termin zu üben.
- Warum wurde die 50%ige Steigerung erst nach dem Erscheinungsdatum und nicht schon vorher in den Treiber "eingebaut"? Eine 3DMark2003-Beta im Rahmen des Beta-Programms sollte NV schon frühzeitig vorgelegen haben!

Es stinkt alles nach einem PR-Gag. Es ist beachtlich, wie leicht es NVidia fällt, niedriges Niveau in Bezug auf Öffentlichkeitsarbeit über Jahre hinweg aufrecht zu erhalten. Zumindest hier zeigt das Unternehmen weiterhin beachtlich Konstanz!

G.
V.

Unregistered
2003-03-04, 13:47:31
Originally posted by auki


soweit man Futuremark glauben darf, ist es standart MS directX code, den sie verwendet haben - ohne jegliche optimierung.
das die FX bei standartcode schlecht abschneidet, hat ja schon Carmack gezeigt (dass die FX langsamer als die 9700pro ist unter standart openGL).
warum sollte das bei großartig DX anders sein?
und was nVidia mit dem neuen treiber macht ist nicht zu vertreten.

was ist bitte daran nicht zu vertreten? die bildqualitaet bleibt die gleiche, nur das tempo steigt, ich finde das ist ein legitimes mittel, kann/sollte jeder graka hersteller verwenden. Ausserdem zeigt dies nur wie sinnlos der 3dmark schon immer war!

auki
2003-03-04, 13:48:54
wenn Matt das nun sarkastisch meinste, bleibt doch die frage, wie die großen Steigerungen im 3DMark03 möglich waren??

Virtual
2003-03-04, 13:49:13
Originally posted by Kennung Eins
Im übrigen, ein Kommentar von nVidia ggü. guru3d.com zu dem Thema:
Mal ohne Kommentar von mir.

Dafür aber in Kommentar von mir! ;)

Nach den wundersamen 50% mehr Performance reiht sich nun 3DMark2003 in das allgemein erziehlte Leistungsverhältnis zwischen Radeon9700Pro/GFFX-Ultra ein. Es drängt sich mir die Frage auf, ob nicht absichtlich eine "Bremse" eingebaut war, die man nach dem Release lösen wollte, um einen Leistungssprung mit PR-Effekt erziehlen zu können?! Einzig die Frage nach dem Ziel der Aktion bleibt mir schleierhaft. War Futuremark etwa nicht mehr hörig/dienlich oder gar aufmüpfig und mußte abgestraft werden, wie einst VisioTek? Den ehemaligen NV-Parade-Bench jedenfalls versucht man mit aller Macht zur Bedeutungslosigkeit zu degradiert.

G.
V.

auki
2003-03-04, 13:54:19
Originally posted by Unregistered


was ist bitte daran nicht zu vertreten? die bildqualitaet bleibt die gleiche, nur das tempo steigt, ich finde das ist ein legitimes mittel, kann/sollte jeder graka hersteller verwenden. Ausserdem zeigt dies nur wie sinnlos der 3dmark schon immer war!

sowas ist nur in einem Bench möglich, der immer gleich abläuft -
man hat also in realen spielen nichts davon
imho bleibt die quali nicht die gleiche, da AFAIK die explosionen im GT1 nicht zu sehen sind!

btw wurde ich ja auch schon berichtigt, dass das von Matt nicht ernst gemeint war - hab mich gerirrt, also ist die ganz diskussion über die "bösen" nV-Entwickler doch gegessen.

nur die (massive) Leistungssteigerung bleibt weiter ein rätsel.
warum sollte man die treiber auf das Programm auslegen - aber im gegenzug den Bench aufs schärfste kritisieren.
Hätte man sich doch die Arbeit schenken können und den 3DMark03 links liegen lassen können.

Mr. Lolman
2003-03-04, 15:57:03
IMHO war Matts Ausdrucksweise sarkastisch, das Grundproblem, und die Lösung dessen ist durchaus ernst zunehmen. Also ich glaube weiterhin an einen eigenen Renderingpfad für den NV30 beim Murks.

@ow:

Dir sollte wirklich die Mod Lizenz entzogen werden. Das die NV Produkte bis zum gehtnichtmehr hypst, ist ja eine Sache, die alle bis auf ein paar Ausnahmen (mich AUSgeschlossen) als gegeben hinnehmen. Aber dass du immer wieder anfängst, ohne jegliche Grundlage, ATi Produkte schlechtzumachen, geht mir gewaltig gegen den Sack. Bei Richthofen kann ichs verstehen. Er ist ein offensichtlicher Nvidiot. Aber du schiebst deine Aussagen immer so geschickt und subtil ein, sodass der DAU denken mag, ATi User hätten wirklich mit ärgeren Problemen zu kämpfen.

Originally posted by ow
Die R200 PS taugen scheinbar einfach nix, da zu langsam.

Q: Will the Advanced Pixel Shader test run faster on graphics cards that support 1.4 pixel shaders?

A: The Advance Pixel Shader test is what we call a Feature Test, which means that we above all want to present some new technology. It was decided that a fall-back was to be included in addition to the 1.4 pixel shader, since a same looking effect can be achieved using pixel shader 1.1. These two different modes of that same test work a bit differently, and should therefore not be directly compared. Both two modes could be optimized to show more performance either way, but now the test is just optimized for maximum compatibility. Vertex shader performance also affects the score somewhat due to this compatibility optimization.

(Bevor du nach der Quelle fragst: www.futuremark.com)

Labberlippe
2003-03-04, 16:22:24
Originally posted by LovesuckZ


Somit ist ein direkter Vergleich also unmoeglich, bzw. fast unmoeglich?
Welche version des PS kommt beim Naturetest zum tragen?

PS 1.1 und dieses müssen die Radeon Karten quasi über 1.4 erzeugen.
Ich vermute das dieses auch bei einer R9500 der Fall ist.
Jetzt könnte man natürlich sagen das der 3DMark2001 komplett auf nVIDIA ausgerichtet ist.........


Gruss Labberlippe

Labberlippe
2003-03-04, 16:32:18
Originally posted by ow


S.o. PS1.0 wird im 01er Nature genutzt.

Die R200 PS taugen scheinbar einfach nix, da zu langsam.

1.0 ???

Was heist langsam.
Schneller als eine GeForce3 ist PS Einehit der R200 auf alle Fälle und die ist ja der direkte Gegner für die R200.
Wobei die Ti 4200er im Nature Mark kaum schneller als eine R8500 ist.
Die R8500 Hercules 240 Mhz knallt bei 45 fps rum( Mit AF).
Wobei die neueren Treiber leicht den Speed erhöht haben.


Gruss Labberlippe

Richthofen
2003-03-04, 17:41:52
"
War Futuremark etwa nicht mehr hörig/dienlich oder gar aufmüpfig und mußte abgestraft werden, wie einst VisioTek
"

Den Vergleich musst du mir mal erklären.
Visiontek war nicht aufmüpfig sondern pleite :)
Irgendwelche Fragen?

Virtual
2003-03-04, 18:46:37
Originally posted by Richthofen
"
War Futuremark etwa nicht mehr hörig/dienlich oder gar aufmüpfig und mußte abgestraft werden, wie einst VisioTek
"

Den Vergleich musst du mir mal erklären.
Visiontek war nicht aufmüpfig sondern pleite :)
Irgendwelche Fragen?

Erdrosseln, verhungern lassen, ausbluten, ... diese Begriffe beschreiben im übertragenen Sinne, wozu NVidia das damalige Monopol zu nutzen verstand. Wer etwas anderes als NV-Chips verbauen wollte (z.B. Kyro/Hercules), für den haben sich fast automatisch die Konditionen(monetäre, Lieferzeiten, usw.) verschlechtert.

Wenigstens gibt es ATI, die das quasi-Monopol geknackt haben, und damit für Entspannung sorgen konnten. Wünschenswert wäre auch, wenn es zumindest noch einen weiteren Mitbewerber in allen Leistungssegmenten gäbe!

G.
V.

Silent Hunter
2003-03-04, 18:53:41
Konkurrenz belebt das Geschäft ;)

Matrox hats leider vergeigt, PowerVR und Kyro3 sind "schein Tot"
bleibt ja fast nur der Xabre über ;)

ow
2003-03-04, 18:55:27
Originally posted by Labberlippe


1.0 ???

Was heist langsam.
Schneller als eine GeForce3 ist PS Einehit der R200 auf alle Fälle und die ist ja der direkte Gegner für die R200.
Wobei die Ti 4200er im Nature Mark kaum schneller als eine R8500 ist.
Die R8500 Hercules 240 Mhz knallt bei 45 fps rum( Mit AF).
Wobei die neueren Treiber leicht den Speed erhöht haben.


Gruss Labberlippe

Ja, PS1.0.
Und zwar genau der hier:


ps.1.0


tex t0
texm3x3pad t1 , t0
texm3x3pad t2 , t0
texm3x3vspec t3 , t0
mov r0.xyz , t3
mov r0.w , v0.wwww



Die PixelShader der Radeon sind langsamer als die der GF3/4.
Und kaum schneller in Nature ist leicht untertrieben, meine GF4ti4200 schaft 62,0 fps, meine 8500 nur 46,4 fps (bei gleichen Takten, 250/250).
Und trotz PS1.4 und der damit verbundenen Einsparung von (afaik zwei) Renderpasses sieht´s im 03er Mark für die 8500 auch nicht gut aus.

StefanV
2003-03-04, 19:41:43
Originally posted by ow
Und kaum schneller in Nature ist leicht untertrieben, meine GF4ti4200 schaft 62,0 fps, meine 8500 nur 46,4 fps (bei gleichen Takten, 250/250).
Und trotz PS1.4 und der damit verbundenen Einsparung von (afaik zwei) Renderpasses sieht´s im 03er Mark für die 8500 auch nicht gut aus.

Hau mal 'nen 30er Treiber drauf, dann wird wohl anders ausschauen.
AM besten auch nochmal mit 'nem 20er 'vergleichen'

Achja, ist das diese bescheuerte Radeon mit 230/200MHz ?? *eg*

Exxtreme
2003-03-04, 19:50:06
Originally posted by Stefan Payne


Hau mal 'nen 30er Treiber drauf, dann wird wohl anders ausschauen.
AM besten auch nochmal mit 'nem 20er 'vergleichen'

Was versprichst du dir davon? Es macht keinen Sinn mit veralteten Treibern zu testen.

Demirug
2003-03-04, 19:50:58
Originally posted by ow


Ja, PS1.0.
Und zwar genau der hier:


ps.1.0


tex t0
texm3x3pad t1 , t0
texm3x3pad t2 , t0
texm3x3vspec t3 , t0
mov r0.xyz , t3
mov r0.w , v0.wwww



Dieser Shader ist ja auch so ziemlich das übelste was man einem R200 antun kann. Erschwerden kommt noch hinzu das man die Funktionalität dieses Shaders nicht exact mit PS 1.4 nachbilden kann.

Leonidas
2003-03-05, 00:32:44
Originally posted by Demirug
Der Thread wird langsam echt lustig. Ich sehe den armen Matt schon bei Jen-Hsun in der kleinen Bürozelle stehen wo er sich anhören muss was er mit seiner unbedachten Äusserung angestellt hat.



Und dabei habe ich es in den News extra so geschrieben, daß nicht dasteht: nVidia hat *dieserart* optimiert. Aber dies ist hier offentlich den meisten entgangen.

PS: Wer sagt denn, daß ATi nicht schon längst eine solche 3DMark-Optimierung laufen hat? Immerhin hatte man Zugang zu allen Beta-Version ...

Leonidas
2003-03-05, 00:33:58
Originally posted by zeckensack
Da ich ja anscheinend hier ordentlich den Stein ins Rollen gebracht habe:

Er spricht davon, aber so wie er darüber spricht, ist es klar daß er es selbst für Blödsinn hält. Er äußert sich nicht in die Richtung "Wir werden das so machen", sondern er hat in Kurzform nur gesagt
"3DM03 ist so blöd ... die beste Weg, diesen Benchmark zu gewinnen* ..."

*was er selbst für Zeitverschwendung hält.



Wie schon ausgeführt: In den 3DC-News steht nicht, nVidia hätte es getan. Sondern, daß nVidia dies für die beste Optimierungs-Möglichkeit hält. Ich glaube, ich schreib dazu nochmal ein Update.

Demirug
2003-03-05, 07:28:05
Originally posted by Leonidas



Und dabei habe ich es in den News extra so geschrieben, daß nicht dasteht: nVidia hat *dieserart* optimiert. Aber dies ist hier offentlich den meisten entgangen.

PS: Wer sagt denn, daß ATi nicht schon längst eine solche 3DMark-Optimierung laufen hat? Immerhin hatte man Zugang zu allen Beta-Version ...

Meine Aussage bezog sich eigentlich nicht auf die News sondern auf das was hier im Thread aus der Aussage von Matt gemacht wurde.

Virtual
2003-03-05, 08:18:09
Originally posted by Leonidas



Und dabei habe ich es in den News extra so geschrieben, daß nicht dasteht: nVidia hat *dieserart* optimiert. Aber dies ist hier offentlich den meisten entgangen.

PS: Wer sagt denn, daß ATi nicht schon längst eine solche 3DMark-Optimierung laufen hat? Immerhin hatte man Zugang zu allen Beta-Version ...


Ich habe die News auch richtig verstanden. Ebenso inhaltlich die Beiträge von Zeckensack und Demirug. Ich nahm mir allerdings die Freiheit einer eigenen Interpretation, ohne dabei zu spekulativ zu werden. Meine Auffassung liegt im Bereich des Möglichen und entbehrt nicht einer gewissen Logik. Solange wir nicht zweifelsfrei erklärt gekommen, woher die Steigerung kommt, traue ich dem guten PR-Matt alles zu. Selbstverständlich respektiere ich anderer Meinungen hierzu.


PS.
Stimmt, möglich ist alles! Doch Sinn macht es wenig. Wenn man den Beyond3D-Preview aufmerksam gelesen hat, dann leuchtet einem ein:

- PS1.4 ausreichend schnell in FP-Hardware
- Weniger Wahlmöglichkeiten bei der Genauigkeit für's mogeln ;) (nur mind. FP24 im Vergl. zu Int;FP16;FP32)
- Treiber-Compiler müßte außerdem aufgrund der übersichtlicheren Ziel-Architektur einfacher zu entwickeln sein. Karte bereits seit 6 Mon am Markt -> Genug Zeit, um Treiber konventionell zu optimieren.

Gegenfrage:
Wo kommen nun die 50% Leistungssteigerung her und WARUM kommen wir erst nach dem Release des 3DMurks03 in den Genuß der Steigerung und dann noch so kurzfristig!

Hat der gute Matt nicht's besseres zu tun als über mangelnde Qualität der Konkurrenz zu reden. Sollte er nicht vielmehr zunächst den Mist vor seiner eigenen Haustüre kehren?

NVdidia und PR! - Das paßt zusammen, wie die Faust auf's Auge!

R.
V.

Unregistered
2003-03-05, 09:12:12
Originally posted by Leonidas


PS: Wer sagt denn, daß ATi nicht schon längst eine solche 3DMark-Optimierung laufen hat? Immerhin hatte man Zugang zu allen Beta-Version ...

Ich gehe davon aus, dass dem so ist.
Nach dem Aussteigen NVs aus dem Beta-Programm hat ATi sicher Futuremark die Shader vorgegeben, die auf Radeons gut laufen und auf NV nicht. Das Ergebnis sieht man ja.

Exxtreme
2003-03-05, 09:21:43
Originally posted by Unregistered


Ich gehe davon aus, dass dem so ist.
Nach dem Aussteigen NVs aus dem Beta-Programm hat ATi sicher Futuremark die Shader vorgegeben, die auf Radeons gut laufen und auf NV nicht. Das Ergebnis sieht man ja.
Das glaube ich wiederum nicht. ATi hätte nämlich nicht wissen können, welche Shader auf dem NV30 schlecht laufen. Ausserdem ist von "unoptimierten" Shadern die Rede. Daß der NV30 damit schlecht zurecht kommt hat NV ganz alleine zu verantworten.

Unregistered
2003-03-05, 09:22:05
Originally posted by ow

Die PixelShader der Radeon sind langsamer als die der GF3/4.
Und kaum schneller in Nature ist leicht untertrieben, meine GF4ti4200 schaft 62,0 fps, meine 8500 nur 46,4 fps (bei gleichen Takten, 250/250).
Und trotz PS1.4 und der damit verbundenen Einsparung von (afaik zwei) Renderpasses sieht´s im 03er Mark für die 8500 auch nicht gut aus.

Na was regt ihr euch dann so auf?

Die GF3/4 ist beim Nature-Test 3DMark01SE also schneller als die R8500, und das trotz PS1.4. Also wird die R9500 auch nicht viel schneller sein (hat jemand die Benchergebnisse?)
Damit sollte also beim 3DMark03 auch ein ausgeglichenes Ergebnis rauskommen, wenn die GF-Karten PS1.1 und die R8500/9000 Karten den PS1.4 benutzen für die GT2 und 3.

StefanV
2003-03-05, 11:46:24
Originally posted by Exxtreme

Was versprichst du dir davon?

Die erkenntnis, daß die GF4 erst mit den 40er Detos im Nature schneller ist als die Radeon.

Radeonator
2003-03-05, 11:48:58
Krass, die GF FX verwendet also Cheater Treiber, um im 3dMurks gut darzustehen. Wie man an den heutigen News sieht hat NV hier auf 3D Center ein wenig Druck gemacht, damit die News "NV freundlich" gestaltet werden. Warum tatsächlich ein wiederruf reingestellt wurde lass ich mal so hingestellt ...

Komisch das sich da jetzt keine drüber aufregt, wenn NV genau das macht was bei der Radeon schwere Diskussionen ausgelöst hat ;)

Exxtreme
2003-03-05, 11:51:00
Originally posted by Stefan Payne


Die erkenntnis, daß die GF4 erst mit den 40er Detos im Nature schneller ist als die Radeon. Ja... und? Die Treiber werden mit der Zeit besser.

P.S. Die ersten R8500-Treiber warem beim Nature auch ziemlich lahm.

Unregistered
2003-03-05, 11:51:07
Originally posted by Stefan Payne


Die erkenntnis, daß die GF4 erst mit den 40er Detos im Nature schneller ist als die Radeon.

vielleicht sollte man dann auch einen prä-catalyst Treiber auf den Radeons einsetzen.

Unregistered
2003-03-05, 11:52:26
Originally posted by Radeonator
Krass, die GF FX verwendet also Cheater Treiber, um im 3dMurks gut darzustehen.


Nicht mehr oder weniger als ATi auch.

Exxtreme
2003-03-05, 11:55:52
Originally posted by Radeonator
Krass, die GF FX verwendet also Cheater Treiber, um im 3dMurks gut darzustehen.
Wo steht das?

Exxtreme
2003-03-05, 11:56:10
Originally posted by Unregistered



Nicht mehr oder weniger als ATi auch.
Beweise?

Radeonator
2003-03-05, 12:02:58
Originally posted by Exxtreme

Wo steht das?

Es steht auf 3d-Center (News 3März), vielleicht kennst du die Site ja ??? ;)

Exxtreme
2003-03-05, 12:20:47
Originally posted by Radeonator


Es steht auf 3d-Center (News 3März), vielleicht kennst du die Site ja ??? ;)
Dann zeig mir bitte den Satz, indem Leo geschrieben hat, daß NV in den Treibern cheatet.

Andre
2003-03-05, 12:23:05
Originally posted by Radeonator
Wie man an den heutigen News sieht hat NV hier auf 3D Center ein wenig Druck gemacht, damit die News "NV freundlich" gestaltet werden. Warum tatsächlich ein wiederruf reingestellt wurde lass ich mal so hingestellt ...

Ich glaube, du leidest unter Paranoia.

Radeonator
2003-03-05, 12:24:33
Originally posted by Andre


Ich glaube, du leidest unter Paranoia.

Oder Du bist Ignorant...

Andre
2003-03-05, 12:25:57
Originally posted by Radeonator


Oder Du bist Ignorant...

Wo nichts ist, kann man auch nichts ignorieren.

Andre
2003-03-05, 12:26:36
Originally posted by Stefan Payne


Die erkenntnis, daß die GF4 erst mit den 40er Detos im Nature schneller ist als die Radeon.

Und?

Unregistered
2003-03-05, 12:29:09
Originally posted by Exxtreme

Beweise?


Gegenbeweise?

Unregistered
2003-03-05, 12:30:25
Originally posted by Exxtreme

Dann zeig mir bitte den Satz, indem Leo geschrieben hat, daß NV in den Treibern cheatet.

ja, den würde ich auch gern sehen.

Exxtreme
2003-03-05, 12:30:57
Originally posted by Unregistered



Gegenbeweise?
Wir leben in einem Rechtstaat. Das bedeutet, daß jeder solange als unschuldig gilt bis jemand die Schuld bewiesen hat und nicht umgekehrt. Also musst du beweisen, daß ATi cheatet. ;)

Unregistered
2003-03-05, 12:32:32
Originally posted by Andre


Ich glaube, du leidest unter Paranoia.

Ack.

Schon witzig, was sich manche FanATiker in ihrer Paranoia erlauben. Da werden Aussagen bewusst verfälscht dargestellt und nach Korrektur/Ergaenzung auf der 3DC Website wird von Druck seitens NV gesprochen -> :lol::lol:

Unregistered
2003-03-05, 12:33:34
Originally posted by Exxtreme

Wir leben in einem Rechtstaat. Das bedeutet, daß jeder solange als unschuldig gilt bis jemand die Schuld bewiesen hat und nicht umgekehrt. Also musst du beweisen, daß ATi cheatet. ;)


Nein, ich hätte gerne einen Beweis dass NV cheatet. Denn das wird ja hier behauptet, oder nicht?

Exxtreme
2003-03-05, 12:34:14
Originally posted by Unregistered



Nein, ich hätte gerne einen Beweis dass NV cheatet. Denn das wird ja hier behauptet, oder nicht?
Also ich habe es in dem Fall nicht behauptet. ;)

Radeonator
2003-03-05, 12:44:48
Originally posted by Andre


Wo nichts ist, kann man auch nichts ignorieren.

Achso, du bist wirklich ignorant...

Montag kam die Meldung 50% Performance Zuwachs mit Begründung...
Heute wird sich rumgewunden von Mißverständnissen und vielleicht evtl. Möglichkeiten gesprochen, die so natütrlich nie genutzt werden...
Den mysthischen 50% Performance Gain im 3dMark only, wird Leo ja dann testen können :) Vielleicht ja doch nur ein "Mißverständnis" , jedenfalls wenn überall eine Performance Steigerung erkennbar sein wird...

Exxtreme
2003-03-05, 12:47:09
Originally posted by Radeonator

Montag kam die Meldung 50% Performance Zuwachs mit Begründung...

Nicht wirklich. =)

Demirug
2003-03-05, 13:08:27
Nachdem bei Beyond3d ein neues Interview aufgetaucht ist (s. http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=58422)
kann ich mir denken wo die 50% plötzlich hergekommen sind.

Test 2, 3 und 4 machen massiv gebrauch von PS 1.4. Wenn ich Futuremark richtig verstanden habe primär um Renderpasses (weil 6 Texturen) zu sparen (bei Test 2 und 3).

Diese neue Interview bestätigt nun das im NV30 noch reine Integer Rechenwerke sind welche primär für die "alten" DX8 Level anwendungen zuständig sind. Nun hat man aber scheinbar diese Einheiten nicht einfach hinter die FP-Einheiten gehängt (was das OpenGL für NV30 Dokument vermuten läst) sonder diese parrallel zu den FP Einheiten eingebaut. In dem Interview wird nun gesagt das man Integer und FP Einheiten bei der Verwendung der neuen Extension auch gleichzeit benutzten kann was eine Verdopplung des Durchsatzes erlaubt.

Die PS 1.4 verlangen nur Integer Genauigkeit. Es ist also durchaus möglich das NVIDIA den Treiber so modifiziert hat das er beim Umsetzten von PS 1.4 Programmen sowohl die Integer wie auch die FP-Rechenwerke des Chips nutzt.

Ich weis das schon einige hier einen ähnliches Verdacht hatten und ich es als technisch nicht machbar eingestuft habe. Zu diesem Zeitpunkt ging ich aber noch davon aus das die FP und die Integereinheiten hintereinader und nicht nebeneinader gebaut (Vom Datenfluss) sind. Mein Fehler aber ich habe keine Probleme damit meine Meinung zu ändern wenn neue Fakten auftauchen.

Ich glaube aber weiterhin nicht daran das eine Integer einheit schneller als eine FP16 Einheit rechnet. Wenn man aber die Register Combiner (diese stellen die Integer-Rechenwerke bis zum NV25 dar)kennt weiss man das diese relative Komplexe Berechnungen in einem "virtuellen" Takt ausführen können. So hat es NVIDIA geschafft Pixelshader welche eigentlich 4 oder sogar 5 Ops haben und deshalb eigentlich auch 4 oder 5 Takte benötigen würden mit nur 2 oder 3 Register combinder Operationen ablaufen zu lassen. Das bringt natürlich durchaus etwas. Wenn man also im ersten Treiber die PS 1.4 vollständig nur über die FP Einheiten laufen lassen hat und nun die Integer einheiten als Unterstützung dazu nimmt lassen sie die 50% gut erklären auch ohne das man dafür den gesamten Renderpfad austauschen muss.

Wenn dieses den Tatsachen entspricht ist auch nicht verwunderlich das nur der 3dmark davon profitiert hat. Selbst wenn es eine allgemeine PS 1.4 Optimierung war könnte kaum ein Spiel davon profitieren. Und ich glaube nicht an eine allgemeine sonder nur an eine für die 3dmark shader.

Andre
2003-03-05, 13:12:09
Originally posted by Radeonator


Achso, du bist wirklich ignorant...

Montag kam die Meldung 50% Performance Zuwachs mit Begründung...
Heute wird sich rumgewunden von Mißverständnissen und vielleicht evtl. Möglichkeiten gesprochen, die so natütrlich nie genutzt werden...
Den mysthischen 50% Performance Gain im 3dMark only, wird Leo ja dann testen können :) Vielleicht ja doch nur ein "Mißverständnis" , jedenfalls wenn überall eine Performance Steigerung erkennbar sein wird...

Nur mal so am Rande:
Wieso ist die von Demirug beschriebene Optimierung ein Cheat?
Optimierung != Cheat.
ATI macht das genauso wie NV.
Sowas nennt man Treiberentwicklung.

Unregistered
2003-03-05, 13:13:10
Originally posted by Exxtreme

Nicht wirklich. =)

vielleicht sollte der kamerad einfach mal seine fanatiker Brille absetzen und richtig lesen lernen.:D

Radeonator
2003-03-05, 14:15:00
Originally posted by Unregistered


vielleicht sollte der kamerad einfach mal seine fanatiker Brille absetzen und richtig lesen lernen.:D

Vielleicht sollten manchen unregs auch einfach ihre fingerchen still halten ;)

StefanV
2003-03-05, 15:04:40
Originally posted by Radeonator


Vielleicht sollten manchen unregs auch einfach ihre fingerchen still halten ;)

Vielleicht sollten die regs die unregs besser behandeln !!

Radeonator
2003-03-05, 15:16:00
Originally posted by Stefan Payne


Vielleicht sollten die regs die unregs besser behandeln !!

Vielleicht solltest gerade Du , ertsmal vor der eigenen Türe kehren.

Hab das Thema an anderer Stelle vorerst abgehakt, bis zur endgültigen Klärung wo dieser mysthische 50% gain herkommt jedenfalls. Sollte sich rausstellen das es sich wirklich um eine reine 3dMurks optimierung handelt, werde ich meine Meinung dazu nochmals äussern.

Exxtreme
2003-03-05, 15:21:49
Wenn ihr nicht aufhört euch zu dissen, dann mache ich den Thread dicht!

Also bitte ontopic bleiben.

Demirug
2003-03-05, 15:23:11
Kommt schon Jungs (und Mädels?) bleibt beim Thema. Sich gegenseitig anplaffen bringt keinen weiter.

auki
2003-03-05, 15:24:16
Originally posted by Demirug
Nachdem bei Beyond3d ein neues Interview aufgetaucht ist (s. http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=58422)
kann ich mir denken wo die 50% plötzlich hergekommen sind.

Test 2, 3 und 4 machen massiv gebrauch von PS 1.4. Wenn ich Futuremark richtig verstanden habe primär um Renderpasses (weil 6 Texturen) zu sparen (bei Test 2 und 3).

Diese neue Interview bestätigt nun das im NV30 noch reine Integer Rechenwerke sind welche primär für die "alten" DX8 Level anwendungen zuständig sind. Nun hat man aber scheinbar diese Einheiten nicht einfach hinter die FP-Einheiten gehängt (was das OpenGL für NV30 Dokument vermuten läst) sonder diese parrallel zu den FP Einheiten eingebaut. In dem Interview wird nun gesagt das man Integer und FP Einheiten bei der Verwendung der neuen Extension auch gleichzeit benutzten kann was eine Verdopplung des Durchsatzes erlaubt.

Die PS 1.4 verlangen nur Integer Genauigkeit. Es ist also durchaus möglich das NVIDIA den Treiber so modifiziert hat das er beim Umsetzten von PS 1.4 Programmen sowohl die Integer wie auch die FP-Rechenwerke des Chips nutzt.

Ich weis das schon einige hier einen ähnliches Verdacht hatten und ich es als technisch nicht machbar eingestuft habe. Zu diesem Zeitpunkt ging ich aber noch davon aus das die FP und die Integereinheiten hintereinader und nicht nebeneinader gebaut (Vom Datenfluss) sind. Mein Fehler aber ich habe keine Probleme damit meine Meinung zu ändern wenn neue Fakten auftauchen.

Ich glaube aber weiterhin nicht daran das eine Integer einheit schneller als eine FP16 Einheit rechnet. Wenn man aber die Register Combiner (diese stellen die Integer-Rechenwerke bis zum NV25 dar)kennt weiss man das diese relative Komplexe Berechnungen in einem "virtuellen" Takt ausführen können. So hat es NVIDIA geschafft Pixelshader welche eigentlich 4 oder sogar 5 Ops haben und deshalb eigentlich auch 4 oder 5 Takte benötigen würden mit nur 2 oder 3 Register combinder Operationen ablaufen zu lassen. Das bringt natürlich durchaus etwas. Wenn man also im ersten Treiber die PS 1.4 vollständig nur über die FP Einheiten laufen lassen hat und nun die Integer einheiten als Unterstützung dazu nimmt lassen sie die 50% gut erklären auch ohne das man dafür den gesamten Renderpfad austauschen muss.

Wenn dieses den Tatsachen entspricht ist auch nicht verwunderlich das nur der 3dmark davon profitiert hat. Selbst wenn es eine allgemeine PS 1.4 Optimierung war könnte kaum ein Spiel davon profitieren. Und ich glaube nicht an eine allgemeine sonder nur an eine für die 3dmark shader.

das wäre eine logische und nachvollziehbare möglichkeit, woher die 50% kommen.
warum denkst du, dass es nur für 3DMark optimiert ist?
Wäre doch quatsch. Warum sollte der Treiber das nicht bei allen shadern machen? Um noch ein weiteren Prefomance boost auf Tasche zu haben?

Demirug
2003-03-05, 15:48:07
auki, das richtige verteilen von Instuktionen auf zwei unterschiedliche Funktionseinheiten ist nicht ganz einfach. Da müssen abhängikeiten berücksichtigt werden sowie bestimmt werden ob man einen Anweisung überhaupt auf einer Einheit ausführen kann usw. Für einen Menschen ist das eine relative einfache arbeit diesen Process aber so zu automatisieren das es automatisch (und schnell) funktioniert ist schon komplizierter. Der Treiberteil der das machen muss ist dieser Shadercompiler von NVIDIA immer wieder gerne spricht.

Beim 3dmark könnte man nun die x Shader die dieser benutzt einmal von Hand optimieren und im Treiber hinterlegen. Sobald der Shadercompiler erkennt das ein solcher Shader benutzt wird spart er sich den Compilerlauf und benutzt den optimierten.

Die 1.1-1.3 Shadern könnnte man durch ausnutzen beider Pipelines (FP und Int) unter umständen auch noch beschleunigen aber für diese hat NVIDIA ja schon ganz gute Compiler und diese auf die Int einheiten umzusetzen. Und die 1.1 -1.3 Shader dürften in den meisten Fällen eher an der Fillrate als an der Rechenleistung blockieren.

Und bei den > 2.0 Shader darf NVIDIA ja nicht so einfach nach lauen mal schnell auf die Inteinheit ausweichen weil der Shaderprogrammier ja davon ausgeht das er FPs hat.

Aus diesem Grund macht diese optimierung fast nur bei den 1.4 Shadern Sinn und dort primär erst mal nur beim 3dmark weil es ja sonst kaum eine Anwendung gibt die 1.4 Shader benutzt.

Kennung Eins
2003-03-05, 15:56:27
Nur mal so eine Frage:

Wenn man das, was nV da gemacht hat, als ..hm.. "legitim" betrachtet, dann müsste "Cheaten" mit dem 3DAnalyze ja auch legitim sein, oder?

Je nach dem, wie man es anwendet.

aths
2003-03-05, 16:01:26
Originally posted by Radeonator
Krass, die GF FX verwendet also Cheater Treiber, um im 3dMurks gut darzustehen. Wie man an den heutigen News sieht hat NV hier auf 3D Center ein wenig Druck gemacht, damit die News "NV freundlich" gestaltet werden. Warum tatsächlich ein wiederruf reingestellt wurde lass ich mal so hingestellt ...

Komisch das sich da jetzt keine drüber aufregt, wenn NV genau das macht was bei der Radeon schwere Diskussionen ausgelöst hat ;) Also ich denke, nVidia kommt bei uns weder zu gut, noch zu schlecht weg.

nV übt auf 3DCenter keinen Druck aus. Leo ist auch niemand, der "voraus eilenden Gehorsam" gegenüber nV oder einer anderen Firma zeigt.

auki
2003-03-05, 16:58:26
Originally posted by Demirug
auki, das richtige verteilen von Instuktionen auf zwei unterschiedliche Funktionseinheiten ist nicht ganz einfach. Da müssen abhängikeiten berücksichtigt werden sowie bestimmt werden ob man einen Anweisung überhaupt auf einer Einheit ausführen kann usw. Für einen Menschen ist das eine relative einfache arbeit diesen Process aber so zu automatisieren das es automatisch (und schnell) funktioniert ist schon komplizierter. Der Treiberteil der das machen muss ist dieser Shadercompiler von NVIDIA immer wieder gerne spricht.

Beim 3dmark könnte man nun die x Shader die dieser benutzt einmal von Hand optimieren und im Treiber hinterlegen. Sobald der Shadercompiler erkennt das ein solcher Shader benutzt wird spart er sich den Compilerlauf und benutzt den optimierten.

Die 1.1-1.3 Shadern könnnte man durch ausnutzen beider Pipelines (FP und Int) unter umständen auch noch beschleunigen aber für diese hat NVIDIA ja schon ganz gute Compiler und diese auf die Int einheiten umzusetzen. Und die 1.1 -1.3 Shader dürften in den meisten Fällen eher an der Fillrate als an der Rechenleistung blockieren.

Und bei den > 2.0 Shader darf NVIDIA ja nicht so einfach nach lauen mal schnell auf die Inteinheit ausweichen weil der Shaderprogrammier ja davon ausgeht das er FPs hat.

Aus diesem Grund macht diese optimierung fast nur bei den 1.4 Shadern Sinn und dort primär erst mal nur beim 3dmark weil es ja sonst kaum eine Anwendung gibt die 1.4 Shader benutzt.

das heisst man muss jeden eizelnen Shader "per hand" eingeben, welcher auf FP und Int - einheit aufgeteilt werden soll?
wäre das nicht ein bisschen zuviel arbeit für ein programm, von dem sich nV klar distanziert?

Demirug
2003-03-05, 17:36:45
Originally posted by auki


das heisst man muss jeden eizelnen Shader "per hand" eingeben, welcher auf FP und Int - einheit aufgeteilt werden soll?
wäre das nicht ein bisschen zuviel arbeit für ein programm, von dem sich nV klar distanziert?

Distanzieren heist ja nicht das man deswegen schlechter aussehen will als nötig.

Ob es nun wirklich komplett von Hand, teilautomatisiert oder sogar schon vollautomatisch geht weiss ich nicht. Aber selbst wenn alles von Hand gemacht wurde dürfte einer der Treiberleute da nicht länger als 1 bis 2 Tage daran gearbeitet haben. Vom Aufwand ist das für NVIDIA zu verschmerzen. Richtige Fehler zu suchen ist viel aufwendiger.

Virtual
2003-03-05, 22:28:54
Originally posted by aths
Also ich denke, nVidia kommt bei uns weder zu gut, noch zu schlecht weg.

nV übt auf 3DCenter keinen Druck aus. Leo ist auch niemand, der "voraus eilenden Gehorsam" gegenüber nV oder einer anderen Firma zeigt.

Kann man wirklich bestätigen! - Weiter so! :)

Wenn wir denn schon gerade beim Thema bevorzugen oder benachteiligen von NV sind und obwohl es eigentlich OT bezüglich Thread ist:
Gibt's 'ne kurze Antwort auf die Frage, wie nun Leo die adaptive trilineare Filterung (meine Worte) im balanced-AF-Mode der FX im Vergleich zum Performance-/Quality Setting des R300 bewerten wird?

G.
V.

aths
2003-03-05, 22:43:13
Originally posted by Virtual
Gibt's 'ne kurze Antwort auf die Frage, wie nun Leo die adaptive trilineare Filterung (meine Worte) im balanced-AF-Mode der FX im Vergleich zum Performance-/Quality Setting des R300 bewerten wird?Da frag mal am besten den Meister selbst :)

Ich bin erklärtermaßen kein Fan davon, unterschiedliche Verfahren gegeneinander zu benchen.

Virtual
2003-03-05, 23:01:16
Originally posted by Demirug
Nachdem bei Beyond3d ein neues Interview aufgetaucht ist (s. http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=58422)
kann ich mir denken wo die 50% plötzlich hergekommen sind.

Test 2, 3 und 4 machen massiv gebrauch von PS 1.4. Wenn ich Futuremark richtig verstanden habe primär um Renderpasses (weil 6 Texturen) zu sparen (bei Test 2 und 3).

Diese neue Interview bestätigt nun das im NV30 noch reine Integer Rechenwerke sind welche primär für die "alten" DX8 Level anwendungen zuständig sind. Nun hat man aber scheinbar diese Einheiten nicht einfach hinter die FP-Einheiten gehängt (was das OpenGL für NV30 Dokument vermuten läst) sonder diese parrallel zu den FP Einheiten eingebaut. In dem Interview wird nun gesagt das man Integer und FP Einheiten bei der Verwendung der neuen Extension auch gleichzeit benutzten kann was eine Verdopplung des Durchsatzes erlaubt.

Die PS 1.4 verlangen nur Integer Genauigkeit. Es ist also durchaus möglich das NVIDIA den Treiber so modifiziert hat das er beim Umsetzten von PS 1.4 Programmen sowohl die Integer wie auch die FP-Rechenwerke des Chips nutzt.

Ich weis das schon einige hier einen ähnliches Verdacht hatten und ich es als technisch nicht machbar eingestuft habe. Zu diesem Zeitpunkt ging ich aber noch davon aus das die FP und die Integereinheiten hintereinader und nicht nebeneinader gebaut (Vom Datenfluss) sind. Mein Fehler aber ich habe keine Probleme damit meine Meinung zu ändern wenn neue Fakten auftauchen.

Ich glaube aber weiterhin nicht daran das eine Integer einheit schneller als eine FP16 Einheit rechnet. Wenn man aber die Register Combiner (diese stellen die Integer-Rechenwerke bis zum NV25 dar)kennt weiss man das diese relative Komplexe Berechnungen in einem "virtuellen" Takt ausführen können. So hat es NVIDIA geschafft Pixelshader welche eigentlich 4 oder sogar 5 Ops haben und deshalb eigentlich auch 4 oder 5 Takte benötigen würden mit nur 2 oder 3 Register combinder Operationen ablaufen zu lassen. Das bringt natürlich durchaus etwas. Wenn man also im ersten Treiber die PS 1.4 vollständig nur über die FP Einheiten laufen lassen hat und nun die Integer einheiten als Unterstützung dazu nimmt lassen sie die 50% gut erklären auch ohne das man dafür den gesamten Renderpfad austauschen muss.

Wenn dieses den Tatsachen entspricht ist auch nicht verwunderlich das nur der 3dmark davon profitiert hat. Selbst wenn es eine allgemeine PS 1.4 Optimierung war könnte kaum ein Spiel davon profitieren. Und ich glaube nicht an eine allgemeine sonder nur an eine für die 3dmark shader.

Die Erklärung könnte gut den Tatsachen entsprechen! :)

starfish
2003-03-05, 23:09:58
Originally posted by Demirug
Aus diesem Grund macht diese optimierung fast nur bei den 1.4 Shadern Sinn und dort primär erst mal nur beim 3dmark weil es ja sonst kaum eine Anwendung gibt die 1.4 Shader benutzt.

müsste dann nicht auch der "advanced pixel shader" test im 2001se schneller laufen?

Demirug
2003-03-05, 23:13:46
Originally posted by starfish7985


müsste dann nicht auch der "advanced pixel shader" test im 2001se schneller laufen?

Das hängt davon ab ob man nun schon eine generelle PS 1.4 Optimierung eingebaut hat oder lediglich Optimierungen für die im 2003 benutzten Shader vorgesehen hat und letzend Endes ob ich mit meiner Vermutung (den mehr ist es ja nicht) überhaupt recht habe.

StefanV
2003-03-05, 23:16:13
Originally posted by starfish7985

müsste dann nicht auch der "advanced pixel shader" test im 2001se schneller laufen?

nein, nicht wenns eine '3dM 03 only' Optimierung ist...

starfish
2003-03-05, 23:20:44
Originally posted by Demirug


Das hängt davon ab ob man nun schon eine generelle PS 1.4 Optimierung eingebaut hat oder lediglich Optimierungen für die im 2003 benutzten Shader vorgesehen hat und letzend Endes ob ich mit meiner Vermutung (den mehr ist es ja nicht) überhaupt recht habe.

daher ja auch mein "müsste" ;)

ps: thx für die antwort.

ZilD
2003-04-01, 01:53:21
ein benchmark soll was gleichschaun und nicht daherkommen wie so ein verstaubtes *QIII bzw. UT ~gebilde~*

was bringt einem das wenn man mit einer 9700 od FX unhübsche games benchmarkt ?