PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3DMark03 Patch 340 und die Auswirkungen


Seiten : 1 [2] 3

MikBach
2003-11-14, 11:12:44
In ein paar Monaten:

Aussagen der Spielentwickler:

Fall1: " Das Spiel verzögert sich um 2 Monate, weil wir noch für NVidia optimieren müssen "

Ergebnis: Aufstand der Gamer> Nvidia tot

Fall2: " Leider ist unser Spiel nur mit ATI-Hardware vernünftig spielbar, aber wir schieben in 1-2 Monaten ein Patch
für NVidia nach.

Ergebnis: Wer will schon warten? Also ab in den Laden ATI kaufen.

Na, so schlimm wird das vielleicht nicht sein, aber es ist durchaus vorstellbar, dass viele (vor allem kleinere) Firmen
sich nicht die Mühe machen werden für Nvidia zu optimieren, denn sie schreiben ja DirectX9 konform.
Außerdem kostet solch eine Optimierung viel Zeit und damit GELD, und ich glaube kaum, dass NVidia soooviel Geld und
"manpower" hat,um allden Spieleherstellern zu "helfen".

An Exxtreme: Glaubst Du wirklich, dass man ALLE Shader eines komplexen Spiels(wie z.B. HL2) in ein paar Tagen optimieren kann.
Da wäre ich mir nicht so sicher, vor allem weil die Shader immer komplexer werden und eine Optimierung JEDES Shaders nochüberprüft werden muss. =)

Exxtreme
2003-11-14, 11:16:50
Original geschrieben von MikBach
An Exxtreme: Glaubst Du wirklich, dass man ALLE Shader eines komplexen Spiels(wie z.B. HL2) in ein paar Tagen optimieren kann.
Da wäre ich mir nicht so sicher, vor allem weil die Shader immer komplexer werden und eine Optimierung JEDES Shaders nochüberprüft werden muss. =)
Klar geht das nur in einem begrenzten Rahmen. Diese Option kann man eigentlich nur dann nutzen wenn ein Shader richtig schlecht läuft und die Entwickler wissen nicht wieso. Da kann der Dev-Support helfen.

nggalai
2003-11-14, 11:22:58
Original geschrieben von zeckensack
Die Anpassung der Shader an die Hardware ist Aufgabe der Treiber. ... und wird beim 52.16er offensichtlich ganz gut gehandhabt. Man vergleiche nur mal Patch 340-Werte von 3DMark03 unter 44.03 und 52.16.

93,
-Sascha.rb

zeckensack
2003-11-14, 11:39:27
Original geschrieben von nggalai
... und wird beim 52.16er offensichtlich ganz gut gehandhabt. Man vergleiche nur mal Patch 340-Werte von 3DMark03 unter 44.03 und 52.16.

93,
-Sascha.rb Ya :schlag:
Das ist die Performance, die man iA von dem Treiber erwarten kann ... aber eben nicht die bei NV in-house vorberechneten Austausch-Shader, die nur unter 'ganz speziellen' Rahmenbedingungen zum Einsatz kommen.
Darum geht's doch hier :)

MadManniMan
2003-11-14, 12:43:17
*grrr* OMFG - ist denn der Postingcounter wieder ersichtlich? *hint* (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=103299) :no:

Und wenn sich jetzt niemand angesprochen fühlen sollte, kotz ich gegen die Wand und reib mich dran...


BTW, Zecki: ich bin mal gespannt, wie sich Razor zu dem von dir geschriebenen äußert. Also das, was du als relative "Instanz" wiederholt hast, was er von anderen bisher anscheinend nicht für voll genommen hat.

seahawk
2003-11-14, 12:59:50
Original geschrieben von zeckensack
Die Anpassung der Shader an die Hardware ist Aufgabe der Treiber.

Nö, tut mir leid. Die Optimierung der Shader ist Aufgabe der Treiber, anpassen muss der Softwarehersteller. Die müssen ggf. FP16 zu lassen oder eben nicht. Ich vermute NV nutzt da Shader die teilweise FP16 machen, da FM keine entsprechenden Reduced Precision Calls in seinen Shader verwendet.

Es ist nunmal so, dass NV mixed Mode nutzt und ATI pure 24 FP. Beide Lösungen entsprechen den DX9 Spezifikationen, daher ist keinem von beiden ein Vorwurf zu machen. DX9 ist eben nicht nur ATI.

nggalai
2003-11-14, 13:20:12
Original geschrieben von zeckensack
Ya :schlag:
Das ist die Performance, die man iA von dem Treiber erwarten kann ... aber eben nicht die bei NV in-house vorberechneten Austausch-Shader, die nur unter 'ganz speziellen' Rahmenbedingungen zum Einsatz kommen.
Darum geht's doch hier :) Genau, deshalb auch meine Post. ;) NV behauptet ja, dass der gesamte "unified compiler" durch den Patch ausgehebelt wird. Der Ergebnisvergleich lässt aber eher den Schluss zu, dass eben NUR die spezifischen, nicht-zulässigen "Optimierungen" gekickt wurden. Daher auch der starke Einbruch beim 44.03er (über 30% für NV35 über die Gesamtpunktzahl)--da war der "automatische" Compiler noch ned in der Form mit dabei wie beim 52.16er, dafür aber offensichtlich bereits einige heftige "Optimierungen", die dann auch entsprechend reingeschlagen haben. Der Gesamteinbruch beim 52.16er beträgt dann auch nur noch rund 15%, wohl eben, weil der Compiler tut.

93,
-Sascha.rb

zeckensack
2003-11-14, 13:23:00
Original geschrieben von seahawk
Nö, tut mir leid. Die Optimierung der Shader ist Aufgabe der Treiber, anpassen muss der Softwarehersteller.Sorry, Anpassung war unklar, ich meinte auch Optimierung. Ehrlich :)
Die müssen ggf. FP16 zu lassen oder eben nicht. Ich vermute NV nutzt da Shader die teilweise FP16 machen, da FM keine entsprechenden Reduced Precision Calls in seinen Shader verwendet.

Es ist nunmal so, dass NV mixed Mode nutzt und ATI pure 24 FP. Beide Lösungen entsprechen den DX9 Spezifikationen, daher ist keinem von beiden ein Vorwurf zu machen. DX9 ist eben nicht nur ATI.Ist recht. Das kann man als Benachteiligung der NV3xe werten, von mir aus auch "sinnloses Verballern unschuldiger Bits" seitens FM.
Das erklärt nur leider trotzdem nicht den Unterschied in der Performance Patch 330=>Patch 340 auf NV3x.

out=a*b+c
out=b*a+cEinen Compiler, der diese beiden Sequenzen nicht gleich gut 'optimieren' kann, denn kann sich NV's PR-Abteilung von mir aus in die Haare schmieren.

Wenn man mit sowas auf(die Fresse)fliegt, dann IMO völlig zu recht.

zeckensack
2003-11-14, 13:28:09
Original geschrieben von MadManniMan
*grrr* OMFG - ist denn der Postingcounter wieder ersichtlich? *hint* (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=103299) :no:

Und wenn sich jetzt niemand angesprochen fühlen sollte, kotz ich gegen die Wand und reib mich dran...Das bringt die Gefahr mit sich, später gar fürchterlich zu stinken :flower:

BTW, Zecki: ich bin mal gespannt, wie sich Razor zu dem von dir geschriebenen äußert. Also das, was du als relative "Instanz" wiederholt hast, was er von anderen bisher anscheinend nicht für voll genommen hat. Ich habe mit Razor ja schon mehrmals ... ähhh ... kommuniziert, und vermute mal ganz unverbindlich, daß er sich seine Meinung schon irgendwie ... ähhh ... selbst bildet. Steht ja auch jedem frei :)

nggalai
2003-11-14, 13:51:04
Update von NV:

http://www.xbitlabs.com/news/video/display/20031114041519.html

Luciano Alibrandi, European Product PR Manager for NVIDIA Corporation, has made a correction in regards previous information about NVIDIA’s Unified Compiler and 3DMark03 benchmark after getting into details with the company’s engineers. Apparently, the statement claiming that NVIDIA’s Unified Complier deployed to optimize pixel shader performance is disabled by the new version of 3DMark03 is not fully correct.


“I would like to inform you that a part of my response was not accurate. I stated that the compiler gets disabled, by 3DMark and that is in fact not true,” he said.

So, after all NVIDIA denied the problems between the Unified Compiler technology and the latest version of popular 3DMark03 benchmark. As a result, we may now conclude that the accusations in Futuremark direction from Hans-Wolfram Tismer, a Managing Director for Gainward Europe GmbH were not correct at all.

In October 2003 Santa Clara, California-based NVIDIA Corporation introduced its Unified Compiler integrated in its ForceWare 52.16 drivers to optimize Pixel Shader code for NVIDIA GeForce FX architecture in an attempt to improve performance of graphics cards powered by NVIDIA’s latest GPUs in variety of demanding applications.

NVIDIA said that the Unified Compiler technology tunes DirectX 9.0 execution on the GeForce FX GPUs, and can be used to correct any similar conflict that arises with future APIs. NVIDIA indicated the Unified Compiler as an automatic tuning tool that optimizes Pixel Shader performance in all applications, not just on specific ones. Officials from NVIDIA again stressed today that one of the things the Unified Compiler does is to reinstruct the order of lines of code in a shader. By simply doing this the performance can increase dramatically since the GeForce FX technology is very sensitive to instruction order. So, if the re-ordering is not happening NVIDIA’s GeForce FX parts have a performance penalty.

Since the complier is still active with the new version of 3DMark03 there is currently no explanations for performance drops of certain GeForce FX parts in the latest build 340 of the famous 3DMark03.

“The only change in build 340 is the order of some instructions in the shaders or the registers they use. This means that new shaders are mathematically equivalent with previous shaders. A GPU compiler should process the old and the new shader code basically with the same performance,” said Tero Sarkkinen, Executive Vice President of Sales and Marketing for Futuremark Corporation – the developer of 3DMark03 application.

He was indirectly confirmed by an ATI official yesterday, who said: “ATI has had a compiler since CATALYST 3.6. We did not have any problems with Futuremark’s changes.”
"Since the complier is still active with the new version of 3DMark03 there is currently no explanations for performance drops of certain GeForce FX parts in the latest build 340 of the famous 3DMark03."

ROFL :rofl:

93,
-Sascha.rb

MadManniMan
2003-11-14, 14:01:18
Original geschrieben von nggalai
"Since the complier is still active with the new version of 3DMark03 there is currently no explanations for performance drops of certain GeForce FX parts in the latest build 340 of the famous 3DMark03."

ROFL :rofl:


Wie war das? Dummheit schützt vor Armut nich? :| Oder so... oder vielleicht doch? :eyes:

Herr Neuberger: X-D

PS: im Übrigen fang ich schonmal an, Hochprozentiges zu kübeln. Und Shampoo hab ich auch schon parat.

Gipsel
2003-11-14, 14:32:50
Original geschrieben von nggalai
"Since the complier is still active with the new version of 3DMark03 there is currently no explanations for performance drops of certain GeForce FX parts in the latest build 340 of the famous 3DMark03."

Noch mysteriöser wird es mit der Meldung vom Inquirer http://www.theinquirer.net/?article=12672
Demnach verliert eine Club3D FX5700 keine Punkte mit dem 340-3DMark03. Heißt das jetzt da gibt es schon eine neue Treiberversion? Oder werden die FX von FutureMark herstellerspezifisch eingebremst?

Gipsel

Exxtreme
2003-11-14, 14:42:20
Original geschrieben von nggalai
Update von NV:

http://www.xbitlabs.com/news/video/display/20031114041519.html


"Since the complier is still active with the new version of 3DMark03 there is currently no explanations for performance drops of certain GeForce FX parts in the latest build 340 of the famous 3DMark03."

ROFL :rofl:

93,
-Sascha.rb
Hihi, vor Allem wird sich Kyle Bennet was anhören dürfen in den Foren. ;D ;D ;D

Exxtreme
2003-11-14, 14:51:32
Original geschrieben von Gipsel
Noch mysteriöser wird es mit der Meldung vom Inquirer http://www.theinquirer.net/?article=12672
Demnach verliert eine Club3D FX5700 keine Punkte mit dem 340-3DMark03.

:cop: Follow Up Advanced Disinformation :cop:

X-D

Gipsel
2003-11-14, 15:04:38
Original geschrieben von Exxtreme
:cop: Follow Up Advanced Disinformation :cop:

Das ist natürlich gut möglich. Immerhin läßt läßt sich das ja leicht überprüfen, so daß man bald ein Dementi sehen sollte. Die angegebenen Werte sahen ansonst ja recht realistisch aus.

Gipsel

seahawk
2003-11-14, 15:44:14
Original geschrieben von zeckensack
Sorry, Anpassung war unklar, ich meinte auch Optimierung. Ehrlich :)
Ist recht. Das kann man als Benachteiligung der NV3xe werten, von mir aus auch "sinnloses Verballern unschuldiger Bits" seitens FM.
Das erklärt nur leider trotzdem nicht den Unterschied in der Performance Patch 330=>Patch 340 auf NV3x.


Ich vermute mal es erklärt sich daraus, dass NV den Shader von FM detected und vollständig durch einen anderen ersetzt. Der nutz dann wahrscheinlich FP16 wo es nicht auffällt und verbessert so die Leistung.

Ist laut FM eine Cheat. Imo sollte FM, dann aber auch die Shader an die FXe anpassen, wenn sie das verhindern wollen. Was ich nämlich auf keinen Fall möchte ist ein GPU Compiler der einfach so anfängt mit FP16 zu rechnen.

Mr. Lolman
2003-11-14, 16:05:38
Original geschrieben von seahawk
Ich vermute mal es erklärt sich daraus, dass NV den Shader von FM detected und vollständig durch einen anderen ersetzt. Der nutz dann wahrscheinlich FP16 wo es nicht auffällt und verbessert so die Leistung.

Ist laut FM eine Cheat. Imo sollte FM, dann aber auch die Shader an die FXe anpassen, wenn sie das verhindern wollen. Was ich nämlich auf keinen Fall möchte ist ein GPU Compiler der einfach so anfängt mit FP16 zu rechnen.

Dann musst du auch von allen anderen Entwicklern verlangen, dass sie jeden einzelnen Shader, auf optimale Leistung bei der FX testen, was IMO nicht nur einen deutlichen Mehraufwand bedeutet, sondern auch eine Einschränkung der Freiheit beim entwickeln bedeutet. Stell dir vor, du sitzt eine Nacht lang an einem Shader, hast den fertig, und dann meint dein Chef: "He ist ja ganz toll, aber so können wir den unmöglich verwenden, da er auf NV HW viel zu langsam läuft.

Da denkt man sich doch eher:"He ist das mein Bier? Sollen das doch die Treiberprogger richten."

Ausserdem dürfte bei NV DX9 mässig noch so einiges im Argen sein. Wieso schaffens FXen z.B. nicht alle Shader im Shadermark darzustellen. Eine DX9 kompatible GraKa müsste das doch drauf haben.

Wieder zum fleissigen Shaderschreiber zurück: Ok, der hat jetzt die ganze Nacht an seinem Shader programmiert, und plötzlich meint der 'Chef': "Wasn das für ein Shader, der läuft doch noch nichteinmal auf der FX5900!!"

Ich kann schon verstehen, warum die Softwareentwickler ein bisschen grantig sind auf NV, nud dabei hab ich noch garnicht mal die Dritte Option ausgeführt:

Wieder ganze Nachtlang den Shader geproggt, man hat von NV auch schon einen neuen Betatreiber bekommen, auf dem der Shader auch ansprechend schnell läuft, nur ist das Ergebniss halt nicht zu 100% genau das, was sich der Progger erwartet hat. Das ist halt das Problem in dieser Branche. Man muss halt alle Klientel zufrieden stellen, und kanns sichs nicht leisten, dass jetzt das Spiel auf der einen HW beschissen läuft. Da muss man im Zweifelsfall halt sogar ein leicht anderes Ergebnis in Kauf nehmen.

Ein Maler hats z.B. einfacher. Der weiss, dass das eine Papier nicht so gut ist, da es bei bestimmten Lichteinfall die Farben ganz seltsam aussehen lässt, und wird es fortan nicht mehr verwenden. (und selbst wenn er vom Papierhersteller die Farben gratis geliefert bekommen sollte, wird er in Zukunft das 'schlechte' Papier meiden)

Quasar
2003-11-14, 16:40:16
Original geschrieben von Exxtreme
Update vom Dave Baumann:
http://www.beyond3d.com/forum/viewtopic.php?p=191935#191935

Sorry, aber das ist jetzt nicht deren Ernst, oder? :balla:

ow
2003-11-14, 16:44:30
Original geschrieben von mapel110
damit gäste hier auch mal zufrieden sind, bin ich mal so frei...


Was wurde denn da verglichen?:|
Die Fillrate-Werte zeigen doch, dass in dem einen Bench die Karte mit 20% mehr Chiptakt läuft (3740/3108).

/edit: Link zum Bild

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&postid=1351565#post1351565

seahawk
2003-11-14, 17:14:49
@Lolman, manchmal sollte man besser schweigen, anstatt Geschichten zu erzählen ..

PS. Es gibt mehr Shader die auf einer ATI nicht laufen, als auf einer FX. Unterschied ist, läuft er auf der ATI, dann auch schnell. Auf der FX läuft fast alles, nur nicht unbedingt schnell.

Mr. Lolman
2003-11-14, 17:21:32
Original geschrieben von seahawk
@Lolman, manchmal sollte man besser schweigen, anstatt Geschichten zu erzählen ..

:asshole:


PS. Es gibt mehr Shader die auf einer ATI nicht laufen, als auf einer FX. Unterschied ist, läuft er auf der ATI, dann auch schnell. Auf der FX läuft fast alles, nur nicht unbedingt schnell.

Meinst du jetzt die OpenGL Demos von NV?

Mir ist keine DX9 App bekannt, die auf einer R3x0 nicht darstellbare Shader liefert...

seahawk
2003-11-14, 17:36:29
Original geschrieben von Mr. Lolman
:asshole:



Meinst du jetzt die OpenGL Demos von NV?

Mir ist keine DX9 App bekannt, die auf einer R3x0 nicht darstellbare Shader liefert...

Keine fertige Applikation. Du redest vorhin von dem Programmierer - ich auch. Kein Programm erscheint aber heute mit nicht laufenden Shadern. :D

zeckensack
2003-11-14, 17:54:16
Shadermark benutzt in einigen Subtests FP render targets, und das geht auf NV3x nicht.

In 'echten' Anwendungen (aka Spiele) kommt das AFAIK derzeit nicht zum Tragen, weil entweder überhaupt keine fp targets benutzt werden, oder workarounds für die FXen drin sind.

MikBach
2003-11-14, 18:22:19
Original geschrieben von seahawk
@Lolman, manchmal sollte man besser schweigen, anstatt Geschichten zu erzählen ..

PS. Es gibt mehr Shader die auf einer ATI nicht laufen, als auf einer FX. Unterschied ist, läuft er auf der ATI, dann auch schnell. Auf der FX läuft fast alles, nur nicht unbedingt schnell.

Das stimmt so nicht. Wir reden hier von DirtectX9. Und Du kannst mir nicht erzählen, dass es DirectX9-konforme Shader gibt, die auf einer ATI nicht laufen!
- Beweise?

aths
2003-11-14, 18:30:51
Original geschrieben von MikBach
Das stimmt so nicht. Wir reden hier von DirtectX9. Und Du kannst mir nicht erzählen, dass es DirectX9-konforme Shader gibt, die auf einer ATI nicht laufen!
- Beweise? Ganz einfach, Befehle vom 2.0+ Befehlssatz nutzen, z.B. bestimmte Swizzles.

seahawk
2003-11-14, 18:32:39
Einzige Antwort die ich Dir geben kann und die sowieso schon öffentlich sit kommt von den NV Editiors Days am 21.10.03 in San Francisco

Zitat David Kirk : Es gibt eine extrem beschränlte Programmlänge für ATI-Shader-Befehle und da findet man Kombinationen von Mathematik und Texturen, die überhaupt nicht laufen. Einem Entwickler kann es passieren, dass er in High Level Language Programme für den R350 schreibt und entweder kompilieren sie oder nicht."

Das wurde von Mark Rein übrigens bestätigt.

Demirug
2003-11-14, 18:36:49
Original geschrieben von MikBach
Das stimmt so nicht. Wir reden hier von DirtectX9. Und Du kannst mir nicht erzählen, dass es DirectX9-konforme Shader gibt, die auf einer ATI nicht laufen!
- Beweise?

Dieser shader läuft nicht auf einer ATI Karte.


dcl_2d s0
dcl_2d s1
dcl_2d s2
dcl_volume s3
dcl_2d s5
dcl_2d s6
def c0, 0.000000, 0.000000, 0.500000, 0.0000
dcl t0.xy
texld r0, t0, s0
texld r1, t0, s1
mov r2.x, r0.w
mov r2.y, r1.w
mov r2.z, c0.x
texld r2, r2, s3
texld r3, t0, s2
mov r4.x, r0.z
mov r4.y, r1.z
mov r4.z, r2.y
texld r4, r4, s3
mov r2.w, r2.x
mov r2.z, r4.x
mov r5.x, r0.y
mov r5.y, r1.y
mov r5.z, r4.y
mov r0.y, r1.x
texld r1, r5, s3
mov r0.z, r1.y
mov r2.y, r1.x
texld r0, r0, s3
mov r1.x, r3.w
mov r1.y, r2.w
mov r1.z, c0.x
texld r1, r1, s3
mov r4.x, r3.z
mov r4.y, r2.z
mov r4.z, r1.y
texld r4, r4, s3
mov r1.w, r1.x
mov r1.z, r4.x
mov r5.x, r3.y
mov r5.y, r2.y
mov r5.z, r4.y
mov r3.y, r0.x
texld r0, r5, s3
mov r3.z, r0.y
mov r1.y, r0.x
texld r0, r3, s3
mov r2.x, r2.w
mov r2.y, c0.z
texld r2, r2, s6
mov r2.y, r2.x
mov r2.x, r0.x
mov r0.y, r2.y
mov r0.x, r1.y
texld r2, r2, s5
texld r3, r0, s5
add r3, r2, r3
mov r0.x, r1.z
mov r2.y, r0.y
mov r2.x, r1.w
texld r0, r0, s5
texld r1, r2, s5
add r0, r3, r0
add r1, r0, r1
mov oC0, r1


Viel Spass beim Herausfinden was das Teil eigentlich macht und warum es derzeit auf keiner ATI-Karte läuft. :D

Quasar
2003-11-14, 19:03:23
Bei deinen bekannten Vorlieben könnte ich mir vorstellen, daß es zuviele dependant texture reads sind, ohne daß jetzt am Shadercode erkennen zu können. :)

Crushinator
2003-11-14, 21:54:54
Original geschrieben von Demirug
Viel Spass beim Herausfinden was das Teil eigentlich macht und warum es derzeit auf keiner ATI-Karte läuft. :D > 64 Instructions :D

LovesuckZ
2003-11-14, 22:06:55
Original geschrieben von crushinator
> 64 Instructions :D

Dafür gibt es doch den F-Buffer :D

Crushinator
2003-11-14, 22:20:11
Original geschrieben von LovesuckZ
Dafür gibt es doch den F-Buffer :D Der ist aber nicht dafür gedacht, sondern für <zensiert> welche die <zensiert> in ihren <zensiert> "anders" ansprechen können. :D

P.S.: Nachfragen nach <zensiert> haben keinen Sinn, und ich weiß grundsätzlich von GAR NICHTS.

deekey777
2003-11-14, 23:37:19
Original geschrieben von Demirug
Dieser shader läuft nicht auf einer ATI Karte.


dcl_2d s0
dcl_2d s1
dcl_2d s2
dcl_volume s3
dcl_2d s5
dcl_2d s6
def c0, 0.000000, 0.000000, 0.500000, 0.0000
....
mov oC0, r1


Viel Spass beim Herausfinden was das Teil eigentlich macht und warum es derzeit auf keiner ATI-Karte läuft. :D

Wie Mr. Crushinator schon gescriebe hat:">64 Instruktionen"
Und wieviele Instruktionen muss der PS 2.0 laut der DX9-Spezifikationen erfüllen, damit sich dieser Pixelshader PS 2.0 nennen darf? 64 color instructions. Eigentor...

Quasar
2003-11-14, 23:57:35
Zählt der Deklaration edit: ...steil etwa auch schon zu den Instruction-Slots?

ow
2003-11-15, 00:01:08
Also ich zähle da nur 57 Instruktionen.

ow
2003-11-15, 00:01:51
Original geschrieben von Quasar
Zählt der Deklaration etwa auch schon zu den Instruction-Slots?

Laut SDK werden dabei keine Instruction Slots belegt.

deekey777
2003-11-15, 00:10:39
Original geschrieben von ow
Laut SDK werden dabei keine Instruction Slots belegt.

Meinst du folgendes: http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/reference/AssemblyLanguageShaders/PixelShaders/instructions/dcl.asp

????????? (Ich will nicht klugscheissen, sondern will mehr Wissen wissen)

Demirug
2003-11-15, 00:11:35
Wie Quasar schon geschrieben hat sind es die dependant texture reads. Der Shader braucht 9 Levels ATI unterstützt aber nur 4. Alles andere liegt im Rahmen.

@deekey777: Es ging um einen DX9 konformen Shader welcher auf einer ATI Karte nicht läuft. Das jeder 2.0 Shader auf einer ATI Karte läuft (bzw laufen muss) streitet ja keiner ab aber DX9 hört mit den 2.0 Shadern eben nicht auf.

ow
2003-11-15, 00:16:51
Original geschrieben von deekey777
Meinst du folgendes: http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/reference/AssemblyLanguageShaders/PixelShaders/instructions/dcl.asp

????????? (Ich will nicht klugscheissen, sondern will mehr Wissen wissen)

http://msdn.microsoft.com/library/en-us/directx9_c/directx/graphics/reference/assemblylanguageshaders/pixelshaders/instructions/ps_2_0_instructions.asp?frame=true

deekey777
2003-11-15, 00:16:55
Original geschrieben von Demirug
@deekey777: Es ging um einen DX9 konformen Shader welcher auf einer ATI Karte nicht läuft. Das jeder 2.0 Shader auf einer ATI Karte läuft (bzw laufen muss) streitet ja keiner ab aber DX9 hört mit den 2.0 Shadern eben nicht auf.

Stimme Dir 100%ig zu! Aber dies ist schon wieder ein Widerspruch zw. DX9 als reine Software und den Mindestvoraussetzungen für DX9-Hardware...
Im Ernst jetzt: Sind es nun mehr als 64 Instruktionen oder nicht?
Falls ja: Für solche Kleinigkeiten gibt es doch den F-Buffer, der theoretisch unendlich viele Instruktionen ausführen kann und nur durch den physisch Vorhandenen Speicher eingeschränkt wird.

deekey777
2003-11-15, 00:20:22
Original geschrieben von ow
http://msdn.microsoft.com/library/en-us/directx9_c/directx/graphics/reference/assemblylanguageshaders/pixelshaders/instructions/ps_2_0_instructions.asp?frame=true

Da steht: Instruction slots - Number of instruction slots used by each instruction.

Heisst das dann, dass jede Instruction ihren eigenen Instruction Slot hat oder gehören alle Instructions zu einem einzigen Slot?

Quasar
2003-11-15, 00:22:23
Jede Instruction belegt im Normalfall einen Slot, AFAIK. Aber anscheinend gibt's auch welche, die mit einem einzelnen nicht auskommen.
edit:
Das ist ja heftig. 'sincos' braucht ACHT Slots? Oder ist die Anzahl der Slots so definiert, daß sie von *hust* Hardware, die zur Veröffentlichung der DX9-Spec verfügbar war, immer in einem Takt abgearbeitet werden muss?

ow
2003-11-15, 00:25:11
Original geschrieben von deekey777
Da steht: Instruction slots - Number of instruction slots used by each instruction.

Heisst das dann, dass jede Instruction ihren eigenen Instruction Slot hat oder gehören alle Instructions zu einem einzigen Slot?

Dort ist angegeben, wieviele slots welche Instruktionen belegen.
Deklarationen, Definitionen und die PS-Version belegen keine Slots. Nur arithmetische und Texturoperationen tun dies.

Demirug
2003-11-15, 00:25:12
Original geschrieben von deekey777
Stimme Dir 100%ig zu! Aber dies ist schon wieder ein Widerspruch zw. DX9 als reine Software und den Mindestvoraussetzungen für DX9-Hardware...

Wenn man sich immer auf die Mindestvoraussetzungen begrenzt dürfte man auch keine MRT benutzten.

Im Ernst jetzt: Sind es nun mehr als 64 Instruktionen oder nicht?

Es sind 57. dcl und def werden nicht gezählt. Die texld werden extra gezählt und davon hat man bei ATI (PS 2.0)nochmal 32.

Falls ja: Für solche Kleinigkeiten gibt es doch den F-Buffer, der theoretisch unendlich viele Instruktionen ausführen kann und nur durch den physisch Vorhandenen Speicher eingeschränkt wird.

F-Buffer funktioniert nicht mit DX und wenn ich ATI richtig verstanden habe wird er es auch nie tun.

Crushinator
2003-11-15, 01:26:59
Original geschrieben von Demirug
Wie Quasar schon geschrieben hat sind es die dependant texture reads. Der Shader braucht 9 Levels ATI unterstützt aber nur 4. Alles andere liegt im Rahmen. Eine Frage: Wie bezeichnet man's dann? Wäre "> Max Indirections" zutreffend? und wenn ja, ist Max == 32?

Razor
2003-11-15, 01:44:01
Original geschrieben von seahawk
Imo verliert der Murks dadurch nur weiter an Bedeutung. Die müssen den Schritt zu eigenen Shadercodes für ATI und NV machen (gerne auch Power VR usw. wenn nötig). Sollen die doch NV und ATI die Shader selber schreiben lassen und dann immer nur prüfen ob beide dasselbe Ergebnis liefern. Dann würde man wirklich die Leistungsfähigkeit der Karten vergleichen können. Sehe ich auch so...

Schließlich scheint's ja derzeit in Mode zu kommen, dass die IHV's die Shader für die Spiele-Engines schreiben (siehe hier Valva aka HL2 oder eben Halo). Wenn sich also FM anmaßt ein 'Gamer-Bench' zu sein, dann sollten sie auch zumindest ansatzweise versuchen, diesem Anspruch gerecht zu werden.

Razor

Razor
2003-11-15, 01:55:11
Auch mion, nggalai,
;-)
Original geschrieben von nggalai
Nein. NV hat zugegeben, Shader "von Hand" zu ersetzen, als Teil des "Unified Compilers".Woran es ja nun auch nichts auszusetzen gibt, wenn das Urprungsobjekt "nicht zu gebrauchen" ist und besser von grundauf neu geschrieben würde... ein guter Compiler arbeitet eben heuritisch oder auch deterministisch.
Original geschrieben von nggalai
TT-Hardware hat zumindest einen Ansatz geliefert um zu belegen, dass das Shader-Replacement NICHT 100% per Shader geschieht, sondern applikationsabhängig ist (Damien hat Shader ausm 330er und 340er Patch genommen, in eine neue Applikation eingesetzt, und siehe da--beide Versionen sind auf GFFX / 52.16 exakt gleich schnell).Diesen Ansatz sollte man weiter verfolgen.
Allerdings hätte ich doch gerne Informationen über diese 'andere' Applikation und die dortige Verfahrensweise mit diesem Shader. Bestenfalls würde ich das gerne selber überprüfen könnne, wenn Du verstehst, wie ich das meine... ;)
Original geschrieben von nggalai
So oder so--die Futuremark-Richtlinien zum 3DMark03 verbieten explizit hand-optimiertes Shader-Replacement, was laut NV selbst aber hier geschieht. NV behauptet jetzt dafür, dass Futuremark in voller Absicht den GESAMTEN "Unified Compiler" deaktiviert hätte und legt Reviewern nahe, nur mit Patch 330 zu benchen, unter keinen Umständen mit Patch 340.Wo steht bei FM, dass "handoptimiertes Shader-Replacement" verboten sei ? Und wieso soll dann ein nicht-handoptimiertes Shader-Replacement erlaubt sein ?
:???:

Wenn ein Shader den exakt (!) gleichen Output hat, ist gegen Optimierungen jeglicher Art NICHTS einzuwenden. Wenn allerdings dazu eine App-Erkennung benötigt wird, sehe ich das etwas differenzierter.

Allerdings sollte man wirklich langsam die Frage stellen, ob FM mit dem Murks überhaupt den Anspruch eine "Gamer Benchmarks" erfüllt. Denn tut er das nicht, dann sollte er keinesfalls weiter zum Vergleichen von Hardware genutzt werden... wie sinnlos alleine Bildvergleiche sind, haben wir ja gesehen.
Original geschrieben von nggalai
Wavey hatte gestern Nacht (bis halb drei :|) eine interessante Diskussion mit Perez. Am Schluss meinte er dann, er bräuche einen Ingenieur, um Waveys Fragen zu beantworten. Sollte also demnächst ein Update des B3D-Artikels geben. Stay tuned.Und ?
Hat sich das schon was getan ?
Original geschrieben von nggalai
P.S. das mit "Hälfte des Haares" war klar ein Hyperbole. Sorry, wenn man das nicht gesehen hat, ich werd' in Zukunft auch bei solchen Dingern Smileys setzen. -.rb Schon klar...
Und wie sich jetzt ja nun heraus gestellt hat, war dies wirklich nur ein Furz im Wasserglas (sorry, für diese Formulierung ;-).

Razor

Razor
2003-11-15, 01:57:45
Original geschrieben von Exxtreme
Jetzt antwortet ATi auf die Sache mit dem "Unified Compiler":

http://www.gamersdepot.com/ed/mkting_hype/002.htm Mega-:lol: !
Selten so gelacht...
Zum Glück stand ja darunter, dass es von 'nem PR-Menschen stammt.
;-)

Razor

Razor
2003-11-15, 02:19:53
Original geschrieben von Mr. Lolman
Dann musst du auch von allen anderen Entwicklern verlangen, dass sie jeden einzelnen Shader, auf optimale Leistung bei der FX testen, was IMO nicht nur einen deutlichen Mehraufwand bedeutet, sondern auch eine Einschränkung der Freiheit beim entwickeln bedeutet. Stell dir vor, du sitzt eine Nacht lang an einem Shader, hast den fertig, und dann meint dein Chef: "He ist ja ganz toll, aber so können wir den unmöglich verwenden, da er auf NV HW viel zu langsam läuft.Wen Entwickler an der am Markt exisitierenden Hardware Performance-seitg vorbei entwickeln, konnen sie sich gleich einsagen lassen...

Da hast hoffentlich schon mitbekommen, dass dies schon immer bare Realität war und nicht erst jetzt mit den Shadern zutage getreten ist ?

Ein Engine muss IMMER auf der derzeitig verfügbaren Hardware, insbesondere des Zielsegmentes getestet werden. Das war schon immer so und wird auch so bleiben...
Original geschrieben von Mr. Lolman
Da denkt man sich doch eher:"He ist das mein Bier? Sollen das doch die Treiberprogger richten."Und tschüss...
Neuer Job ahoi !
:D
Original geschrieben von Mr. Lolman
Wieder zum fleissigen Shaderschreiber zurück: Ok, der hat jetzt die ganze Nacht an seinem Shader programmiert, und plötzlich meint der 'Chef': "Wasn das für ein Shader, der läuft doch noch nichteinmal auf der FX5900!!"

Ich kann schon verstehen, warum die Softwareentwickler ein bisschen grantig sind auf NV, nud dabei hab ich noch garnicht mal die Dritte Option ausgeführt:Welcher Software-Entwickler ist jetzt 'grantig' auf NV ?
:???:
Original geschrieben von Mr. Lolman
Wieder ganze Nachtlang den Shader geproggt, man hat von NV auch schon einen neuen Betatreiber bekommen, auf dem der Shader auch ansprechend schnell läuft, nur ist das Ergebniss halt nicht zu 100% genau das, was sich der Progger erwartet hat. Das ist halt das Problem in dieser Branche. Man muss halt alle Klientel zufrieden stellen, und kanns sichs nicht leisten, dass jetzt das Spiel auf der einen HW beschissen läuft. Da muss man im Zweifelsfall halt sogar ein leicht anderes Ergebnis in Kauf nehmen.Und wo bitte soll das passiert sein ?
Ist ja 'nett', dass Du solche Behauptungen aufstellst, aber ein paar Belege wären hier schon angebracht, oder meinst Du nicht ?

Oder hast Du hier bei dem BQ-Vergleich zwischen ATI und nVidia beim Murks (oder auch bei den vielen, vielen anderen Apps da draußen, nicht mitbekommen ? Also irgendwie...
Original geschrieben von Mr. Lolman
Ein Maler hats z.B. einfacher. Der weiss, dass das eine Papier nicht so gut ist, da es bei bestimmten Lichteinfall die Farben ganz seltsam aussehen lässt, und wird es fortan nicht mehr verwenden. (und selbst wenn er vom Papierhersteller die Farben gratis geliefert bekommen sollte, wird er in Zukunft das 'schlechte' Papier meiden) Wollen wir hier ein bissel sarkastisch werden ?

Noch einmal: NUR EIN 'BEWEIS', dass nVidia mit dem letzten offiziellen Treiber die BQ reduziert !
Wenn nicht, dann lass solche blinden Vermutungen, da sie in das Reich der Spekulation gehören.

Razor

mapel110
2003-11-15, 02:22:30
hm, nvidia sollte einfach die shader erneut von hand optimieren. eben solange, bis FM alle möglichen variaten ausprobiert hat und nvidia somit alle eventuell auftretenden shader im treiber optimiert hinterlegt hat.

dann sind alle zufrieden. der 3dmurks ist dann "a gamers benchmark" und nvidia hat einen fetten score und games, die 3dmurks-shader einsetzen, laufen flott.
was will man mehr?!

allerdings gibts vielleicht nicht gerade wenig games, die nicht diese 3dmurks(hand-optimierte-nvidia)-shader nutzen.
hm ...

Original geschrieben von Razor
Wen Entwickler an der am Markt exisitierenden Hardware Performance-seitg vorbei entwickeln, konnen sie sich gleich einsagen lassen...


oder einfach die gameinterne benchmarkfunktion lahm legen. siehe tomb raider6 :D

Razor
2003-11-15, 02:26:40
Original geschrieben von deekey777
Falls ja: Für solche Kleinigkeiten gibt es doch den F-Buffer, der theoretisch unendlich viele Instruktionen ausführen kann und nur durch den physisch Vorhandenen Speicher eingeschränkt wird. Der "Marketing-F-Buffer" wird wohl (wenn überhaupt) nur für OGL kommen (was noch nicht so ist ;-) und nach ATI nicht für D3D, weil "nicht vorgesehen"...

wie Demirug schon schrieb... ;-)

Sorry, aber das Thema hatten wir einfach zu oft.

Fakt ist, dass ATI in den meisten Fällen lediglich die Mindestvoraussetzung für DX9 erfüllt.
Original geschrieben von Demirug
Das jeder 2.0 Shader auf einer ATI Karte läuft (bzw laufen muss) streitet ja keiner ab aber DX9 hört mit den 2.0 Shadern eben nicht auf. ...sondern fängt da erst an !
;-)

Aber ich denke, dass es hier doch eigentlich nicht um die Fähigkeiten der ATI-Hardware geht, oder ?
Nur weil Crushi wieder mal das ATI vs. nVidia Kriegsbeil ausgegraben hat, muss es ja nicht wieder so enden...

Razor

Razor
2003-11-15, 02:39:52
Original geschrieben von mapel110
hm, nvidia sollte einfach die shader erneut von hand optimieren. eben solange, bis FM alle möglichen variaten ausprobiert hat und nvidia somit alle eventuell auftretenden shader im treiber optimiert hinterlegt hat.Oder aber die Community sollte diesen 'Benchmark' endlich bannen...

Dieser Murks maßt sich an, etwas zu 'messen' was man so eigentlich gar nicht messen kann.
Und nein, ich werde das nicht nochmal ausführen...
(nur bei reger' Nachfrage ;-)
Original geschrieben von mapel110
allerdings gibts vielleicht nicht gerade wenig games, die nicht diese 3dmurks(hand-optimierte-nvidia)-shader nutzen.
hm ...Als da wären ?
Versteh' mich nicht falsch, aber solche Aussagen sind derzeit ja wohl noch ein bissel verfrüht, oder ? Da sind das schrottige TRAoD auf der einen und Halo auf der anderen Seite (von dem Fake-HL2 sprech' ich jetzt mal nicht).

Ansonten habe ich bisher nur Apps gesehen (4 an der Zahl, aka Murks03, SM2, rithi*dimngsbums* und AM3), die entweder nur den Standard-Pfad 2.0 des HLSL-Compilers benutzen oder im Falle von FM3 auch andere Architekturen, neben ATI, dulden.

Interessant wäre es auf jeden Fall, zu sehen, was denn andere IHV's so trieben. Der Volrai hat ja nun nicht gerade Glanzleistung gezeigt. Ob dies beim DeltaChrome oder dem imaginären 'Series5' von ImgTech anders sein wird sich erst noch heraus stellen müssen...

Aber das hatten wir ja schon alles mal, oder ?
Original geschrieben von mapel110
oder einfach die gameinterne benchmarkfunktion lahm legen. siehe tomb raider6 :D :up:
Jo, der war gut !
:D

Razor

SKYNET
2003-11-15, 03:24:06
Original geschrieben von Razor
Die Hälfte ?


Razor

klar, nicht gesehn ? die hat die haare über die hälfte wo die haare fehlen rübergekämmt ;D

manchmal trägt sie auch ne perücke ;D


Original geschrieben von ow
Was wurde denn da verglichen?:|
Die Fillrate-Werte zeigen doch, dass in dem einen Bench die Karte mit 20% mehr Chiptakt läuft (3740/3108).

/edit: Link zum Bild

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&postid=1351565#post1351565

dann währe bei wings of fury aber nicht nur sonen popeliger unterschied ;)



Original geschrieben von Razor Oder aber FM hat da eine heftige Kinke für nVidia-Karten eingebaut, was nicht zwangsläufig mit Absicht geschehen sein muss.


ausversehn passiert sowas nicht

Exxtreme
2003-11-15, 07:58:31
Original geschrieben von mapel110
hm, nvidia sollte einfach die shader erneut von hand optimieren. eben solange, bis FM alle möglichen variaten ausprobiert hat und nvidia somit alle eventuell auftretenden shader im treiber optimiert hinterlegt hat.

Hehe, und irgendwannmal werden sich die Nvidia-User über 120 MB Treiber freuen weil für jeden Build des 3DMark irgendwelche applikationsspezifische Shader hinterlegt sind. Und bis FM die Shader-Varianten ausgehen, das dauert noch eine Weile. Und wenn's FM irgendwannmal zu blöd wird, können die immer noch einen dynamischen Shader-Generator einbauen, der das automatisch erledigt. Nach jedem 3DMark-Start ein leicht anderer Shader... hmmm. ;)
Original geschrieben von mapel110
dann sind alle zufrieden. der 3dmurks ist dann "a gamers benchmark" und nvidia hat einen fetten score und games, die 3dmurks-shader einsetzen, laufen flott.
was will man mehr?!

allerdings gibts vielleicht nicht gerade wenig games, die nicht diese 3dmurks(hand-optimierte-nvidia)-shader nutzen.
hm ...

Dann wäre 3DMark noch viel weniger ein "a gamers benchmark" als er jetzt schon ist. Ich glaube nämlich nicht, daß Nvidia für jedes Game, welches Shader nutzt, spezielle Austausch-Shader im Treiber vorhalten wird.

zeckensack
2003-11-15, 08:23:35
Original geschrieben von Razor
Oder aber die Community sollte diesen 'Benchmark' endlich bannen...Oder aber die Community sollte NVIDIA endlich bannen ...
Dieser Murks maßt sich an, etwas zu 'messen' was man so eigentlich gar nicht messen kann.NVIDIA maßt sich eine Performance an, die überhaupt nicht da ist.
Und nein, ich werde das nicht nochmal ausführen...
(nur bei reger' Nachfrage ;-)Um Himmels Willen! Bitte, nur das nicht.

Razor
2003-11-15, 09:26:27
Original geschrieben von Exxtreme
Hehe, und irgendwannmal werden sich die Nvidia-User über 120 MB Treiber freuen weil für jeden Build des 3DMark irgendwelche applikationsspezifische Shader hinterlegt sind. Und bis FM die Shader-Varianten ausgehen, das dauert noch eine Weile. Und wenn's FM irgendwannmal zu blöd wird, können die immer noch einen dynamischen Shader-Generator einbauen, der das automatisch erledigt. Nach jedem 3DMark-Start ein leicht anderer Shader... hmmm. ;)Nun ja... derzeit sind die nVidia-Treiber noch immer kleiner als die von ATI (wer weiß, was da so alles drin steckt ;-). Und das bei erweiterter Funktionalität wie man an der Stereo-Unterstützung oder der vollen OpenGL 1.5 Unterstützung erkennen kann.

Ich glaube kaum, dass Dir hier "Sorgen" machen musst...
;-)
Original geschrieben von Exxtreme
Dann wäre 3DMark noch viel weniger ein "a gamers benchmark" als er jetzt schon ist. Ich glaube nämlich nicht, daß Nvidia für jedes Game, welches Shader nutzt, spezielle Austausch-Shader im Treiber vorhalten wird. Das nicht... aber ich könnte mir vorstellen (korrigier mich bitte, falls ich da falsch liege), dass nicht jeder 'Entwickler' absichtlich ein Worst-Case-Scenario (für den einen Hersteller mehr als für den anderen ;-) erzeugt und sich anschickt eine generelle Aussage über Performance in ALLEN Games zu machen.

Sorry, aber FM ist nicht nur dummdreist, sondern schlicht inkompetent !
Ist halt Pech mit etwas Geld machen zu wollen, was eigentlich nicht messbar ist...
:D

Razor

Razor
2003-11-15, 09:53:34
Hmmm...
Der Ordnung halber, das mal vorweg:
Original geschrieben von zeckensack
Um Himmels Willen! Bitte, nur das nicht. Selber schuld !
:D
Original geschrieben von zeckensack
Oder aber die Community sollte NVIDIA endlich bannen ...Warum ?
Wenn ich recht informiert bin, könnte ATI ja nicht einmal ansatzweise das Umsatzvolumen auffangen, welches durch dieses 'Loch' entsteht...
Warum willst Du die Gamer da draußen so hart bestrafen und die Preise für GraKa's in die Höhe treiben ?
(die Fragen bitte nicht sooo ernst nehmen... obwohl ;-)

Für FM ? Warum ?

Sorry, aber warum sollte nVidia für etwas gebannt werden, was ihr gutes Recht ist ?
:???:
Original geschrieben von zeckensack
NVIDIA maßt sich eine Performance an, die überhaupt nicht da ist.nVidia hat leider bewiesen, dass genau dem nicht so ist.
Oder wie sind sonst die Egebnisse vor Patch340 beim Murks, bei Halo, Aquamark rtc.pp zu erklären ?
Weil sie die BQ herab senken ?
Nein ?
:???:

Fragen über Fragen...

Die Leistungsfähigkeit ist also gegeben, nur kann sie bei weitem nicht so einfach genutzt werden, wie bei ATI (was mittlerer Weile ja wohl 'ne Binsenweisheit sein dürfte ;-), vor allem wenn man bedenkt, nach welchen Guidelines was programmiert wurde.

Valve hat offenbar nach ATI geproggt (jeder Furz = 2.0-Shader und so ein Blödsinn) und sich damit ein kräftiges Eigentor geschossen (na ja, OK, ATI hat ja alle Shader geproggt und damit Valve ein Eigentor geschossen... so ist Valve ja eigentlich unschuldig ;-)... ich vermute, dass die Verspätung darin begründet ist, dass die Benchies auf Volari & Co. nicht gerade vielversprechend ausgesehen haben und man nicht endgültig jedwede Reputation verlieren wollte (sooo viel ATI-Karten gibt's nicht da draußen, um exklusiv dafür ein Games zu bringen ;)).

Bei FM siehts ähnlich aus... sie wollten ein Worstcase-Scenario schaffen und haben (absichtlich ?) ein ideales ATI-Umfeld geschaffen... kurze, unsinnige Shader und Instruktionsfolgen, die merkwürdiger Weise nur einem (der zweien ;-) überhaupt nicht 'schmecken'. Aber sehr, sehr merkwürdig, dass nVidia es sogar hier schafft schneller als ATI und dabei näher am RefRast zu sein, wenn nur 'vernünftig' geproggt würde... und das bei (nunmehr) absolut unstreitbarem Ergebnis.

-

Dies könnte man jetzt so weiter führen, aber insbesondere die Tatsache, dass die 'Experten' bei den Screenie-Vergleichen einen eindeutigen Performance-Vorteil für nVidia sehen wollten und dass nun nachweislich nicht der Fall ist und man jetzt versucht, seine eigene 'Reputation' zu retten und damit auf irgendwelche 'Guidelines' eines Software-Entwicklers pocht, der selber überhaupt nicht für das einsteht, was er verspricht, ist schon bezeichnend...

Wenn FM mit dem Murks Aussagen über die Game-Performance machen will, muss es sich auch wie ein Game behandeln lassen, bzw. selber wie ein Game-Entwickler proggen !Mehr gibt es dazu eigentlich nicht zu sagen...
Moment... doch !

Weg mit dem Murks !Schade nur, dass ich (und viele, viele andere) seit Jahren nicht gehört werde(n)...
:D

Razor

Demirug
2003-11-15, 10:10:58
Original geschrieben von crushinator
Eine Frage: Wie bezeichnet man's dann? Wäre "> Max Indirections" zutreffend? und wenn ja, ist Max == 32?

Ich weiss nicht ganz auf was du hinaus möchtest. Der Shader benutzt das Ergebniss eines Texturereads um daraus Koordinaten für den nächsten read zu erzeugen. Das ganze bis zu 9 mal in Folge. ATI kann das aber nur 4 mal in Folge. Das ganze ist einfach das Dependent Read Limit.

Razor
2003-11-15, 10:11:08
Mal was ganz generelles...
Was wäre von einem Scenario zu halten, welches hier schon mehrfach angedeutet wurde:

Ein Software-Entwickler erstellt einen Becnhmark mit KI, Sound und einer richtigen (in 'echten' Spielen genutzten) Engine und dazu parallel eine absolut referenzierbare RefRast-Engine (meinetwegen für fp24 und fp16/32 getrennt), welche die BQ unumstößtlich vorgibt.

Dann werden die Shader und alle 'Merkmale' der Grafik-Engine bei den IHV's offen gelegt und die jeweiligen Treiber-Progger zeigen, was sie aus Ihrer Hardware heraus holen können... selbstverständlich ohne die BQ zu reduzieren !

Dann wird die Leistungsfähigkeit in diesem 'Bestcase-Scenario' gegenüber gestellt und mal geschaut', wie die beiden IHV's (und meinetwegen alle, die in diesen vergleich entreten) dastehen...Wie würde die Sache dann aussehen ?
Würde ATI trotz vermeitlich (also theoretisch) höherer Rohperformance noch immer besser dastehen ?
Würde nVidia hier gänzlich versagen, da sie auch geballter Anstrengung keine vernünftige Performance haben ?

Mein Anliegen wäre also schlicht, einfach mal ein Bestcase-Scenario für alle IHV's zu schaffen und damit dann einen Vergleich zu starten. Den Spieß also umzudrehen und damit nicht nur die Leistungsfähigkeit der Engine, der API des (noch unoptimierten) Treibers und des Betriebssystems mit dem Mobo und der GraKa als Schlußlicht zu 'messen', sondern das Produkt als Ganzes... also inklusive nachträglicher Bemühungen der Treiber-Entwickler und dem Willen der IHV's darin zu invenstieren.

Diese Bemühungen sind (nicht nur bei den Benches ;-) bei allen IHV's da und sollten ins Kalkül gezogen werden, da ohne diese ein 'synthetischer RealWorld' (ist eigentlich schon aufgrund dieser Bezeichnung unsinnig) nicht machbar ist... nicht machbar sein kann.

Was haltet Ihr davon ?
:kratz:

Razor

P.S.: Ein kleiner Tip an FM... die Shader einfach mit dem aktuellen DX9-SDK und allen verfügbaren Compiler-Targets compilieren (wozu sie da sind ;-) und eine kleine Chip-Erkennungsroutine einbauen. Ist 'ne Arbeit von vielleicht 20min und würde nahezu jede jetzige Diskussion über den Sinn oder besser Unsinn eines Benches wie den Murks eine der primären Grundlagen entziehen. Erst dann könnten Sie sagen, dass der Vergleich 'fair' ist und sie selber dann alle Möglichkeiten am Markt ausschöpften, um den unterschiedlichen Chip-Architekturen Rechnung zu tragen. Tun sie das nicht... ist der Bench per se wertlos.

mirp
2003-11-15, 10:14:14
Original geschrieben von Razor

Moment... doch !

Weg mit dem Murks !Schade nur, dass ich (und viele, viele andere) seit Jahren nicht gehört werde(n)...
:D

Razor Wie kommt es dann, dass du die 3DMarks immer fleißig für Vergleiche nutzt?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1351590#post1351590

Demirug
2003-11-15, 10:15:01
Original geschrieben von mapel110
hm, nvidia sollte einfach die shader erneut von hand optimieren. eben solange, bis FM alle möglichen variaten ausprobiert hat und nvidia somit alle eventuell auftretenden shader im treiber optimiert hinterlegt hat.

naja nVidia hat ja schon gesagt was sie wohl nun tun werden. Man wird jetzt eben eine Struktur Analyse der Shader vornehmen um zu erkennen das es sich um eine Shader des "Austauschprogramms" handelt. Das ist natürlich aufwendiger als der reine Binärvergleich.

Razor
2003-11-15, 10:22:50
Original geschrieben von mirp
Wie kommt es dann, dass du die 3DMarks immer fleißig benutzt?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1351590#post1351590 Habe ich jemals unterschiedliche IHV's auf dem gleichen System vergleichen ?
Nein ?
:???:

Ich benutze diesen für Dinge wie:
- tut DX noch ?
- sieht's vernünftig aus ?
- hat sich was großartig verändert ?
Und noch viele Dinge dergleicen mehr...

KEINESFALLS würde ich damit GraKa's unterschiedlicher IHV's vergleichen. Noch würde ich den 'Score' unkommentiert einfach so stehen lassen (wie das hier im Bench-Forum permanent geschieht). Auch gibt's grundsätzlich eine große Auswahl an Games beider API's dazu, und auch ein paar weitere Tech-/Synth-Benches...

Sorry, aber mich kannst Du nicht damit meinen.

Für die Entwicklungen des eigenen Systems halbwegs zu gebrachen (wenn man weiß, wie ;-), aber keinesfalls für den Vergleich unterschiedlicher Systeme oder gar unterschiedlicher GraKa's. Das war schon immer so und wird auch immer so bleiben...

Ich hoffe, dass Du dies verstanden hast.

Denn 'meine' Benches sollen lediglich meine eigenen Erfahrungen wiederspiegeln und keine '(Mess-)Latte' aufstellen, für irgend jemanden, der jetzt der Meinung ist, das überbieten zu wollen (was leicht sein dürfte, da ich IMMER mit Max-Quality benche ;-). Es kommen ja oft genug Kommentare wie "ein Score ist aber höher" oder "die Ergebnisse kommen mir aber niedrig vor" oder "warum der und der score so hoch"... und was ich darauf (immer) antworte, dürfte Dir ja wohl bekannt sein...

Razor

Razor
2003-11-15, 10:29:51
Original geschrieben von Demirug
naja nVidia hat ja schon gesagt was sie wohl nun tun werden. Man wird jetzt eben eine Struktur Analyse der Shader vornehmen um zu erkennen das es sich um eine Shader des "Austauschprogramms" handelt. Das ist natürlich aufwendiger als der reine Binärvergleich. Stand aber mit Sicherheit schon laaaaange auf ihrer Liste. Nur ist das natürlich ein sehr aufwändiges Unterfangen und nciht 'mal eben' zu realisieren.

Schritt für Schritt...
Wie bei allen anderen Dingen auch.

Und by the way 52.16/52.70 haben schon ordentliches Potential gezeigt. Wenn man jetzt noch nach und nach die 'Hand-Optimierungen' durch echtes 'Fragment-Replacing' ersetzt und dabei den Compiler mehr und mehr optimiert (endlich wird ihr riesiges Rechenzentrum mal gefordert ;-), dann dürfte da schon noch was drin sein.

Und wenn man bedebkt, dass solcherart Optimierungen dann auch alle anderen (ähnlich arbeitenden) Shadern zugute kommt, dürfte es recht spannend werden, was nVidia noch so rausholen kann...

Auf die BQ wird ja von allen Seiten mit Argusaugen geachtet !
:D

Razor

mapel110
2003-11-15, 10:55:08
Original geschrieben von Razor
Ein Software-Entwickler erstellt einen Becnhmark mit KI, Sound und einer richtigen (in 'echten' Spielen genutzten) Engine und dazu parallel eine absolut referenzierbare RefRast-Engine (meinetwegen für fp24 und fp16/32 getrennt), welche die BQ unumstößtlich vorgibt.

Dann werden die Shader und alle 'Merkmale' der Grafik-Engine bei den IHV's offen gelegt und die jeweiligen Treiber-Progger zeigen, was sie aus Ihrer Hardware heraus holen können... selbstverständlich ohne die BQ zu reduzieren !

Dann wird die Leistungsfähigkeit in diesem 'Bestcase-Scenario' gegenüber gestellt und mal geschaut', wie die beiden IHV's (und meinetwegen alle, die in diesen vergleich entreten) dastehen...

einfach echte games benchen und fertig. allerdings sollte es davon mehr geben als derzeit. nur mit ut2003 und halo habens die IHVs einfach zu leicht mal eben zu optimieren.

aber die game developer lassen wohl meist absichtlich die bench funktion raus, um potenzielle kunden nicht zu vergraulen.
call of duty wäre zb ein würdiger quake3 engine benchmark gewesen :)

mirp
2003-11-15, 11:07:49
Original geschrieben von Razor
Habe ich jemals unterschiedliche IHV's auf dem gleichen System vergleichen ?
Nein ?
:???:

Ich benutze diesen für Dinge wie:
- tut DX noch ?
- sieht's vernünftig aus ?
- hat sich was großartig verändert ?
Und noch viele Dinge dergleicen mehr...

KEINESFALLS würde ich damit GraKa's unterschiedlicher IHV's vergleichen. Noch würde ich den 'Score' unkommentiert einfach so stehen lassen (wie das hier im Bench-Forum permanent geschieht). Auch gibt's grundsätzlich eine große Auswahl an Games beider API's dazu, und auch ein paar weitere Tech-/Synth-Benches...

Sorry, aber mich kannst Du nicht damit meinen.

Für die Entwicklungen des eigenen Systems halbwegs zu gebrachen (wenn man weiß, wie ;-), aber keinesfalls für den Vergleich unterschiedlicher Systeme oder gar unterschiedlicher GraKa's. Das war schon immer so und wird auch immer so bleiben...

Ich hoffe, dass Du dies verstanden hast.

Denn 'meine' Benches sollen lediglich meine eigenen Erfahrungen wiederspiegeln und keine '(Mess-)Latte' aufstellen, für irgend jemanden, der jetzt der Meinung ist, das überbieten zu wollen (was leicht sein dürfte, da ich IMMER mit Max-Quality benche ;-). Es kommen ja oft genug Kommentare wie "ein Score ist aber höher" oder "die Ergebnisse kommen mir aber niedrig vor" oder "warum der und der score so hoch"... und was ich darauf (immer) antworte, dürfte Dir ja wohl bekannt sein...

Razor Das ist mir alles klar. Es kam mir nur etwas widersprüchlich vor, hier in großen, fetten Buchstaben "Weg mit dem Murks!" zu fordern, obwohl du ja selbst gezeigt hast, dass man ihn auch sinnvoll einsetzen kann.

Aber sehe ich nun, wo es hackte. Deine Formatierung hat mich etwas irritiert. Wenn ich den Beitrag jetzt nochmal betrachte, kommt es eher hin.

Razor
2003-11-15, 11:21:44
Original geschrieben von mapel110
einfach echte games benchen und fertig. allerdings sollte es davon mehr geben als derzeit. nur mit ut2003 und halo habens die IHVs einfach zu leicht mal eben zu optimieren.

aber die game developer lassen wohl meist absichtlich die bench funktion raus, um potenzielle kunden nicht zu vergraulen.
call of duty wäre zb ein würdiger quake3 engine benchmark gewesen :) Full Ack !
Und das, was ich vorschlug, würde dem ja sehr nahe kommen...

Wichtig wäre mir aber schon eine art Ref-Engine, welches es beispielsweise auf Basis eines RefRast ermöglichen würde, die BQ zu referenzieren... DAS gibt es bei allen derzeitigen (Game-)Benches wohl noch gar nicht.

Razor

Razor
2003-11-15, 11:25:20
Original geschrieben von mirp
Das ist mir alles klar. Es kam mir nur etwas widersprüchlich vor, hier in großen, fetten Buchstaben "Weg mit dem Murks!" zu fordern, obwohl du ja selbst gezeigt hast, dass man ihn auch sinnvoll einsetzen kann.OK, dann haben wir uns mißverstanden...
Klar kann das Ding auch sinnvoll eingesetzt werden !
Nur passiert dies (fast) nicht.

Er ist definitiv NICHT sinnvoll, um unterschiedliche Architekturen oder gar unterschiedliche Systeme insgesamt zu vergleichen !
Original geschrieben von mirp
Aber sehe ich nun, wo es hackte. Deine Formatierung hat mich etwas irritiert. Wenn ich den Beitrag jetzt nochmal betrachte, kommt es eher hin. Sorry... vielleicht habe ich mich auch einfach zu kurz gefasst (wie das so meine Art ist ;-). Was aber auch daran liegen mag, dass ich das einfach schon zu oft geschrieben habe...

Werde also versuchen, mich zu bessern.
(zumindest in dieser Richtung ;-)

Razor

reunion
2003-11-15, 11:38:46
Original geschrieben von Razor
Moment... doch !

Weg mit dem Murks !Schade nur, dass ich (und viele, viele andere) seit Jahren nicht gehört werde(n)...
:D

Razor

Warum??
Weil NV da haushoch verliert???
Weil NV den 3dmark immerwieder zercheatet???

Mit dem aktuellen 340er Patch erfüllt der 3dmark03 sehrwohl seinen Dienst! Nähmlich das Benchen ohne(!) cheats sowohl für NV als auch für ATI.

Das was NV mit den "handoptimierten" Shadern macht finde ich Kundenverarschung, denn man erreicht eine Leistung die man in wirkliche Applikations weit verfehlt(es sein den man ersetzt jeden Shader, was allerdings auf dauer nicht möglich sein wird)

Außerdem kannst du gar nicht ausschließen das NV nicht auch die Bildqualität reduziert hat...

So zeigt der 3dmark03 ein weiteres mal wo NV stehen wird wenn irgendwann soviele DX9 App verfügbar sind das NV nicht mehr jeden einzelnen handoptimieren wird können.

zeckensack
2003-11-15, 11:49:35
Original geschrieben von Razor
Das nicht... aber ich könnte mir vorstellen (korrigier mich bitte, falls ich da falsch liege), dass nicht jeder 'Entwickler' absichtlich ein Worst-Case-Scenario (für den einen Hersteller mehr als für den anderen ;-) erzeugt und sich anschickt eine generelle Aussage über Performance in ALLEN Games zu machen.Absichtlich, worst case? Ä? Pardon, aber das ist PS2.0-Code, mit wesentlich weniger Sumpf drin, als ihn zB der Cg-Compiler erzeugen wurde. _pp-Hints fehlen, wie bereits eingeräumt. Und das war's auch schon.
Sorry, aber FM ist nicht nur dummdreist, sondern schlicht inkompetent !Inkompetent ist hier nur eine der beteiligten Parteien, und das ist sicher nicht FM
=>
Original geschrieben von zeckensack
out=a*b+c
out=b*a+cEinen Compiler, der diese beiden Sequenzen nicht gleich gut 'optimieren' kann, denn kann sich NV's PR-Abteilung von mir aus in die Haare schmieren.
Ist halt Pech mit etwas Geld machen zu wollen, was eigentlich nicht messbar ist...Ebenso ist es Pech, meinetwegen auch dummdreist, mit etwas Geld verdienen zu wollen, das die angepriesenen Produkteigenschaften de facto nicht besitzt ... weil sie ja vorzugsweise weggecheatet werden, und ohne Cheats wäre es unfair :|

Original geschrieben von Razor
Warum ?
Wenn ich recht informiert bin, könnte ATI ja nicht einmal ansatzweise das Umsatzvolumen auffangen, welches durch dieses 'Loch' entsteht...
Warum willst Du die Gamer da draußen so hart bestrafen und die Preise für GraKa's in die Höhe treiben ?Na ganz so hart wollen wir's mal nicht handhaben =)
Den Produkten und der Konkurrenzsituation angemessene Marktanteile und Preise, wäre das nicht gerecht?
So ~25%, und im Segment der Käufer die sich explizit für DX9-Features interessieren lassen wir's mal die aus keiner Statistik wegzudenkenden 5% Fehlkäufe sein.
Original geschrieben von Razor
nVidia hat leider bewiesen, dass genau dem nicht so ist.Nochmal: Ä? Die letzten Tage haben bewiesen, daß 1)der UCT kaum mehr als eine PR-Lüge war, 2)NV nach 18 Monaten noch nicht in der Lage ist Shader-Code akzeptabel ans Laufen zu kriegen, ohne die eigenen Angestellten und die Rechnerfarm drauf los zu lassen, 3)Respektlosigkeit und Ignoranz voll durchgeht, wenn man nur genug verblendete "Fans" und unwissende "Journalisten" an der Hand hat.

mapel110
2003-11-15, 11:53:05
Original geschrieben von reunion
So zeigt der 3dmark03 ein weiteres mal wo NV stehen wird wenn irgendwann soviele DX9 App verfügbar sind das NV nicht mehr jeden einzelnen handoptimieren wird können.

bis dahin hat jeder die nachfolgechips und keiner redet mehr von der FX serie.

AchtBit
2003-11-15, 11:53:31
>>Schließlich scheint's ja derzeit in Mode zu kommen, dass die IHV's die Shader für die Spiele-Engines schreiben (siehe hier Valva aka HL2 oder eben Halo).<<

Das ist nicht Mode sondern eine Analyse des Musters, welches von unterschiedlichen Rendertechniken mit den Shadern zustande kommt. Bestes Opfer ist da FM. 2.0 Shader Code rippen und anhand der Art des Samplings ein Profil zu erstellen. Hand geschrieben werden die schon aber nur einmal. Das Profil fliesst in die Tabelle fuer sample speziefische Shader Codemuster ein. Jedes neu hinzukommende Branchprofil wird die Leistung der Karte verbessern koennen und macht diesbezuegliche Shaderoptimierung in einer Gameengine ueberfluessig.

FM hat mit wenig atypischen Veraenderungen in der Shadercodestruktur nV nen kleinen Pipeline stall im Code Branch untergejubelt. Ich schaetze, das war nur ein Test um rauszufinden wie flexibel die derzeitigen Vorhersagen des Optimizers sind.

Um nochmal auf die Prezision zurueckzukommen. Ziel ist es die so zu encoden(typischer Branch profiliert ist vorausgesetzt), dass die unnoetigen boolean Werte gekappt werden. Wenn das klappt ist die IQ, selbst von einem Adlerauge, nicht von der mit einem perzieseren statischen Branch erzeugten IQ, zu unterscheiden.

Man koennte das, grob gesagt, etwa mit einem mp3 File vergleichen, welches mittels post processing in einer optimalen dynamische Samplingraten encoded wurde.

Demirug
2003-11-15, 11:57:09
Original geschrieben von Razor
Full Ack !
Und das, was ich vorschlug, würde dem ja sehr nahe kommen...

Wichtig wäre mir aber schon eine art Ref-Engine, welches es beispielsweise auf Basis eines RefRast ermöglichen würde, die BQ zu referenzieren... DAS gibt es bei allen derzeitigen (Game-)Benches wohl noch gar nicht.

Razor

Problematisch. Hatte am Mittwoch nachmittag wegen sowas ein Meeting. Es ging zwar nicht ums Benchmarken aber um den BQ Vergleich.

Problemstellung ist die Karten+Treiber überprüfung auf Renderfehler. Bei der vielzahl von Treiber-Karten Kombinationen (selbst wenn ich nur WHQL Versionen einbeziehe)die es gibt ist es aus Bugetsicht nicht drin jemanden hinzusetzten und jede mögliche Kombination durchtesten zu lassen. Gesucht wurde als eine automatische Lösung die man über Nacht ohne Personal laufen lassen kann.

Es ist kein Problem von jedem gerenderten Bild ein Snapshoot zu machen und gegen eine mit Refrast (in ein paar Nächten und Wochenden) erzeugte Vorlage zu vergleichen. Problematisch ist allerdings jedesmal die genau gleiche Bildsequenz zu reproduzieren. Gerade Zufallswerte für Partikeleffekt oder leichte Varianten in der Animation stellen da ein Problem dar.

Lange Rede kurzer Sinn. Ich darf jetzt etwas einbauen was sich "Timemark Syncron Randomizer" nennt. Damit soll sichergestellt werden das für einen Frame mit einer Zeitmarke X immer die gleichen Zufallswerte erzeugt werden. In Verbindung mit einen auf Zeitmarken aufbauenende Renderablauf bekommen wir dann wenn wir nichts vergessen haben reproduzierbare Bilder.

mapel110
2003-11-15, 12:02:23
warum so kompliziert? du kannst doch auch einfach ein standbild rendern lassen?!

Gast
2003-11-15, 12:02:58
Original geschrieben von Razor

Stand aber mit Sicherheit schon laaaaange auf ihrer Liste. Nur ist das natürlich ein sehr aufwändiges Unterfangen und nciht 'mal eben' zu realisieren.

Razor

Wie bitte? Eine normalisierte Form eines Shaders zu erzeugen (= alle Shader mit vertauschten Registernamen werden auf eine Grundversion zurückgeführt), ist eine Fingerübung. Das ist in Perl oder AWK (ok, die Regex Pattern stehen natürlich im Treiber erstmal so nicht zur Verfügung) ein 20-Zeiler.

Razor, ich finde es echt fazsinierend, mit welcher Begeisterung Du Dich von einer Firma über den Tisch ziehen läßt und die dann auch noch verteidigst. Mal ganz ehrlich... hast Du nichts besseres zu tun, als hier seitenweise zu posten? (Hmm, ich habe eigentlich auch was besseres zu tun, als hie*

Gruß

Jörg

reunion
2003-11-15, 12:07:44
Original geschrieben von mapel110
bis dahin hat jeder die nachfolgechips und keiner redet mehr von der FX serie.

Ja, aber die Leute die jetzt ne FX haben und nicht gleich wieder aufrüsten wollen, werde wohl hoffnugslos im Regen stehen gelassen, denn wenn es dann schon die neuen Karten gibt wird sich keiner mehr um die Leistung der FX scheren.

Somit ist die FX alles andere als Zukunftssicher!

zeckensack
2003-11-15, 12:10:53
Original geschrieben von Demirug
Es ist kein Problem von jedem gerenderten Bild ein Snapshoot zu machen und gegen eine mit Refrast (in ein paar Nächten und Wochenden) erzeugte Vorlage zu vergleichen. Problematisch ist allerdings jedesmal die genau gleiche Bildsequenz zu reproduzieren. Gerade Zufallswerte für Partikeleffekt oder leichte Varianten in der Animation stellen da ein Problem dar.

Lange Rede kurzer Sinn. Ich darf jetzt etwas einbauen was sich "Timemark Syncron Randomizer" nennt. Damit soll sichergestellt werden das für einen Frame mit einer Zeitmarke X immer die gleichen Zufallswerte erzeugt werden. In Verbindung mit einen auf Zeitmarken aufbauenende Renderablauf bekommen wir dann wenn wir nichts vergessen haben reproduzierbare Bilder. Der RNG aus der Standard C-Library ist doch deterministisch :)
Wenn du mit festgelegter 'Framerate' arbeiten kannst, dann ...reset_world();
uint frame_counter=0;
while (rinse_wash_repeat)
{
srand(frame_counter);
render();
animate(0.25f);
++frame_counter;
}

Demirug
2003-11-15, 12:19:28
Original geschrieben von zeckensack
Der RNG aus der Standard C-Library ist doch deterministisch :)
Wenn du mit festgelegter 'Framerate' arbeiten kannst, dann ...reset_world();
uint frame_counter=0;
while (rinse_wash_repeat)
{
srand(frame_counter);
render();
animate(0.25f);
++frame_counter;
}

So einfach geht das leider nicht. Wir haben mehr als einen Zufallsgenerator im System. Das ist notwendig weil es sonst zu leicht zu einer ungleichmässigen Verteilung des Zufalls bei einzelnen Teilkomboneten kommt. Gerade die KI neigt da zu unschönen Dingen.

Im Prinzip werde ich aber etwas ähnliches machen wie du vorgeschlagen hast.

LovesuckZ
2003-11-15, 13:03:34
Original geschrieben von reunion
Somit ist die FX alles andere als Zukunftssicher!

Egal, Doom3 wird laufen, sowie Half Life 2 auch. Wozu weiter in die Zukunft blicken?

Razor
2003-11-15, 13:16:30
Original geschrieben von zeckensack
Absichtlich, worst case? Ä? Pardon, aber das ist PS2.0-Code, mit wesentlich weniger Sumpf drin, als ihn zB der Cg-Compiler erzeugen wurde. _pp-Hints fehlen, wie bereits eingeräumt. Und das war's auch schon.Dazu habe ich aber schon eine Menge mehr gehört...
Der Tonus (ich bin kein Engine-Entwickler ;-) war schlicht: Murks !
Oder aber: Ein Beispiel wie man es NICHT machen sollte...
;-)
Original geschrieben von zeckensack
Inkompetent ist hier nur eine der beteiligten Parteien, und das ist sicher nicht FMDanke für die Blumen !
:loveya:
Original geschrieben von zeckensack
Ebenso ist es Pech, meinetwegen auch dummdreist, mit etwas Geld verdienen zu wollen, das die angepriesenen Produkteigenschaften de facto nicht besitzt ... weil sie ja vorzugsweise weggecheatet werden, und ohne Cheats wäre es unfairCheat = Verminderung der BQ zugunsten der Performance...
Wo war dies jetzt noch gleich anzutreffen ?
:kratz:
Original geschrieben von zeckensack
Na ganz so hart wollen wir's mal nicht handhaben =)
Den Produkten und der Konkurrenzsituation angemessene Marktanteile und Preise, wäre das nicht gerecht?
So ~25%, und im Segment der Käufer die sich explizit für DX9-Features interessieren lassen wir's mal die aus keiner Statistik wegzudenkenden 5% Fehlkäufe sein.EIN Käufer soll sich für 25% eines Produktes entscheiden ?
Sorry, aber irgendwie wirst Du hoffentlich selber zugeben, dass dies weder praxisgerecht noch wünschenswert wäre. Der Markt regelt das schon selbst... nur bezeichnet für diese Situation ja der aktuelle Stand der Dinge ist... bei den DX9-Karten (wie auch bei allen anderen Desktop-Karten= liegt nVidia mit 2/3 Marktanteil vorn... noch immer und allen unkenrufen zum Trotz.
Original geschrieben von zeckensack
Nochmal: Ä? Die letzten Tage haben bewiesen, daß 1)der UCT kaum mehr als eine PR-Lüge war, 2)NV nach 18 Monaten noch nicht in der Lage ist Shader-Code akzeptabel ans Laufen zu kriegen, ohne die eigenen Angestellten und die Rechnerfarm drauf los zu lassen, 3)Respektlosigkeit und Ignoranz voll durchgeht, wenn man nur genug verblendete "Fans" und unwissende "Journalisten" an der Hand hat. So ein unfug, sorry...

Gerade die letzten Tage haben gezeigt, dass der UTC KEINESFALLS eine PR-Lüge war und sogar wunderbar funktioniert. Nur arbeitet er noch nicht in allen Bereichen und da behilft man sich eben mit der "guten alten" Methode...

Der derzeitig verfügbare Shadercode wird durchaus akzeptabel ausgeführt... selbstverständlich ginge es noch besser. Bin mal gesapnnt, was passiert wenn die Shader komplexer werden und ATI mit seiner BruteForce-trivial-Architektur so richtig was zu kauen bekommt. Entweder läuft's gar nicht, oder... ;)

Respektlosigkeit gegenüber FM ?
Das ist je zum schreien !

Also deswegen nochmal:
Weg mit dem Murks !Echt, seit 4-5 Jahren nun schon die gleiche Leier... früher war nVidia 'böse' weil der Murks ja auf nVidia-Hardware geproggt war (was für ein Unsinn), heute ist er 'gut', weil er ATI unterstützt ? Scheinheilige Doppelmoral nenne ich so etwas !

Razor

Razor
2003-11-15, 13:18:39
Original geschrieben von LovesuckZ
Egal, Doom3 wird laufen, sowie Half Life 2 auch. Wozu weiter in die Zukunft blicken? Lass ihn doch, Love...
Ich habe mir abgewöhnt, auf den Unfug dieses Herrn zu reagieren.
(auf der Ignore-Liste steht noch niemand ;-)

Razor

Exxtreme
2003-11-15, 13:21:22
Original geschrieben von Razor
Das nicht... aber ich könnte mir vorstellen (korrigier mich bitte, falls ich da falsch liege), dass nicht jeder 'Entwickler' absichtlich ein Worst-Case-Scenario (für den einen Hersteller mehr als für den anderen ;-) erzeugt und sich anschickt eine generelle Aussage über Performance in ALLEN Games zu machen.

Ich glaube, daß FM mit Absicht eine höhere Last im 3DMark2003 erzeugen als es nötig wäre. Schliesslich will man ja auch "echte" Spiele simulieren. Das war nämlich ein konzeptioneller Fauxpass der vorherigen 3DMark-Versionen. Bei mir läuft die Nature-Demo des 3DMark01 mit über 100 fps. Und ich glaube nicht, daß mein derzeitiges System diese Framerate in einem "echten" Spiel bei der Grafik erreicht. Und ob Nvidia stärker benachteiligt wird als ATi, bezweifle ich einfach. Der "echte" Shader Compiler im 56'er Deto sollte die Shader so "ummodeln", daß diese deutlich besser mit der CineFX"-Architektur harmonieren. Daß aber die GFFX nur die Hälfte der FP-Pipelines einer R3x0 hat, war eine bewusste Designentscheidung. Und diesen handfesten Nachteil kann man nicht einfach so durch andere Shader ausgleichen.

Und ich möchte nicht wissen, welche Ergebnisse rauskommen wenn ATi so richtig anfängt zu cheaten. ;)
Original geschrieben von Razor
Sorry, aber FM ist nicht nur dummdreist, sondern schlicht inkompetent !
Ist halt Pech mit etwas Geld machen zu wollen, was eigentlich nicht messbar ist...
:D

Razor
Nö, siehe oben. Ich habe eine mögliche Erklärung für die Entscheidungen von FM gegeben.

Und messen tut der 3DMark2003 tatsächlich was. ;)
Nämlich wie gut eine GraKa mit dem 3DM03 harmoniert. War schon immer so und wird immer so bleiben. Auch Timedoms echter Spiele messen nur wie gut eine GraKa mit der Timedemo von diesem Spiel harmoniert.

Es sit wichtig zu wissen was man misst und noch wichtiger ist es die richtigen Schlüsse daraus zu ziehen. Ein Bench einer Timedemo ist nur ein Indikator, genauso wie 3DMarkxxxx-Benches nur Indikatoren sind.

Demirug
2003-11-15, 13:30:46
Original geschrieben von Exxtreme
Daß aber die GFFX nur die Hälfte der FP-Pipelines einer R3x0 hat, war eine bewusste Designentscheidung. Und diesen handfesten Nachteil kann man nicht einfach so durch andere Shader ausgleichen.

Hört bitte auf (nicht vorhandene) Pipelines zu zählen. Das ist eine Sackgasse.

zeckensack
2003-11-15, 13:38:43
Original geschrieben von Razor
Dazu habe ich aber schon eine Menge mehr gehört...
Der Tonus (ich bin kein Engine-Entwickler ;-) war schlicht: Murks !
Oder aber: Ein Beispiel wie man es NICHT machen sollte...
;-)Immer her mit deinen Quellen ...
Danke für die Blumen !
:loveya:Ich habe keine Blumen verteilt :|
Cheat = Verminderung der BQ zugunsten der Performance...
Wo war dies jetzt noch gleich anzutreffen ?
:kratz:Jetzt wird mir so einiges klar :idea:
Cheat = nicht nach den Spielregeln spielen

Die restliche Komödie übersteigt meine Leidensfähigkeit.

reunion
2003-11-15, 13:39:28
Original geschrieben von LovesuckZ
Egal, Doom3 wird laufen, sowie Half Life 2 auch. Wozu weiter in die Zukunft blicken?

Das absolute Toptitel wie Half Life 2 oder Doom 3 laufen werden ist schon klar, nur gibt es bereits jetzt ein Spiel names TR:AOD das eben alles andere als gut läuft und ob sich jeder Spieleentwickler die Mühe machen wird auf NV Karten extra zu optimieren wage ich zu bezweifeln...

zeckensack
2003-11-15, 13:42:04
Original geschrieben von Demirug
Hört bitte auf (nicht vorhandene) Pipelines zu zählen. Das ist eine Sackgasse. Wieso? Die Bedeutung des Begriffs hat sich in den letzten Jahren eigentlich nicht großartig geändert.
Pixel-Pipeline = Satz von Funktionseinheiten für die Bearbeitung eines Pixels

Ob und wie da jetzt der ährm "Programmfluß" verwaltet wird, ist da IMO nicht so wichtig. Auch wenn es nur eine Steuerung für viele parallele Pixel gibt, ist das nicht weiter schlimm für die Begrifflichkeit. Das war vor fünf Jahren auch nicht anders :)

Demirug
2003-11-15, 13:51:50
Original geschrieben von zeckensack
Wieso? Die Bedeutung des Begriffs hat sich in den letzten Jahren eigentlich nicht großartig geändert.
Pixel-Pipeline = Satz von Funktionseinheiten für die Bearbeitung eines Pixels

Ob und wie da jetzt der ährm "Programmfluß" verwaltet wird, ist da IMO nicht so wichtig. Auch wenn es nur eine Steuerung für viele parallele Pixel gibt, ist das nicht weiter schlimm für die Begrifflichkeit. Das war vor fünf Jahren auch nicht anders :)

Das SIMD Thema meinte ich hier garnicht. Ob man jetzt von 4 fachen SIMD oder 4 Pipelines spricht ist im Prinzip ja auch egal.

Pipeline ist aber in der Vorstellung der meisten schon belegt. Das was damit verknüft wird taugt aber nun schlecht dafür die Leistung einer modernen Pixelshader einheit zu beurteilen.

reunion
2003-11-15, 14:01:17
Original geschrieben von Razor
Lass ihn doch, Love...
Ich habe mir abgewöhnt, auf den Unfug dieses Herrn zu reagieren.

*schreck* Wenn an keine Gegenargumente hat,...
[
(auf der Ignore-Liste steht noch niemand ;-)

Razor

Da bin ich ja erleichtert :)

Razor
2003-11-15, 14:13:06
Original geschrieben von Demirug
Problematisch. Hatte am Mittwoch nachmittag wegen sowas ein Meeting. Es ging zwar nicht ums Benchmarken aber um den BQ Vergleich. Klingt interessant...
Original geschrieben von Demirug
Problemstellung ist die Karten+Treiber überprüfung auf Renderfehler. Bei der vielzahl von Treiber-Karten Kombinationen (selbst wenn ich nur WHQL Versionen einbeziehe)die es gibt ist es aus Bugetsicht nicht drin jemanden hinzusetzten und jede mögliche Kombination durchtesten zu lassen. Gesucht wurde als eine automatische Lösung die man über Nacht ohne Personal laufen lassen kann.Na ja... sooo viele Karten (Treiber schon ;-) gibt es je nun auchnicht. DX6/7/8/9 Generation von nVidia und ATI. DX6(7) von ImgTech und noch ein paar eigentlich zu vernachlässigende Teilnehmer am Markt.

Aber klar, so etwas automatisiert und das auch noch mit verschienden Treiber-Combo's laufen zu lassen dürfte ein recht hoher Anspruch sein.
Original geschrieben von Demirug
Es ist kein Problem von jedem gerenderten Bild ein Snapshoot zu machen und gegen eine mit Refrast (in ein paar Nächten und Wochenden) erzeugte Vorlage zu vergleichen. Problematisch ist allerdings jedesmal die genau gleiche Bildsequenz zu reproduzieren. Gerade Zufallswerte für Partikeleffekt oder leichte Varianten in der Animation stellen da ein Problem dar.Ließe sich das nicht vereinfachen ?
Eben keine Partikeleffekte und die Animation (bei dem Snapshot) vorgeben...
Aber ich stell mir das wohl zu einfach vor.
(*absolut keinen plan vom engine-proggen hab*)
Original geschrieben von Demirug
Lange Rede kurzer Sinn. Ich darf jetzt etwas einbauen was sich "Timemark Syncron Randomizer" nennt. Damit soll sichergestellt werden das für einen Frame mit einer Zeitmarke X immer die gleichen Zufallswerte erzeugt werden. In Verbindung mit einen auf Zeitmarken aufbauenende Renderablauf bekommen wir dann wenn wir nichts vergessen haben reproduzierbare Bilder. Aber das wäre doch exakt das, was wir hier rbauchen würden (um BQ-Vergleiche durchzuführen)...
Meinst Du, dass sich dies wirtschaftlich realisieren läßt ?
*feste die daumen drück'*

Razor

Razor
2003-11-15, 14:14:54
Original geschrieben von Gast
Wie bitte? Eine normalisierte Form eines Shaders zu erzeugen (= alle Shader mit vertauschten Registernamen werden auf eine Grundversion zurückgeführt), ist eine Fingerübung. Das ist in Perl oder AWK (ok, die Regex Pattern stehen natürlich im Treiber erstmal so nicht zur Verfügung) ein 20-Zeiler.Ich denke schon, dass dies ein bissel anders gemeint war...
Aber klar, auch dies wird sicher zu späteren 'Kunstgriffen' gehören.

Razor

Razor
2003-11-15, 14:29:34
Original geschrieben von Exxtreme
Ich glaube, daß FM mit Absicht eine höhere Last im 3DMark2003 erzeugen als es nötig wäre. Schliesslich will man ja auch "echte" Spiele simulieren.Und ist man diesem Ziel nahe gekommen ?
Ich sage mal: nein !
(auch wenn wir das erst später sehen werden ;-)

Nur warum hat man diese 'Last' nicht mit komplexeren Shadern und aufwändigeren Effekten verursacht ?
Weil ATI dann zusammen gebrochen wäre ?
(und das bei einem treuen und gut zahlenden Beta-Member ;-)

Ich denke mal, dass sie sich schon was dabei dachten... nur bin ich nicht ganz sicher, ob das nicht doch monetäre Hintergründe hatte.

Ist aber klar 'ne Speku von mir !
Original geschrieben von Exxtreme
Das war nämlich ein konzeptioneller Fauxpass der vorherigen 3DMark-Versionen. Bei mir läuft die Nature-Demo des 3DMark01 mit über 100 fps. Und ich glaube nicht, daß mein derzeitiges System diese Framerate in einem "echten" Spiel bei der Grafik erreicht. Und ob Nvidia stärker benachteiligt wird als ATi, bezweifle ich einfach.Aufgrund welcher Gegebenheiten ?
Kurze, nutzlose Shader ?
Compiliert mit dem 2.0-Profil des DX9-SDK's ?
Na ja, ich weiß nicht... hört sicher aber sehr nach ATI-Guidelines an...
Original geschrieben von Exxtreme
Der "echte" Shader Compiler im 56'er Deto sollte die Shader so "ummodeln", daß diese deutlich besser mit der CineFX"-Architektur harmonieren. Daß aber die GFFX nur die Hälfte der FP-Pipelines einer R3x0 hat, war eine bewusste Designentscheidung. Und diesen handfesten Nachteil kann man nicht einfach so durch andere Shader ausgleichen.Ah ja... so ein USC soll also von Anfang an 'perfekt' laufen ?
Verlangst Du da nicht ein bissel fille ?

Für den Anfang ist das Resltat schon gar nicht schlecht.
Schaun' wir mal, was mit dem Teil zukünftig noch so raus zu holen ist...

Viel mehr würde mich aber interessieren, wie Du das mit den Pipelines meinst.
nVidia hat nur die 'Hälfte' ?
Die Hälfte von was ?
:???:
Original geschrieben von Exxtreme
Und ich möchte nicht wissen, welche Ergebnisse rauskommen wenn ATi so richtig anfängt zu cheaten.Auch an Dich die Frage: Wo siehst Du bei nVidia Cheats ?
:???:

Und zumindest derzeit schaut' es so aus, als dass nVidia beim 'optimieren' besser ist.
Vor allem unter der Annahme, dass die FX'er ja eigentlich soooo schlecht sind... ;)
Original geschrieben von Exxtreme
Nö, siehe oben. Ich habe eine mögliche Erklärung für die Entscheidungen von FM gegeben.Sehr löblich von Dir...
Aber gehörtest Du nicht auch zu den Leutz damals, die das Konzept 'Murs' an die Wand gestellt haben ?
Woher der Sinneswandel ?
Original geschrieben von Exxtreme
Und messen tut der 3DMark2003 tatsächlich was. ;)
Nämlich wie gut eine GraKa mit dem 3DM03 harmoniert. War schon immer so und wird immer so bleiben. Auch Timedoms echter Spiele messen nur wie gut eine GraKa mit der Timedemo von diesem Spiel harmoniert. Nur der Unterschied ist, dass die Engine-Entwickler dieser Games und damit der Timedemos nicht damit werben, ein "Gamer Bench" zu sein und damit eine generelle Aussage über die Leistungsfähigkeit in allen Gamer-Situationen zu machen.

Würde FM sagen, dass sie nur einen Tech-Bech schrieben und die daraus resultierenden Ergebnisse KEINESFALLS auf RealWorld-Benches zu übertragen sind, würde ich ja auch gar nichts sagen...

SO aber nicht !
Original geschrieben von Exxtreme
Es sit wichtig zu wissen was man misst und noch wichtiger ist es die richtigen Schlüsse daraus zu ziehen. Ein Bench einer Timedemo ist nur ein Indikator, genauso wie 3DMarkxxxx-Benches nur Indikatoren sind. Weswegen Dell diesen bench benutzt, um die generelle 'Leistungsfähigkeit' der Hardware zu klassifizieren ?
Sorry, aber Dein Anliegen mag ja eher sein, praxisrelevant ist es aber nicht, sorry...

Razor

Razor
2003-11-15, 14:38:37
Original geschrieben von zeckensack
Immer her mit deinen Quellen ...Oh... Du hast am Anfang auch dazu gezählt...
Woher der Sinneswandel ?
:???:
Original geschrieben von zeckensack
Ich habe keine Blumen verteilt :|Ein bissel Sarkasmus wirst Du doch hoffenlich noch verstehen...
;-)
Original geschrieben von zeckensack
Jetzt wird mir so einiges klar :idea:
Cheat = nicht nach den Spielregeln spielenNein, Cheat bedeutet genau das, was ich meinte...
Wenn Du da eine andere Auffassung vertrittst, ist das Deine Sache, nur muss ich diese ja wohl hoffentlich nicht teilen, oder ?

Wer stellt die Spielregeln auf ?
Mit welchem Recht ?
Und tut er das uneigennützig ?

Nur ein paar kleine Denkanstöße.

Wenn die BQ nicht verringert wird, muss es mir als Gamer völlig schnurz sein (und das ist es auch ;-) woher die Leistung kommt. Das ist Sache der Hard- und Software-Designer. Und nicht diejenige eines daher gekommenen kommerziellen Benchmark-Proggers, der der Meinung ist die ultimative Messlatte für die gesamte 3D-Industrie zu repräsentieren.

Das hat er noch nie und das wird er auch hoffentlich nie !

Für mich bleibt unterm Strich, dass FM derzeit krampfhaft versucht, seine Reputation zu retten (wie nVidia wol auch). Obwohl die derzeitige Konsequenz eigentlich heißen müsste: "Weg damit !"

Womit ich ganz sich nicht nVidia meine (meinen kann ;-) !

Razor

mapel110
2003-11-15, 14:45:10
razor,

cheat ist das, was FM deaktiviert hat. SIE wollen sowas eifnach nicht, sie stellen die spiel(bench)regeln auf und fertig. da gibts nix weiter zu diskutieren.

wenn DIR die FM regeln nicht gefallen, ists dein problem.
dann bench halt nicht damit, sage "der bench ist unfair" und gut ist.

btw dann ist der murks eben repräsentativ für games, die nicht auf nvidia's FX speziell angepasst wurden. ist doch auch was.
schliesslich wirds von der sorte auch ne menge games geben.

p.s. ich weiss, dass du diese games natürlich nicht spielen wirst und dass darunter auch keine megaseller sein werden.

p.p.s.
ob FM die spielregeln uneigennützig aufstellt, siehst du schon daran, dass SIE sich mit ihren jetzigen regeln eine menge ärger einhandeln.
sie könnten es sich viel leichter machen, in dem sie einfach nvidia cheaten/optimieren lassen.

ausserdem, ist nvidia nun wieder im betaprogramm von FM, oder nicht?! :|

Demirug
2003-11-15, 14:51:37
Original geschrieben von Razor
Ließe sich das nicht vereinfachen ?
Eben keine Partikeleffekte und die Animation (bei dem Snapshot) vorgeben...
Aber ich stell mir das wohl zu einfach vor.
(*absolut keinen plan vom engine-proggen hab*)

Das wäre ja für das angestrebte Ziel kontra produktiv. Es ging bei dieser Besprechung ja nicht darum irgendwelche möglichen Cheats zu finden. Gesucht wurde ein Verfahren zum senken der Testkosten. Und Treiberfehler können ja überall auftauchen und wenn man dann doch wieder jemaden hinsetzten muss der von Hand prüft bringt das ja alles nichts.

zeckensack
2003-11-15, 15:12:57
Original geschrieben von Razor
Oh... Du hast am Anfang auch dazu gezählt...
Woher der Sinneswandel ?
:???:Ich bin durchaus in der Lage, dir meine Meinung ohne großes Rumeiern zu schildern. Wie folgt:
3DMark03 verballert Leistung durch eine ineffiziente Technik zur Schattenvolumen-Erzeugung.
Folge:
-Überlast auf dem Vertex Shader, viele degenerates
-weitgehende Eliminierung der CPU und des Restsystems aus der Performance-Gleichung
Ein Spiel sollte das nicht tun.

Wenn du dir jetzt den zweiten Punkt nochmal anschaust, und dir überlegst daß 3DM03 ein Grafikkarten-Benchmark ist, und du dann immer noch nicht verstehst, warum dieser Ansatz gewählt wurde, dann kann ich dir auch nicht mehr weiter helfen.
Nein, Cheat bedeutet genau das, was ich meinte...Nein (http://www.infoplease.lycos.com/ipd/A0369513.html). Das was du meintest ist eine mögliche Ausdrucksform von Cheat, das bedeutet aber nicht daß "Cheat" immer exakt das bedeutet.
Ein Hase ist ein Säugetier, also sind alle Säugetiere Hasen, oder was!?
Wer stellt die Spielregeln auf ?
Mit welchem Recht ?
Und tut er das uneigennützig ?Das ist irrelevant. Entweder nach den Regeln, oder garnicht. Wem die Regeln nicht passen, der braucht nicht mitzuspielen.

"Sie können mir meinen Führerschein nicht wegnehmen, das ist nämlich so: ich fahre sehr gerne sehr schnell durch Ortschaften und habe eine Abneigung gegen Ampeln. Mir gefällt meine Fahrweise sehr gut, und deswegen werde ich auch weiter Auto fahren."

Wenn die BQ nicht verringert wird, muss es mir als Gamer völlig schnurz sein (und das ist es auch ;-) woher die Leistung kommt. Das ist Sache der Hard- und Software-Designer. Und nicht diejenige eines daher gekommenen kommerziellen Benchmark-Proggers, der der Meinung ist die ultimative Messlatte für die gesamte 3D-Industrie zu repräsentieren.Dann ist's dir eben egal, daß nur gecheatete Shader schnell sind, und dann ist's dir eben egal, wenn hier und da mal ein paar Bits fehlen. Anderen Leuten ist das nicht egal, denn sie wollen eben wissen was die Grafikkarten und deren Treiber leisten können. Halte dich aus ernsthaften Diskussionen zu dem Thema doch einfach raus, wenn dir das alles egal ist.

MadManniMan
2003-11-15, 15:30:54
Originally posted by Razor
Was aber auch daran liegen mag, dass ich das einfach schon zu oft geschrieben habe...

Wie haltet ihr eigentlich diese ständigen Wiederholungen aus? Wieviele schreiben bei euch an diesen Posts?

Originally posted by Razor
Glaubst Du das eigentlich wirklich, oder willst Du hier nur spammen ?

Genau das selbe Unverständnis entsteht bei nicht Wenigen ob deiner Penetranz. Nicht nur, daß du auf Biegen und Brechen jede Aussage irgend in dein Konzept zu bringen versuchst, nein, wenn das aus welchem Grunde auch immer nichtmal im Ansatz mäglich sein sollte, sprichst du Anderen ihre Kompetenzen ab.
Und zum Thema Spam: es gibt drei Arten - 1) lustigen gehaltlosen, wobei es ein Jeder anders sehen mag ... 2) nervigen gehaltlosen, dabei wäre die Anmerkung zu 1) zu beachten ... und letztendlich solchen, 3) der zwar durchaus mit Kontext behaftet ist, aber durch seine endlose Wiederholung ganz und gar selbstverschuldet unter Jenes fällt.
Ein kleiner Tip an alle, dir irgend ein selbst angewandtes Schema erkennen: 1) und 2) führen über Kurz oder Lang zu einem Tempbann. 3) jedoch läßt sich sehr bald abstellen, indem man die Gegenseite zum Einen davon überzeugt, daß auch in einem Post der Inhalt von Vielen zusammengefaßt Platz finden kann. Zudem dürfte einem selbst beim lesen des Produzierten schneller auffallen, wie und wo man sich wiederholt und deshalb seine Kommunikationsweise optimieren kann.

Razor, ich brauche mich an Nichts zu reiben, weil ich weiß, daß du tatsächlich die Auffassungsgabe besitzt, dich angesprochen zu fühlen. Ich weiß, daß du meine Aussage wieder am liebsten damit abschwächen würdest, indem zu nach dem Themenbezug fragst. Und ich weiß, daß dich das von mir leider ständig zu Wiederholende(merkst was? Du treibst mich zum Spam) tief im Inneren irgendwo an deinem 'Ehrgefühl' tangiert - auch wenn du es natürlich wieder abstreiten wirst.
Dabei möchte ich doch nur, daß wir uns allesamt in eine Richtung bewegen, in der deinen Aussagen ob einer eventuell das jetzige Stadium übersteigende Präsentationsform mehr kontextuelle Aufmerksamkeit gewidmet wird und du irgendwann erkennst, daß nicht nur du eigene Meinungen besitzt, sondern auch deine Konversationspartner. Und damit meine ich alle, nicht nur deine jeweiligen Gesinnungsgenossen. Und ich möchte erreichen, daß du deine Postingzahl auf ein vertretbares Maß für die jeweilige Aussage reduzierst.

Ich vermute stark ein kurzes Quote aus diesem Text, gespickt mit einer kleinen abfälligen Bemerkung. Aber ganz egal, ob du nun derart, oder gar ausufernd anwortest, so weiß ich doch, daß meine Aussage zumindest vernommen wurde.

Lieben Gruß, Manni

StefanV
2003-11-15, 16:06:37
Original geschrieben von Razor
Dazu habe ich aber schon eine Menge mehr gehört...
Der Tonus (ich bin kein Engine-Entwickler ;-) war schlicht: Murks !
Oder aber: Ein Beispiel wie man es NICHT machen sollte...
;-)


Weißt du, ob 'das Beispiel, wie man es nicht machen sollte' nicht absichtliche Absicht war und eine Designentscheidung a la 'wie verhindern wir am besten 100+ fps' ist?!

Ich könnte mir durchaus vorstellen, daß FM das absichtlich gemacht hat, um die FPS unten zu halten, warum auch immer...

Möglicherweise hat die 3DMark Engine ja Probleme mit 'High FPS' (über 100), ein 'Beweis' wäre ja Nature auf 'ner Radeon 9700+, welches teilweise über 100fps läuft und dadurch die Schmetterlinge 'komisch' reagieren...

StefanV
2003-11-15, 16:15:05
Original geschrieben von Razor
Nein, Cheat bedeutet genau das, was ich meinte...
Wenn Du da eine andere Auffassung vertrittst, ist das Deine Sache, nur muss ich diese ja wohl hoffentlich nicht teilen, oder ?

Wer stellt die Spielregeln auf ?
Mit welchem Recht ?
Und tut er das uneigennützig ?

Nur ein paar kleine Denkanstöße.

nein, ein Cheat ist das, was der 'Entwickler' des 'Spieles' nicht vorgesehen hat.

1. die Spielregeln stellt IMMER der Entwickler des Spieles auf.
Wenns ein Ravensburger Spiel ist, dann stehen die Spielregeln schwarz auf weiß auf einem Beipackzettel, wer sich nicht daran hält, der CHeatet, so einfach ists.
In diesem Fall stellt FM die Regeln auf, basta.

2. mit dem Recht, daß die Entwickler des Spieles sich was dabei gedacht haben?!
Oder sagst du zu deinen 'Spielpartnern', wenn du ein Brettspiel spielst, daß dir die Regeln nicht gefallen und das du gerne eigene aufstellen möchtest??
Ich glaub die Reaktionen deiner 'Mitspieler' dürften klar sein...

3. Das steht hier nicht zu debatte!
Fakt ist, daß FM festgelegt hat, daß man nicht auf den 3Dmark03 zu optimieren hat, was auch völlig verständlich ist...

Exxtreme
2003-11-15, 16:19:19
Original geschrieben von Razor
Und ist man diesem Ziel nahe gekommen ?
Ich sage mal: nein !
(auch wenn wir das erst später sehen werden ;-)

Habe ich auch nie behauptet. Wie gesagt, das Teil ist ein Indikator, mehr nicht. Auch Timedemos sind nur Indikatoren.
Original geschrieben von Razor
Nur warum hat man diese 'Last' nicht mit komplexeren Shadern und aufwändigeren Effekten verursacht ?
Weil ATI dann zusammen gebrochen wäre ?
(und das bei einem treuen und gut zahlenden Beta-Member ;-)

Glaub jetzt nicht, daß der 3DMark2003 auf einer R300 sehr gut läuft. Es gibt immens viele Stellen wo die Performance in die Knie geht. Ausserdem was willst du denn für Shader haben? Mit mehreren Hundert Anweisungen? Da wo jede derzeit verfügbare GraKa kaum über 3 fps kommt? FM hat sich an die PS/VS2.0-Richtlinien was Shaderlänge etc. angeht, gehalten.
Original geschrieben von Razor
Aufgrund welcher Gegebenheiten ?
Kurze, nutzlose Shader ?
Compiliert mit dem 2.0-Profil des DX9-SDK's ?
Na ja, ich weiß nicht... hört sicher aber sehr nach ATI-Guidelines an...

Wie gesagt, der Shader Compiler im neuen Deto kann das ausgleichen. Die jetzige Performance (mit dem 240'er Build natürlich) dürfte selbst mit dem PS2_A-Profil nicht mehr stark ansteigen.
Original geschrieben von Razor
Ah ja... so ein USC soll also von Anfang an 'perfekt' laufen ?
Verlangst Du da nicht ein bissel fille ?

Für den Anfang ist das Resltat schon gar nicht schlecht.
Schaun' wir mal, was mit dem Teil zukünftig noch so raus zu holen ist...

Siehe oben. Der Shader Compiler ist ja dazu da um "unbequeme" Shader "passend" zu machen. Kann sein, daß es noch punktuelle Verbesserungen in der Zukunft geben wird. Andererseits macht NV da sehr lange rum. Die haben wohl schon seit zig Monaten lauffähiges Silizium.
Original geschrieben von Razor
:???:
Auch an Dich die Frage: Wo siehst Du bei nVidia Cheats ?
:???:

Siehe Zeckis Antwort.
Original geschrieben von Razor
Und zumindest derzeit schaut' es so aus, als dass nVidia beim 'optimieren' besser ist.
Vor allem unter der Annahme, dass die FX'er ja eigentlich soooo schlecht sind... ;)

Naja, Shader austauschen und andere einsetzen ist ja nicht unbedingt eine so tolle Leistung. ;) Ausserdem kann niemand ausschliessen, daß die Ersatzshader ausschliesslich beim 3DMark2003 "zufällig" das gewünschte Ergbnis liefern. Sonst hätte es NV nicht applikationsspezifisch implementiert.
Original geschrieben von Razor
Sehr löblich von Dir...
Aber gehörtest Du nicht auch zu den Leutz damals, die das Konzept 'Murs' an die Wand gestellt haben ?
Woher der Sinneswandel ?

Nö, ich sagte schon damals, daß man den 3Dmark allgemein nicht überschätzen sollte. Das sage ich auch heute noch, keine Angst.
Original geschrieben von Razor
Nur der Unterschied ist, dass die Engine-Entwickler dieser Games und damit der Timedemos nicht damit werben, ein "Gamer Bench" zu sein und damit eine generelle Aussage über die Leistungsfähigkeit in allen Gamer-Situationen zu machen.

Tja, Entwickler von Game-Engines programmieren meist Spiele und keine Benchmarks. Von daher bewerben sie die Spiele auch nicht als Benchmarks.
Original geschrieben von Razor
Würde FM sagen, dass sie nur einen Tech-Bech schrieben und die daraus resultierenden Ergebnisse KEINESFALLS auf RealWorld-Benches zu übertragen sind, würde ich ja auch gar nichts sagen...

Das tun Timedemos auch nicht. Auch die Ergebnisse einer Timedemo kann man KEINESFALLS auf die Realworld-Performance des selben Spieles übertragen.

Und somit steht eins fest, Benchmarks sind für die Katz. ;)

Nochmal, der 3DMark200x ist ein Indikator. FM behauptet auch AFAIK nicht, daß der 3DMark Realworld Spiele-Performance darstellt.
Original geschrieben von Razor
SO aber nicht !
Weswegen Dell diesen bench benutzt, um die generelle 'Leistungsfähigkeit' der Hardware zu klassifizieren ?
Sorry, aber Dein Anliegen mag ja eher sein, praxisrelevant ist es aber nicht, sorry...

Razor
Tja, was Dell macht ist deren Sache.

AchtBit
2003-11-15, 16:38:09
>>absichtliche Absicht<<

Genau wie nV die haben nur aus unabsichtlicher Absicht gecheatet. ;D

Im ernst, die sammeln zur Zeit jeden sample spezifischen Repro Case, der ihnen unter die Finger kommt. Dass FM dran glauben musste, war hinsichtlich den duenn gesaehten shader codes mit unterscheidlichen Samplemethoden therefor the primary target. Glaubst nicht, die verwenden sinnlose Zeit darauf nen Code zu Reversen, den die Entwickler im Handstreich geaendert und rekompiliert haben. Nicht nur das der Aufwand umsonst war, die auf dem Fuss folgende Reaktion wird zum Bumerang der nV vor allen Usern ziemlich dumm dastehn laesst. Und das alles fuer ein paar Zahlen die sogut wie keine Eindruck beim User hinterlassen, weil die meisten eh nicht die Logik im background verstehen koennen.

Ich denk auch was nV dazu gesagt hat, war die Wahrheit. Vor so einem Hintergrund ist alles schwer zu glauben und am wenigsten vermutet man die Wahrheit. ;)

seahawk
2003-11-15, 16:49:29
Ich bleibe dabei, NV cheatet, weil sie einfach einen Shader über den Binärcode erkennen und gegen einen anderen austauschen.

Allerdings kann ich es verstehen da die von FM vorgebenen Shader nicht die Eigenschaften der NV Karten berücksichtigen. NV wird vermutlich FP16 benutzen wo es für eine ähnliche / gleiche Bildqualität ausreicht.FM erlaubt die Nutzung von FP16 in seinen Shadern nicht, obwohl diese Option Bestandteil von DX9 ist.

Man muss also feststellen, dass NV gegen die Optimierungsrichtlinien von FM verstößt, FM aber bei seinem Test nicht jede DX9 Hardware gleichermaßen fair behandelt.

Ich warte ja auf die nächsten DX 9 Chips und deren Verhalten beim 3DMark. Mal gucken wie denen die FM Shader schmecken.

Winter[Raven]
2003-11-15, 16:58:30
Ich bleibe dabei, NV cheatet, weil sie einfach einen Shader über den Binärcode erkennen und gegen einen anderen austauschen.

Ist doch Relle solange das Ergebnis dann zu 98% dem entspricht was der originale Shader für ein Ergebnis hätte.

Denkst du ich schau mir jeden Pixel bei 1600x Zoom an ?

Ich wäre jetzt wirklich für eine SE Edition von dem Murks. Ich denke das wäre für alle das beste.

nggalai
2003-11-15, 17:08:14
Hi Z-Bag,
Original geschrieben von zeckensack
Nein (http://www.infoplease.lycos.com/ipd/A0369513.html). Das was du meintest ist eine mögliche Ausdrucksform von Cheat, das bedeutet aber nicht daß "Cheat" immer exakt das bedeutet.
Ein Hase ist ein Säugetier, also sind alle Säugetiere Hasen, oder was!?
Das ist irrelevant. Entweder nach den Regeln, oder garnicht. Wem die Regeln nicht passen, der braucht nicht mitzuspielen.

"Sie können mir meinen Führerschein nicht wegnehmen, das ist nämlich so: ich fahre sehr gerne sehr schnell durch Ortschaften und habe eine Abneigung gegen Ampeln. Mir gefällt meine Fahrweise sehr gut, und deswegen werde ich auch weiter Auto fahren."Excellenter Vergleich! Genau so ist die Situation hier:

FM will testen, wie schnell ein Auto (Grafikkarte plus Treiber) durch eine Innenstadt (Benchmark) mit x Ampeln im Weg (eingesetzte Technik im Benchmark) kommt. NV ignoriert die Ampeln, die im Weg stehen (applikationsspezifisches Shaderreplacement), obwohl ein kluger Fahrer (Shader-Compiler) zur Verfügung steht und auch fürs Rennen zugelassen ist.

Es wird die Zeit gemessen (Performance), die man braucht, bis man wieder aus der Innenstadt draussen ist (sichtbares Endergebnis). NV sagt jetzt, "haha! das Endergebnis ist dasselbe, also ist's doch schnuppe, wie wir durch die Innenstadt fahren! Die Performance zählt!". Aber das widerspricht den Spielregeln (Ampeln müssen korrekt passiert werden). Also ist's ein Cheat.

93,
-Sascha.rb

Mr. Lolman
2003-11-15, 17:24:20
Original geschrieben von Winter[Raven]
Ist doch Relle solange das Ergebnis dann zu 98% dem entspricht was der originale Shader für ein Ergebnis hätte.

Denkst du ich schau mir jeden Pixel bei 1600x Zoom an ?

Ich wäre jetzt wirklich für eine SE Edition von dem Murks. Ich denke das wäre für alle das beste.


Nur sind diese Shader eigens optimiert (mittels Routine erkannt und ausgetauscht) worden von NV. FM hat eine Kleinigkeit im Shadercode geändert, und schon schaffts NVs Routine nicht mehr, diesen Shader zu erkennen und ihm dementsprechend gg. einen auf NV HW zugeschnittenen zu ersetzen.

"Ist doch egal, NV wird ohnehin wieder einen neuen Treiber nachschieben."

Das ist zwar korrekt, aber spiegelt bei weitem nicht die RW Perfomance der GraKa wieder. Stell dir vor der Shader kommt in einem Spiel vor, welches nicht zum Benchen verwendet wird. Glaubst du wirklich, dass sich NV hinsetzt, und auch die Shader von solchen Spielen nachoptimiert?

Deswegen, wage ich zu behaupten, dass die Leistung von NV Karten im 3dmark330 solange das tatsächliche Bild wiederspiegelt, solange man sie nur mit der von bekannten Spielebenchmarks vergleicht, welche auch min 95% der REviewseiten verwenden.

Q3a z.B. Das Spiel hat zwar überhaupt nicht mit der Technik vom 3dmark03 am Hut, ist aber eine sorgsam gepflegte, über Jahre hinweg optimierte App. die wohl nahe dem möglichen Optimium der Leistungsfähigkeit von NV HW agiert.

So entstand auch die Legende von NVs überlegenen OpenGL Treibern
(sieht man sich andere Spiele mit der selben Engine als Basis an, sehen die Ergebnisse schon tw. schon wieder deutlich anders aus.)



Aber glaubst du tatsächlich, das im Rahmen der nächsten 3dmark Optimierungen (oder glaubt jemand das NV Einsicht zeigt, und das Cheaten im 3dmark bleiben lässt) z.B. in SimCity4 NVs unterirdische Performance auf ATi Niveau gehoben wird?

Wohl kaum, sofern nicht plötzlich ganz viele Leute anfangen SimCity 4 zu benchen...

zeckensack
2003-11-15, 17:25:38
Original geschrieben von Winter[Raven]
Ist doch Relle solange das Ergebnis dann zu 98% dem entspricht was der originale Shader für ein Ergebnis hätte.

Denkst du ich schau mir jeden Pixel bei 1600x Zoom an ?BQ - okay.
Aber was ist mit der Performance?
Ist dir das auch "Relle", wenn richtige Performance nur handgetunte Austausch-Shader erreicht wird? Wie hoch ist denn deiner Meinung nach die Wahrscheinlichkeit, daß NVIDIA alle Shader in allen Spielen (die du jemals spielen willst), in allen Versionen (Patches) handoptimiert im Treiber ablegt? Gnää ...

Benchmarks sind Instrumente, die Informationen liefern sollen. Information falsch => Schlußfolgerung falsch. Pre-Patch ist 3DM03 ein Indikator für die Performance von Applikation, die von NVIDIA handoptimiert werden. Post-Patch ist 3DM03 ein Indikator für alle anderen Applikationen. So einfach ist das.

Was NVIDIA hier tut nennt man "Täuschungsversuch", Obermenge "asoziales Verhalten".

kmf
2003-11-15, 17:57:59
Geht mir der Kram mit dem 3DMark-shice auf den Geist.
Kanns nicht mehr hören, geschweige denn noch lesen.

Wer setzt den heute überhaupt noch ersthaft ein?

Ich kann mir nicht vorstellen, wie ein Benchmarkschreiber wie Futuremark eine solche Machtstellung erreichen konnte, um über Flop oder Top-Produkt bei Grafikkarten entscheiden zu können.

Wenn es den Grakaherstellern in den Kram paßt, verschwindet der von heute auf morgen und Ruh ists.

AchtBit
2003-11-15, 18:03:38
>>BQ - okay.
Aber was ist mit der Performance?
Ist dir das auch "Relle", wenn richtige Performance nur handgetunte Austausch-Shader erreicht wird? Wie hoch ist denn deiner Meinung nach die Wahrscheinlichkeit, daß NVIDIA alle Shader in allen Spielen (die du jemals spielen willst), in allen Versionen (Patches) handoptimiert im Treiber ablegt? Gnää ... <<

Das ist nah dran, im Gegenteil, diese Mutmassung ist irgendwo jenseits der Realitaet...kannst gleich sagen dass intel fuer alle Multimedia Programme hand optimized SSE code schreibt.

Ich rede da von einem Stream der 5x mal soviel Instruktionen und 100x mal mehr verschieden Anwendungsbereiche abdeckt. Das ganz mit einem in die CPU integrierten Compiler und Prefetcher sowie eine Branch Prediction Table die einer Leistung hat welche konstant 25% ueber der pro mhz Leistung, basierend auf die Architektur, liegt.
Dagegen gleicht der Anwendungsbereich des 2.0er Shader einem Kinderspielplatz.

Es gibt ja 1000 Theorien aber die passt hoechsten zu 1001 gute Nachtgeschichten.

Wenn de inzwischen nem SSE stream nur eine 16bit Farcall reinklatscht kann Dir das unter Umstaenden die CPU durchschmelzen. Soviel zu Eingriffen in anwendungspezifischen Code

MikBach
2003-11-15, 18:06:35
Original geschrieben von zeckensack
BQ - okay.
Aber was ist mit der Performance?
Ist dir das auch "Relle", wenn richtige Performance nur handgetunte Austausch-Shader erreicht wird? Wie hoch ist denn deiner Meinung nach die Wahrscheinlichkeit, daß NVIDIA alle Shader in allen Spielen (die du jemals spielen willst), in allen Versionen (Patches) handoptimiert im Treiber ablegt? Gnää ...


Was NVIDIA hier tut nennt man "Täuschungsversuch", Obermenge "asoziales Verhalten".

Teile Deine Meinung :)

aths
2003-11-15, 18:13:56
Original geschrieben von Winter[Raven]
Denkst du ich schau mir jeden Pixel bei 1600x Zoom an ?Es wäre aber doch schöner, wenn exakt das gerendert würde, was der Entwickler will, oder?

zeckensack
2003-11-15, 18:14:25
AchtBit,
was soll das? Wovon sprichst du überhaupt?
Die Umsetzung von x86-Code auf die interne Prozessorarchitektur erfolgt 1)ohne Treiberintervention (Code wird nicht über APIs übergeben, sondern vom Prozessor selbst geholt), 2)ohne Applikations-Erkennung, 3)für gleiche Codesequenzen (unabhängig von Registernummern oä) mit konstanter Qualität, 4)immer, 5)unabhängig von Patches, 6)ohne daß irgendjemand rumheult, 7)ohne jeden noch so kleinen Kompromiß beim Ergebnis.

Genau das sollte NVIDIA auch liefern.

Exxtreme
2003-11-15, 18:16:34
Original geschrieben von seahawk
Allerdings kann ich es verstehen da die von FM vorgebenen Shader nicht die Eigenschaften der NV Karten berücksichtigen.
Das Einzige, was FM berücksichtigen muss, sind die Eigenschaften von DX9. Sonst kann man gleich OpenGL nehmen.

AchtBit
2003-11-15, 18:18:37
The silicon chip inside their head's gets switched to overload.
They can see no reasons 'Cause there are no reasons
What reason do you need to be shown?
Tell me why?
I don't like Mondays.
I want to shoot the whole day down.

;)

AchtBit
2003-11-15, 18:25:10
>>Die Umsetzung von x86-Code auf die interne Prozessorarchitektur erfolgt 1)ohne Treiberintervention<<

Das ist schlichtweg falsch. Der Compiler zur Optimierung des SSE Codes ist in die CPU implementiert. Genau wie die Tabelle die alle mogliche Branch Profile beinhaltet.

Beim P5 wird der Compiler erstmal wieder extern im Chipsatz sein. CPU Intern gibts schon ewig keine X86 Instruktionen mehr, die wurden bereits im P1 zu interen Risc Instruktionen uebersetzt

Demirug
2003-11-15, 18:25:33
Original geschrieben von Exxtreme
Das Einzige, was FM berücksichtigen muss, sind die Eigenschaften von DX9. Sonst kann man gleich OpenGL nehmen.

Jaein. Soweit sind wir noch nicht (vielleicht mit DX Next). Es gibt ja immer noch massenhaft Caps.

Man muss also schon noch berücksichtigen was die Karten/Treiber können.

StefanV
2003-11-15, 18:31:00
Original geschrieben von AchtBit
>>Die Umsetzung von x86-Code auf die interne Prozessorarchitektur erfolgt 1)ohne Treiberintervention<<

Das ist schlichtweg falsch. Der Compiler zur Optimierung des SSE Codes ist in die CPU implementiert. Genau wie die Tabelle die alle mogliche Branch Profile beinhaltet.

Beim P5 wird der Compiler erstmal wieder extern im Chipsatz sein. CPU Intern gibts schon ewig keine X86 Instruktionen mehr, die wurden bereits im P1 zu interen Risc Instruktionen uebersetzt

Hö?!?!

1. Der Compiler ist eigentlich IMMER ein Programm.
Sowas sitzt weder in der CPU und schon garnicht im Chipsatz.

2. ?!
2b. Seit dem P1?!
Sorry, aber soweit ich weiß, nutzt Intel erst seit dem P6 Design einen Risc Kern, im Gegensatz zu AMD, welche das schon beim K5 taten...

AchtBit
2003-11-15, 18:34:22
Was soll ich sagen?
1. und 2. ist schlichtweg falsch.

whatever, ich komm mir langsam vor wie der Elaborateur vom Dienst. Mensch, macht Euch doch erst mal schlau bevor Ihr nur mutmasst.

StefanV
2003-11-15, 18:45:27
Original geschrieben von AchtBit
whatever, ich komm mir langsam vor wie der Elaborateur vom Dienst. Mensch, macht Euch doch erst mal schlau bevor Ihr nur mutmasst.

Öhm, *hust*...

DAS wollte ich dir eigentlich auch vorschlagen, als ich das erste mal auf einen deiner Beiträge geantwortet hab, habs dann aber doch gelassen :eyes:

Thowe
2003-11-15, 18:59:32
Auf jedem Fall macht der 3DMARK nach Optimierungsbefreiung wieder den Sinn, den er haben sollte und das ist, das er die Leistung aktueller Grafikkarten für zukünftige Spiele nach dem DX9 Standard misst.

Wenn NV nun garantiert, das sie jedes in Zukunft erscheinene Spiel genau so optimieren, wie sie es bei einem Messprogramm taten - Ok. Können sie dies nicht, dann dürfen sie auch nicht bei einem Leistungsvergleich unfair spielen.

Wer z.Z. nicht akzeptieren will das NVIDIA im Moment keine passende Karte hat, der leidet sicher an Arithmophobie, anders kann ich die Ignoranz gegenüber den ermittelten Werten nicht erklären.

Hätte NVIDIA einen Schalter in den Treibern gemacht, mit denen man für Applikationen einen optimierten Pfad aktiviert, dann würde sie niemand der Erschwindelung von Leistung bezichtigen. Doch das haben sie nicht und so bleibt eigentlich nur noch genau dies so zu sehen, Betrug am Kunden.

Auch die PowerVR Karten hatten eine sau miese Leistung beim damaligen 3DMARK, wie denn auch mit gar keiner TnL-Unterstützung. So blieb auch den Kyro-Kunden die Erkenntnis, das bei intensiven gebrauch von TnL die Karte nicht ausreichen wird. Die Frage war aber damals, reicht sie für aktuelle Spiele und das tat sie.

Noch eines, wer meint sich durch Quote-Orgien mehr Gewicht geben zu können, der irrt.

zeckensack
2003-11-15, 19:06:22
Original geschrieben von AchtBit
Das ist schlichtweg falsch. Der Compiler zur Optimierung des SSE Codes ist in die CPU implementiert. Genau wie die Tabelle die alle mogliche Branch Profile beinhaltet.

Beim P5 wird der Compiler erstmal wieder extern im Chipsatz sein.*hup*
Bitte erstmal die Termini richtig anwenden. Ein Compiler ist das was Stefan schon umrissen hat, ein Programm das den Maschinen-Code (für die ISA, nicht die Innereien) überhaupt erstmal erzeugt. Und ja, es gibt selbstverständlich auch optimierende Compiler.

CPU Intern gibts schon ewig keine X86 Instruktionen mehr, die wurden bereits im P1 zu interen Risc Instruktionen uebersetzt P6 und aufwärts: korrekt.
P5: falsch.
Davon abgesehen habe ich genau das auch geschrieben, wie von dir zitiert:
>> Die Umsetzung von x86-Code auf die interne Prozessorarchitektur [...] <<

LovesuckZ
2003-11-15, 19:26:01
Original geschrieben von Thowe
Auf jedem Fall macht der 3DMARK nach Optimierungsbefreiung wieder den Sinn, den er haben sollte und das ist, das er die Leistung aktueller Grafikkarten für zukünftige Spiele nach dem DX9 Standard misst.

Es gibt kein Standard DX9 Pfad (das verstehe ich unter "Standard DX9").
Das, was der 3DMark2003 an "Leistung aktueller Grafikkarten" unter dem "Standard DX9" misst, ist die unoptimierte DX9 Leistung bei Nvidia und die optimierte bei ATi.

/edit: Umgeaendert :D

seahawk
2003-11-15, 19:31:21
Original geschrieben von nggalai
Hi Z-Bag,
Excellenter Vergleich! Genau so ist die Situation hier:

FM will testen, wie schnell ein Auto (Grafikkarte plus Treiber) durch eine Innenstadt (Benchmark) mit x Ampeln im Weg (eingesetzte Technik im Benchmark) kommt. NV ignoriert die Ampeln, die im Weg stehen (applikationsspezifisches Shaderreplacement), obwohl ein kluger Fahrer (Shader-Compiler) zur Verfügung steht und auch fürs Rennen zugelassen ist.

Es wird die Zeit gemessen (Performance), die man braucht, bis man wieder aus der Innenstadt draussen ist (sichtbares Endergebnis). NV sagt jetzt, "haha! das Endergebnis ist dasselbe, also ist's doch schnuppe, wie wir durch die Innenstadt fahren! Die Performance zählt!". Aber das widerspricht den Spielregeln (Ampeln müssen korrekt passiert werden). Also ist's ein Cheat.

93,
-Sascha.rb

Dann ist es aber auch so, als ob NV einen Turbo hat, FM denen aber verbietet in zu nutzen. (FP16) :D

Exxtreme
2003-11-15, 19:31:43
Original geschrieben von LovesuckZ
Es gibt kein Standard DX9 Pfad (das verstehe ich unter "Standard DX9").
Das, was der 3DMark2003 an "Leistung aktueller Grafikkarten" unter dem "Standard DX9" misst, ist ein für Nvidia unoptimiertes DX9 und ein optimiertes für ATi.
Nochmal, DX9 ist auf GAR NICHTS optimiert.

LovesuckZ
2003-11-15, 19:34:47
Original geschrieben von Exxtreme
Nochmal, DX9 ist auf GAR NICHTS optimiert.

en nettes "aender es bitte um", haette ja gereicht :)

StefanV
2003-11-15, 19:36:43
Original geschrieben von LovesuckZ
Es gibt kein Standard DX9 Pfad (das verstehe ich unter "Standard DX9").
Das, was der 3DMark2003 an "Leistung aktueller Grafikkarten" unter dem "Standard DX9" misst, ist die unoptimierte DX9 Leistung bei Nvidia und die optimierte bei ATi.

/edit: Umgeaendert :D


...was daran lag, daß nV zu spät war, ergo -> PECH für nV...

Wie heißt so schön: wer zu spät kommt, dem bestraft das Leben, in diesem Fall also nV...

seahawk
2003-11-15, 19:37:00
Original geschrieben von Exxtreme
Nochmal, DX9 ist auf GAR NICHTS optimiert.

Das ist korrekt. FM nutzt aber nicht alle Optionen von DX9. Sie lassen z.B. nie reduzierte Genauigkeit zu (FP16), obwohl das laut DX 9 Specs zulässig wäre. Die minimalen Bildunterschiede zwischen 330 und 340 auf NV Karten legen jedenfalls nahe, dass dies ohne Verlust an BQ möglich wäre.

Anstatt da einen Cheat in den Treiber zu bauen hätte NV einfach ein Patch oder sowas veröffentlichens ollen der ganz offiziell die Shader gegen NV optimierte tauscht und so die maximale Leistungsfähigkeit der NV Karten zu demonstrieren.

Was sie jetzt machen ist arglistige Täuschung des Kundens.

MikBach
2003-11-15, 19:39:54
Original geschrieben von Thowe

Wenn NV nun garantiert, das sie jedes in Zukunft erscheinene Spiel genau so optimieren, wie sie es bei einem Messprogramm taten - Ok. Können sie dies nicht, dann dürfen sie auch nicht bei einem Leistungsvergleich unfair spielen.

Wer z.Z. nicht akzeptieren will das NVIDIA im Moment keine passende Karte hat, der leidet sicher an Arithmophobie, anders kann ich die Ignoranz gegenüber den ermittelten Werten nicht erklären.

Hätte NVIDIA einen Schalter in den Treibern gemacht, mit denen man für Applikationen einen optimierten Pfad aktiviert, dann würde sie niemand der Erschwindelung von Leistung bezichtigen. Doch das haben sie nicht und so bleibt eigentlich nur noch genau dies so zu sehen, Betrug am Kunden.


Noch eines, wer meint sich durch Quote-Orgien mehr Gewicht geben zu können, der irrt.

Sehe ich genau so wie Du.
Viele haben früher bemängelt, dass ATI nur winkelabhängig bei AF filtert, darauf haben die zugegeben, dass es eine Einschränkung der Hardware ist und gut ist!
Da sollte sich NVidia mal dran orientieren und endlich sagen was Sache ist, und nicht versuchen den Kunden zu verar*****.

Dieses "wartet auf den Treiber 5x.xx um dieses oder jenes Spiel zu testen" oder das Spielen mit der Bildqualität beim Filtern(trilinear) ist langsam nicht mehr hinzunehmen.
Obwohl ich über Jahre Nvidia richtig gut fand, kann ich das heute leider nicht mehr behaupten. Und es geht nicht um die Performance, sondern darum, dass sie nicht einfach zugeben, dass sie Probleme mit DirectX9(bzw Shader 2.0) haben und gut ist!

Aber leider habe ich in den letzten Wochen festgestellt, dass Nvidia lieber die "mauern"-taktik anwendet. D.h keine statments, abwarten, heimlich optimieren usw.

Damit jetzt niemand denkt ich gehöre zu den fanATIkern . Ich persönlich würde es schade finden wenn ATI alleine die Spitze übernehmen würde, denn eine quasi Monopolstellung ist für den User mit Sicherheit nicht wünchenswert. Wenn 2 oder mehrere Firmen etwa gleich gut sind bringt das den Fortschritt viel schneller voran(Konkurenz-klar!).

aths
2003-11-15, 19:41:17
Original geschrieben von seahawk
Dann ist es aber auch so, als ob NV einen Turbo hat, FM denen aber verbietet in zu nutzen. (FP16) :D Afaik bringt FP16 dem NV35+ speedmäßig nicht mehr sonderlich viel.

zeckensack
2003-11-15, 19:45:53
Original geschrieben von seahawk
Das ist korrekt. FM nutzt aber nicht alle Optionen von DX9. Sie lassen z.B. nie reduzierte Genauigkeit zu (FP16), obwohl das laut DX 9 Specs zulässig wäre. Die minimalen Bildunterschiede zwischen 330 und 340 auf NV Karten legen jedenfalls nahe, dass dies ohne Verlust an BQ möglich wäre.

Anstatt da einen Cheat in den Treiber zu bauen hätte NV einfach ein Patch oder sowas veröffentlichens ollen der ganz offiziell die Shader gegen NV optimierte tauscht und so die maximale Leistungsfähigkeit der NV Karten zu demonstrieren.Es steht NV völlig frei, eine "force FP16"-Option ins CP aufzunehmen. Ging bisher sowohl bei BQ-verbessernden (AA, AF), als auch bei BQ-verschlechternden ("Intellisample" High Performance) auch. Dabei müßte sich auch niemand verarscht vorkommen. Die Punktegeilen würden so verfahren wie bisher (alles auf "sieht scheiße aus" stellen), etc.

zeckensack
2003-11-15, 19:47:12
Original geschrieben von aths
Afaik bringt FP16 dem NV35+ speedmäßig nicht mehr sonderlich viel. AFAIK bis zu (!) 65%. Was definitiv nichts mehr bringt ist FX12.

LovesuckZ
2003-11-15, 19:49:10
Original geschrieben von zeckensack
Es steht NV völlig frei, eine "force FP16"-Option ins CP aufzunehmen.

Verstößt ja nur leider gegen die DX9 Specs...

Exxtreme
2003-11-15, 19:50:39
Original geschrieben von LovesuckZ
Verstößt ja nur leider gegen die DX9 Specs...
Das tut das Erzwingen von AA und AF über's CP prinzipiell auch, und?

LovesuckZ
2003-11-15, 19:53:08
Original geschrieben von Exxtreme
Das tut das Erzwingen von AA und AF über's CP prinzipiell auch, und?

Steht in den DX9 Specs?

seahawk
2003-11-15, 19:53:08
Original geschrieben von zeckensack
Es steht NV völlig frei, eine "force FP16"-Option ins CP aufzunehmen. Ging bisher sowohl bei BQ-verbessernden (AA, AF), als auch bei BQ-verschlechternden ("Intellisample" High Performance) auch. Dabei müßte sich auch niemand verarscht vorkommen. Die Punktegeilen würden so verfahren wie bisher (alles auf "sieht scheiße aus" stellen), etc.

Das wäre das Letzte was ich mir wünschen würde. Stell Dir vor, dass NV dann deutlich vor ATI liegen würde, aber dafür bei der BQ einfach schlecht wäre. Dann verliert der Murks total seinen Nutzen.

Wenn einer was an den Shadern ändert, dann FM. Nur so kann man halbwegs sicher sein, dass FP16 nur da genutzt wird wo es keine Verlusten bei der BQ bewirkt.

Die Entscheidung über FP16 oder Fp32 sollte immer bei dem Hersteller der Software liegen. Sollte NV mit "force FP16" anfangen, dann sind die für micht endgültig gestorben.

Nicht dass ihr mich falsch versteht ich verteidige nicht NV, ich kritisiere FM. Die könnten doch einfach einige Änderungen am Murks vornehmen und dann erklären, dass sie jetzt auch die NV Karten optimale Bedingungen vorfinden. Liegen dann die ATI Karten wieter vorne, dann ist auch für den letzten DAU die Wahrheit nicht mehr zu verpassen.

So lange FM nicht aktiv wird, so lange wird NV immer von einer Benachteiligung im Murks labern.

aths
2003-11-15, 20:00:30
Original geschrieben von zeckensack
AFAIK bis zu (!) 65%. Was definitiv nichts mehr bringt ist FX12. Hm. Warum bringt das so viel??

Demirug
2003-11-15, 20:01:47
Original geschrieben von zeckensack
AFAIK bis zu (!) 65%. Was definitiv nichts mehr bringt ist FX12.

Wie bitte?

Im Combiner Teil stehen zwei vollständige FX12 Combiner einem eingeschränkten FP32 Combiner gegenüber.

Wenn natürlich der Registerspeicher der Flaschenhals ist bringt der Wechsel von FP16 auf FX12 nichts mehr

aths
2003-11-15, 20:02:34
seahawk,

fall es eine Force FP16-Option für Farbberechnungen gäbe, warum nicht? Man könnte sich hier entscheiden, generell etwas BQ zu opfern um ein offenbar doch beträchtliches Plus an Leistung zu gewinnen. Als Option, die extra vom User aktiviert werden muss, durchaus eine gute Idee. Als Default-Einstellung natürlich ein ganz schlechte Idee.

Exxtreme
2003-11-15, 20:09:02
Original geschrieben von seahawk
So lange FM nicht aktiv wird, so lange wird NV immer von einer Benachteiligung im Murks labern.
Ich fürchte nur, daß man dafür komplett neue Shader brauchen wird und wenn man richtig Pech hat, auch neuen Content. Da wird wohl das Drüberjagen der bestehenden Shader über das PS2_A-Profil nicht reichen um was zu reissen. Denn diesen Vorgang macht schon der Shader Compiler im Treiber weitgehend.

MikBach
2003-11-15, 20:10:07
Original geschrieben von seahawk
Nicht dass ihr mich falsch versteht ich verteidige nicht NV, ich kritisiere FM. Die könnten doch einfach einige Änderungen am Murks vornehmen und dann erklären, dass sie jetzt auch die NV Karten optimale Bedingungen vorfinden. Liegen dann die ATI Karten wieter vorne, dann ist auch für den letzten DAU die Wahrheit nicht mehr zu verpassen.

So lange FM nicht aktiv wird, so lange wird NV immer von einer Benachteiligung im Murks labern.

Wie sollen denn diese optimalen Bedingungen denn aussehen?
Wie Du schon geschrieben hast muss der Softwarehersteller entscheiden, welche Rechengenauigkeit für den Shader optimal ist. Wenn gearde FP24 ausreicht und FP16 nicht dann ist es so.
Es kann natürlich auch sein, dass FM den "kleinsten gemeinsamen Nenner" genommen hat. Nun damit kann man sich viel Arbeit sparen, und da man ja DirectX9-konform ist, alles klar.

zeckensack
2003-11-15, 20:16:29
Original geschrieben von Demirug
Wie bitte?

Im Combiner Teil stehen zwei vollständige FX12 Combiner einem eingeschränkten FP32 Combiner gegenüber.

Wenn natürlich der Registerspeicher der Flaschenhals ist bringt der Wechsel von FP16 auf FX12 nichts mehr AFAIK gibt's im NV35 keine FX12-Combiner mehr, diese wurden durch 'mini-FP-ALUs' ersetzt.
Ich beziehe mich auf das (http://www.beyond3d.com/forum/viewtopic.php?t=8005), und für die Performance-Angabe auf das (http://www.beyond3d.com/forum/viewtopic.php?t=8952&start=440).

Uttar wrote
According to my testing, the NV35 indeed has twice the register file size; the penalties are nearly 2 times as small ( My results on a NV35: -40% = 1.7x as slow for 12 FP32 registers. thepkrl results on a NV30: 3.4 times as slow. I tested with 12 registers as it's the theorical maximum for PS2.0. although both R3xx and NV3x support 32 full precision register.

Now, considering a program with only Vec4 MAD, the R360 would get: 415*8 = 3320
NV38 = 475*8*0.6 = 2280
That's the WORST case scenario for the NV38 for pure arithmetic.

Demirug
2003-11-15, 20:17:03
Original geschrieben von Exxtreme
Ich fürchte nur, daß man dafür komplett neue Shader brauchen wird und wenn man richtig Pech hat, auch neuen Content. Da wird wohl das Drüberjagen der bestehenden Shader über das PS2_A-Profil nicht reichen um was zu reissen. Denn diesen Vorgang macht schon der Shader Compiler im Treiber weitgehend.

Heute brauche ich wohl ständig ein jaein.

Was der Treiber kann ist umsortieren und dadurch Temps sparen. Was er nicht kann ist durch das 2.0 Profil zerstörte Semantik wieder herzustellen. Das spielt aber bei den meisten derzeit benutzten DX9 Shadern keine Rolle weil sie kaum etwas an zerstörbarer Semantik enthalten.

Das mit dem Content verstehe ich nicht ganz. Neuen Content braucht man nur wenn man zusätzliche Effekte haben möchte. Ich vermute mal das du möglicherweise Hilfstexturen mit vorberechneten Funktionswerten meinst. Dafür nimmt man Textureshader die dann Teil der Effektbeschreibung sind. Der Mehraufwand hält sich in Grenzen wenn man eine Engine dafür fit gemacht hat.

seahawk
2003-11-15, 20:18:14
Original geschrieben von Exxtreme
Ich fürchte nur, daß man dafür komplett neue Shader brauchen wird und wenn man richtig Pech hat, auch neuen Content. Da wird wohl das Drüberjagen der bestehenden Shader über das PS2_A-Profil nicht reichen um was zu reissen. Denn diesen Vorgang macht schon der Shader Compiler im Treiber weitgehend.

Dann sollen sie halt NV die Shader schreiben lassen, die eine gleiche Bildqualität liefern. Das machen die bestimmt gerne.

Von mir aus soll ATI und PoerVr und wer auch immer dann auch diese Möglichkeit bekommen.

Wie Du schon geschrieben hast muss der Softwarehersteller entscheiden, welche Rechengenauigkeit für den Shader optimal ist. Wenn gearde FP24 ausreicht und FP16 nicht dann ist es so.
Es kann natürlich auch sein, dass FM den "kleinsten gemeinsamen Nenner" genommen hat. Nun damit kann man sich viel Arbeit sparen, und da man ja DirectX9-konform ist, alles klar.

Ich halte es äußerst unwahrscheinlich, dass die Shader nie mit FP16 auskommen, wie erklärst Du sonst die nicht vorhandenen Unterschiede in der BQ zwischen 330 und 340 bei NV ??
Im Falle b, sollte man aber nicht mehr behaupten eine Darstellung der Leistungsfähigkeit von Grafikkarten in kommenden Games darzustellen.

LovesuckZ
2003-11-15, 20:18:33
Original geschrieben von MikBach
Es kann natürlich auch sein, dass FM den "kleinsten gemeinsamen Nenner" genommen hat. Nun damit kann man sich viel Arbeit sparen, und da man ja DirectX9-konform ist, alles klar.

Es gibt keinen "kleinen und großen gemeinsamen Nenner".

Exxtreme
2003-11-15, 20:21:29
Original geschrieben von seahawk
Ich halte es äußerst unwahrscheinlich, dass die Shader nie mit FP16 auskommen, wie erklärst Du sonst die nicht vorhandenen Unterschiede in der BQ zwischen 330 und 340 bei NV ??
Wo steht, daß der Geschwindigkeitsunterschied zw. dem 330 und 340 durch FP16-Shader erreicht wurde?

Exxtreme
2003-11-15, 20:26:32
Original geschrieben von Demirug
Heute brauche ich wohl ständig ein jaein.

Was der Treiber kann ist umsortieren und dadurch Temps sparen. Was er nicht kann ist durch das 2.0 Profil zerstörte Semantik wieder herzustellen. Das spielt aber bei den meisten derzeit benutzten DX9 Shadern keine Rolle weil sie kaum etwas an zerstörbarer Semantik enthalten.

Das mit dem Content verstehe ich nicht ganz. Neuen Content braucht man nur wenn man zusätzliche Effekte haben möchte. Ich vermute mal das du möglicherweise Hilfstexturen mit vorberechneten Funktionswerten meinst. Dafür nimmt man Textureshader die dann Teil der Effektbeschreibung sind. Der Mehraufwand hält sich in Grenzen wenn man eine Engine dafür fit gemacht hat.
Danke für die Info.

Und ja, ich habe die Hilfstexturen gemeint. =)

seahawk
2003-11-15, 20:29:27
Original geschrieben von Exxtreme
Wo steht, daß der Geschwindigkeitsunterschied zw. dem 330 und 340 durch FP16-Shader erreicht wurde?

Wäre eine naheliegende Theorie - oder ??

PS. Ich finde die Diskussion gerade gut, wir kommen ganz ohne Geflame aus :)

KM
2003-11-15, 20:29:34
In Kurzform:
NV hat bei 3DMark2003 applikations- UND shadercode-spezifische Optimierungen durchgeführt, ATI keine bzw. kaum.

Wäre es nicht einfacher, "allgemeine" Optimierungen durchzuführen, wie sie in der CPU-Welt seit langem durchgeführt werden? Dann wäre NV aus der Sache feiner raus.
So wie ich verstanden habe, braucht ATI wegen der höheren Rohleistung keine bzw. kaum Optimierungen durchzuführen. Aber könnte es nicht sein, dass ATI doch allgemeine Optimierungen durchführt, die höhere Performance bringt, als ersichtlich ist?

Ich habe mittlerweile das Gefühl, dass einige User den IHVs nahe stehen, oder wie soll man deren teilweise widersprüchlichen Aussagen interpretieren? (Ich habe keine lust mehr, mehr als 15 Seiten noch einmal durchzulesen :P)

Demirug
2003-11-15, 20:35:06
Original geschrieben von zeckensack
AFAIK gibt's im NV35 keine FX12-Combiner mehr, diese wurden durch 'mini-FP-ALUs' ersetzt.
Ich beziehe mich auf das (http://www.beyond3d.com/forum/viewtopic.php?t=8005), und für die Performance-Angabe auf das (http://www.beyond3d.com/forum/viewtopic.php?t=8952&start=440).

Nix gegen Dave und seine Quellen aber hier vertraue ich doch mehr den Aussagen die ich von der Technische Seite von nVidia habe. Die sind sehr eindeutig


Rechenleistung des NV35 Combiners. Jede Zeile bedeutet eine Alternative die sich gegenseitig ausschliessen.
- 2 FX Combiners
- 2 FP MUL
- 1 FP ADD
- 1 FP MAD
- 1 FP DP4


Uttar rechnet da einiges rum aber irgendwie fehlen mir da wirklich greifbare Zahlen und vorallem sieht man da keine Grenze zwischen Theoretischen Überlegungen und Messungen.

zeckensack
2003-11-15, 20:35:50
Original geschrieben von KM
So wie ich verstanden habe, braucht ATI wegen der höheren Rohleistung keine bzw. kaum Optimierungen durchzuführen. Aber könnte es nicht sein, dass ATI doch allgemeine Optimierungen durchführt, die höhere Performance bringt, als ersichtlich ist?Angeblich schon (http://www.beyond3d.com/forum/viewtopic.php?t=8952&postdays=0&postorder=asc&start=346) ;)
OpenGL guy wrote
We've had a shader optimizer in the driver for over a year ;) As I mentioned elsewhere, you'd be sad if we disabled it. Note that this is a general optimizer, not one that replaces detected shaders with hand-coded ones.

MikBach
2003-11-15, 20:36:23
Original geschrieben von LovesuckZ
Es gibt keinen "kleinen und großen gemeinsamen Nenner".

OK. Ich meinte das, was beide maximal rausholen können. ATI FP24 NVidia FP32. Und da DirectX9 FP24 "vorschlägt" ist es auch sicherlich sinnvoll sich daran zu halten.

mapel110
2003-11-15, 20:40:38
Original geschrieben von LovesuckZ
Es gibt kein Standard DX9 Pfad (das verstehe ich unter "Standard DX9").
Das, was der 3DMark2003 an "Leistung aktueller Grafikkarten" unter dem "Standard DX9" misst, ist die unoptimierte DX9 Leistung bei Nvidia und die optimierte bei ATi.

/edit: Umgeaendert :D

jup, völlig unoptimiert, die leistung der FX im 3dmark03 :stareup:
Original geschrieben von mapel110

GeForce FX 5900 Ultra,330,44.03,4850,175.9,37.6,30.5,19.1,673.0,67.9,13.1,1480.2,3181.0,10.9,20. 9,19.2
GeForce FX 5900 Ultra,333,44.03,3178,117.8,18.8,13.6,14.2,677.0,68.6,13.2,1480.2,3180.6,10.7,14. 6,10.6
GeForce FX 5900 Ultra,330,52.16,6189,200.0,44.9,35.7,35.9,763.0,79.5,14.5,1480.3,3181.0,18.3,48. 7,20.7
GeForce FX 5900 Ultra,333,52.16,5342,200.3,38.1,31.9,25.1,771.0,80.2,14.7,1480.3,3181.2,18.4,48. 9,18.4

KM
2003-11-15, 20:43:06
Original geschrieben von zeckensack
Angeblich schon (http://www.beyond3d.com/forum/viewtopic.php?t=8952&postdays=0&postorder=asc&start=346) ;)
Danke für den Link.
Heisst es dann, dass NV auch "allgemein" optimieren darf? Dann wäre gleichstand.
Vielleicht ist es ja auch implementiert, nur müssen wegen der schwächeren Rohleistung der NV *von Hand* optimiert werden.

Exxtreme
2003-11-15, 20:45:37
Original geschrieben von KM
Danke für den Link.
Heisst es dann, dass NV auch "allgemein" optimieren darf? Dann wäre gleichstand.
Vielleicht ist es ja auch implementiert, nur müssen wegen der schwächeren Rohleistung der NV *von Hand* optimiert werden.
NV hat einen Shader Optimizer im Treiber. Dieser hilft auch ganz gut. Nur NV hat darüberhinaus eine applikationsspezifische Shader-Erkennungs-/ und Ersetzungsroutine eingebaut.

aths
2003-11-15, 20:46:25
Original geschrieben von MikBach
OK. Ich meinte das, was beide maximal rausholen können. ATI FP24 NVidia FP32. Und da DirectX9 FP24 "vorschlägt" ist es auch sicherlich sinnvoll sich daran zu halten. NVs HW-Entwicklung war schon viel zu weit fortgeschritten, als das mit dem FP24 festgezurrt wurde. Für Texture Ops ist FP32 auch ganz nützlich.

KM
2003-11-15, 20:55:03
Original geschrieben von Exxtreme
NV hat einen Shader Optimizer im Treiber. Dieser hilft auch ganz gut. Nur NV hat darüberhinaus eine applikationsspezifische Shader-Erkennungs-/ und Ersetzungsroutine eingebaut.
Auch danke für die Antwort. Dann wäre die Frage, in weit die Benchmarks, sei es 3DMarksXXXX oder in Spielen, verlässlich sind?
Dann könnte man ja argumentieren, dass die anderen IHVs (z.B. XGI, PowerVR) keine guten Optimierungen in den Treibern besitzen und *natürlicher* sind. (Ok, XGI optimiert stark in 3DMarks2003)

reunion
2003-11-15, 20:59:25
Original geschrieben von seahawk
Wenn einer was an den Shadern ändert, dann FM. Nur so kann man halbwegs sicher sein, dass FP16 nur da genutzt wird wo es keine Verlusten bei der BQ bewirkt.


Wie kommst du darauf das das niedrigere Ergebnis der FX Karten durch FP32 erreicht wird???
Hast du dafür irgendeine Quelle??

NV könnte genausogut die Bildqualität gesenkt haben was mithilfe der handgeschriebenen Shader ein kinderspiel währe, leider kann man das nicht überprüfen da der 3dmark jedersmal eine etwas andere Szene liefert...

MikBach
2003-11-15, 21:04:46
Original geschrieben von aths
NVs HW-Entwicklung war schon viel zu weit fortgeschritten, als das mit dem FP24 festgezurrt wurde. Für Texture Ops ist FP32 auch ganz nützlich.

Verstehe ich nicht. Die Grafikchiphersteller haben doch ihre Vorschläge für DX9 ausgegeben- das erwartet doch Microsoft- die haben nicht so viel Plan von 3d. Aber ich habe bisher immer gehört, dass ATI weiter war und deshalb Microsoft sich mehr oder weniger für ATIs-Spezifikationen entschieden hat.

Exxtreme
2003-11-15, 21:07:12
Original geschrieben von KM
Dann wäre die Frage, in weit die Benchmarks, sei es 3DMarksXXXX oder in Spielen, verlässlich sind?

Tja, ich fürchte, auf diese Frage wird es wohl viele Antworten geben. ;) Letztendlich muss jeder für sich selbst entscheiden. Also mich interessieren die nackten Zahlen nicht. Für mich gibt's nur 3 Zustände: gut, mittelmässig, schlecht. Ob eine GraKa 250 oder 300 fps liefert, juckt mich nicht die Bohne. Mich juckt aber ein Unterschied von 25 und 50 fps. :)
Original geschrieben von KM
Dann könnte man ja argumentieren, dass die anderen IHVs (z.B. XGI, PowerVR) keine guten Optimierungen in den Treibern besitzen und *natürlicher* sind. (Ok, XGI optimiert stark in 3DMarks2003)
Naja, man darf nicht die Hardware alleine für sich betrachten. Man sollte das Endprodukt als Ganzes sehen. Wenn die anderen Hersteller nicht das KnowHow haben, gute und optimierte Treiber zu schreiben... tja, Pech gehabt. Wenn eine GraKa 10 fps liefert dann interessiert es mich erstmal nicht ob der Treiber oder die HW daran schuld ist. 10 fps sind für mich definitiv zuwenig also ist das Endprodukt als Ganzes für mich unbrauchbar.

Und PowerVR soll angeblich eine gute Treiberabteilung haben. Ich erlaube mir da aber kein Urteil da ich nie PowerVR-basierende Produkte besessen habe.

aths
2003-11-15, 21:14:54
Original geschrieben von MikBach
Verstehe ich nicht. Die Grafikchiphersteller haben doch ihre Vorschläge für DX9 ausgegeben- das erwartet doch Microsoft- die haben nicht so viel Plan von 3d. Aber ich habe bisher immer gehört, dass ATI weiter war und deshalb Microsoft sich mehr oder weniger für ATIs-Spezifikationen entschieden hat. ATI hatte eher den Chip in ein Silizium gegossen, ja. NVs Planungen für CineFX liegen weit zurück, so auch die Entscheidung für FX12, FP16 und FP32. MS musste eine Mindestanforderung definieren, was ja nun FP16 ist, wobei "Default" aber FP24 darstellt.

Bei DX8 war ein Int12-Format nur eine Empfehlung, bei DX9 sind die Zügel etwas strenger angezogen worden.

Demirug
2003-11-15, 21:15:44
Original geschrieben von MikBach
Verstehe ich nicht. Die Grafikchiphersteller haben doch ihre Vorschläge für DX9 ausgegeben- das erwartet doch Microsoft- die haben nicht so viel Plan von 3d. Aber ich habe bisher immer gehört, dass ATI weiter war und deshalb Microsoft sich mehr oder weniger für ATIs-Spezifikationen entschieden hat.

MS hat viel Plan von 3D.

Es gibt immer einen Entwurf für die nächste DX Version der ständig überarbeitet wird. In die Finale Version kommt dann das als Mindestanforderung rein was alle können (MS will ja niemanden richtig verärgern). ATI hat shadertechnisch die schwächste Hardware also DX9 Minimum = R300.

KM
2003-11-15, 21:25:56
Original geschrieben von Exxtreme
Tja, ich fürchte, auf diese Frage wird es wohl viele Antworten geben. ;) Letztendlich muss jeder für sich selbst entscheiden. Also mich interessieren die nackten Zahlen nicht. Für mich gibt's nur 3 Zustände: gut, mittelmässig, schlecht. Ob eine GraKa 250 oder 300 fps liefert, juckt mich nicht die Bohne. Mich juckt aber ein Unterschied von 25 und 50 fps. :)
Für mich zählen auch nur gute Karten in mittleren Preislagen. Die Spitzenmodelle sind mir zu teuer.
Original geschrieben von Exxtreme
Naja, man darf nicht die Hardware alleine für sich betrachten. Man sollte das Endprodukt als Ganzes sehen. Wenn die anderen Hersteller nicht das KnowHow haben, gute und optimierte Treiber zu schreiben... tja, Pech gehabt. Wenn eine GraKa 10 fps liefert dann interessiert es mich erstmal nicht ob der Treiber oder die HW daran schuld ist. 10 fps sind für mich definitiv zuwenig also ist das Endprodukt als Ganzes für mich unbrauchbar.

Und PowerVR soll angeblich eine gute Treiberabteilung haben. Ich erlaube mir da aber kein Urteil da ich nie PowerVR-basierende Produkte besessen habe.
Das ist, denke ich, die Frage: Soll man die Hardware alleine betrachten und bis zu den Optimierungen in den Treibern? Welche Grenzen gibt es für Optimierungen, wenn jeder es einsetzt? Wie soll man die überprüfen?
Solange es keine bzw. kaum Unterschiede in der BQ gibt, dann wäre es doch in Ordnung, Optimierungen einzusetzen.
Andererseits wäre es doch langweilig, wenn bei jedem Durchlauf, das gleiche Bild gerendert wird. Leichte Variationen wären doch natürlicher. ;)
Ich schlage NV vor, ihre FX5xxx (inkl. "Cheats") als *natürlichsten* (*chaotischten*) Grafikkarten der Welt zu vermarkten. :D

MikBach
2003-11-15, 21:40:00
Original geschrieben von Demirug
MS hat viel Plan von 3D.

Es gibt immer einen Entwurf für die nächste DX Version der ständig überarbeitet wird. In die Finale Version kommt dann das als Mindestanforderung rein was alle können (MS will ja niemanden richtig verärgern). ATI hat shadertechnisch die schwächste Hardware also DX9 Minimum = R300.

Man sollte auch sehen was in der heutigen Zeit sinnvoll ist. Der Schritt von DX8.x zu DX9.x ist so groß, dass es die meisten Spielehersteller von Spielen heute Direcktx9 (Shader 2.0) als austeichend ansehen. und es auch so benutzen.

Demirug
2003-11-15, 21:48:33
Original geschrieben von MikBach
Man sollte auch sehen was in der heutigen Zeit sinnvoll ist. Der Schritt von DX8.x zu DX9.x ist so groß, dass es die meisten Spielehersteller von Spielen heute Direcktx9 (Shader 2.0) als austeichend ansehen. und es auch so benutzen.

Ausreichend ist ein Wort das für Spieleentwickler nicht exsitiert. Man lebt viel mehr mit den Begrenzungen die einem die Technik auferlegt.

Gehe zu einem beliebiegen Entwickler und sage ihm das du eine 3.0 Shader fähige Karte für ihn (oder sie) hast und du wirst das Leuchten in den Augen sehen.

Es gibt schon mehrer Leute die an die Grenzen von 2.0 Shader gestossen sind.

seahawk
2003-11-15, 21:53:06
Original geschrieben von reunion
Wie kommst du darauf das das niedrigere Ergebnis der FX Karten durch FP32 erreicht wird???
Hast du dafür irgendeine Quelle??

NV könnte genausogut die Bildqualität gesenkt haben was mithilfe der handgeschriebenen Shader ein kinderspiel währe, leider kann man das nicht überprüfen da der 3dmark jedersmal eine etwas andere Szene liefert...

Wenn man es nicht sieht, dann wurde die BQ nicht wesentlich gesenkt. Wenn sich die Unterschiede beim 3D Mark pro Durchlauf so groß sind, dass man es nicht erkennen könnte, dann ist er als Bench ungeeignet.

Außerdem hat FM wohl die Shader geändert. NV kann die nicht mehr ersetzten.

Theorie : jetzt muss alles in FP32 sein, vorher war soviel wie möglich FP16 ...

seahawk
2003-11-15, 21:56:16
Original geschrieben von KM
Andererseits wäre es doch langweilig, wenn bei jedem Durchlauf, das gleiche Bild gerendert wird. Leichte Variationen wären doch natürlicher. ;)
Ich schlage NV vor, ihre FX5xxx (inkl. "Cheats") als *natürlichsten* (*chaotischten*) Grafikkarten der Welt zu vermarkten. :D

Das liegt aber am 3D Mark und nicht an NV. Auch bei einer ATI ist jeder Durchlauf leicht unterschiedlich.

KM
2003-11-15, 22:20:09
Original geschrieben von seahawk
Das liegt aber am 3D Mark und nicht an NV. Auch bei einer ATI ist jeder Durchlauf leicht unterschiedlich.
Außer einigen kleinen Sachen wie Nebel sind die Durchläufe bei ATI eher realer als bei NV. Das ist nicht nur bei 3DMark.

LovesuckZ
2003-11-15, 22:38:22
Original geschrieben von mapel110
jup, völlig unoptimiert, die leistung der FX im 3dmark03 :stareup:

Die beiden Treiberversionen liegen 5 Monate auseinander.

AchtBit
2003-11-15, 22:42:55
Original geschrieben von zeckensack
*hup*
Bitte erstmal die Termini richtig anwenden. Ein Compiler ist das was Stefan schon umrissen hat, ein Programm das den Maschinen-Code (für die ISA, nicht die Innereien) überhaupt erstmal erzeugt. Und ja, es gibt selbstverständlich auch optimierende Compiler.

P6 und aufwärts: korrekt.
P5: falsch.
Davon abgesehen habe ich genau das auch geschrieben, wie von dir zitiert:
>> Die Umsetzung von x86-Code auf die interne Prozessorarchitektur [...] <<

Ein Compiler erzeugt keinen Code, sondern er ersetzt X-beliebigen Code durch X-beliebigen equivalenten Code. Was rein geht und raus kommt ,haengt von der Zweckmaessigkeit des Vorgangs ab.

Ich weis nicht was Du mit P5 und P6 meinst. Zumal es noch nicht mal den P5 Pressack gibt, kann ich mit P6 nicht anfangen. Solltest du damit meinen der erste Pentium, haette keinen Risc Kern gehabt, liegst Du falsch. Er encodiert 0x86 Instruktionen je Prioritaet in 1 o. 2 MicroOps.

mapel110
2003-11-15, 22:47:37
Original geschrieben von LovesuckZ
Die beiden Treiberversionen liegen 5 Monate auseinander.

achso, es gibt alle 5 monate bei nvidia ein 60% performanceschub im 3dmark, wusst ichs doch :bonk:

LovesuckZ
2003-11-15, 22:50:50
Original geschrieben von mapel110
achso, es gibt alle 5 monate bei nvidia ein 60% performanceschub im 3dmark, wusst ichs doch :bonk:

Schade, aber wenn du keine Ahnung hast, wie sich der Speed bei den FX Karten per Treiber der letzten 7 Monate im Allgemeinen veraendert hat, dann halte dich doch raus. Solch dumme Phrasen passen nicht in die letzten Seiten des Thread.

StefanV
2003-11-15, 22:56:28
Original geschrieben von AchtBit
Ein Compiler erzeugt keinen Code, sondern er ersetzt X-beliebigen Code durch X-beliebigen equivalenten Code. Was rein geht und raus kommt ,haengt von der Zweckmaessigkeit des Vorgangs ab.

Ich weis nicht was Du mit P5 und P6 meinst. Zumal es noch nicht mal den P5 Pressack gibt, kann ich mit P6 nicht anfangen. Solltest du damit meinen der erste Pentium, haette keinen Risc Kern gehabt, liegst Du falsch. Er encodiert 0x86 Instruktionen je Prioritaet in 1 o. 2 MicroOps.

1. ein Compiler ist ein Programm, daß aus einer Programmiersprache, z.B. Delphi, Maschinencode macht.
Bevor man z.B. ein Delphi Programm 'testen' kann, MUSS man es compilieren und ja, ich hab mal ein paar kleinere Programme geschrieben...

2. *aua*
Wobei Zecke den P5, P54C und den P55C mit P5 meinte.
Der P5 war noch ein nativer x86 Prozessor, der Risc Kern kam erst mit dem P6, was beim P7 weitergeführt wurde...

Gast
2003-11-15, 23:07:23
Original geschrieben von Demirug
(..Max Indirektions)
Ich weiss nicht ganz auf was du hinaus möchtest. Der Shader benutzt das Ergebniss eines Texturereads um daraus Koordinaten für den nächsten read zu erzeugen. Das ganze bis zu 9 mal in Folge. ATI kann das aber nur 4 mal in Folge. Das ganze ist einfach das Dependent Read Limit. Achso. Mir kam nur vor, als würde es sich um eine "Sprengung" der maximal erlaubten "Verschachtlung" handeln. Wenn ich das jetzt korrekt verstanden habe, ist "depenend read" von Texturen aber keine Verschachtlung von Instructionen, ist das richtig? :ratlos:

Crushi,
dessen Kekse alle sind.

mapel110
2003-11-15, 23:17:59
Original geschrieben von LovesuckZ
Schade, aber wenn du keine Ahnung hast, wie sich der Speed bei den FX Karten per Treiber der letzten 7 Monate im Allgemeinen veraendert hat, dann halte dich doch raus. Solch dumme Phrasen passen nicht in die letzten Seiten des Thread.

44.03 3100 points
52.16 5xxx points

beides mit aktueller 3dmark03 version. und du willst also ernsten gewissens noch behaupten, nvidia würde im 3dmark unoptimiert laufen und ATI optimiert?!

btw die shader vom 3dmark03 sind auch nicht ALLE optimal für ATI hardware. siehe cat3.4, wo die anwendungsspezifischen optimierungen zurückgezogen wurden von ATI.

AchtBit
2003-11-15, 23:21:18
Nun ich wage zu behaupten, ich kenne einige der tatsaechlichen Zusammenhaenge. Da ich hier zu 90% Mutmassungen gelesen habe, mit denen man getrost ein Buch fuellen koennte, dass unter dem Titel 'deutsche Heldensagen ausm 3DCenter Forum' als Lachmaerchen eine neue Kathegorie von Literatur revolutionieren wuerde, werde ich einen Artikel mit Fakten betreffend R3x0 vs. NV3x verfassen.

Ein kann ich bereits vorweg nehmen, gegenwaertig gibt es keine Unterschied zw. beiden HiEnd Chips, das betrifft die allgemeine Performance unter jeglicher DX API, die HW Kapazitaet wie die aktuellen Shader und alle ihre Supersets, die dx9 Funktionen und last but not least jede Art von eingesetzten Cheats.

Am ende entscheidet einzig und allein, welche Vorteile fuer den einzelnen User zweckdienlich sind.

LovesuckZ
2003-11-15, 23:22:08
Original geschrieben von mapel110
beides mit aktueller 3dmark03 version. und du willst also ersten gewissens noch behaupten, nvidia würde im 3dmark unoptimiert laufen und ATI optimiert?!


Du verstehst es anscheinend nicht. Dann kann ich auch nichts mehr machen und somit Ende der Diskussion mit dir.

mapel110
2003-11-15, 23:29:21
Original geschrieben von LovesuckZ
Du verstehst es anscheinend nicht. Dann kann ich auch nichts mehr machen und somit Ende der Diskussion mit dir.

hab von dir noch kein argument gelesen. :ratlos:

btw wenn du meinst, nvidia hätte noch optimierungspotenzial, dass derzeit einfach nur durch handoptimierte shader freizulegen ist, weil der compiler derzeit einfach noch zu doof dafür ist, okay.
aber dann musst du auch eingestehen, dass der 3dmark03 eben die derzeit aktuelle performance misst, die mit dem treiber halt möglich ist. wie das mit zuküftigen treibern aussieht und aussehen kann, steht hier doch garnicht zur diskussion.
die FX ist derzeit halt langsamer, was DX9 angeht, selbst mit dem aktuellen compiler und gut ist.

AchtBit
2003-11-15, 23:31:11
@Stefan Payne,

plz stop talking nonsence.

Programme schreiben ist eine Sache. Das Mass an Verstaendnis dafuer ergibt sich aus der Transparenz des Codes.

mapel110
2003-11-15, 23:47:24
Original geschrieben von AchtBit
plz stop talking nonsence.


jo, nimm du dir das mal zu herzen.
sorry, aber hör du mal auf hier leute zu verarschen. ich hab noch nicht einen fact von dir gelesen, wo ich gesagt hätte "ja, das stimmt".

/edit
versuch doch mal, deine hochqualitativen aussagen mit links zu untermauern. das würde mich zb sehr interessieren.

/edit
nonsense <-- so wirds geschrieben :)

Keel
2003-11-15, 23:47:27
Original geschrieben von AchtBit
Nun ich wage zu behaupten, ich kenne einige der tatsaechlichen Zusammenhaenge. Da ich hier zu 90% Mutmassungen gelesen habe, mit denen man getrost ein Buch fuellen koennte, dass unter dem Titel 'deutsche Heldensagen ausm 3DCenter Forum' als Lachmaerchen eine neue Kathegorie von Literatur revolutionieren wuerde, werde ich einen Artikel mit Fakten betreffend R3x0 vs. NV3x verfassen.

Ein kann ich bereits vorweg nehmen, gegenwaertig gibt es keine Unterschied zw. beiden HiEnd Chips, das betrifft die allgemeine Performance unter jeglicher DX API, die HW Kapazitaet wie die aktuellen Shader und alle ihre Supersets, die dx9 Funktionen und last but not least jede Art von eingesetzten Cheats.

Am ende entscheidet einzig und allein, welche Vorteile fuer den einzelnen User zweckdienlich sind.
Also derzeitig (mit den jetzigen Spielen) ist das wirklich weitgehend egal, ob nun NV oder ATI. Was ist aber mit kommenden Spielen? Ich persönlich muss sehr darauf achten, da meine nächste GraKa lange reichen muss. Es fällt mir schwer zu glauben, dass ein NV35 oder meinetwegen NV38 bei HL2 im vollen DX9-Modus bei voller Grafikqualität mit einem R350/R360 mithalten kann, ähnlich dürfte es mit FarCry aussehen.

Noch etwas: Wann und wo wird denn dein Artikel erscheinen, sofern du das jetzt schon sagen kannst?

[dzp]Viper
2003-11-16, 00:01:12
Original geschrieben von AchtBit
Nun ich wage zu behaupten, ich kenne einige der tatsaechlichen Zusammenhaenge. Da ich hier zu 90% Mutmassungen gelesen habe, mit denen man getrost ein Buch fuellen koennte, dass unter dem Titel 'deutsche Heldensagen ausm 3DCenter Forum' als Lachmaerchen eine neue Kathegorie von Literatur revolutionieren wuerde, werde ich einen Artikel mit Fakten betreffend R3x0 vs. NV3x verfassen.

Ein kann ich bereits vorweg nehmen, gegenwaertig gibt es keine Unterschied zw. beiden HiEnd Chips, das betrifft die allgemeine Performance unter jeglicher DX API, die HW Kapazitaet wie die aktuellen Shader und alle ihre Supersets, die dx9 Funktionen und last but not least jede Art von eingesetzten Cheats.

Am ende entscheidet einzig und allein, welche Vorteile fuer den einzelnen User zweckdienlich sind.

Bist du Politiker? Die reden auch immer wahnsinnig viel und am ende fehlt irgendwie der sinn :kratz2:

AchtBit
2003-11-16, 00:33:45
Also derzeitig (mit den jetzigen Spielen) ist das wirklich weitgehend egal, ob nun NV oder ATI. Was ist aber mit kommenden Spielen? Ich persönlich muss sehr darauf achten, da meine nächste GraKa lange reichen muss. Es fällt mir schwer zu glauben, dass ein NV35 oder meinetwegen NV38 bei HL2 im vollen DX9-Modus bei voller Grafikqualität mit einem R350/R360 mithalten kann, ähnlich dürfte es mit FarCry aussehen.
Noch etwas: Wann und wo wird denn dein Artikel erscheinen, sofern du das jetzt schon sagen kannst?

Die Lebensdauer beider Chips ist nur schwer zu bestimmen. Aktuell sowie in naher Zukunft wird der R3x0 von den Entwicklern bevorzugt werden. Die Gruende sind zum einen, man muss sich nicht mit Fragen betreffend einer Optimierung befassen. Der andere Grund ist die geradliniege Architektur erlaubt es einfachen und relativ schnellen Code zu fabrizieren, ohne die Vor- bzw. Nachteile der Architektur, sowie deren moegliche Einfluss auf das fertige Programm, mit in die Projektplanung einzubeziehen. Das Potenzial der Architektur ist vollstaendig ueberschaubar.

Laengerfristig ist der NV3X im Vorteil. Die Architektur weist ein bis jetzt nicht vollstaendig nachvollziebares Potenzial auf. Leider ists deshalb auch nicht gerade einfach das Potenzial auszuschoepfen und kreativer Code ist dafuer notwendig. Dafuer ist auch weiterhin eine Verbesserung der Performance moeglich und auch zu erwarten.
Rein theoretisch ist die HW auf DX9+ Level, keine Ahnung wo es enden kann.

Zu dem Artikel, hier wollen alle irgendwie alles am besten aufeinmal und gleich besser gestern.

Ne, werd mich morgen um die Quellen kuemmern. Ich muss die Fakten ja auch irgendwie darlegen koennen.

Mr. Lolman
2003-11-16, 01:45:31
Original geschrieben von AchtBit
Laengerfristig ist der NV3X im Vorteil.

Im Vorteil hinsichtlich möglicher Speedzuwächse bei DX9 Shadern.

Insgesamt sehe ich da aber keinen Vorteil, da ATi diese Speed schon JETZT umsetzen kann, und NV selbst bei im Idelfall, mit optimalen Shadern, ATi nicht wirklich überholen kann. (iirc hatte Demirug mal was dazu verfasst)

Coolj100
2003-11-16, 06:18:44
Original geschrieben von AchtBit

Laengerfristig ist der NV3X im Vorteil. Die Architektur weist ein bis jetzt nicht vollstaendig nachvollziebares Potenzial auf. Leider ists deshalb auch nicht gerade einfach das Potenzial auszuschoepfen und kreativer Code ist dafuer notwendig. Dafuer ist auch weiterhin eine Verbesserung der Performance moeglich und auch zu erwarten.
Rein theoretisch ist die HW auf DX9+ Level, keine Ahnung wo es enden kann.



Also das glaube ich eher nicht, und falls sie wirklich mehr performance rausholen können, dann ist der nv3x schon alt.

Und was wurde nochmal von nvidia gesagt bevor der offizielle deto. 5x.xx kam 50(100prozent teilweise) prozent mehr ps und vs leistung und was war am ende???
Sie haben wieder nur blöde optimierungen in den treiber reingebaut und wieder die bildquali runtergeschraubt. Wenn das die zukunft von nv ist, dann prost mahlzeit. Dann wird wohl nie wieder eine nv karte in mein rechner kommen...

LovesuckZ
2003-11-16, 09:34:36
Original geschrieben von Coolj100
Und was wurde nochmal von nvidia gesagt bevor der offizielle deto. 5x.xx kam 50(100prozent teilweise) prozent mehr ps und vs leistung und was war am ende???

100% (Halo, TR6) vom 44.03 zum 52.16 und das bei verbesserter IQ.

Orginal geschrieben von Mapel110
hab von dir noch kein argument gelesen

Wozu sollte ich mit Argumenten kommen, die du nicht nachvollziehen kanst, da du über keine FX Karte verfügst?
Das ist wie einem Blinden die Notwendigkeit von Farben zu erklaeren.
Deswegen lasse ich dich in deiner Traumwelt leben.

die FX ist derzeit halt langsamer, was DX9 angeht, selbst mit dem aktuellen compiler und gut ist.

Falsch. Halo beweist, dass, wenn die Vorteile der FX Architektur verwendet werden, dann kann sie mit der ATi Konkurenz mithalten.
Daher ist deine Aussauge falsch.

reunion
2003-11-16, 10:31:46
Original geschrieben von LovesuckZ
Falsch. Halo beweist, dass, wenn die Vorteile der FX Architektur verwendet werden, dann kann sie mit der ATi Konkurenz mithalten.
Daher ist deine Aussauge falsch.

Nein, Halo beweist nur das selbst wenn NV die Shader selbst schreiben darf und ATI mit den "Standart" Shadern auskommen muss, ATI noch immer etwas schneller ist...

nggalai
2003-11-16, 10:35:57
Moin,
Original geschrieben von AchtBit
Ne, werd mich morgen um die Quellen kuemmern. Ich muss die Fakten ja auch irgendwie darlegen koennen.
Als Anfangspunkt würd ich mal das hier vorschlagen:

http://www.3dcenter.de/artikel/cinefx/

Wurde mitlerweilen auch von NV (wenn auch inoffiziell) als relativ korrekt eingestuft.

93,
-Sascha.rb

Demirug
2003-11-16, 10:43:45
Original geschrieben von reunion
Nein, Halo beweist nur das selbst wenn NV die Shader selbst schreiben darf und ATI mit den "Standart" Shadern auskommen muss, ATI noch immer etwas schneller ist...

Wobei allerdings merkwürdig ist das Halo sowohl beim NV35 und R300 genau die gleichen Shader an die API übergibt.

Aleine das übergeben ist aber noch kein Indiez dafür was auch benutzt wird. Allerdings sollte man es normalerweise vermeiden Shader zu übergeben die man nicht braucht.

Demirug
2003-11-16, 10:45:42
Original geschrieben von nggalai
Moin,

Als Anfangspunkt würd ich mal das hier vorschlagen:

http://www.3dcenter.de/artikel/cinefx/

Wurde mitlerweilen auch von NV (wenn auch inoffiziell) als korrekt eingestuft.

93,
-Sascha.rb

Mach bitte ein "relative korrekt" daraus. Ein paar kleine Fehler sind noch drin.

nggalai
2003-11-16, 10:50:58
Original geschrieben von Demirug
Mach bitte ein "relative korrekt" daraus. Ein paar kleine Fehler sind noch drin. OK. :D

93,
-Sascha.rb

LovesuckZ
2003-11-16, 10:53:38
Original geschrieben von reunion
Nein, Halo beweist nur das selbst wenn NV die Shader selbst schreiben darf und ATI mit den "Standart" Shadern auskommen muss, ATI noch immer etwas schneller ist...

aeh, und?
Habe ich was anderes ausgedrueckt?

reunion
2003-11-16, 12:53:12
Original geschrieben von Demirug
Wobei allerdings merkwürdig ist das Halo sowohl beim NV35 und R300 genau die gleichen Shader an die API übergibt.

Aleine das übergeben ist aber noch kein Indiez dafür was auch benutzt wird. Allerdings sollte man es normalerweise vermeiden Shader zu übergeben die man nicht braucht.

Soll das heißen das ATI auch die von NV geschriebenen Shadern benutzen muss ???

StefanV
2003-11-16, 13:30:15
Original geschrieben von reunion
Soll das heißen das ATI auch die von NV geschriebenen Shadern benutzen muss ???

Hört sich so an :eyes:

Demirug
2003-11-16, 13:47:12
Original geschrieben von reunion
Soll das heißen das ATI auch die von NV geschriebenen Shadern benutzen muss ???

Ja, wobei ich mir nicht ganz klar darüber bin was nVidia da überhaupt gemacht hat.

Die Shader sind eindeutig mit dem MS-Compiler als 2.0 Shader compiliert. Es muss sich also um HLSL Shader gehandelt haben die nVidia geschrieben hat.

Das einzige was auf den ersten Blick auffällt ist die grundsätzliche Verwendung von pp (reduzierter Genauigkeit).

Es könnte sein das nVidia noch ein paar Vektortricks benutzt hat. Dadurch kann man teilweise Ops einsparen oder durch weniger aufwendige ersetzten. Das tut aber auch ATI Chips nicht weh und teilweise können diese davon auch profitieren. Diese Vektortricks könnten aber auch benutzt worden sein um aus Shadern für die man eigentlich 2.0 gebraucht hätte 1.4 Shader zu machen. Am entgültigen Code erkennt man diese Sachen aber schwer und den original HLSL Code habe ich nicht.

zeckensack
2003-11-16, 16:18:34
AchtBit,
such mir doch bitte mal im folgenden Diagramm den Block "Compiler" raus
http://arstechnica.com/cpu/01q2/p4andg4e/figure1a.jpg
Quelle (http://arstechnica.com/cpu/01q2/p4andg4e/p4andg4e-5.html)

Wenn du mit diesem Diagramm nicht einverstanden bist (wovon ich fest ausgehe), dann mach das bitte mit Hannibal Stokes (dem Autor des Artikels) aus.
Und belehre dann gleich noch sämtliche Universitäten mit Informatik-Instituten, deren Kontakt-Adressen du auftreiben kannst.

Mir ist noch nie jemand untergekommen, der so wenig Ahnung hat wovon er überhaupt spricht, und gleichzeitig so dermaßen überzeugt von sich selbst war :|

mapel110
2003-11-16, 17:09:25
Original geschrieben von LovesuckZ
Falsch. Halo beweist, dass, wenn die Vorteile der FX Architektur verwendet werden, dann kann sie mit der ATi Konkurenz mithalten.
Daher ist deine Aussauge falsch.

Falsch. Halo beweisst, dass man ein relativ mies aussehendes spiel mit grottiger performance basteln kann. imo das einzige, was halo bewiesen hat.
30 fps, bei so einer grafik, da gibts einfach nur ein fettes LOL.
bloss, weil ATI in dem bench halbwegs genauso lahm ist, wie auf nv hardware, sollte man ihn nicht gleich in den himmel loben. vor allem, weil sich beide IHVs dort auch sehr niedrigem fps-niveau treffen.

btw Halo wurde doch auf der xbox(nvidia-hardware) entwickelt und ausserdem profitiert das game enorm von einer 640er auflösung. sollte indiz genug sein, wie unbrauchbar der bench ist.
ein weiteres wäre, dass halo ca 10 fps(macht im game dann cirka 30% aus) allein durch sound verliert.
wirklich ein wahres meisterwerk, heutiger programmierkunst :|

@zeckensack
lass es, ist wohl verarsche. sowas kann man garnicht falsch wissen imo.

LovesuckZ
2003-11-16, 17:38:09
Original geschrieben von mapel110
sollte indiz genug sein, wie unbrauchbar der bench ist.


Na dann:
Jeder Bench ist unbrauchbar, wo Nvidia oder ATi führt, da ich bei allen was aussetzen koennte.

Mit dem Niveau des Forums scheint auch deins sich zu senken.
Schade :(

mrdigital
2003-11-16, 17:56:56
lieber AchtBit,
ich muss zugeben, Du verwirrst mich. Ich weiss im Moment nicht genau, ob Du ein a) Provokateur bist, der hier die etablierte Riege der Dauerposter mal so richtig fordern will oder b) ein riesen Wirrkopf oder gar c) eine Mischung aus beidem.

ad a)
Guter Ansatz, es ist sicherlich kein Fehler, die Kompetenz der Stammposter zu hinterfragen, und das geht doch am leichtesten, wenn man provokante Thesen aufstellt und dann mal abwartet, was dann als Reation darauf geschieht. Einziges Risiko an dieser Strategie ist, dass man dann leider schnell in die Kategorie b) eingestuft wird, und es ist schwierig vom Timing her, den richtigen Moment zu erwischen, in dem man seine eigene Kompetenz zeigt, um eben nicht aus der Kategorie a) in die Kategorie b) umgestuft zu werden.

ad b)
Mit dem Wirrkopf als solchen muss man Rücksicht haben, denn er weiss ja nicht um seine eigene Verwirrtheit (es ist ja eben Kennzeichen dieser, dass man den Ernst der Lage nicht erkennt). Für die Umwelt ist es aber recht schwer mit diesem Umzugehen, vor allem, wenn man an sein Gegenüber mit einem gewissen Vernunftprinizp herantritt. Man kann dem Wirrkopf eigentlich nur empfehlen, sich in einem klaren Moment zu besinnen, das Gesagte zu überdenken und aus den Weisheiten anderer zu lernen, dann besteht Hoffnung auf Besserung.

ad c)
ein ganz schwieriger Fall, denn dem provokannten Wirrkopf ist weder seine eigene Verwirrtheit noch die Inkompetenz seiner Thesen bewust. Schlimmer noch, es gelingt leider selten (im Gegensatz zum Fall b) ) auf den klaren Moment zu hoffen und der damit verbundenen Chance auf Besserung.

Also lieber AchtBit (der Nick gefällt mir auf jeden Fall), bitte stelle schnellstmöglich klar, welcher Kategorie man dich zuordnen muss, nur so als Hilfestellung für die restliche Umwelt, damit man weiss worauf man sich bei Antworten auf deine Postings einstellen muss, um dann auch gegebenenfalls eine Umstufung der KAtegorie vornehmen zu können.
Viele Grüsse!

mapel110
2003-11-16, 18:01:35
Original geschrieben von LovesuckZ
Na dann:
Jeder Bench ist unbrauchbar, wo Nvidia oder ATi führt, da ich bei allen was aussetzen koennte.

Mit dem Niveau des Forums scheint auch deins sich zu senken.
Schade :(

ich weiss nicht, wo dein problem liegt?!
http://www.gamestar.de/news/pc-spiele/action/14162/

bin jetzt zu faul, das entsprechende forumposting rauszusuchen. ist übrigens auch hier im forum erwähnt worden.

reunion
2003-11-16, 18:05:54
Original geschrieben von mapel110
Falsch. Halo beweisst, dass man ein relativ mies aussehendes spiel mit grottiger performance basteln kann. imo das einzige, was halo bewiesen hat.
30 fps, bei so einer grafik, da gibts einfach nur ein fettes LOL.
bloss, weil ATI in dem bench halbwegs genauso lahm ist, wie auf nv hardware, sollte man ihn nicht gleich in den himmel loben. vor allem, weil sich beide IHVs dort auch sehr niedrigem fps-niveau treffen.

btw Halo wurde doch auf der xbox(nvidia-hardware) entwickelt und ausserdem profitiert das game enorm von einer 640er auflösung. sollte indiz genug sein, wie unbrauchbar der bench ist.
ein weiteres wäre, dass halo ca 10 fps(macht im game dann cirka 30% aus) allein durch sound verliert.
wirklich ein wahres meisterwerk, heutiger programmierkunst :|


Was erwartes du denn wenn NV selbst die Shader schreiben darf ???
Aus der FX wurde das maximum herausgeholt(was trozdem noch zu langsam ist) und die Konkurrenz wurde ausgebremst...

Also ich finde auch das der Bench für den Arsch ist, da könnte ich ja genausogut NV Techdemos benutzen...

LovesuckZ
2003-11-16, 18:09:45
Original geschrieben von mapel110
http://www.gamestar.de/news/pc-spiele/action/14162/

Aehm ja? Das soll mir sagen?
Ansonsten: laecherlich wie die Fanatiker versuchen den Halo Bench ins laecherliche zu ziehen. Naja, ich mache dann das selbe mal mit HL2 und TR6.
Abwaerts...

seahawk
2003-11-16, 18:15:18
Ich sage ja immer, es gibt noch keinen brauchbaren DX9 Bench. :D

reunion
2003-11-16, 18:21:35
Original geschrieben von LovesuckZ
Aehm ja? Das soll mir sagen?
Ansonsten: laecherlich wie die Fanatiker versuchen den Halo Bench ins laecherliche zu ziehen. Naja, ich mache dann das selbe mal mit HL2 und TR6.
Abwaerts...

Also bei TR wurden die Shader sicher nicht von ATI geschrieben da es ein NV TWIMTBP Spiel ist, also eher unfair für ATI als für NV, und über HL2 weiß man nur das die FX hoffnungslos versägt wird ;)

StefanV
2003-11-16, 18:26:06
Original geschrieben von reunion
Also bei TR wurden die Shader sicher nicht von ATI geschrieben da es ein NV TWIMTBP Spiel ist, also eher unfair für ATI als für NV, und über HL2 weiß man nur das die FX hoffnungslos versägt wird ;)

Naja, noch dazu dürfte TR-AOD auch noch recht verbreitet sein, auch wenns sich kaum einer kauft :eyes:

LovesuckZ
2003-11-16, 18:26:10
Original geschrieben von reunion
Also bei TR wurden die Shader sicher nicht von ATI geschrieben da es ein NV TWIMTBP Spiel ist,

Aber nur das Compiler Profil 2.0 verwendet, was ein auf die ATi Hardware optimiertes ist.

und über HL2 weiß man nur das die FX hoffnungslos versägt wird ;)

Da die Shader ja von ATi kommen, isses als Benchmark ja aussagelos (ich liebe Argumente von Fanatikern zu übernehmen)...
Noe, denn die Ergebnisse von Anandtech.com zeigen, dass die FX Hardware mit dem optimierten Nvidia Pfad mithalten koennen und das trotz unterlegender Hardware.

reunion
2003-11-16, 18:30:30
Original geschrieben von LovesuckZ
Aber nur das Compiler Profil 2.0 verwendet, was ein auf die ATi Hardware optimiertes ist.


Und???
Jedes Spiel verwendet das Compiler Profil 2.0, und das dass auf ATI Hardware zugeschnitten ist ist halt Pech für NV....

Da die Shader ja von ATi kommen, isses als Benchmark ja aussagelos (ich liebe Argumente von Fanatikern zu übernehmen)...

Hast du irgendeine Quelle dafür das die Shader von ATI kommmen oder sind das reine Spekulationen???

Noe, denn die Ergebnisse von Anandtech.com zeigen, dass die FX Hardware mit dem optimierten Nvidia Pfad mithalten koennen und das trotz unterlegender Hardware.

Ja toll, mit reduzierter Bildqualität und eigenen NV-Pfad

MadManniMan
2003-11-16, 18:31:29
Original geschrieben von LovesuckZ
Aehm ja? Das soll mir sagen?
Ansonsten: laecherlich wie die Fanatiker versuchen den Halo Bench ins laecherliche zu ziehen. Naja, ich mache dann das selbe mal mit HL2 und TR6.
Abwaerts...

LovesuckZ,

HL2 zieht längst niemand mehr heran. Zu Zeiten der Verwendung dessen als Argument konnte von einem mehr oder minder kurzfristigen Release ausgegangen werden.
TR6 braucht weder von dir noch von den Benutzern ernstgenommen werden - die Gründe liegen wohl auf der Hand.

Halo allerdings hat ja nun tatsächlich eine grauenhafte Performance - ich muß es wissen, denn hier bei mir zock ichs dauernd. Mein Erstrechner kommt gut mit 1024/16tap klar. Maximum Detail versteht sich.
Der zweite muß für ein ruckelfreies Erlebnis mit 640/Medium auskommen.
Und wenn jetzt auch noch vom Portierungsteam die Bestätigung für ein Performanceupdate kommt, kann man wohl ernstlich von einem kritisch zu betrachtenden Fall ausgehen.


Von daher kann man imho von den aktuellen DX9-Titeln gewiß noch nicht eindeutig auf Zukünftigkeit schließen. Dabei weiß ich wirklich nicht, was das jetzt alles mit der Qualität des Forums zu tun hat.


Letztendlich kan man auch vom Murks03 natürlich keine Stellvertretung für jene unsere Zukunft erwarten - aber darum geht es ja letztlich hier nicht, sondern nur darum, daß nV wohl wissentlich keinen Gefallen an den von FM aufgestellten Regeln gefunden hat.
Im RL ist es doch so: wenn man irgendetwas spielt, indem man nicht sonderlich gut ist, oder woran man sich einfach nicht ergötzen kann - tja, dann räumt man halt das Feld oder gibt sich mit dem Status zufrieden. Niemand wird aber in der Realität viele Freunde gewinnen, wenn er nun eine weitere Alternative wählt und versucht, das Spiel zu shreddern oder durch unfaires Verhalten zu gewinnen.

LovesuckZ
2003-11-16, 18:34:02
Original geschrieben von reunion
Und???
Jedes Spiel verwendet das Compiler Profil 2.0, und das dass auf ATI Hardware zugeschnitten ist ist halt Pech für NV....

Aha, also wenn Shader auf die nvidia Hardware zu geschnitten sind, dann sei dies Unfair gegenüber ATi, anders rum Pech für Nvidia.
Logik, die keine Grenzen kennt... :|

Hast du irgendeine Quelle dafür das die Shader von ATI kommmen oder sind das reine Spekulationen???

An den Namen im Source Code.


Ja toll, mit reduzierter Bildqualität und eigenen NV-Pfad

Nummer 3 auf meiner Liste: Diskussion nicht sinnvoll, da nicht geeignet dafür...

MikBach
2003-11-16, 18:37:35
Original geschrieben von LovesuckZ
Aber nur das Compiler Profil 2.0 verwendet, was ein auf die ATi Hardware optimiertes ist.



Da die Shader ja von ATi kommen, isses als Benchmark ja aussagelos (ich liebe Argumente von Fanatikern zu übernehmen)...
Noe, denn die Ergebnisse von Anandtech.com zeigen, dass die FX Hardware mit dem optimierten Nvidia Pfad mithalten koennen und das trotz unterlegender Hardware.

Ich kann Dich nicht verstehen.

Das Compiler Profil 2.0 ist DirectX9, also wird es auch verwendet. Sollen die Shader 1.x benutzen oder worauf willst Du hier anspielen.
Welche Shader kommen von ATI? Die in TR6?
Hast Du getrunken?
Die Spieleprogrammierer haben die selbst geschrieben.
Am Ende gibst Du sogar zu, dass NVidia die unterlegene Hardware hat.
Na gute Nacht.

Thowe
2003-11-16, 18:42:38
Hmmm, von Halo habe ich nur noch die Ergebnisse von ExtremeTech im Kopf, da sah das wie folgt aus:

http://common.ziffdavisinternet.com/util_get_image/4/0,3363,sz=1&i=43123,00.gif

Das war allerdings noch nicht mit den NV Treibern aus der Deto 5x.xx Series, sondern ein 45.xx.

LovesuckZ
2003-11-16, 18:46:11
Original geschrieben von Thowe
Das war allerdings noch nicht mit den NV Treibern aus der Deto 5x.xx Series, sondern ein 45.xx.

Mit dem 52.16 steigt die PS2.0 Leistung um 60% an.

MadManniMan
2003-11-16, 18:47:40
Original geschrieben von LovesuckZ
Aber nur das Compiler Profil 2.0 verwendet, was ein auf die ATi Hardware optimiertes ist.

Prangerst du jetzt das CP an sich an? Klar ist das 2.0A fairer, aber es wurden und werden wohl noch verdammt viele Apps über 2.0 erstellt, aber so ist es einfach. Dinge sind wie sie sind.

Die "ATi-Jünger" (zähl mich bitte nicht dazu, ich bin 3dfx-Fanatiker der ersten Stunde und werde mich hüten, meine Religion zu betrügen - und auch wenn ich ATi sympathischer finde, so kaufe ich das, was mir am besten gefällt) jedenfalls haben längst eingesehen, daß JK3, im allgemeinen Q3A-Titel besser auf nV laufen. Da gibts nichts rumzumosern, weil Tatsachen Tatsachen sind.

LovesuckZ
2003-11-16, 18:52:17
Original geschrieben von MadManniMan
Prangerst du jetzt das CP an sich an? Klar ist das 2.0A fairer, aber es wurden und werden wohl noch verdammt viele Apps über 2.0 erstellt, aber so ist es einfach. Dinge sind wie sie sind.

Ich passe meinem Argumentationsstil dem des Forums an:
Ich prangere alles das an, was ich verachte, so wie viele hier.
Wer über die Shader in halo herzieht, kann gleich überalles herziehen, was mit DX9 in Verbindung steht (Unterschiedliche Genauigkeit, unterschiedliche Compiler Profile, unterschiedliche technische Auslegung etc.).

Die "ATi-Jünger" [...] jedenfalls haben längst eingesehen, daß JK3, im allgemeinen Q3A-Titel besser auf nV laufen. Da gibts nichts rumzumosern, weil Tatsachen Tatsachen sind.

Auch wenn ich diesen Teil nicht verstehe, vorallen mit dem zitierten Anhang, sollten sie es doch zeigen. Leider werde dann dauernd damit herausgeredet, dass die ATi karten ausreichen FPS erreichen. Und bei den Nvidia karten man im Gegenzug von Ausfaellen redet. Dies ist, wie so oft, eine interesante zweideutige Logik.

MikBach
2003-11-16, 18:54:24
Original geschrieben von Thowe
Hmmm, von Halo habe ich nur noch die Ergebnisse von ExtremeTech im Kopf, da sah das wie folgt aus:

http://common.ziffdavisinternet.com/util_get_image/4/0,3363,sz=1&i=43123,00.gif

Das war allerdings noch nicht mit den NV Treibern aus der Deto 5x.xx Series, sondern ein 45.xx.

Ja, das ist alt. Aktuell sind die gleich auf, obwohl wenn man betrachtet, dass es Shader von Nvidia sind, trotzdem peinlich für die.
Bei HL2, wo ja ATI nachgeholfen hat habe ich die doppelte Leistung, das ist was.
Wenn Nvidia selbst schreibt und trotzdem nur Gleichstand, na ja SEHR peinlich.
Außerdem beweist das mal wieder, dass aus der Architektur von Nvidia nicht mehr rauszuholen ist als Gleichstand, und nur wenn man an der Präzision spart.
Kommt volles DirectX9(Shader 2.0) zum Einsatz bricht Nvidia heftigst ein.
Das kann man auch mit neuen Treibern nicht ändern- es ist die Aechitektur.

MadManniMan
2003-11-16, 19:04:32
Original geschrieben von LovesuckZ
Mit dem 52.16 steigt die PS2.0 Leistung um 60% an.

Um bis zu 60%, wenn ich dich korrigieren darf :) so sagst nV.

Man sieht direkt hier am praktischen Beispiel, daß diese drei Fünftel seeehr kritisch zu betrachten sind:

Herr Tom (http://www.tomshardware.de/graphic/20031023/nvidia-nv38-nv36-32.html) hat den 52er genützt und ein leicht performanteres System genutzt (zu erkennen an der 10% höheren Performance der R9800Pro in 1024) und dort kommen "nur" 40 bis 45% Schub bei der 5900U raus, wobei 1024 noch das stärkere Gesamtsystem noch reinspielt.
Die 5600U gewinnt jedoch 75%... :| Kann mal jemand andere Benches zur Verifizierung der 5600uer Ergebnisse anführen?
45er: 1024-14fps 1600-6fps ... 52er: 1024-25fps 1600-11fps

klein
2003-11-16, 19:17:14
Die Auswirkungen? Pah, der Patch hat meine registrierte 3D Mark Version zu einer unregistrierten gemacht. :|

MadManniMan
2003-11-16, 19:34:56
Original geschrieben von LovesuckZ
Ich passe meinem Argumentationsstil dem des Forums an:
Ich prangere alles das an, was ich verachte, so wie viele hier.

Findest du denn, daß das der richtige Weg ist? Wenn ich dich richtig verstehe, dann findest du das doch nicht gut - warum nur ob des eigenen Rechtfertigungswillens willen seine eigene Art verraten?
Zudem ist es doch nur natürlich, daß man anprangert, was man schlecht findet. Du verwirrst.

Original geschrieben von LovesuckZ
Wer über die Shader in halo herzieht, kann gleich überalles herziehen, was mit DX9 in Verbindung steht (Unterschiedliche Genauigkeit, unterschiedliche Compiler Profile, unterschiedliche technische Auslegung etc.).

Im Moment kann man tatsächlich nicht von einer sich DX9 bedienenden App auf die Zukunft schließen, da bisher alle auf irgendeine Weise zweifelhaft waren und sind. TR6 ob der allgemeinen Verbuggtheit, 3DMark03 ob seiner Synthetik und Halo ob der grauenvollen Performance. Aber dennoch muß man sie jeweils nehmen, wie sie im Moment sind, oder wie sie vorgesehenerweise sein sollten. Tatsachen sind wie gesagt Tatsachen.

Original geschrieben von LovesuckZ
Auch wenn ich diesen Teil nicht verstehe, vorallen mit dem zitierten Anhang, sollten sie es doch zeigen.

Ich schreibe es deshalb, weil du vom CP2.0 geredet hast, der eben nicht stellvertretend für alles DX9 ist, aber so hingenommen werden muß. Die verdammt gut optimierte Q3A-Engine läuft eben auf NV-HW besser, aber ist deshalb noch lange nicht stellvertretend für alles, was da noch OpenGL-mäßig kommen mag. Und auch wenn außer Doom3 nicht mehr passieren sollte und dieses tatsächlich stellvertretend für GL sein sollte, so sind es doch immernoch in Relation zum Gesamtmarkt verdammt wenig Spiele. Genau wie DX9-Anwendungen, die das CP2.0 benützen.
Und das verstehe ich jetzt wiederum nicht ;) Was sollten sie doch zeigen? Und wer sind sie?

Original geschrieben von LovesuckZ
Leider werde dann dauernd damit herausgeredet, dass die ATi karten ausreichen FPS erreichen. Und bei den Nvidia karten man im Gegenzug von Ausfaellen redet. Dies ist, wie so oft, eine interesante zweideutige Logik.

Du hast absolut Recht. Problematisch ist nunmal, daß diese seltsamen Gegen"argumente" HL2 und TR6 eine stärkere Differenz als die GL-Gegenseite aufweisen.

Wiederum möchte ich dennoch an das Topic erinnern: FM mag nicht, daß nicht nach ihren Spielregeln gespielt wird. Ich verlgeiche das mal mit der Administration eines vernünftigen Spieleservers: wer cheatet, wird gerügt und/oder fliegt.

MadManniMan
2003-11-16, 19:36:11
Original geschrieben von Deliquent
Die Auswirkungen? Pah, der Patch hat meine registrierte 3D Mark Version zu einer unregistrierten gemacht. :|

Dann wende dich an den Support! Kann ja nicht sein, daß man ein paar Scheine hinlegt und dann mit den neuesten Patches kaum mehr was anfangen kann!

MikBach
2003-11-16, 19:55:40
Original geschrieben von MadManniMan


Im Moment kann man tatsächlich nicht von einer sich DX9 bedienenden App auf die Zukunft schließen, da bisher alle auf irgendeine Weise zweifelhaft waren und sind. TR6 ob der allgemeinen Verbuggtheit, 3DMark03 ob seiner Synthetik und Halo ob der grauenvollen Performance. Aber dennoch muß man sie jeweils nehmen, wie sie im Moment sind, oder wie sie vorgesehenerweise sein sollten. Tatsachen sind wie gesagt Tatsachen.


Ich schreibe es deshalb, weil du vom CP2.0 geredet hast, der eben nicht stellvertretend für alles DX9 ist, aber so hingenommen werden muß. Die verdammt gut optimierte Q3A-Engine läuft eben auf NV-HW besser, aber ist deshalb noch lange nicht stellvertretend für alles, was da noch OpenGL-mäßig kommen mag. Und auch wenn außer Doom3 nicht mehr passieren sollte und dieses tatsächlich stellvertretend für GL sein sollte, so sind es doch immernoch in Relation zum Gesamtmarkt verdammt wenig Spiele. Genau wie DX9-Anwendungen, die das CP2.0 benützen.
Und das verstehe ich jetzt wiederum nicht ;) Was sollten sie doch zeigen? Und wer sind sie?



Wiederum möchte ich dennoch an das Topic erinnern: FM mag nicht, daß nicht nach ihren Spielregeln gespielt wird. Ich verlgeiche das mal mit der Administration eines vernünftigen Spieleservers: wer cheatet, wird gerügt und/oder fliegt.

1. Das Problem ist halt nur, dass es keine DX9 Spiele, Benchmarks, halb fertige Spiele gibt, bei denen Nvidia klar gewinnt.
Die Indizien sprechen halt dafür, dass DX9(Shader 2.0) eine Domäne von ATI sein wird.

2. Zu sagen, dass OpenGL generell auf Nvidia besser läuft ist bis jetzt richtig.
Nur, OpenGL wird jetzt auch Shader unterstützen, und die laufen in der Grafikpipline fast gleich.

3. Mit den Spielregeln hast Du vollkommen Recht.

MikBach
2003-11-16, 20:07:10
Original geschrieben von MikBach

Nur, OpenGL wird jetzt auch Shader unterstützen, und die laufen in der Grafikpipline fast gleich.


Verglichen halt mit DX9 wollte ich sagen.
Es sind halt bestimmte Instruktionen, die von der Hardware abgearbeitet werden - die API ist im wesentlichen nicht entscheidend. Das hat auch j. Carmack von ID angedeutet.
Die Performance von ATI und Nvidia wird etwa gleich sein, nur Nvidia braucht spezielle Optimierung= anderer Pfad d.h reduzuierte Genauigkeit FP16, ich glaube sogar er hat was von FX12 gesagt. Ich weiss es nicht mehr genau, ist schon etwas her.

Demirug
2003-11-16, 20:09:50
Original geschrieben von MikBach
1. Das Problem ist halt nur, dass es keine DX9 Spiele, Benchmarks, halb fertige Spiele gibt, bei denen Nvidia klar gewinnt.
Die Indizien sprechen halt dafür, dass DX9(Shader 2.0) eine Domäne von ATI sein wird.

Ja die Indizien sprechen eine klare Sprache. nVidias Problem ist das das ein für ATI optimierter Shader von iheren Karten gefressen wird aber ein auf nVidia optimierter Shader nicht unbedingt auf auf ATI Hardware. Dumm gelaufen. :D

2. Zu sagen, dass OpenGL generell auf Nvidia besser läuft ist bis jetzt richtig.
Nur, OpenGL wird jetzt auch Shader unterstützen, und die laufen in der Grafikpipline fast gleich.

Wenn man die spezifischen Extenions richtig nutzt kann nV auch weiterhin vorne bleiben. Bei der allgemeinen ist die Lage ähnlich wie bei DX.

MikBach
2003-11-16, 20:24:14
Original geschrieben von Demirug
Ja die Indizien sprechen eine klare Sprache. nVidias Problem ist das das ein für ATI optimierter Shader von iheren Karten gefressen wird aber ein auf nVidia optimierter Shader nicht unbedingt auf auf ATI Hardware. Dumm gelaufen. :D



Wenn man die spezifischen Extenions richtig nutzt kann nV auch weiterhin vorne bleiben. Bei der allgemeinen ist die Lage ähnlich wie bei DX.

1. Nicht richtig dumm.
Nvidia hat die Shader von Halo geschrieben- und laufen die auf ATI wirklich schlecht. Ne, Gleichstand.

2. Warum bist Du Dir da so sicher?
Shader sind auch nur Extensions, und wie gesagt, wenn man bestimmte Instruktionen abarbeitet ist es der Pipeline egal ob es DX9 oder GL1.4 ist.

Demirug
2003-11-16, 20:33:49
Original geschrieben von MikBach
1. Nicht richtig dumm.
Nvidia hat die Shader von Halo geschrieben- und laufen die auf ATI wirklich schlecht. Ne, Gleichstand.

Die Halo Shader sind nicht wirklich auf nVidia Hardware optimiert. Um genau zu sein sind die sogar für Treiber vor 5X.XX richtig übel weil nach ATI norm sortiert. Ich weiss wie gesagt nicht wirklich was nVidia daran genau gemacht haben soll.

2. Warum bist Du Dir da so sicher?
Shader sind auch nur Extensions, und wie gesagt, wenn man bestimmte Instruktionen abarbeitet ist es der Pipeline egal ob es DX9 oder GL1.4 ist.

Die gesamte Rechenpower der NV3X Chips ist nur über die nV spezifische Shader extension zugänglich. Unter DX oder den allgemeinen OpenGL Extension kommt man nicht an alles gleichzeitig ran.

PS 1.X erlauben keinen Zugriff auf die volle Programmlänge und Texturen.

PS >= 2.0 erlauben keinen Zugriff auf die brutale FX Rechenpower.

MikBach
2003-11-16, 20:47:09
Original geschrieben von Demirug
Die Halo Shader sind nicht wirklich auf nVidia Hardware optimiert. Um genau zu sein sind die sogar für Treiber vor 5X.XX richtig übel weil nach ATI norm sortiert. Ich weiss wie gesagt nicht wirklich was nVidia daran genau gemacht haben soll.



Die gesamte Rechenpower der NV3X Chips ist nur über die nV spezifische Shader extension zugänglich. Unter DX oder den allgemeinen OpenGL Extension kommt man nicht an alles gleichzeitig ran.

PS 1.X erlauben keinen Zugriff auf die volle Programmlänge und Texturen.

PS >= 2.0 erlauben keinen Zugriff auf die brutale FX Rechenpower.

1. Was soll das heissen. die hat doch NVidia geschrieben. Und die sortieren nach ATI-Norm. Na ja.

2. Ich weiss, dass Du wirklich ein Spezi bist, da ich 3DC schon länger kenne, aber ich kann mir nicht vorstellen, dass "bestimmte" Anweisungen auf verschiedenen APIs zum unterschiedlichen Ergebniss führen.

Demirug
2003-11-16, 21:31:47
Original geschrieben von MikBach
1. Was soll das heissen. die hat doch NVidia geschrieben. Und die sortieren nach ATI-Norm. Na ja.

nVidia hat wohl nicht nach ATI-Norm sortiert sondern der Shadercompiler von MS. Ich weiss das ist alles recht komplex.

Wahrscheinlich ist das ganze wie folgt abgelaufen:

nVidia hat die XBox-Shader von Halo bekommen und wurde gebeten DX Shader daraus zu machen. Allerdings mit der Einschrängung das die Shader überall laufen müssen. nVidia hat daraufhin einen entsprechenden Satz HLSL Shader programmiert die sich im Rahmen der 2.0 Möglichkeiten bewegen. Diese Shader wurden dann mit dem MS Compiler übersetzt. Dummerweise erzeugt dieser wenn man 2.0 Shader haben will diese nach ATI Regeln.

2. Ich weiss, dass Du wirklich ein Spezi bist, da ich 3DC schon länger kenne, aber ich kann mir nicht vorstellen, dass "bestimmte" Anweisungen auf verschiedenen APIs zum unterschiedlichen Ergebniss führen.

Zuviel der Ehre.

Ich hoffe jetzt mal das du auch mit Mengenlehrer gefoltert wurdest weil sonst die Erklärung dich noch mehr verwirren könnte.

Jede Hardware beherscht einen gewissen Satz von Funktionen zur Verfügung. Das nenen wir einmal Menge H. Eine API stellt nun wieder Schnittstellen für bestimmte Funktionen zur verfügung. Nenen wir diese Mengen einmal DX8, DX8.1, DX9, OGL, OGL-NV. Der Zugriff auf die Chipfunktionen ist nur über eine API möglich daher ergibt sich das man nur das nutzen kann was in der Schnittmenge einer API Menge und der Hardware Menge liegt. Diese Schnittmenge ist nun in bei jeder benutzen API unterschiedlich gross und deckt auch unterschiedliche Bereiche der Menge H ab. Die grösste Schnittmenge erreicht man nun bei den NV3X Chips wenn man die entsprechenden nV OpenGL Extensions nutzt.

Programmiert jetzt natürlich mit der nV-Extension einen DX 2.0 Shader genau nach kommt das gleiche heraus. die nV-Extension erlaubt es aber bestimmte Probleme auch anders (performanter zu lösen) als es mit PS 2.0 möglich ist.

The_Invisible
2003-11-16, 21:33:51
Original geschrieben von MikBach
1. Nicht richtig dumm.
Nvidia hat die Shader von Halo geschrieben- und laufen die auf ATI wirklich schlecht. Ne, Gleichstand.


und wo steht das die auch auf nvidia hardware optimiert haben? ich glaube wenn die wirklich darauf optimiert hätten würde es anders aussehen

mfg

KM
2003-11-16, 22:25:42
Original geschrieben von Demirug
Ja die Indizien sprechen eine klare Sprache. nVidias Problem ist das das ein für ATI optimierter Shader von iheren Karten gefressen wird aber ein auf nVidia optimierter Shader nicht unbedingt auf auf ATI Hardware. Dumm gelaufen. :D
Solange es innerhalb der Spezifikation von DX9 PS/VS 2.0 läuft, keine Probleme, aber selbst die sind im halben Jahr veraltet.
Abgesehen davon, hat ja NV doch selbst gesagt, dass sie PS/VS 2.0+ entsprächen, also mehr als der Standard können. Außerdem ist ja der Radeon 9700 Pro halbes Jahr früher als die NV FX5800U erschienen.

reunion
2003-11-16, 22:26:35
Original geschrieben von LovesuckZ
Aha, also wenn Shader auf die nvidia Hardware zu geschnitten sind, dann sei dies Unfair gegenüber ATi, anders rum Pech für Nvidia.
Logik, die keine Grenzen kennt... :|


DX 9 ist auf niemanden optimiert!!!!!!!
Es läuft einfach nur auf ATI Hardware schneller!

Somit ist es sehrwohl ein Unterschied ob ich nach dem DX9 Stabdart Pfad programmiere oder ob ich NV selbst die Shader schreiben lasse.

kmf
2003-11-16, 22:29:25
Original geschrieben von Demirug
...PS >= 2.0 erlauben keinen Zugriff auf die brutale FX Rechenpower.

Wir warten den nächsten Chipsatz ab und werden uns furchtbar wundern. NV wird eine für den Retailmarkt vorgesehene Version überspringen und uns allen zeigen, wo der Hammer hängt.

Bitte nVidia, laß mich jetzt mit meiner Prophezeihung nicht hängen. :D

zeckensack
2003-11-16, 22:32:26
Ähm, ich gehe mal davon aus daß Demirug mit "FX Rechenpower" nicht die Geforce FX als ganzes, sondern die Integereinheiten (FX12) meinte ?-)
Das stimmt nämlich wirklich :D

KM
2003-11-16, 22:35:58
Original geschrieben von zeckensack
Ähm, ich gehe mal davon aus daß Demirug mit "FX Rechenpower" nicht die Geforce FX als ganzes, sondern die Integereinheiten (FX12) meinte ?-)
Das stimmt nämlich wirklich :D
Was nützen rohe Integerleistungen, wenn DX9 mind. FP16 verlangt? ;)

Coolj100
2003-11-16, 22:48:09
Original geschrieben von LovesuckZ
100% (Halo, TR6) vom 44.03 zum 52.16 und das bei verbesserter IQ.

Beweise das du 100 prozent mehr leistung hast, weil ich nämlich beweisen kann das es nicht so ist. Warum müsst ihr immer die einzelnen hersteller so schön reden, obwohl es nicht so ist??!!

zeckensack
2003-11-16, 22:54:31
Original geschrieben von KM
Was nützen rohe Integerleistungen, wenn DX9 mind. FP16 verlangt? ;) Äh, nix? Darum ging's doch. Da kommt man halt nur mit OpenGL und NV-spezifischen Extensions ran, oder eben mit PS1.x.

Anm: PS1.x sind auch Teil von DX9, und die kommen mit Integer-Formaten aus. War aber klar, was du gemeint hast ;)

Paßt eigentlich alles:
Original geschrieben von Demirug
Die gesamte Rechenpower der NV3X Chips ist nur über die nV spezifische Shader extension zugänglich. Unter DX oder den allgemeinen OpenGL Extension kommt man nicht an alles gleichzeitig ran.

PS 1.X erlauben keinen Zugriff auf die volle Programmlänge und Texturen.

PS >= 2.0 erlauben keinen Zugriff auf die brutale FX Rechenpower.

Demirug
2003-11-16, 22:58:42
Original geschrieben von zeckensack
Ähm, ich gehe mal davon aus daß Demirug mit "FX Rechenpower" nicht die Geforce FX als ganzes, sondern die Integereinheiten (FX12) meinte ?-)
Das stimmt nämlich wirklich :D

Ja, es war in dem Sinn gemeint:

FX = Fixed Point
FP = Floating Point
Den Begriff Integereinheit vermeide ich seit ich die DX Next Entwürfe gesehen haben. Es dürfte zwar schon zu spät dafür sein aber trotzdem.

Demirug
2003-11-16, 23:01:42
Original geschrieben von reunion
Somit ist es sehrwohl ein Unterschied ob ich nach dem DX9 Stabdart Pfad programmiere oder ob ich NV selbst die Shader schreiben lasse.

Was ist ein DX9 Standard Pfad?

tb
2003-11-16, 23:13:57
Original geschrieben von Demirug
nVidia hat wohl nicht nach ATI-Norm sortiert sondern der Shadercompiler von MS. Ich weiss das ist alles recht komplex.

Wahrscheinlich ist das ganze wie folgt abgelaufen:

nVidia hat die XBox-Shader von Halo bekommen und wurde gebeten DX Shader daraus zu machen. Allerdings mit der Einschrängung das die Shader überall laufen müssen. nVidia hat daraufhin einen entsprechenden Satz HLSL Shader programmiert die sich im Rahmen der 2.0 Möglichkeiten bewegen. Diese Shader wurden dann mit dem MS Compiler übersetzt. Dummerweise erzeugt dieser wenn man 2.0 Shader haben will diese nach ATI Regeln.


Frag mich nur, warum die Halo-Macher nicht auch noch das 2_a Target mit eingebaut haben, in der exe stehts sogar schon als Kommandozeilenparameter(-use2a) drin, lag wohl am Zeitdruck oder der Verspätung(?) des SDK Updates...

Thomas

Demirug
2003-11-16, 23:23:48
Original geschrieben von tb
Frag mich nur, warum die Halo-Macher nicht auch noch das 2_a Target mit eingebaut haben, in der exe stehts sogar schon als Kommandozeilenparameter(-use2a) drin, lag wohl am Zeitdruck oder der Verspätung(?) des SDK Updates...

Thomas

Kann ich dir auch nicht sagen. Ich tippe aber mal auf das SDK man hat sich viel Zeit gelassen.


Ist der Parameter aktiv oder eine Leiche. Ich habe hier nur die Shaderdateien von einem Defaultlauf mit einer ATI und einer nVidia Karte.

kmf
2003-11-17, 00:02:26
Original geschrieben von zeckensack
Ähm, ich gehe mal davon aus daß Demirug mit "FX Rechenpower" nicht die Geforce FX als ganzes, sondern die Integereinheiten (FX12) meinte ?-)
Das stimmt nämlich wirklich :D

Ich hab das schon richtig verstanden, was Demi meinte. :D

tb
2003-11-17, 00:17:41
Original geschrieben von Demirug
Kann ich dir auch nicht sagen. Ich tippe aber mal auf das SDK man hat sich viel Zeit gelassen.


Ist der Parameter aktiv oder eine Leiche. Ich habe hier nur die Shaderdateien von einem Defaultlauf mit einer ATI und einer nVidia Karte.

Is ne Leiche, ist auch noch der alte DX9 Shader Compiler drin...

mapel110
2003-11-17, 02:21:36
Original geschrieben von tb
Is ne Leiche, ist auch noch der alte DX9 Shader Compiler drin...

eine leiche, die aber wohl mit dem nächsten patch zum leben erweckt werden soll.
jedenfalls wurde im offiziellen forum ein patch angekündigt, der performanceprobleme beseitigen soll.
das war vor ungefähr einem monat.

naja, irgendwie ist das hier reichlich :topic:

seahawk
2003-11-17, 08:21:48
Original geschrieben von reunion
DX 9 ist auf niemanden optimiert!!!!!!!
Es läuft einfach nur auf ATI Hardware schneller!

Somit ist es sehrwohl ein Unterschied ob ich nach dem DX9 Stabdart Pfad programmiere oder ob ich NV selbst die Shader schreiben lasse.

Hast Du Demi auf ignore gesetzt oder sind Dir seine Texte zu lang ??

Wenn der originale DX-9 2.0 Compiler genutzt wird um aus HLSL zu compilieren, dann ist das Ergebnis immer ATI freundlich, egal wär den HLSL Teil geschrieben hat.

MikBach
2003-11-17, 12:20:28
Original geschrieben von Demirug


Programmiert jetzt natürlich mit der nV-Extension einen DX 2.0 Shader genau nach kommt das gleiche heraus. die nV-Extension erlaubt es aber bestimmte Probleme auch anders (performanter zu lösen) als es mit PS 2.0 möglich ist.

Wenn also im stinknormalen(original) DX9 programmiert wird, hat Nvidia klar Nachteile. Richtig?

Man kann also nur über spezielle Extensions(OGL) die volle Rechenpower der FXe erreichen. Stimmt das ?

Sollte das so sein- eine mittlere Katastrophe für Nvidia, denn über 90 %- oder sogar mehr- der Spiele werden unter DirectX programmiert. OGL macht da nur einen geringen Anteil aus, obwohl man schon zugeben muss, dass die meisten
OGL-Spiele richtig klasse sind.

Exxtreme
2003-11-17, 12:31:54
Original geschrieben von MikBach
Wenn also im stinknormalen(original) DX9 programmiert wird, hat Nvidia klar Nachteile. Richtig?

Man kann also nur über spezielle Extensions(OGL) die volle Rechenpower der FXe erreichen. Stimmt das ?

Nicht unbedingt. Ein API wie DX9 benachteiligt erstmal keinen Hersteller/Hardwarearchitektur. Wichtig ist, was die Developer daraus machen. Man kann sicherlich auch unter OpenGL die FXen richtig ausbremsen.
Original geschrieben von MikBach
OGL macht da nur einen geringen Anteil aus, obwohl man schon zugeben muss, dass die meisten OGL-Spiele richtig klasse sind.
Ja, und vor Allem sind fast alle OpenGL-Spiele ziemlich bugfrei. Mit OpenGL-Spielen hatte ich noch nie Probleme. SerSam, Q3, RtCW etc. liefen Out-of-the-Box ohne großartige Patcherei. Ob's tatsächlich am API liegt?

StefanV
2003-11-17, 12:47:50
Original geschrieben von Exxtreme
Ja, und vor Allem sind fast alle OpenGL-Spiele ziemlich bugfrei. Mit OpenGL-Spielen hatte ich noch nie Probleme. SerSam, Q3, RtCW etc. liefen Out-of-the-Box ohne großartige Patcherei. Ob's tatsächlich am API liegt?

Hm, ist BF1942 nicht auch OGL?? :)

Winter[Raven]
2003-11-17, 12:53:05
Hm, ist BF1942 nicht auch OGL??

nein, DX 8 oder war das 7 ? Definitiv DX und nicht Open GL.

seahawk
2003-11-17, 12:53:12
Gute Frage ich meine nein, aber das lief bei mir auch sehr stabil

Was die Frage stellt, sind damit nicht die erfolgreichsten Multiplayer Shooter OGL ??

MikBach
2003-11-17, 13:04:21
Original geschrieben von Exxtreme
Nicht unbedingt. Ein API wie DX9 benachteiligt erstmal keinen Hersteller/Hardwarearchitektur. Wichtig ist, was die Developer daraus machen. Man kann sicherlich auch unter OpenGL die FXen richtig ausbremsen.

Was sagst Du den dazu:

Original geschrieben von Demirug
Die gesamte Rechenpower der NV3X Chips ist nur über die nV spezifische Shader extension zugänglich. Unter DX oder den allgemeinen OpenGL Extension kommt man nicht an alles gleichzeitig ran.

PS 1.X erlauben keinen Zugriff auf die volle Programmlänge und Texturen.

PS >= 2.0 erlauben keinen Zugriff auf die brutale FX Rechenpower.


Ja, und vor Allem sind fast alle OpenGL-Spiele ziemlich bugfrei. Mit OpenGL-Spielen hatte ich noch nie Probleme. SerSam, Q3, RtCW etc. liefen Out-of-the-Box ohne großartige Patcherei. Ob's tatsächlich am API liegt?

Ja ist mir auch schon aufgefallen. Dürfte aber auch daran liegen, dass viele Spiele auf Q3 aufbauen, und wenn ma ID kennt, dann weiss man, das die solide arbeiten. Man hat also direkt eine solide Grundengine.

Exxtreme
2003-11-17, 13:08:21
Original geschrieben von MikBach
Was sagst Du den dazu:

Demirug hat natürlich recht. Aber man kann die volle Power trotzdem entfalten indem man DX8- und DX9-Shader verwendet. Und das wird heutzutage schon oft gemacht. Wenn der Treiber halbwegs schlau ist, dann wird er die Arbeit gut auf alle Funktionseinheiten verteilen. Da DX8 ein Bestandteil von DX9 ist, dürfte es keinerlei Probleme geben.

MikBach
2003-11-17, 13:20:04
Original geschrieben von Exxtreme
Demirug hat natürlich recht. Aber man kann die volle Power trotzdem entfalten indem man DX8- und DX9-Shader verwendet. Und das wird heutzutage schon oft gemacht. Wenn der Treiber halbwegs schlau ist, dann wird er die Arbeit gut auf alle Funktionseinheiten verteilen. Da DX8 ein Bestandteil von DX9 ist, dürfte es keinerlei Probleme geben.

Dass das heutzutage oft gemacht wird ist klar, den wir sind ja gerade im Umbruch von DX8 nach DX9. Ich kann mir aber nicht so recht vorstellen, dass in einem halben Jahr Spieleprogrammierer noch DX8Shader benutzen werden, denn die sind einfach nicht so flexibel und könnten die Kreativität einschränken. Außerdem hat man doch DX9 um noch schönere Effekte zu erreichen, und da ist halt auch noch Präzision wichtig.

Exxtreme
2003-11-17, 13:26:19
Original geschrieben von MikBach
Dass das heutzutage oft gemacht wird ist klar, den wir sind ja gerade im Umbruch von DX8 nach DX9. Ich kann mir aber nicht so recht vorstellen, dass in einem halben Jahr Spieleprogrammierer noch DX8Shader benutzen werden, denn die sind einfach nicht so flexibel und könnten die Kreativität einschränken. Außerdem hat man doch DX9 um noch schönere Effekte zu erreichen, und da ist halt auch noch Präzision wichtig. Ähhm, bitte trenne Dx8 und DX9 nicht so scharf. Die Programmierer nehmen meist das, was zur Erfüllung der Aufgabe ausreicht. Wenn man also ein Effekt mit DX8- und DX9-Shadern realisieren kann, dann wird man eher den DX8-Shader nehmen. Und da die FXen diese FP-Schwäche haben, dann wird man kaum FP verwenden wenn FX12 ausreichend ist. Bringt auf den FXen viel Geschwindigkeit und kostet auf dem R300 nichts da ein R300 immer mit FP24 rechnet. Deswegen wird JC auch kaum FP-Shader verwenden eben weil Integer-Genauigkeit ausreichend ist. Ich weiss, Doom3 ist OpenGL, das Prinzip ist aber das Gleiche.

MikBach
2003-11-17, 13:29:17
Original geschrieben von MikBach
Außerdem hat man doch DX9 um noch schönere Effekte zu erreichen, und da ist halt auch noch Präzision wichtig.

An Exxtreme: Hast Du vielleicht den Unterschied zwischen DX8 und DX9 beim Wasser in HL2 gesehen.
War glaube ich bei PCGH.

Ich sage nur EXTREM.

Exxtreme
2003-11-17, 13:31:49
Original geschrieben von MikBach
An Exxtreme: Hast Du vielleicht den Unterschied zwischen DX8 und DX9 beim Wasser in HL2 gesehen.
War glaube ich bei PCGH.

Ich sage nur EXTREM.
Glaube ich dir. :) Und weil der Unterschied da ist, haben die auch DX9-Shader genommen. DX8 ist hier nur als Fallback für ältere Karten gedacht.

Mir ging's aber eher um Effekte, die mit DX8 und DX9 identisch aussehen.

deekey777
2003-11-17, 13:48:10
Nur so am Rande: Max Payne 2 ist ein DX8.1-Spiel, welches DX9-Runtime voraussetzt. Ist egal...
Was ich wirklich nicht verstehe, warum die nVidia-Karten so "schlecht" in GT2&3 sind - obwohl es nur DX8.1-Tests sind, welche auf PS 1.4 setzen, wenn dieser vorhanden sind.

DirectX for Dummies: Wurde 3d2003 in DX9 (HLSL...) geschrieben?

MikBach
2003-11-17, 13:48:14
Original geschrieben von Exxtreme

Mir ging's aber eher um Effekte, die mit DX8 und DX9 identisch aussehen.

Da gebe ich Dir Recht.

Ist das programmieren von DX8- und DX9Shadern ungefär gleich aufwendig?
Ich könnte mir vorstellen(aber keine Ahnung), dass mit weniger flexiblen Shadern bißchen mehr Gehirnschmalz notwendig ist.
Mir geht es hier um Softwarefirmen, die vielleicht nicht die fähigsten Grafikprogrammierer haben, dass diese die einfache-für sie- Variante wählen(Shader 2.0).
Sollte DX8 jedoch einfacher sein, spricht nichts gegen deine Aussage.