PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3DMark03 Patch 340 und die Auswirkungen


Seiten : 1 2 [3]

MikBach
2003-11-17, 13:54:32
Original geschrieben von deekey777
Nur so am Rande: Max Payne 2 ist ein DX8.1-Spiel, welches DX9-Runtime voraussetzt. Ist egal...
Was ich wirklich nicht verstehe, warum die nVidia-Karten so "schlecht" in GT2&3 sind - obwohl es nur DX8.1-Tests sind, welche auf PS 1.4 setzen, wenn dieser vorhanden sind.


PS 1.4 ist ein von ATI gewollter Standard für den R200, weil der R200 mehr Instruktionen ausführen konnte als der Geforce3 (PS 1.3)
Vielleicht deswegen?

Exxtreme
2003-11-17, 13:56:26
Original geschrieben von MikBach
Da gebe ich Dir Recht.

Ist das programmieren von DX8- und DX9Shadern ungefär gleich aufwendig?
Ich könnte mir vorstellen(aber keine Ahnung), dass mit weniger flexiblen Shadern bißchen mehr Gehirnschmalz notwendig ist.
Mir geht es hier um Softwarefirmen, die vielleicht nicht die fähigsten Grafikprogrammierer haben, dass diese die einfache-für sie- Variante wählen(Shader 2.0).
Sollte DX8 jedoch einfacher sein, spricht nichts gegen deine Aussage.
Also ich habe noch keine Shader programmiert. Aber normalerweise sollten DX8-Shader etwas einfacher sein als DX9-Shader. Vielleicht sagt Demirug dazu was.

MikBach
2003-11-17, 14:29:44
Halte gerade die neue c´t in den Händen.Die haben einen kleinen Artikel zu den neuen Grakas und Treibern von Nvidia.

Das Abschlußzitat: nicht wörtlich(darf man auch wörtlcih aus einer Zeitung zitieren?)

Die neuen Nvidias reichen gerade bis zum NV40(2.Quartal 2004). Nvidia-kunden werden also bald wieder investieren müssen, um neue DX9 Spiele mit voller Bildqualität zu spielen.

Jetzt weiss ich auch was das Problem von Nvidia ist( laut c´t). Nvidia hat massive Probleme bei sehr aufwändigen Shadern( Hitzeflimmern und Tiefenunschärfe).
Also je komplexer (d.h. weiter in die Zukunft), desto ATI.

MikBach
2003-11-17, 14:45:05
Original geschrieben von MikBach

Die neuen Nvidias reichen gerade bis zum NV40(2.Quartal 2004). Nvidia-kunden werden also bald wieder investieren müssen, um neue DX9 Spiele mit voller Bildqualität zu spielen.

Jetzt weiss ich auch was das Problem von Nvidia ist( laut c´t). Nvidia hat massive Probleme bei sehr aufwändigen Shadern( Hitzeflimmern und Tiefenunschärfe).
Also je komplexer (d.h. weiter in die Zukunft), desto ATI.

Sorry, die schreiben sogar was vom 1. Quartal - das glaube ich allerdings selber nicht.

Allerdings,so wie es aussieht, wer sich heute eine FX holt, dem ist nicht mehr zu helfen oder er liebt das Risiko(mit der Tendenz zum verlieren).

Exxtreme
2003-11-17, 14:50:14
Naja, die c't ist zwar eine gute Zeitschrift aber was GraKas angeht, sollten die sich nicht zuweit aus'm Fenster rauslehnen. Ich kann mich noch an eine Passage erinnern, daß PS1.4 vollkommen inkompatibel zu den früheren Versionen sein sollten etc.

MikBach
2003-11-17, 14:58:28
Original geschrieben von Exxtreme
Naja, die c't ist zwar eine gute Zeitschrift aber was GraKas angeht, sollten die sich nicht zuweit aus'm Fenster rauslehnen. Ich kann mich noch an eine Passage erinnern, daß PS1.4 vollkommen inkompatibel zu den früheren Versionen sein sollten etc.

Ja aber die Ekenntnis, dass Nvidia bei sehr komplexen Shadern einbricht ist für mich ein wenig verwunderlich, da ich immer angenommen habe, dass Nvidia die fortschrttlichere Architektur hat und erst bei sehr komplexen Shadern "aufdreht". Ist das nicht der Fall, "wo" wollen die sonst ihre Superarchitektur ausspielen. Vielleicht bei so exrem komplexen Shader, dass man bei Nvidia 8 fps hat und bei ATI 5 fps.
Nur ist das halt nicht praxisgerecht.

MikBach
2003-11-17, 15:06:09
Original geschrieben von MikBach
Ja aber die Ekenntnis, dass Nvidia bei sehr komplexen Shadern einbricht ist für mich ein wenig verwunderlich, da ich immer angenommen habe, dass Nvidia die fortschrttlichere Architektur hat und erst bei sehr komplexen Shadern "aufdreht". Ist das nicht der Fall, "wo" wollen die sonst ihre Superarchitektur ausspielen. Vielleicht bei so exrem komplexen Shader, dass man bei Nvidia 8 fps hat und bei ATI 5 fps.
Nur ist das halt nicht praxisgerecht.

Ich weiss auch, dass man die Architektur speziell ansprechen muss. Aber was nützt mir das schnellste Auto, wenn ich ihm nur kleine Reifen(begrenzt bis 180) aufziehe.

Exxtreme
2003-11-17, 15:08:06
Original geschrieben von MikBach
Ja aber die Ekenntnis, dass Nvidia bei sehr komplexen Shadern einbricht ist für mich ein wenig verwunderlich, da ich immer angenommen habe, dass Nvidia die fortschrttlichere Architektur hat und erst bei sehr komplexen Shadern "aufdreht". Ist das nicht der Fall, "wo" wollen die sonst ihre Superarchitektur ausspielen. Vielleicht bei so exrem komplexen Shader, dass man bei Nvidia 8 fps hat und bei ATI 5 fps.
Nur ist das halt nicht praxisgerecht.
Unter DirectX stimmt deine aussage weitgehend. Denn ab einer bestimmten Shaderlänge können nur noch FP-Shader verwendet werden (DX9 only). Unter OpenGL dürfte das anders sein. Hier dürften auch lange Shader mit Integer-Genauigkeit möglich sein und somit recht schnell. Nur leider ist die Integer-Genauigkeit bei langen Shadern wohl nicht das einzig Wahre denn irgendwannmal werden Rundungsfehler sichtbar werden. Ich denke, das wollte M$ vermeiden.

Gast
2003-11-17, 15:22:06
Original geschrieben von Exxtreme
Naja, die c't ist zwar eine gute Zeitschrift aber was GraKas angeht, sollten die sich nicht zuweit aus'm Fenster rauslehnen. Ich kann mich noch an eine Passage erinnern, daß PS1.4 vollkommen inkompatibel zu den früheren Versionen sein sollten etc.

In der Ausgabe 23 stehen auch so einige Knaller drin. So will man, der ct'schen Semantik folgend, Kanten per anisotroper Filterung glätten... (der Satzteil zuvor bezog sich auf FSAA und das soll wohl auch gemeint sein).

Man erkennt zwar, was gemeint ist, aber IMO völlig unglücklich formuliert.

Q

MikBach
2003-11-17, 15:26:10
Original geschrieben von Exxtreme
Unter DirectX stimmt deine aussage weitgehend. Denn ab einer bestimmten Shaderlänge können nur noch FP-Shader verwendet werden (DX9 only). Unter OpenGL dürfte das anders sein. Hier dürften auch lange Shader mit Integer-Genauigkeit möglich sein und somit recht schnell. Nur leider ist die Integer-Genauigkeit bei langen Shadern wohl nicht das einzig Wahre denn irgendwannmal werden Rundungsfehler sichtbar werden. Ich denke, das wollte M$ vermeiden.

Wie ich schon gepostet habe: Die meisten Spiele sind Directx, und ich will wissen, wie sich die Hardware bei den meisten Spielen verhält.

Aus Deinem post entnehme ich, dass NV-Hardware bei FP Probleme hat, aber FP ist die Zukunft.

Crushinator
2003-11-17, 16:46:35
Original geschrieben von MikBach
(...)
Aus Deinem post entnehme ich, dass NV-Hardware bei FP Probleme hat, aber FP ist die Zukunft. ...und daraus kann man wiederum nicht darauf schließen, daß auch zukünftige NV-Hardware dasselbe "Problem" haben könnte, denn wie heißt es so schön: Gefahr erkannt, Gefahr gebannt.

MikBach
2003-11-17, 16:58:51
Original geschrieben von crushinator
...und daraus kann man wiederum nicht darauf schließen, daß auch zukünftige NV-Hardware dasselbe "Problem" haben könnte, denn wie heißt es so schön: Gefahr erkannt, Gefahr gebannt.

Na toll, Gefahr jetzt erkannt, Chip (NV40) wurde vor mind. einem Jahr designt.

LovesuckZ
2003-11-17, 17:01:07
Original geschrieben von MikBach
Aus Deinem post entnehme ich, dass NV-Hardware bei FP Probleme hat, aber FP ist die Zukunft.

Wenn du "langsam" mit "Problem" in Verbindung bringst, dann hast du recht.

deekey777
2003-11-17, 19:06:20
Original geschrieben von MikBach
PS 1.4 ist ein von ATI gewollter Standard für den R200, weil der R200 mehr Instruktionen ausführen konnte als der Geforce3 (PS 1.3)
Vielleicht deswegen?
Bestimmt, sag es aber nicht weiter :bäh: Nur müssen die DX9-Karten auch alle PS 1.x beherrschen.

Zu HALO: nVidia hat die Shader zumindest für die FX-Karten selbst geschrieben und die Arbeit für die Entwickler erleichtert. Dass HALO uU sehr schlecht läuft, liegt aber nicht daran, sondern es ist eine typische Konsolenumsetzung, die wirklich an die Grenzen der Fillrate geht - ähnlich wie es schon bei "Enter The Matrix" war.

reunion
2003-11-17, 19:35:51
Original geschrieben von deekey777
Zu HALO: nVidia hat die Shader zumindest für die FX-Karten selbst geschrieben...

Ati muss auch die NV-Shadern benutzen...

ow
2003-11-17, 19:47:05
Original geschrieben von reunion
Ati muss auch die NV-Shadern benutzen...

...was aber nix macht weil es ja ATi-freundliche Shader sind und NV-unfreundliche.
Irgendwie schon Ironie des Schicksals.:D

Winter[Raven]
2003-11-17, 21:02:30
Ati muss auch die NV-Shadern benutzen...

Also wirklich anscheinend können hier einige nicht lesen oder die sind aus Bashen aus.

Demirug hat eindeutig gesagt das auch wenn Nvidia die shader geschrieben hat, so wurden diese durch den MS Compiler dann aber zu ATI freundlichen übersetzt.

Tust mir Leit reunion ... :P

reunion
2003-11-17, 21:12:50
Original geschrieben von Winter[Raven]
Also wirklich anscheinend können hier einige nicht lesen oder die sind aus Bashen aus.

Demirug hat eindeutig gesagt das auch wenn Nvidia die shader geschrieben hat, so wurden diese durch den MS Compiler dann aber zu ATI freundlichen übersetzt.


Wo liegt eigendlich dein Problem???
deekey777 hat geschrieben das:
Original geschrieben von deekey777
Zu HALO: nVidia hat die Shader zumindest für die FX-Karten selbst geschrieben...

Und ich hab ihn nur hinzugefügt das auch ATI die NV Shader benutzen muss...


Tust mir Leit reunion ... :P

Du mir kein bisschen :P

The_Invisible
2003-11-17, 21:39:55
Original geschrieben von Winter[Raven]
Also wirklich anscheinend können hier einige nicht lesen oder die sind aus Bashen aus.

Demirug hat eindeutig gesagt das auch wenn Nvidia die shader geschrieben hat, so wurden diese durch den MS Compiler dann aber zu ATI freundlichen übersetzt.

Tust mir Leit reunion ... :P

hoffentlich wird der NV40 nicht zu stark, ansonsten sterben ein paar FanATIker weg ;)

mfg

MikBach
2003-11-17, 21:46:33
Original geschrieben von Winter[Raven]
Also wirklich anscheinend können hier einige nicht lesen oder die sind aus Bashen aus.

Demirug hat eindeutig gesagt das auch wenn Nvidia die shader geschrieben hat, so wurden diese durch den MS Compiler dann aber zu ATI freundlichen übersetzt.

Tust mir Leit reunion ... :P

Das heisst, Nvidia ist nicht mal fähig dazu, eigene Shader zu schreiben , welche mit DX9(Shader 2.0) konform sind. Na dann ggute Nacht.

MikBach
2003-11-17, 21:52:03
Original geschrieben von MikBach
Das heisst, Nvidia ist nicht mal fähig dazu, eigene Shader zu schreiben , welche mit DX9(Shader 2.0) konform sind. Na dann ggute Nacht.
Sorry nicht durchdachter post

Winter[Raven]
2003-11-17, 21:57:04
Sorry nicht durchdachter post

hehe ... wenigstens einer der Einsichtig ist.

@ reunion

Und ich hab ihn nur hinzugefügt das auch ATI die NV Shader benutzen muss...

Ich gebs auf ... du willst es wohl ned verstehen.

MikBach
2003-11-17, 22:07:36
Original geschrieben von Winter[Raven]
hehe ... wenigstens einer der Einsichtig ist.

@ reunion



Ich gebs auf ... du willst es wohl ned verstehen.

Was gibt es da zu verstehen, Nvidia hat den Shader geschrieben . Basta.
wenn die nicht mal fähig sind auf ihre Shader hinzuoptimieren-Pech.

Winter[Raven]
2003-11-17, 22:22:21
Was gibt es da zu verstehen, Nvidia hat den Shader geschrieben . Basta.
wenn die nicht mal fähig sind auf ihre Shader hinzuoptimieren-Pech.

Lisst doch richtig:

Zitat von Demirug:
nVidia hat die XBox-Shader von Halo bekommen und wurde gebeten DX Shader daraus zu machen. Allerdings mit der Einschrängung das die Shader überall laufen müssen. nVidia hat daraufhin einen entsprechenden Satz HLSL Shader programmiert die sich im Rahmen der 2.0 Möglichkeiten bewegen. Diese Shader wurden dann mit dem MS Compiler übersetzt. Dummerweise erzeugt dieser wenn man 2.0 Shader haben will diese nach ATI Regeln.


Nvidia proggt ne Shader der für FX GUT wäre. Diese werden aber durch den MS Compiler nach ATI Regeln kompiliert. Also sind es nicht mehr NV Shader die gut für FX sind, sondern ein ATI Shader die gut für Ati sind.

Wenn in Halo wirklich NV's FX Shader anzutreffen wäre, KÖNNTE Halo garnicht auf ATi laufen...

Ja die Indizien sprechen eine klare Sprache. nVidias Problem ist das das ein für ATI optimierter Shader von iheren Karten gefressen wird aber ein auf nVidia optimierter Shader nicht unbedingt auf auf ATI Hardware. Dumm gelaufen.

deekey777
2003-11-17, 22:38:46
Für "Extra-Glückliche", die nicht verstehen wollen, warum HALO uU so miserabel läuft:"... Er(HALO) enthält zwar nur die niedrig aufgelösten Texturen der Xbox-Version, belastet die 3D-Chips aber auf Grund einer Eigenart der Game-Engine bereits bei der 1024er-Auflösung bis an ihr Füllraten-Limit..."
( http://www.heise.de/ct/aktuell/meldung/41675 ) Egal ob nVidia oder ATi - HALO's Performance ist extrem schwankend von gut bis absolut schlecht. Darum kommt doch auch der dritte Patch, der den Leitungshunger stillt. Es liegt nicht an der (Un-)Fähigkeit der nVidia-Programmierer Pixelshader zu schreiben, sondern an HALO/HALO's Engine selbst.

reunion
2003-11-17, 22:42:08
Original geschrieben von Winter[Raven]
Lisst doch richtig:

Zitat von Demirug:


Nvidia proggt ne Shader der für FX GUT wäre. Diese werden aber durch den MS Compiler nach ATI Regeln kompiliert. Also sind es nicht mehr NV Shader die gut für FX sind, sondern ein ATI Shader die gut für Ati sind.

Und???
Hab ich was anderes behauptet???
NV hat die Shader geschrieben!
Das die MS Shader auf ATI Karten besser laufen ist eben Pech bzw. unfähigkeit der eigenen Hardware...


Wenn in Halo wirklich NV's FX Shader anzutreffen wäre, KÖNNTE Halo garnicht auf ATi laufen...

Schon wieder Pech für NV ;)
Es wird eben der Standart mit der größten Kompatiblität genommen...

deekey777
2003-11-17, 22:52:35
BLAH-BLAh-BLAH...

Weiss eigentlich einer von euch, was die Datei cheats1.dat im 3d2003-Ordner soll?

mapel110
2003-11-17, 23:23:51
Original geschrieben von deekey777
BLAH-BLAh-BLAH...

Weiss eigentlich einer von euch, was die Datei cheats1.dat im 3d2003-Ordner soll?

dann musst du ne ATI graka haben. bei nvidia usern heisst sie "optimierungen1.dat" ;D

tschuldigung, konnt ich mir nicht verkneifen :weg:

deekey777
2003-11-17, 23:32:43
Original geschrieben von mapel110
dann musst du ne ATI graka haben. bei nvidia usern heisst sie "optimierungen1.dat" ;D

tschuldigung, konnt ich mir nicht verkneifen :weg:

Der Post ist gut... Es ist eine ATi!

aths
2003-11-18, 00:17:53
Original geschrieben von MikBach
Das heisst, Nvidia ist nicht mal fähig dazu, eigene Shader zu schreiben , welche mit DX9(Shader 2.0) konform sind. Na dann ggute Nacht. Werden Shader in Hochsprachen geschrieben, müssen sie, Hochsprache hin oder her, bestimmte Randbedingungen einhalten, um mit dem 2.0-Profil kompiliert werden zu können. Es gibt durchaus Effekte, die Shader erfordern, die sich so nicht auf 2.0-Basis kompilieren lassen. Das hat nichts mit NVs Können oder Unfähigkeit zu tun. Man könnte ja im Gegenzug dann auch behaupten, dass ATI nicht mal dazu fähig sei, Shader-Hardware anzubieten, welche sich auf dem Feature-Level von CineFX bewegt.

Original geschrieben von MikBach
wenn die nicht mal fähig sind auf ihre Shader hinzuoptimieren-Pech. Wird in einer Hochsprache geschrieben, dann u. a. deshalb, um den Compiler optimieren zu lassen.
Original geschrieben von MikBach
PS 1.4 ist ein von ATI gewollter Standard für den R200, weil der R200 mehr Instruktionen ausführen konnte als der Geforce3 (PS 1.3)
Vielleicht deswegen? "Mehr Instruktionen" ist erst mal richtig, allerdings gibt es für die 1.1-er Shader auch aufwändigere Einzel-Instruktionen, die beim PS.1.4 mit mehreren Instruktionen quasi nachgebildet werden müssen, wenn ein gegebener 1.1-er Shader in ein gültiges 1.4-Format umgewandelt werden soll. Die großen Vorteile beim 1.4-er liegen vor allem bei 6 Texturen pro Phase, und dass es überhaupt Phases gibt (nämlich 2) man also im gleichen Shader erst mal Texturkoordinaten auch auf aufwändige Art modifizieren kann (und nicht nur am Anfang des Shaders mit einer fix vorgebenen Anzahl an Möglichkeiten, z.B. 2D-Transformation oder Dependend Read). Außerdem hat die R200-Implementierung des 1.4-er Shaders den Vorteil von 8x Overbright Lighting und erhöhter Präzision im Vergleich zu der in GeForce implementierten 1.1-er (bzw. 1.3-er) Version.

aths
2003-11-18, 00:25:31
Original geschrieben von Exxtreme
Naja, die c't ist zwar eine gute Zeitschrift aber was GraKas angeht, sollten die sich nicht zuweit aus'm Fenster rauslehnen. Ich kann mich noch an eine Passage erinnern, daß PS1.4 vollkommen inkompatibel zu den früheren Versionen sein sollten etc. Ist insofern richtig, dass ein Pixelshader in Assemblerform von Version 1.0 an aufwärtskompatibel ist, sich aber fast kein 1.0-1.3-Shader in ASM-Form darstellen lässt, der so von DX als 1.4-er PS gefressen wird.
Original geschrieben von Exxtreme
Nur leider ist die Integer-Genauigkeit bei langen Shadern wohl nicht das einzig Wahre denn irgendwannmal werden Rundungsfehler sichtbar werden. Ich denke, das wollte M$ vermeiden. FX12 ist nicht das gelbe vom Ei, wenn natürlich auch besser als FX9 (NV10* - NV28.) Falls NV noch FX16 einführt, wäre das ggü. FP16 eine gute Alternative.

* Weiß ehrlich gesagt nicht, ob NV10-Register Combiner schon Vorzeichen unterstützen. Soweit ich weiß, wird aber auch hier ein 9-bittiges Format verwendet.

zeckensack
2003-11-18, 06:08:22
Original geschrieben von aths
* Weiß ehrlich gesagt nicht, ob NV10-Register Combiner schon Vorzeichen unterstützen. Soweit ich weiß, wird aber auch hier ein 9-bittiges Format verwendet. =>
Mark Kilgard wrote
Should we say anything about the precision of the combiner
computations?

RESOLUTION: NO. The spec is written as if the computations are
done on floating point values ranging from -1.0 to 1.0 (clamping is
specified where this range is exceeded). The fact that NV10 does
the computations as 9-bit signed fixed point is not mentioned in
the spec. This permits a future design to support more precision
or use a floating pointing representation.Qualle (http://oss.sgi.com/projects/ogl-sample/registry/NV/register_combiners.txt)
(aus der "issues"-Sektion)

seahawk
2003-11-18, 07:58:22
Original geschrieben von reunion
Und???
Hab ich was anderes behauptet???
NV hat die Shader geschrieben!
Das die MS Shader auf ATI Karten besser laufen ist eben Pech bzw. unfähigkeit der eigenen Hardware...


Verständnis der Thematik : 6 - setzen

zeckensack
2003-11-18, 08:30:53
Original geschrieben von Winter[Raven]
Lisst doch richtig:

Zitat von Demirug:


Nvidia proggt ne Shader der für FX GUT wäre. Diese werden aber durch den MS Compiler nach ATI Regeln kompiliert. Also sind es nicht mehr NV Shader die gut für FX sind, sondern ein ATI Shader die gut für Ati sind.

Wenn in Halo wirklich NV's FX Shader anzutreffen wäre, KÖNNTE Halo garnicht auf ATi laufen... Die NVIDIA-Leute hätten auch Assembler-Shader schreiben können. Haben sie nicht. Sie haben sich für den Output des HLSL-Compilers entschieden.

... wenn die Geschichte wahr ist. Gibt's Quellen dazu, daß NVIDIA die Halo-Shader geschrieben hat? Ernstgemeinte Frage ohne Sarkasmus oä :|

@seahawk,
Was hängt denn da jetzt wie zusammen? =)
Ein NVIDIA-Mitarbeiter wurde mit vorgehaltener Pistole gezwungen, Shader zu schreiben, die möglichst schlecht auf NV3x laufen? =)

(da war jetzt eine kleine Prise von dem drin, was bei der ersten Frage fehlte ...)

seahawk
2003-11-18, 08:52:29
HLSL Shader sind nicht optimiert wenn sie durch den MS 2.0 compiler laufen. Egal wer den HlSL Teil schreibt, das Ergebnis nach Compilierung wird immer der ATI Karte gut schmecken.
Selbst wenn NV den HLSL Shader geschreiben hat (Quelle ?) kann man nicht davon sprechen, dass der Shader für NV Karten optimiert wurde.

Es wurde ja nicht mal der 2.0a Pfad genutzt. Ich bin der Meinung, dass man hier nicht von irgendwie NV optimierten Shadern sprechen kann.

Assembler Shader würden wahrscheinlich nicht auf ATI Karten laufen.

Aber hast ja Recht, sorry Reunion für den Angriff. Ich hätte nicht so giftig reagieren müssen.

zeckensack
2003-11-18, 09:49:04
Original geschrieben von seahawk
HLSL Shader sind nicht optimiert wenn sie durch den MS 2.0 compiler laufen. Egal wer den HlSL Teil schreibt, das Ergebnis nach Compilierung wird immer der ATI Karte gut schmecken.
Selbst wenn NV den HLSL Shader geschreiben hat (Quelle ?) kann man nicht davon sprechen, dass der Shader für NV Karten optimiert wurde.Die Quelle ist mir auch noch unklar. Ich hätte das gerne offiziel, aber sei's drum ... mal angenommen es stimmt ?-)

Warum hat NVIDIA HLSL genommen, wenn es schlecht für ihre eigene Hardware ist?
Denn,
Es wurde ja nicht mal der 2.0a Pfad genutzt. Ich bin der Meinung, dass man hier nicht von irgendwie NV optimierten Shadern sprechen kann.

Assembler Shader würden wahrscheinlich nicht auf ATI Karten laufen. der PS2.0-Pfad ist nun wirklich kein großes Problem. PS2.0 läuft auf ATI, trotzdem kann man hier _pp-Hints setzen (also selektiv FP16 einschalten) und die Instruktionen 'richtig' anordnen.

ATI-Treiber ignorieren _pp-Hints, und die Instruktionsreihenfolge ist auch unkritisch - der Shader läuft trotzdem.

Mit PS2.0a und 'voller' Optimierung wäre man natürlich nicht mehr zu ATI-Karten kompatibel gewesen. Man hätte dann sogar einen brutal ineffizenten PS2.0-Pfad "für ATI" und einen sauber durchoptimierten PS2.0a-Pfad für die hauseignenen FXen schreiben können. Aber das wundert mich ja auch nur so am Rande.

Wahrscheinlich wollte der Publisher, bzw das Management keine getrennten Codepfade, sowas soll ja öfter mal vorkommen ;)

Was mir nicht einleuchtet ist wirklich nur das:
Warum HLSL, und nicht gleich direkt PS2.0-Assembler?

Zwei(einhalb) Möglichkeiten, IMO:
1)die Annahme (NVIDIA schrieb die Halo-Shader) ist eine Ente
2)NVIDIA-Hardware leidet nicht unter dem HLSL-Compiler
2,5)NVIDIA-HW leidet zwar unter dem HLSL-Compiler, aber es war ihnen egal!?

seahawk
2003-11-18, 11:46:22
Falls es stimmt gäbe es noch Möglichkeit 3. Gearbox wollte nur Shader über das DX 9 SDK im Spiel haben. NV hat dann für alle passend in HLSL geschrieben, dafür kommt ein Patch der den 2.0a Pfad nutzt.

Oder aber, der DX 9 Anteil in Halo ist so ein kleiner Aufsatz, dass sich eine spezielle Optimierung nicht lohnte.

Jasch
2003-11-18, 11:47:40
:D
Vollstes zustimm zu punkt 1-2,5

obwohl punkt 2 und 2,5 bedeuten würde, keine gerade rossigen zeiten für FX besitzer:-(

reunion
2003-11-18, 11:49:53
Original geschrieben von zeckensack
Die Quelle ist mir auch noch unklar. Ich hätte das gerne offiziel, aber sei's drum ... mal angenommen es stimmt ?-)


Ich finde die Quelle zwar auch nicht mehr, aber soweit ich mich erinnern kann hat sich irgendein NV Treiberprogger beim Halo-Team bedankt das man die Shader für die FX selber schreiben durfte um die maximale Performace zu erreichen...

Quelle: Nvidia :D

Winter[Raven]
2003-11-18, 12:36:42
@ reunion

Keuhle nicht so ein Zeug. Das war der Rendi Pitchford der es verlauten ließ.

deekey777
2003-11-18, 12:48:52
nVidia+Gearbox=Big Love ;D

"...Gearbox, die die PC-Portierung des X-Box-Spiels Halo durchführten, waren Nvidia daher sehr verbunden, weil Nvidia-Entwickler sämtliche DirectX-9-Shader für den FX-Pfad geschrieben haben..." ( http://www.heise.de/newsticker/result.xhtml?url=/newsticker/data/anw-24.10.03-004/default.shtml&words=Nvidia , "Nvidia reagiert auf negative Berichte mit Informationsoffensive" )

HALO macht beiden Herstellern Probleme, allein die fehlenden Bipmaps in HALO&R3x0/RV3x0 ist nur ein kleiner Bug, der sich erst im CP entfernen lässt. Es liegt an Halo selbst, da die Entwickler der Umsetzung nicht mit den verschiedensten PC-Konfigurationen gerechnet haben und das Spiel doch irgendwann herausbringen sollten. Schon lange vor dem Release des Spiels gab es Gerüchte, dass Halo einige Probleme habe, die sich auf die Schnelle nicht lösen lassen, vgl. http://gamesweb.com/pc/news/detail.php?item_id=36363 . Darum wartet erst mal auf den dritten Patch, der die Leistungsmacken des Spiels "lindern" soll.

Zum Thema: Was soll denn die Datei cheats1.dat im 3d2003-Ordner?
Zu der der Schwäche von FX in GT2&3: Was hat das den mit den PS1.3 der Geforce 4 bzw. PS 1.1 der Geforce 3 zu tun? Eine DX9-Grafikkarte soll alle vorherigen Pixelshader benutzen.

seahawk
2003-11-18, 13:18:12
Ist in der gegenwärtigen Halo Version überhaupt ein FX Pfad ? Ich dachte da ist nur einer drinne ??

Der 2.0a Pfad ist glaub ich leer.

mapel110
2003-11-18, 14:31:35
Original geschrieben von seahawk
Ist in der gegenwärtigen Halo Version überhaupt ein FX Pfad ? Ich dachte da ist nur einer drinne ??

Der 2.0a Pfad ist glaub ich leer.

spielt doch nicht unbedingt eine rolle. der 50iger deto holt auch die mehrperformance raus.

und was der ps2.0a pfad da überhaupt noch bringt, wird man wie donkey schrieb mit dem nächsten patch erfahren.
sollte übrigens noch diesen monat rauskommen. wenn man sich die ergebnisse des shadermark 2.0 anschaut, bringt der 2.0a pfad nix mehr.

LovesuckZ
2003-11-18, 16:48:29
Original geschrieben von mapel110
wenn man sich die ergebnisse des shadermark 2.0 anschaut, bringt der 2.0a pfad nix mehr.

Falsche Schlussfolgerung.
Demirug erklaerte mal, dass das COmpiler Profil 2.a noch mehr koenne als der treiberinterne Compiler und das der treiberinterne noch bessere Ergebnisse mit dem 2.a Profil liefere.

MikBach
2003-11-18, 17:08:02
Original geschrieben von LovesuckZ
Demirug erklaerte mal, dass das COmpiler Profil 2.a noch mehr koenne als der treiberinterne Compiler und das der treiberinterne noch bessere Ergebnisse mit dem 2.a Profil liefere.

Also, wenn die Spieleprogrammierer jetzt noch in zwei Pfaden schreiben müssen, dann warten wir ewig auf die neuen Spiele mit den tollen Effekten.

Ich dachte immer DirectX soll vereinheitlichen, jetzt fährt wieder alles auseinander.

Exxtreme
2003-11-18, 17:14:45
Original geschrieben von MikBach
Ich dachte immer DirectX soll vereinheitlichen, jetzt fährt wieder alles auseinander.
Hihi, wieder einer, der auf das Marketing von M$ reingefallen ist. ;) DX9 kann einheitlich sein. Man muss sich aber auf bestimmte Features beschränken. DX ist aber deutlich einheitlicher als OpenGL was die neuesten Features angeht.

MikBach
2003-11-18, 17:18:24
Srimmt das denn? :

Original geschrieben von MikBach
Also, wenn die Spieleprogrammierer jetzt noch in zwei Pfaden schreiben müssen, dann warten wir ewig auf die neuen Spiele mit den tollen Effekten.

Exxtreme
2003-11-18, 17:24:23
Original geschrieben von MikBach
Srimmt das denn? :
Keine Ahnung. Könnte aber hinkommen. HL2 soll über 3000 einzelne Shader haben. Wenn man da auf mehrere Hersteller optimieren muss, da wird es wohl eng werden. Man kann aber auch HLSL-Shader schreiben und sie durch verschiedene Compiler durchjagen. Ich fürchte aber, damit holt man nicht das Optimum raus.

seahawk
2003-11-18, 17:38:11
Original geschrieben von Exxtreme
Keine Ahnung. Könnte aber hinkommen. HL2 soll über 3000 einzelne Shader haben. Wenn man da auf mehrere Hersteller optimieren muss, da wird es wohl eng werden. Man kann aber auch HLSL-Shader schreiben und sie durch verschiedene Compiler durchjagen. Ich fürchte aber, damit holt man nicht das Optimum raus.

Nur behaupte ich, dass dies auf Dauer Standard wird. Wenn es neben ATI und NV auch noch Power VR, Deltachrome oder Volari DX 9 Chips gibt, dann wird es aus sein mit hand optimierten Shadern.

Die Softwarefirmen werden in HLSL schreiben und dann wird es an den IHVs liegen das Beste daraus zu machen.

MikBach
2003-11-18, 17:45:38
Original geschrieben von seahawk

Die Softwarefirmen werden in HLSL schreiben und dann wird es an den IHVs liegen das Beste daraus zu machen.

Ist eine gute Idee, nur bei den VIELEN Spielen, die so jährlich erscheinen, dürfte das schwer werden.

Ich finde M$ sollte noch früher die Spezifikationen festlegen, und die IHV sollten sich daran auch halten. Dann dürften die meisten Probleme aus der Welt zu schaffen sein, oder?

Exxtreme
2003-11-18, 17:48:22
Original geschrieben von MikBach
Ich finde M$ sollte noch früher die Spezifikationen festlegen, und die IHV sollten sich daran auch halten. Dann dürften die meisten Probleme aus der Welt zu schaffen sein, oder?
M$ sollte anfangen gescheite APIs zu programmieren. Das mit den Shader-Profilen ist reiner Bullshit. Besser wäre eine Art High-Level-Bytecode, wie Demirug es vorgeschlagen hat. Aber nein, M$ hat sich wieder einlullen lassen.

Quasar
2003-11-18, 17:53:04
Die Lizenz-Games auf Basis der HL2-Engine werden sicherlich etliche Shader recyclen können und ähnlich wird es mit vielen anderen Shadern auch laufen.
Man muss ja nicht jedesmal das Rad neu erfinden (nur die Ecken jedesmal ein wenig mehr abfeilen).
Zudem könnte man auch auf die Idee kommen, sich auf 1.1 bzw. 2.0-Shader zu beschränken, das würde die potentielle Anzahl derselben sicherlich noch um einiges drücken können. Dazu liessen sich, zumindest für nV-Karten, auch etliche Shader ein wenig kollabieren. Irgendwo habe ich mal etwas davon gelesen, daß man ein komplettes Model eines Gegners mit einem einzigen (aber längeren) VS2.0 animieren könnte, während man auf konkurrierender HW dazu mehrer Shader bräuchte.

Ohne das jetzt auf die Performance-Ebene zu beziehen, aber die reine Anzahl der Shader kann so auch gesenkt werden.

MikBach
2003-11-18, 18:01:41
Original geschrieben von Exxtreme
M$ sollte anfangen gescheite APIs zu programmieren. Das mit den Shader-Profilen ist reiner Bullshit. Besser wäre eine Art High-Level-Bytecode, wie Demirug es vorgeschlagen hat. Aber nein, M$ hat sich wieder einlullen lassen.

Können die IHVs nicht bißchen Druck auf M$ ausüben, es so zu machen wie Du es beschreibst.
Wenn das für die IHVs einfacher wäre, müsste das doch sinnvoll sein.
Was sind, denn so die Nachteile von "High-Level-Bytecode"?
oder anders gefragt warum macht M$ das nicht so?
Und was heisst "M$ hat sich wieder einlullen lassen"?

Quasar
2003-11-18, 18:06:03
Original geschrieben von MikBach
[...]Druck auf M$[...]

Das letzte Mal, als das jemand versuchte, 'geschah' DX9... *scnr*

Exxtreme
2003-11-18, 18:09:41
Original geschrieben von MikBach
Können die IHVs nicht bißchen Druck auf M$ ausüben, es so zu machen wie Du es beschreibst.
Wenn das für die IHVs einfacher wäre, müsste das doch sinnvoll sein.
Was sind, denn so die Nachteile von "High-Level-Bytecode"?
oder anders gefragt warum macht M$ das nicht so?
Und was heisst "M$ hat sich wieder einlullen lassen"?
IHVs und M$ Druck auf ausüben? Wohl kaum. Schliesslich wollen sie, daß einige der zukünftigen Features in das nächste DX reinkommen.

Wer halbwegs Druck ausüben kann sind die Developer. Und die meisten Developer sind eher Kontrollfreaks. Und Low-Level-Programmierung bedeutet viel Kontrolle.

Und Nachteile vom High-Level-Bytecode? Naja, dieser muss zur Laufzeit in Assemblercode übersetzt werden. Ausserdem müsste man sich stark auf die korrekte Funktion der Shader Compiler im Grafikkartentreiber verlassen. Stell dir vor, das Spiel läuft scheisse weil der GraKa-Treiber spinnt, man selbst nichts dafür kann und die Kunden schimpfen weil das Spiel nicht richtig tut.

AchtBit
2003-11-18, 20:22:45
Original geschrieben von Exxtreme
M$ sollte anfangen gescheite APIs zu programmieren. Das mit den Shader-Profilen ist reiner Bullshit. Besser wäre eine Art High-Level-Bytecode, wie Demirug es vorgeschlagen hat. Aber nein, M$ hat sich wieder einlullen lassen.

Was willst du mit nem Bytecode, da kommst vom Regen in die Taufe. Schick den Prophet zum Berg und Du hast ein weitaus bessere Ergebnis. Ich wuerde die pipline komplett abstrahieren.

Quasar
2003-11-18, 20:35:15
... und ich würde einen sprachgesteuerten Shader-Compiler/Optimizer bevorzugen.

IF "Ey, kagge, ey! Renn' schneller, du Mist-Game!"
THEN enable_pp_hint; enable_pre_optimized_shader; enable_reduced_filter_quality; enable_fully_optimized_clip_planes; enable_random_crash; enable_blame_app_mode
ELSE run_slow

;)

Exxtreme
2003-11-18, 20:48:09
Original geschrieben von AchtBit
Was willst du mit nem Bytecode, da kommst vom Regen in die Taufe. Schick den Prophet zum Berg und Du hast ein weitaus bessere Ergebnis. Ich wuerde die pipline komplett abstrahieren.
Neee. Ein High-Level-Bytecode hätte den Vorteil, daß die Shadercompiler in den Treibern deutlich besser optimieren könnten als den Low-Level-Pseudo-Assembler-Code. Beim diesem Pseudo-Assembler-Code kann man zwar an der Reihenfolge drehen und vielleicht noch einige Schritte durch weniger aufwändige ersetzen, wenn der Shadercompiler diese Möglichkeiten erkennt, aber optimal ist diese Lösung wahrlich nicht.

HLSL-Code direkt zu übergeben wäre IMHO auch nicht so toll da man damit aus Versehen/mit absicht viel Mist bauen kann, z.B. sich an die maximale Shader-Länge nicht halten etc.

zeckensack
2003-11-19, 04:16:49
Original geschrieben von Exxtreme
Neee. Ein High-Level-Bytecode hätte den Vorteil, daß die Shadercompiler in den Treibern deutlich besser optimieren könnten als den Low-Level-Pseudo-Assembler-Code. Beim diesem Pseudo-Assembler-Code kann man zwar an der Reihenfolge drehen und vielleicht noch einige Schritte durch weniger aufwändige ersetzen, wenn der Shadercompiler diese Möglichkeiten erkennt, aber optimal ist diese Lösung wahrlich nicht.

HLSL-Code direkt zu übergeben wäre IMHO auch nicht so toll da man damit aus Versehen/mit absicht viel Mist bauen kann, z.B. sich an die maximale Shader-Länge nicht halten etc. Ein 'guter' Byte-Code müßte die gleiche Ausdruckskraft wie eine Hochsprache haben, so ala Java-Bytecode, der kann auch alles darstellen, was die Sprache hergibt.

Dh du hättest auch die gleichen Probleme (wobei ich persönlich nicht wirklich an diese 'Probleme' glauben mag).

Exxtreme
2003-11-19, 09:20:18
Original geschrieben von zeckensack
Ein 'guter' Byte-Code müßte die gleiche Ausdruckskraft wie eine Hochsprache haben, so ala Java-Bytecode, der kann auch alles darstellen, was die Sprache hergibt.

Dh du hättest auch die gleichen Probleme (wobei ich persönlich nicht wirklich an diese 'Probleme' glauben mag).
Naja, einen Bytecode musst du erstmal compilieren. Und hier könnten Mechanismen greifen, die einen zu langen Bytecode verhindern. Stell dir vor, es Compiler-Fehler weil der Code zu lang ist etc.

zeckensack
2003-11-19, 10:50:07
Original geschrieben von Exxtreme
Naja, einen Bytecode musst du erstmal compilieren. Und hier könnten Mechanismen greifen, die einen zu langen Bytecode verhindern. Stell dir vor, es Compiler-Fehler weil der Code zu lang ist etc. Zu lang? So Puffer-Überlauf oder sowas, nur weil der Code im Textformat vorliegt, anstatt irgendwie kodiert ?(

Sorry, aber das ist total Holzweg ...
Programme in Byte-Code könnten per se auch 'unendlich' lang sein (eben wie Hochsprachen-Code). Wenn man das eine in den Griff kriegt, dann auch das andere.

Wenn du natürlich meinst, daß man nicht exakt voraussagen kann, wieviele Maschinen-Instruktionen am Ende rauskommen, ja, richtig, aber das ist schon wieder eine Gemeinsamkeit zwischen Hochsprachen- und Byte-Code.
(und btw auch zu den in DXG definierten "Assembler"-Schnittstellen, da diese ja auch nicht 1:1 für die GPUs umgesetzt werden können)

Öh, erklär mal ?-)

Exxtreme
2003-11-19, 11:01:59
?-) :kratz: :crazy: :| *nachdenk*

Ja, auch mit dem Bytecode kann man nicht voraussagen, wie lang der tatsächliche Assemblercode wird wenn man wirklich HL-Bytecode nutzt.

Aber der Vorteil wäre, daß sich so ein Bytecode schneller zur Laufzeit kompilieren könnte. Textfiles parsen dauert halt.

Major J
2003-11-19, 12:30:48
Original geschrieben von Ulukay
also ich bin von 7104 auf 6021 Man muß aber bedenken das weder ATI noch Nvidia langsamer werden! Nur das Ergebniss unterscheidet sich... nicht vergessen! :)

Micron
2003-11-19, 12:57:08
Also ich bin und bleibe bei 7000 Punkte :)

(del676)
2003-11-19, 12:59:05
Original geschrieben von Micron
Also ich bin und bleibe bei 7000 Punkte :)

ich mit dem det 55.xx auch wieder

und stell dir vor - alle anderen spiele laufen während dessen nicht langsamer oder schlechter :D

Micron
2003-11-19, 13:17:03
Original geschrieben von Ulukay
ich mit dem det 55.xx auch wieder

und stell dir vor - alle anderen spiele laufen während dessen nicht langsamer oder schlechter :D

Die 55.xx Serie ist doch die Cheat Serie. Damit hatte ich vor 3 Monaten schon 7k.

Ich find Treiber Cheaten ja net so schlimm, aber NVidia übertreibt es ja. Die Grafik ist ja wie beim C64. Das ist echt bisschen zu krass.

(del676)
2003-11-19, 13:18:50
Original geschrieben von Micron
Die 55.xx Serie ist doch die Cheat Serie. Damit hatte ich vor 3 Monaten schon 7k.

Ich find Treiber Cheaten ja net so schlimm, aber NVidia übertreibt es ja. Die Grafik ist ja wie beim C64. Das ist echt bisschen zu krass.

was du (zu unrecht) meinst ist die det50 serie

oder wieviele 55.xx treiber findest du zum download?

Micron
2003-11-19, 13:21:58
Original geschrieben von Ulukay
was du (zu unrecht) meinst ist die det50 serie

oder wieviele 55.xx treiber findest du zum download?

Hab ich nicht nach geguckt , hab ja auch keine NVidia.

Naja die Bildqualität des 52.85 ist doch eine frechheit. Was ist da zu unrecht behauptet?

(del676)
2003-11-19, 13:23:30
Original geschrieben von Micron
Hab ich nicht nach geguckt , hab ja auch keine NVidia.

Naja die Bildqualität des 52.85 ist doch eine frechheit. Was ist da zu unrecht behauptet?

och troll bei jemand anderen *plonk*

Micron
2003-11-19, 14:13:41
Original geschrieben von Ulukay
och troll bei jemand anderen *plonk*
Bitte was? Ich troll dir gleich mal einen. Ich hatte selber eine FX5900 und kann da sehr gut mitreden also mach hier nicht so einen auf dick :arsch:

Catalyst Tester
2003-11-19, 16:59:05
Original geschrieben von Ulukay
ich mit dem det 55.xx auch wieder

Stellt sich nur wieder die Frage, wie lange :P

Gast
2003-11-19, 17:16:55
Original geschrieben von Micron
Bitte was? Ich troll dir gleich mal einen. Ich hatte selber eine FX5900 und kann da sehr gut mitreden also mach hier nicht so einen auf dick :arsch:

Du hattest eine FX5900 (wann?) und kannst deswegen gut mitreden, wie die Bildqualität in aktuellen Treibern ist?

Ich hatte auch mal eine Rage IIc (bewußt übertrieben, aber gerade jetzt sitze ich an einer RadeonSDR) und die war, was Treiber angeht und Speed, so dermaßen grottig...

Q

P.S.:
Die RadeonSDR ist schon etwas besser.

LovesuckZ
2003-11-19, 17:22:32
Lol hier wird von treibern gesprochen, die die Welt noch nicht erblickt haben...

Catalyst Tester
2003-11-19, 17:40:19
Original geschrieben von LovesuckZ
Lol hier wird von treibern gesprochen, die die Welt noch nicht erblickt haben...

Dank Ulukay, eine Umleitung des Themas tzz... :-(

The_Invisible
2003-11-19, 17:40:29
meint ihr vielleicht die 53.03???

mfg

mapel110
2003-11-21, 03:24:20
http://www.elitebastards.com/page.php?pageid=2647&head=1&comments=1
and the madness continues... :D

Gast
2003-11-21, 03:37:02
Original geschrieben von mapel110
http://www.elitebastards.com/page.php?pageid=2647&head=1&comments=1
and the madness continues... :D

kannst du eine zusammenfassung oder eine kernaussage machen ? will mir jetzt das ganze nicht durchlesen und ausserdem ist mein englisch sowieso nicht so das wahre ;)

mapel110
2003-11-21, 04:56:36
Original geschrieben von Gast
kannst du eine zusammenfassung oder eine kernaussage machen ? will mir jetzt das ganze nicht durchlesen und ausserdem ist mein englisch sowieso nicht so das wahre ;)

naja, nvidia hat wieder diese optimierungen drin im neuen 53.03er forceware. d.h. 3dmark03 patch 350 ahoi :D

um die sache totsicher zu machen, hätten sie vielleicht auch besser 3dmark03 built 330 mit beiden treibern durchbenchen sollen. ka, warum sie es nicht taten :ratlos:
kann ja mal jemand hier auf dem forum machen. wäre sicherlich interessant.
also 52.16 und 53.03 mit dem 3dmark03 built 330.

MadManniMan
2003-11-21, 05:03:35
Ich faß es nich!

:schlag:

OMFG, nV als Partner von FM mit der Einstellung? Allein aus ideologischen Gründen werd ich erstmal nV meiden ... *werkelt spätestens morgen an seinem versifften Mobo rum*

Mal im Ernst: wie weit wolln sie es noch treiben?

Gast
2003-11-21, 05:10:20
nvidia tud mir schon langsam leid *eg*
sie können nicht anders, die armen ;D

signum incognitum
2003-11-21, 09:22:06
Original geschrieben von MadManniMan
Ich faß es nich!

:schlag:

... Mal im Ernst: wie weit wolln sie es noch treiben?
...sie TREIBEN es mit jedem TREIBER...also TRIEBTÄTER :tgv:

seahawk
2003-11-21, 10:30:32
Solange nicht bekannt ist wie NV den Leistungsgewinn erzeugt werde ich nichts grundsätzlich schlimmes daran erkennen. Ist der einzige Unterschied, dass der Shader Treiber FP16 oder FX12 nutzt (und dabei praktisch keinen Verlust an BQ erzeugt), dann ist das eine Opimierung.

Pirx
2003-11-21, 11:44:27
Original geschrieben von seahawk
Solange nicht bekannt ist wie NV den Leistungsgewinn erzeugt werde ich nichts grundsätzlich schlimmes daran erkennen. Ist der einzige Unterschied, dass der Shader Treiber FP16 oder FX12 nutzt (und dabei praktisch keinen Verlust an BQ erzeugt), dann ist das eine Opimierung.
allerdings eine applikationsspezifische;(, denn in Spielen gibts ja wohl keine großen Änderungen. FM scheint ja auch bekannt zu sein, was da "optimiert" wurde, sonst könnten sie es ja nicht umgehen.

seahawk
2003-11-21, 12:29:35
Original geschrieben von Pirx
allerdings eine applikationsspezifische;(, denn in Spielen gibts ja wohl keine großen Änderungen. FM scheint ja auch bekannt zu sein, was da "optimiert" wurde, sonst könnten sie es ja nicht umgehen.

Richtig applikationsspezifsch, da aber FM ja nicht bereit ist seine Shader anzupassen (LP calls) wird NV nichts anders übrig bleiben.

Es ist offensichtlich, dass NV die Shader vom 3DMark detected und andere benutzt. Eigentlich würde ich von NV mir Offenheit wünschen. Wenn es nur FP16 und FX12 Lösungen sind, die FP32 bei gleicher BQ ersetzen, und von mir aus noch geänderte Instruktionsreihenfolge, dann wäre daran nichts verwerfliches. Momentan lassen sich aber auch andere Arten des Cheatings nicht ausschließen.

aths
2003-11-21, 16:38:43
Diese FP/FX-Ersetzung müsste schon durch den Shader-Recompiler enstehen und nicht durch Shaderreplacement mit handoptimierten Shadern. Zusätzlich müsste nachweisbar sein, dass sie sich vom REF nur unwesentlich entfernen.

Quasar
2003-11-21, 16:55:55
Betreff: Shader-Replacement

3D-Analyze findet offenbar keine ersetzten Shader oder wird von den 52.70er Detos bereits wirksam ausgehebelt.
Mit und ohne Anti-Detect (Shader & Textur) bleiben die Ergebnisse dieselben, nur der Patch 340 verringert die Leistung bei mir um rund 650 Punkte.

Raff
2003-11-21, 22:03:26
Original geschrieben von Quasar
Betreff: Shader-Replacement

3D-Analyze findet offenbar keine ersetzten Shader oder wird von den 52.70er Detos bereits wirksam ausgehebelt.
Mit und ohne Anti-Detect (Shader & Textur) bleiben die Ergebnisse dieselben, nur der Patch 340 verringert die Leistung bei mir um rund 650 Punkte.

Auf meiner Test-5700U blieben die Punkte gleich. Beide Male rund 4200 Punkte (@ 510/500), ForceWare 53.03, Patch 340. Werds noch mal mit meiner FX5900 abchecken...

MfG
Raff

Exxtreme
2003-11-21, 22:31:11
Original geschrieben von Quasar

3D-Analyze findet offenbar keine ersetzten Shader oder wird von den 52.70er Detos bereits wirksam ausgehebelt.
Mit und ohne Anti-Detect (Shader & Textur) bleiben die Ergebnisse dieselben, nur der Patch 340 verringert die Leistung bei mir um rund 650 Punkte.
3DA fahndet auch nicht nach ersetzten Shadern. :) Soviel ich weiss, modifiziert es leicht die Texturen, sodaß diese nicht mehr von den Treibern erkannt werden können. Das kann jetzt IMHO 2 Sachen bedeuten:

1. Der neue Deto enthält keine Cheats... oder
2. Die Erkennungsroutine des neuen Detos benutzt keine Texturen um den 3DMark03 zu erkennen.

Quasar
2003-11-21, 22:55:24
Original geschrieben von Exxtreme
3DA fahndet auch nicht nach ersetzten Shadern. :) Soviel ich weiss, modifiziert es leicht die Texturen, sodaß diese nicht mehr von den Treibern erkannt werden können. Das kann jetzt IMHO 2 Sachen bedeuten:

1. Der neue Deto enthält keine Cheats... oder
2. Die Erkennungsroutine des neuen Detos benutzt keine Texturen um den 3DMark03 zu erkennen.

Es gibt aber getrennte Häkchen für Shader und Texturen... :gruebel:

mapel110
2004-03-08, 07:08:35
*push0rn*
http://discuss.futuremark.com/forum/showflat.pl?Cat=&Board=mo3dmark03&Number=3539851&page=0&view=collapsed&sb=5&o=0&fpart=&vc=&dbid=1
(english language required)
weiter gehts :)

Tja, nur wie?

P.S. Ich hoffe, ich erzähl dort in dem Thread keinen Bullshit. Wenn doch, korrekturen sind erwünscht.

Der Treiber-Recompiler wird doch auch für den NV40 noch gebraucht, oder?!

/edit
diese asdagfasdgadga haben meinen thread getrasht. na wartet :smash:
/edit2 next try :D
http://discuss.futuremark.com/forum/showflat.pl?Cat=&Board=mo3dmark03&Number=3540010&page=0&view=collapsed&sb=5&o=0&fpart=&vc=&dbid=1