PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : futuremark schiesst zurück :D


Seiten : 1 [2] 3

Razor
2003-05-24, 17:22:17
Originally posted by Razor

3) I had a few meetings today and it was decided that we back out the 3DMark optimizations. I was not in favour of this as we are not cheating nor degrading image quality. We are giving ATI users the benefit of our research on the code. Anyways it was decided that we back out the optimizations but I promise you we will continue to work to find ways of getting the percentages back!

Dann erzähl mir doch mal, warum Code heruas genommen werden soll, wenn es dafür keinen Grund gibt...

Razor

P.S.: Oder was ist von einer 'Optimierung' zu halten, wenn sie nur mit einer einzigen (Benchmark-)Engine funktioniert und keine Auswirkung auf die RealWorld-Performance hat ? Originally posted by Salvee

Damit auch die letzten Zweifler ihrer (imo verständlichen) Argumente beraubt werden :naughty:
Schön...
Wir werden also neue Treiber von ATI sehen, die nach Definition von FM nicht mehr Cheatet...
So werden wir wohl auch die neuen Treiber von nVidia abwarten müssen, um zu sehen, was sich dann tut.
Oder siehst Du das anders ?
:D

Razor

Salvee
2003-05-24, 17:23:44
Originally posted by Exxtreme

Ich fürchte, die Shader beim 3DMurks gehen weder Richtung ATi noch NV noch sonstwem.
;)

Oder anders formuliert:
Solange die Shader nicht stringent Richtung nV gehen, performen die FXe vergleichsweise übel.

Razor
2003-05-24, 17:24:34
Originally posted by Salvee

Selbst wenn beide Cheaten sollten (je nach Ansichtsweise), ist ATi's Verhalten nicht geradezu vorbildich im Vergleich zur Kunkurrenz ?
Wenn wir exklusiv den Murks03 betrachten: Ja !
Allerdings wissen wir ja alle, wie sehr ATI-Hardware von diesem Bench 'bevorzugt' wird, oder ?

Insofern ist es schon sehr unschön von ATI hier trotzdem noch zu 'cheaten'...
(bitte beachten: lt. FM's-Definition, was ich persönlich anders sehen würde ;-)

Razor

Razor
2003-05-24, 17:25:41
Originally posted by Exxtreme

Ich denke, der einzige Grund ist die Publicity.
Nein, der Grund ist einzug und allein, die FM-Definition eines Cheats im Murks.
Nach dieser hat auch ATI 'gecheatet' und soll dies nun korrigieren...

Razor

Demirug
2003-05-24, 17:26:56
Originally posted by Exxtreme

Ich fürchte, die Shader beim 3DMurks gehen weder Richtung ATi noch NV noch sonstwem.
;)

zumindestens der Effekt im Pixelshader Test (Holz) sieht dem PS 2.0 Beispiel von ATI sehr ähnlich. ;)

Razor
2003-05-24, 17:28:27
Originally posted by Unregistered

... Du scheinst mich nicht zu verstehen; wenn diese Optimierung nur bei 3dmark greift ist das nicht ok, denn der Benchmark soll ja die Alltagsperformance wiederspiegeln. Ich will nur differenzieren zwischen Cheating und Optimierung, was nicht heißt, dass ich die selektive Optimierung von ATI gut finde.

Beta
Auch diese 'selektive' Optimierung von ATI ist IMHO OK...
Aber nach Vorgabe von FM ist sie es nicht.

Der nächste Treiber solls richten, also sollte man auch nVidia zugestehen (obwohl sie lange nicht so viel Einblick genießen, wie ATI es tut und auch kräftig dafür bezahlt), mit einem neuen Treiber zu zeigen, dass sie es besser können. Oder aber aufzeigen (beweisen) können, dass der Murks das Prädikat 'unabhängig' nicht verdient...

Wird auf jeden Fall spannend !
:D

Razor

Quasar
2003-05-24, 17:29:06
Originally posted by Exxtreme

Ich fürchte, die Shader beim 3DMurks gehen weder Richtung ATi noch NV noch sonstwem.
;)

Weisst du da näheres? Ich für meinen Teil würde vermuten, da der Shadermark (wir reden doch von Thomas' Shadermark, oder?) als Grundgerüst die Treasure-Cheast Demo von (you guessed it!) ATi nutzt, daß die Shader eine gewisse Tendenz haben könnten.

Salvee
2003-05-24, 17:32:03
Originally posted by Razor

Schön...
Wir werden also neue Treiber von ATI sehen, die nach Definition von FM nicht mehr Cheatet...
So werden wir wohl auch die neuen Treiber von nVidia abwarten müssen, um zu sehen, was sich dann tut.
Oder siehst Du das anders ?
:D

Razor

Nein, sehe ich genauso.

Nur mache ich mir da bei ATi mehr Hoffnungen, weil

- nur der 3.4 'Optimierungen' aufweist (grade mal ne Woche draussen=Beginn des Cheatings, bei nV wohl schon länger)
- ATi noch am selben Tag der Anschuldigungen Stellung bezogen hat und konkrete Aussagen gemacht hat (Optimierungen fliegen raus), nV hingegen schon vor knappen 2 Wochen aufgefordert wurde, Farbe zu bekennen, aber die ganze Zeit nur von Bugs erzählte.

Quasar
2003-05-24, 17:35:54
Originally posted by Salvee
- ATi noch am selben Tag der Anschuldigungen Stellung bezogen hat und konkrete Aussagen gemacht hat (Optimierungen fliegen raus), nV hingegen schon vor knappen 2 Wochen aufgefordert wurde, Farbe zu bekennen, aber die ganze Zeit nur von Bugs erzählte.

Würde ich genauso machen, wenn ich wüsste, ich veliere ~4% und die Konkurrenz ~20-30%, meinst du nicht?

Razor
2003-05-24, 17:37:32
Originally posted by Exxtreme

Ich fürchte, die Shader beim 3DMurks gehen weder Richtung ATi noch NV noch sonstwem.
;)
Na ja...
Sagen wir: ATI's Treiber/Hardware kommen mit diesem 'Schrott' besser zurecht, als es Treiber/Hardware von nVidia tun.

Ich plädiere noch immer dafür: Cheat hin oder her, der Murks muss weg !
:D

Razor

Demirug
2003-05-24, 17:40:49
Originally posted by Quasar


Weisst du da näheres? Ich für meinen Teil würde vermuten, da der Shadermark (wir reden doch von Thomas' Shadermark, oder?) als Grundgerüst die Treasure-Cheast Demo von (you guessed it!) ATi nutzt, daß die Shader eine gewisse Tendenz haben könnten.

Die 2.0 Shader sind wohl im wesentlichen die originalshader auf 2.0 geändert. Aber nv hat sich wie gesagt diesem Problem ja scheinbar schon angenommen. ;)

Razor
2003-05-24, 17:41:57
Originally posted by Demirug

zumindestens der Effekt im Pixelshader Test (Holz) sieht dem PS 2.0 Beispiel von ATI sehr ähnlich. ;)
Kennst Du das ATI-Demo für die R8500 "Nature 1.1" ?
OK, das Wasser sieht beim Murks doch wesentlich besser aus... *eg*

Razor

P.S.: Das Demo läuft übrigens auch auf meiner FX5200 wunderbar !
(eigentlich laufen darauf fast alle ATI Demos)
:D

zeckensack
2003-05-24, 17:42:35
Ich stelle mich jetzt einfach mal genauso an, wie du das wieder mal tust. Niveaugleichheit ahoi!
Originally posted by Razor

Wenn wir exklusiv den Murks03 betrachten: Ja !
Allerdings wissen wir ja alle, wie sehr ATI-Hardware von diesem Bench 'bevorzugt' wird, oder ?Seit wann soll das so sein? Wo kann ich das nachlesen???

zeckensack
2003-05-24, 17:44:36
Originally posted by Razor

Na ja...
Sagen wir: ATI's Treiber/Hardware kommen mit diesem 'Schrott' besser zurecht, als es Treiber/Hardware von nVidia tun.Immerhin, jetzt hast du es eingesehen ;-)
Ich plädiere noch immer dafür: Cheat hin oder her, der Murks muss weg !
:D

Razor Warum denn das nun wieder???

-zecki

Razor
2003-05-24, 17:46:03
Originally posted by zeckensack
Ich stelle mich jetzt einfach mal genauso an, wie du das wieder mal tust. Niveaugleichheit ahoi!
Seit wann soll das so sein? Wo kann ich das nachlesen??? [/SIZE]
Wenn ich das richtig sehe, werden wir in bälde was darüber lesen können...
:D

Razor

P.S.: Wäre es nicht auch in Deinem Interesse, wenn FM die Source-Codes offen legt ?
???

Razor
2003-05-24, 17:47:28
Originally posted by zeckensack
Immerhin, jetzt hast du es eingesehen ;-)
Warum denn das nun wieder???

-zecki
Weil er keine RealWorld-Performance wiederspiegelt...
Das alleine ist IMO schon Grund genug.

Und jetzt, wo bekannt geworden ist, dass anscheinend jeder weiß, wie er bei dem Murks den Hebel ansetzen kann, umso mehr.

Razor

zeckensack
2003-05-24, 17:48:32
Originally posted by Razor

Kennst Du das ATI-Demo für die R8500 "Nature 1.1" ?
OK, das Wasser sieht beim Murks doch wesentlich besser aus... *eg*

RazorJa ;-)

-zecki

P.S.: Das Demo läuft übrigens auch auf meiner FX5200 wunderbar !
(eigentlich laufen darauf fast alle ATI Demos)
:D PS: Im Chameleonmark (der ja bekanntlich NV-hauseigen ist ;-)) versägt eine 9500 non-Pro dein Schätzchen :D

Demirug
2003-05-24, 17:48:33
Originally posted by Razor
P.S.: Wäre es nicht auch in Deinem Interesse, wenn FM die Source-Codes offen legt ?
???

Mir würden fürs erste mal die Shadercodes reichen. Die könnte ich mir zwar auch anders besorgen (wie dann ganzen anderen rest auch) aber dazu bin ich einfach zu faul.

seahawk
2003-05-24, 17:49:52
Originally posted by Demirug


Die 2.0 Shader sind wohl im wesentlichen die originalshader auf 2.0 geändert. Aber nv hat sich wie gesagt diesem Problem ja scheinbar schon angenommen. ;)

Hmm also ist es nicht ganz falsch zu folgern, dass die Anwendung in ihrer Reinform für ATI Karten verträglicher ist als für NV-Karten. (über Gründe spekuliere ich mal nicht..)

Weitherhin untersagt FM aber Änderungen, die den Code so umstellen, dass er für NV Karten verträglicher wird.

Soweit ich weiss benutzt aber z.B. Doom III einen Renderpfad für die NV3X Karten und einen allgemeineren für die R3x0. Auf dem allgemeineren ist die ATI schneller, was sich mit dem Ergenissen vom 3DMark deckt.

Ich würde daher sagen, dass die ATI Karten ohne besondere Optimierungen zu brauchen die zur Zeit leistungsfähigsten Karten auf dem Markt sind. Der NV35 kann die Leistungkrone nur zurückerobern, wenn eine spezielle Optimierung betrieben wurde.

So gesehen ist das eigentlich das einzige was man aus dem 3D Mark erkennen kann. Er sagt nichts über die Leitungsfähigkeit in Spielen aus, wo für beide kArten optimierte Renderpfade zur Verfügung stehen.

Exxtreme
2003-05-24, 17:51:23
Originally posted by Razor

Na ja...
Sagen wir: ATI's Treiber/Hardware kommen mit diesem 'Schrott' besser zurecht, als es Treiber/Hardware von nVidia tun.

Könnte sein. Kann sein, daß das Teil deswegen so... ähmm, unoptimiert ist weil die HW/Treiber von ATi wohl damit gut zurecht kommen.
Originally posted by Razor
Ich plädiere noch immer dafür: Cheat hin oder her, der Murks muss weg !
:D

Razor
Ich nicht. Er soll aber nicht in die Bewertung einer GraKa miteingezogen werden.

Razor
2003-05-24, 17:52:55
Originally posted by zeckensack

PS: Im Chameleonmark (der ja bekanntlich NV-hauseigen ist ;-)) versägt eine 9500 non-Pro dein Schätzchen :D
Schätzchen ist gut... ist halt ein 'nettes' Spielzeug !
:D

Und ganz ehrlich: mir ist es absolut egal wer hier wen versägt (das mit dem Chameleonmark konnte ich übrigens mit meiner eigenen R9500np sehen, danke ;-), nur sollte man nicht zweierlei Maß nehmen, meinst Du nicht ?

Die Situation ist jetzt auf dem Tisch und wir haben gesehen, dass jeder durch Veränderung der gesendeten Shadercodes mehr oder weniger offensichtlich 'optimieren' oder 'cheaten' kann.

Die nächste Zeit sollte zeigen, ob der Murks öffentlich geächtet, oder aber die IHV's sich 'bessern' werden.
"Time will tell !"
:D

Razor

Exxtreme
2003-05-24, 17:54:36
Originally posted by seahawk

So gesehen ist das eigentlich das einzige was man aus dem 3D Mark erkennen kann. Er sagt nichts über die Leitungsfähigkeit in Spielen aus, wo für beide kArten optimierte Renderpfade zur Verfügung stehen.
IMHO ist NV aber weiter gegangen als "nur" zu optimieren. Eine derartige "Optimierung" wirst du wohl in keinem Spiel finden... es sei denn, das Spiel gibt dir die Bewegungsrichtung und die Kameraführung vor.

Razor
2003-05-24, 17:57:38
Originally posted by Exxtreme

Könnte sein. Kann sein, daß das Teil deswegen so... ähmm, unoptimiert ist weil die HW/Treiber von ATi wohl damit gut zurecht kommen.

Ich nicht. Er soll aber nicht in die Bewertung einer GraKa miteingezogen werden.
Na ja, dass FM nicht so platt vorgeht:
If ATI then
performance=schnell
elseif nVidia then
performance=langsam
else
performance=normal
endif
war ja zu vermuten.
:D

Aber wie soll der Murks nicht mehr in die Bewertung eingehen, wenn er nicht öffentlich geächtet wird ?
IMO ist der Weg von nVidia nicht unbeding ungeeignet, genau das zu erreichen...

Na ja, wie schon zu zecki sagte: "Time will tell !"
;-)

Razor

Demirug
2003-05-24, 17:57:55
Originally posted by seahawk


Hmm also ist es nicht ganz falsch zu folgern, dass die Anwendung in ihrer Reinform für ATI Karten verträglicher ist als für NV-Karten. (über Gründe spekuliere ich mal nicht..)

Möglich. Allerdings müsste man zuerst noch überprüfen ob ATI beim Shadermark nicht auch schon optimiert hat.

Weitherhin untersagt FM aber Änderungen, die den Code so umstellen, dass er für NV Karten verträglicher wird.

Untersagen können sie viel aber sie können es niemals verhindern.

Soweit ich weiss benutzt aber z.B. Doom III einen Renderpfad für die NV3X Karten und einen allgemeineren für die R3x0. Auf dem allgemeineren ist die ATI schneller, was sich mit dem Ergenissen vom 3DMark deckt.

Ja DOOM III hat einen extra Renderpfad für die NV3x Karten. Die R3xx Karten hätten auch einen bekommen aber es gibt da ja keine Möglichkeit mit der JC sicher noch ein bischen mehr rausholen könnte.

Ich würde daher sagen, dass die ATI Karten ohne besondere Optimierungen zu brauchen die zur Zeit leistungsfähigsten Karten auf dem Markt sind. Der NV35 kann die Leistungkrone nur zurückerobern, wenn eine spezielle Optimierung betrieben wurde.

Was die Shader angeht ein ganz klares jaein. Die Optimierungen die ATI braucht sind nur etwas einfacher.

Salvee
2003-05-24, 17:58:00
Originally posted by Quasar


Würde ich genauso machen, wenn ich wüsste, ich veliere ~4% und die Konkurrenz ~20-30%, meinst du nicht?

Es war äussert ungeschickt, sich wegen den 4% ins Gerede zu bringen und damit Fanboys zu ermöglichen, ATi und nV auf eine Stufe zu setzen.
Hätten sie diesen Schwachsinn im letzten Treiber unterlassen, wäre ein Grossteil der Diskussion hier jetzt hinfällig.
Sie haben es aber gemacht, und jetzt machen sie es rückgängig. Wer wieviel verliert liegt nicht in ATi's Ermessen, dass muss sich jeder IHV schon selbst zuschreiben.

Und zur Diskussion ob FM für ATi optimiert ist oder nicht:
IMHO ist ATi's Implementierung der Standard für DX9: sie waren als erste auf dem Markt, sie unterstützen die meisten DX9-Funktionen im Treiber ( ;) ), sie haben die meisten DX9-karten bislang verkauft (die diesen Namen auch halbwegs verdienen).

Bei DX8 wars halt nV, die die Standards setzten.

Dazu gab es ein schönes Statement von einem Splinter Cell 1&2 Coder bei Beyond3D, wenn ich den Link finde, wird er reineditiert. :)

Quasar
2003-05-24, 17:59:10
Originally posted by Exxtreme

IMHO ist NV aber weiter gegangen als "nur" zu optimieren. Eine derartige "Optimierung" wirst du wohl in keinem Spiel finden... es sei denn, das Spiel gibt dir die Bewegungsrichtung und die Kameraführung vor.

In einem normalen Spiel greifen ja auch HSR-Mechanismen.

So wird z.B. bei der Cockpit-Camera in einem Rennspiel sicher nicht die Heckklappe des eigenen Wagens zuerst gerendert, nur um dann wieder verworfen zu werden und das Game künstlich auszubremsen.

Dazu habe ich auch so eine Theorie, die aber stark ins paranoische reicht...

Razor
2003-05-24, 18:00:23
Originally posted by Exxtreme

IMHO ist NV aber weiter gegangen als "nur" zu optimieren. Eine derartige "Optimierung" wirst du wohl in keinem Spiel finden... es sei denn, das Spiel gibt dir die Bewegungsrichtung und die Kameraführung vor.
Auch die BQ ist scheiße !
(wenn nagus nur endlich den frame rausrücken würde ;-)

IMHO ist das sogar sehr eindeutig ein Cheat !
(so wie damals beim Q3-quack ;-)

Und an nVidia's Reaktion, die bestimmt bald folgen wird, werden wir sehen, ob das nun Absicht war, oder einfach nur Dummheit. Ergo bekommen wir eine entschuldigende Stellungnahme... oder einen 'neuen' Treiber, der...
;D

Razor

LovesuckZ
2003-05-24, 18:01:32
Originally posted by Salvee
Bei DX8 wars halt nV, die die Standards setzten.


Hat nich MS die Standards gesetzt?

Exxtreme
2003-05-24, 18:03:58
Originally posted by LovesuckZ


Hat nich MS die Standards gesetzt?
MS schaut auch nach was technisch möglich ist und bei DX8 war NV halt federführend da sie technisch weiter waren.

DX8 ist eigentlich ein NV-API + Erweiterungen von ATi (PS1.4).

Quasar
2003-05-24, 18:04:08
Originally posted by Salvee
Und zur Diskussion ob FM für ATi optimiert ist oder nicht:
IMHO ist ATi's Implementierung der Standard für DX9 [...]

Der Standard ist von MS und das bleibt wohl auch so.

Demirug
2003-05-24, 18:09:52
Originally posted by Exxtreme

MS schaut auch nach was technisch möglich ist und bei DX8 war NV halt federführend da sie technisch weiter waren.

DX8 ist eigentlich ein NV-API + Erweiterungen von ATi (PS1.4).

NV hat damals nicht alles bekommen hat was sie haben wollten. ATI hat bei DX8 oft genug Veto geschriehen und 3Dfx AFAIK auch.

Salvee
2003-05-24, 18:28:07
Originally posted by Quasar


Der Standard ist von MS und das bleibt wohl auch so.

Aber nicht von MS allein, iirc, sondern in Zusammenarbeit mit den Chipherstellern.
Von Vorteil in Bezug auf eine Einflussnahme sehe ich da
- frühestmögliche physische Existenz eines Grafikchips
- keine Querelen mit MS in anderen Geschäftszweigen

Leicht OT, ausserdem kenne ich mich da nicht wirklich aus

nagus
2003-05-24, 18:28:46
Originally posted by Razor

Könntest Du mir vielleicht sagen, aus welchem Frame dieser Ausschnitt ist ?
Wäre schon, wenn man das nachvollziehen könnte...

Beim Murks kann man bei der internen ScreenShot-Funktion exakt den Frame (oder die Sequenz) angeben.

Thx im Voraus

Razor

frame 200 siehe http://www.beyond3d.com/forum/viewtopic.php?p=121112#121112

Razor
2003-05-24, 19:17:19
Originally posted by nagus

frame 200 siehe http://www.beyond3d.com/forum/viewtopic.php?p=121112#121112
Thx alot nagus !

Ist also oben links im Bild und lange nicht so offensichtlich, wie hier verlautbart wird. Ganz im Gegenteil konnte ich erst bei 200% Vergrößerung 'irgendetwas' und dann bei 400% den Effekt beobachten, der da wohl auch bei B3D propagiert wurde.

Ist natürlich deswegen nicht besser, aber so wild ist's IMO auch nicht.
Egal, cheat bleibt cheat und der Murks muss weg !
:D

Bis denne

Razor

Axel
2003-05-24, 19:21:48
Das FM absichtlich nvidia ausbremst, halte ich für eher unwahrscheinlich. nVidia war bis Herbst letzten Jahres aktives Mitglied und hat sich warscheinlich verabschiedet, weil der NV30 nicht die gewünschte Leistung gezeigt hat. Zu diesem Zeitpunkt war der 3dmark2003 wohl größtenteils fertig. Außerdem hat auch FM ein gewisses Interesse einen objektiven Benchmark zu veröffentlichen. Es gibt sicher immer irgendwo Ungereimtheiten. Aber im Zweifel bitte für den Angeklagten und die Zweifel sind in diesem Falle erheblich. (zumindestens meine)

StefanV
2003-05-24, 19:26:55
Originally posted by Razor

[Shadermark]
Es ist völlig unerheblich, ob ATI mehreren Tests schneller ist, als nVidia.
Ich wollte damit lediglich zum Ausdruck bringen, dass man Shader offensichtlich so oder so programmieren kann. Einmal läuft's auf der einen Hardware schneller, das andere mal auf der anderen.

Wenn FM jetzt einen Weg gewählt hat, der (wesentlich) mehr in Richtung ATI geht (die ja Mitglieder in dem Beta-Programm sind und sich das eine Menge Kohle kosten lassen) und damit eindeutig einen Chiphersteller bevorzugt (was auch gut an den PS1.4-Shadern zu erkennen ist), trotzdem aber als ein 'unabhängier' Test angesehen wird, obwohl er das ja wohl offensichtlich nicht ist, gibt dies schon zu denken.

Und dass nVidia nun versucht diesen 'Pseudo'-Bench zu zercheaten kann ich sehr gut nachvollziehen.
Schaun' wir mal, wie das weiter geht.

Lönnte mir gut vorstellen, dass nVidia auch bis vor's Gericht gehen wird, um entweder FM die "Unabhängigkeit" zu entziehen, oder um sie dazu zu bringen, die einseitige Ausrichtung zuzugeben und dies zu korrigieren (im Murks04 z.Bsp. ;-).

Ich hoffe, Du verstehst nun, wie ich das meine...

Bis denne

Razor

Gras mal das Forum nach den Comments von Demirug ab, denn irgendwo hat er gesagt, daß der M$ Compiler eher einen ATI Freundlichen Code ausspuckt...

Ich glaube auch kaum, daß FM gedacht hat 'och, jetzt proggen wir mal einen tollen Bench, der besonders gut auf ATI Karten läuft', ganz im Gegenteil, ich denke eher, daß die Intention von FM war, einen Bench zu schreiben, der so beschissen wie möglich auf aller HW, die es gibt, läuft...

Tja, nur pech für NV, daß der Code des M$ Compilers so beschissen auf der eigenen HW läuft...

Mr. Lolman
2003-05-24, 19:27:58
Originally posted by Axel
Das FM absichtlich nvidia ausbremst, halte ich für eher unwahrscheinlich. nVidia war bis Herbst letzten Jahres aktives Mitglied und hat sich warscheinlich verabschiedet, weil der NV30 nicht die gewünschte Leistung gezeigt hat. Zu diesem Zeitpunkt war der 3dmark2003 wohl größtenteils fertig. Außerdem hat auch FM ein gewisses Interesse einen objektiven Benchmark zu veröffentlichen. Es gibt sicher immer irgendwo Ungereimtheiten. Aber im Zweifel bitte für den Angeklagten und die Zweifel sind in diesem Falle erheblich. (zumindestens meine)

Full ACK. BTW. find ich das 'Murks muss weg' Geschreie lächerlich, da es NV waren, die gecheatet haben undnicht FM. Beim 'Q3a Cheat' von ATi schrie auch niemand 'Quake3 muss weg' als die Mist gebaut haben. Da wurde fleissig auf ATi gebashed (vielleicht sogar begründet, obwohl die's mit dem nächsten Treiberrelease sowieso wieder gut gemacht haben).

Ich bin schon gespannt obs NV schafft, die hohe Referenz BQ und die Geschwindigkeit der 'Cheattreiber' im nächsten Treiberrelease zu vereinen. Nötig hätten sie es auf jeden Fall, schon allein ihrer Glaubwürdigkeit wegen...

Razor
2003-05-24, 19:30:04
Originally posted by Axel
Das FM absichtlich nvidia ausbremst, halte ich für eher unwahrscheinlich. nVidia war bis Herbst letzten Jahres aktives Mitglied und hat sich warscheinlich verabschiedet, weil der NV30 nicht die gewünschte Leistung gezeigt hat. Zu diesem Zeitpunkt war der 3dmark2003 wohl größtenteils fertig. Außerdem hat auch FM ein gewisses Interesse einen objektiven Benchmark zu veröffentlichen. Es gibt sicher immer irgendwo Ungereimtheiten. Aber im Zweifel bitte für den Angeklagten und die Zweifel sind in diesem Falle erheblich. (zumindestens meine)
Sorry, aber das ist doch wohl eher unwahrscheinlich, oder ?
Gerade wenn der NV30 nicht die erwünschte Leistung gezeigt hätte, wäre es doch wohl sinnvoller gewesen, dabei zu bleiben, um wenigstens tiefere Einblicke zu erhalten. Wenn aber von Seiten FM/ATI etwas unternommen wurde, was sich nVidia keinesfalls bieten lassen wollte, dann könnte ich schon eher einen solchen Schritt nachvollziehen...

Razor

P.S.: Wie 'objektiv' ist es, eine Engine zu schreiben, die ineffizienter und damit praxisferner gar nicht sein könnte ? Und wie 'objektiv' ist es, so etwas wie die PS1.4 'einzubauen' ?
???

Mr. Lolman
2003-05-24, 19:32:39
Originally posted by Razor
P.S.: Wie 'objektiv' ist es, eine Engine zu schreiben, die ineffizienter und damit praxisferner gar nicht sein könnte ? Und wie 'objektiv' ist es, so etwas wie die PS1.4 'einzubauen' ?
???

NV30 Karten profitieren auch vom PS 1.4 Support.

Razor
2003-05-24, 19:34:54
Originally posted by Mr. Lolman

Ich bin schon gespannt obs NV schafft, die hohe Referenz BQ und die Geschwindigkeit der 'Cheattreiber' im nächsten Treiberrelease zu vereinen. Nötig hätten sie es auf jeden Fall, schon allein ihrer Glaubwürdigkeit wegen...
Die Glaubwürdigkeit verlieren sie bei mir erst, wenn so etwas auch in 'echten' Games passiert.

Mir ist es völlig schnuppe, was nVidia da beim Murks veranstaltet... schwarzer Bildschirm und ein Score von 'ner Millionen wär doch nicht schlecht...

Das Ding können sie zercheaten, wie sie wollen und dann weg mit dem Murks *eg*

Zeigen sie im nächsten Treiber, dass auch das Full-Screen-Device auf dem Secondary-Device wieder läuft und auch, dass die Temp unter 2D wieder normal wird, bin ich vollauf zufrieden.

Wenn alles andere OK ist, kann mir der Murks am Ar....
:D

Bis denne

Razor

Razor
2003-05-24, 19:35:25
Originally posted by Mr. Lolman

NV30 Karten profitieren auch vom PS 1.4 Support.
Wie das ?
Weil ich so auch ATI-Demo's abspielen kann ?
*eg*

Razor

Demirug
2003-05-24, 19:38:14
Originally posted by Razor

Wie das ?
Weil ich so auch ATI-Demo's abspielen kann ?
*eg*

Razor

Sie sind schon schneller mit dem PS 1.4 Pass als mit den PS 1.1 Passes. Aber wurde da möglicherweise auch nur optimiert?

seahawk
2003-05-24, 19:55:49
Originally posted by Stefan Payne


Gras mal das Forum nach den Comments von Demirug ab, denn irgendwo hat er gesagt, daß der M$ Compiler eher einen ATI Freundlichen Code ausspuckt...

Ich glaube auch kaum, daß FM gedacht hat 'och, jetzt proggen wir mal einen tollen Bench, der besonders gut auf ATI Karten läuft', ganz im Gegenteil, ich denke eher, daß die Intention von FM war, einen Bench zu schreiben, der so beschissen wie möglich auf aller HW, die es gibt, läuft...

Tja, nur pech für NV, daß der Code des M$ Compilers so beschissen auf der eigenen HW läuft...

Full ack. Nur werden Spiele eben mehr an die Hardware angepaßt. Somit entzieht man dem 3D mark seine Daseinsberechtigung.

Man kann nur noch ableiten, dass ATI Karten eine durchweg gleiche Performance haben. NV-Karten sind bei optimierter Software schneller, bei nicht optimierter langsamer.

Razor
2003-05-24, 19:56:52
Originally posted by Demirug

Sie sind schon schneller mit dem PS 1.4 Pass als mit den PS 1.1 Passes. Aber wurde da möglicherweise auch nur optimiert?
Beim Murks ?
Nicht nach meiner Erfahrung...

Da gibt's doch den Schalter "Force PS1.1" (oder so ;-). Wird dieser aktiviert, ist das Kärtchen 'nen bissel schneller (aber nur unwentlich ;-).

Wo soll denn der PS1.4 einen Vorteil auf nVidia-Karten ausmachen ?
???

Razor

Razor
2003-05-24, 19:57:51
Originally posted by seahawk

Man kann nur noch ableiten, dass ATI Karten eine durchweg gleiche Performance haben. NV-Karten sind bei optimierter Software schneller, bei nicht optimierter langsamer.
Nochmal seahawk... WO ist das zu verifizieren ?
???

Razor

Demirug
2003-05-24, 20:14:51
Originally posted by Razor

Beim Murks ?
Nicht nach meiner Erfahrung...

Da gibt's doch den Schalter "Force PS1.1" (oder so ;-). Wird dieser aktiviert, ist das Kärtchen 'nen bissel schneller (aber nur unwentlich ;-).

Wo soll denn der PS1.4 einen Vorteil auf nVidia-Karten ausmachen ?
???

Razor

Schneller ist schneller auch wenn es nur ein bischen ist.

Der Vorteil von PS 1.4 ist das man weniger Passes braucht. Das wirkt sich eigentlich immer positiv aus. Die meisten Spiele die es aber derzeit gibt haben nicht mehr als 4 Texturelayer und können deshalb keine Gewinn aus PS 1.4 ziehen. Es gibt da aber auch durchaus inttersante Ausnahmen wo multipass plötzlich schneller als Singlepass sein kann. Das ganze hängt mit HSR und viel Overdraw zusammen. Funktioniert allerdings nur wenn man keine Z-First Pass hat.

Mr. Lolman
2003-05-24, 20:19:52
Originally posted by Razor

Nochmal seahawk... WO ist das zu verifizieren ?
???

Razor

am aktuellen Beispiel des 3dmark. (Angenommen dass diese ganze HSR/Shaderoptimierungsstory stimmt)

Demirug
2003-05-24, 20:21:36
Originally posted by seahawk
Man kann nur noch ableiten, dass ATI Karten eine durchweg gleiche Performance haben. NV-Karten sind bei optimierter Software schneller, bei nicht optimierter langsamer.

Würde ich nicht unbeding sagen. Man kann auch ohne problem Shader bauen die den ATI Karten überhaupt nicht schmecken. Vorallem unter OpenGL mit ARB2 gibt es da ein paar schöne Fallen.

Demirug
2003-05-24, 20:24:40
Originally posted by Mr. Lolman


am aktuellen Beispiel des 3dmark. (Angenommen dass diese ganze HSR/Shaderoptimierungsstory stimmt)

Solange Futuremark den Shadercode nicht öffentlich zugänglich macht kann niemand sagen ob dieser nicht nach den Optimierungsregeln von ATI erstellt wurde. Zumindestens bei den 1.4 Shadern ist davon auszugehen da es da ja nur von ATI überhaupt irgendwelche Unterlagen ausserhalb der DX-Dokumentation dazu gibt.

Razor
2003-05-24, 20:26:14
Originally posted by Demirug

Schneller ist schneller auch wenn es nur ein bischen ist.

Der Vorteil von PS 1.4 ist das man weniger Passes braucht. Das wirkt sich eigentlich immer positiv aus. Die meisten Spiele die es aber derzeit gibt haben nicht mehr als 4 Texturelayer und können deshalb keine Gewinn aus PS 1.4 ziehen. Es gibt da aber auch durchaus inttersante Ausnahmen wo multipass plötzlich schneller als Singlepass sein kann. Das ganze hängt mit HSR und viel Overdraw zusammen. Funktioniert allerdings nur wenn man keine Z-First Pass hat.
Da hast Du mich mißverstanden, Demirug...
Mit PS1.1 ist's ein bissel schneller.

Razor

Razor
2003-05-24, 20:27:00
Originally posted by Mr. Lolman

am aktuellen Beispiel des 3dmark. (Angenommen dass diese ganze HSR/Shaderoptimierungsstory stimmt)
Leider nein...

Razor

Iceman346
2003-05-24, 20:29:00
Originally posted by Razor

Da hast Du mich mißverstanden, Demirug...
Mit PS1.1 ist's ein bissel schneller.

Razor

Dann liegt das einfach daran das Nvidias Treiber offensichtlich mit dem PS1.4 nicht klarkommen. Theoretisch muss die Karte weniger Arbeit leisten im Gegensatz zum PS1.1

seahawk
2003-05-24, 20:29:18
Originally posted by Razor

Nochmal seahawk... WO ist das zu verifizieren ?
???

Razor

Wie wärs mit Doom III. Der allgemeine Renderpfad ARB2 sieht Vorteile für die R300. Der spezielle Renderpfad für die NV3X Serie sieht Vorteile für diese Karten. Ähnliches vermute ich auch beim 3D Mark.

Mr. Lolman
2003-05-24, 20:30:19
Originally posted by Razor

Da hast Du mich mißverstanden, Demirug...
Mit PS1.1 ist's ein bissel schneller.

Razor

Von anderen Seiten hörte man genau das umgekehrte.

Originally posted by Razor

Leider nein...

Razor

...hättest du dir nach Demis Posting sparen können ;)

Unregistered
2003-05-24, 21:22:30
Originally posted by Demirug
Das ist wohl der Anfang vom Ende für Futuremark.

Mit dem schönen Audit haben die Jungs sich gerade ihr eigenes Grab geschaufelt indem sie öffentlich erklären das und wie der 3dmark03 durch einen Treiber gecheated werden kann.

Die Story wird jetzt wohl wie folgt weitergehen:

-nVidia wird durch entsprechende Kanäle einen neuen Treiber leaken lassen der wieder die "volle" Performances bringt aber im Freefly modus die Fehler nicht mehr zeigt.

-Futuremark bringt einen neuen Patch der die Punkte von nVidia wieder nach unten drückt was sofort wieder mit einem neuen Treiber kompensiert wird.

Die Erkenntniss daraus ist das man für den 3dmark nur noch Treiber benutzen darf die älter als der letzte Patch sind. Damit ist der 3dmark für Treibervergleiche entgültig disqualifiziert. Auch für neue Karten kann er nicht direkt benutzt werden weil diese ja auch erst mal einen neuen Treiber mitbringen. Futuremark muss dann erst mal wieder einen Patch bringen und irgendwann kann man die shader auch nicht mehr ändern ohne die Funktionalität grundlegen zu ändern. Das ganze wird den meisten Reviewer zu blöd werden.


Sag mal Demirug;

mit Verlaub gesagt; spinnst Du?

Ich seh das ganze völlig anders. IMHO cheated Nvidia bei allen Benchmarks und bisher haben wir es nur beim 3DMark03 auch wirklich bemerkt.

Ich lass ab sofort auf jeden Fall meine Finger von Cheating-Nvidias Hardware. Ich lass mich doch nicht verarschen ohne Ende.

Ihr müsst schon alle ( Lovesucks, Demirug, Richthofen, ow etc.. ) ein sehr seltsames Bild von der Wirklichkeit haben, das ihr eine Firma verteidigt, die euch über Monate (und vielleicht sogar über Jahre) angelogen hat. Viel Spaß ihr armen Leute wenn ihr euch freiwillig auf die Fresse hauen lässt und euch dann auch noch artig dafür bedankt. Danke nein, aber sooo blöd bin ich nicht.

nggalai
2003-05-24, 21:25:51
Hi Unreg,

lies Demiurgs Posting und die anderen hier im Thread nochmals durch--er verteidigt Nvidia nicht, ganz im Gegenteil. Er schildert nur ein recht realistisches Szenario, was jetzt bei FM abgehen könnte. Damit heisst er noch lange nicht die Cheats von NV gut.

93,
-Sascha.rb

Unregistered
2003-05-24, 21:26:18
Originally posted by Razor

[Shadermark]
Es ist völlig unerheblich, ob ATI mehreren Tests schneller ist, als nVidia.
Ich wollte damit lediglich zum Ausdruck bringen, dass man Shader offensichtlich so oder so programmieren kann. Einmal läuft's auf der einen Hardware schneller, das andere mal auf der anderen.

Razor


Die Erklärung ist doch ganz einfach Razor;

Nvidia cheated beim Shadermark 1.7 auch!

Schau dir mal die Benches von früher an, und dann die neuen. Die Leistung hat um ca. 50% zugelegt; also genauso wie beim 3DMark03.

Dämmert's?


Oh Scheiße.. Razor hat's geschnallt. Jep..Nvidia scheißt dich auch hier an...ich hoffe du machst jetzt aber eine Artige Verbeugung vor dem Genie der Cheating-Nivida Treiberprogrammierer.


PS.: Schau dir zum Vergleich auch einmal die Ergebnisse von Digit-Life's Hauseigenen Rightmark an.. Den hatten die Treiberprogrammierer von Cheating-Nvidia noch nicht in den Händen...und folgerichtig ist die R9800Pro auch (ca.) doppelt so schnell wie eine NV35

Unregistered
2003-05-24, 21:32:29
Originally posted by nggalai
Hi Unreg,

lies Demiurgs Posting und die anderen hier im Thread nochmals durch--er verteidigt Nvidia nicht, ganz im Gegenteil. Er schildert nur ein recht realistisches Szenario, was jetzt bei FM abgehen könnte. Damit heisst er noch lange nicht die Cheats von NV gut.

93,
-Sascha.rb

Sorry seh ich aber ganz anders.

Nur weil FM in seinen Benchmark eine Funktion eingebaut hat, die die Cheats von Nvidia aufzeigt hassen jetzt einige Leute FM und tun so als ob FM an dem ganzen Schlamasel Schuld wäre.

Dabei hätte man die Cheats (die ich auch in anderen Benchmarks vermute) ohne FM doch gar nicht gefunden.

Ich will nicht verarscht werden !

Wenn man jetzt den Überbringer der schlechten Nachricht hinrichten will, und den Verursacher verteidigt stimmt was nicht mit dem Weltbild.

Das der 3DMark03 nicht so ganz ideal für Cheating-Nvidias Hardware ist; Pech! Der 3DMark01 war ja für Cheating-Nvidia's Hardware optimiert, und da hat auch keiner Geweint.

nagus
2003-05-24, 21:33:33
Originally posted by Unregistered



Die Erklärung ist doch ganz einfach Razor;

Nvidia cheated beim Shadermark 1.7 auch!

Schau dir mal die Benches von früher an, und dann die neuen. Die Leistung hat um ca. 50% zugelegt; also genauso wie beim 3DMark03.

Dämmert's?


Oh Scheiße.. Razor hat's geschnallt. Jep..Nvidia scheißt dich auch hier an...ich hoffe du machst jetzt aber eine Artige Verbeugung vor dem Genie der Cheating-Nivida Treiberprogrammierer.


PS.: Schau dir zum Vergleich auch einmal die Ergebnisse von Digit-Life's Hauseigenen Rightmark an.. Den hatten die Treiberprogrammierer von Cheating-Nvidia noch nicht in den Händen...und folgerichtig ist die R9800Pro auch (ca.) doppelt so schnell wie eine NV35

quelle die deine behauptung untermauert wäre nett

ernesto.che
2003-05-24, 21:43:32
Also ich halte es für wenig sinnvoll, stumpf den 3D Mark ins Grab tragen zu wollen.
Als synthetischer Benchmark ist er zwar weit entfernt von Real-World Benchmarks, dennoch hat er schon als zukunftsweisender Benchmark seine Daseinsberechtigung.
Als Nvidia noch die Leistungskrone beim 3D Mark hatte, haben alle Nvidia Nahen sich gefreut, was ATi damals sagte weiß ich nicht so recht, da hatte ich noch 3dfx (heute immer noch :D )und wusste von daher eh, das die Realität entscheidet und nicht Marketingversprechen.
Aber das nun die Nvidia Seite den 3D Mark beerdigen will, finde ich peinlich.
Man kann doch jede Einzeldisziplin einzeln ablesen und somit die Möglichkeiten des Produktes einschätzen.
Wer das nicht differenziert so sehen kann und den 3D Mark mit der Realität verwechselt, sollte besser nur Spielen, mehr gibt das Hirn dann wohl nicht her.

Demirug
2003-05-24, 21:43:52
Originally posted by Unregistered



Sag mal Demirug;

mit Verlaub gesagt; spinnst Du?

Ich seh das ganze völlig anders. IMHO cheated Nvidia bei allen Benchmarks und bisher haben wir es nur beim 3DMark03 auch wirklich bemerkt.

Ich lass ab sofort auf jeden Fall meine Finger von Cheating-Nvidias Hardware. Ich lass mich doch nicht verarschen ohne Ende.

Ihr müsst schon alle ( Lovesucks, Demirug, Richthofen, ow etc.. ) ein sehr seltsames Bild von der Wirklichkeit haben, das ihr eine Firma verteidigt, die euch über Monate (und vielleicht sogar über Jahre) angelogen hat. Viel Spaß ihr armen Leute wenn ihr euch freiwillig auf die Fresse hauen lässt und euch dann auch noch artig dafür bedankt. Danke nein, aber sooo blöd bin ich nicht.

Ob ich verrückt bin? Ja, aber ich denke das ich da durchaus in guter Gesellschaft bin.

Klar optimiert und cheated (die grenze ist fliesend) nVidia bei allen Benchmarks die ihnen wichtig genung erscheinen. Habe ich jemals behauptet das sie es nicht tun? Ich sagte höchstens das man es ihnen bisher nicht richtig nachweisen konnte.

Aber glaubst du wirklich das nur nvidia das macht?

Solche Spiele (Grosszügiges auslegen der wahrheit) werden übrigens in jeder Brache gespielt und ich habe selbst schon oft genung mitgespielt. Auf beiden Seiten. Daher glaube ich schon ein sehr genaues Bild von der Wirklichkeit zu haben.

Demirug
2003-05-24, 21:53:19
Originally posted by nagus


quelle die deine behauptung untermauert wäre nett

Bin ich dir als Quelle zuverlässig genug?

Falls ja: NVIDIA optimiert die im Shadermark benutzten Shader zumindestens teilweise (auf die gleiche Art wie ATI es beim 3dmark gemacht hat). Einen Optischen unterschied konnte ich allerdings nicht erkennen. Was aber nicht wirklich verwundert da die Shader genügend Raum zum Optimieren lassen ohen die Genauigkeit senken zu müssen.

Mr. Lolman
2003-05-24, 22:21:26
Originally posted by Demirug


Bin ich dir als Quelle zuverlässig genug?

Falls ja: NVIDIA optimiert die im Shadermark benutzten Shader zumindestens teilweise (auf die gleiche Art wie ATI es beim 3dmark gemacht hat). Einen Optischen unterschied konnte ich allerdings nicht erkennen. Was aber nicht wirklich verwundert da die Shader genügend Raum zum Optimieren lassen ohen die Genauigkeit senken zu müssen.

Sozusagen ist das 'cheaten' eigentlich legitim, da ja auch in an allen wichtigen Games 'gecheatet' wird, was sich dann mit den Benchmarkergebnissen decken dürfte... :stareup:

Demirug
2003-05-24, 22:25:34
Originally posted by Mr. Lolman


Sozusagen ist das 'cheaten' eigentlich legitim, da ja auch in an allen wichtigen Games 'gecheatet' wird, was sich dann mit den Benchmarkergebnissen decken dürfte... :stareup:

Deswegen schrieb ich ja auch optimiert. ;)

Wie gut das aber dann bei einzelnen Spielen funktioniert hängt davon ab wie viel Luft in den jeweiligen Shadern noch drin ist. Wenn die Shader zum Beispiel gleich mit Cg erstellt wurden wird man wahrscheinlich auf diese Art nicht mehr viel herausholen können.

Unregistered
2003-05-24, 23:17:08
an alle die hier gross rumschreien "weg mit dem 3dmurks!": glaubt ihr denn wirklich damit würde sich das ganze cheating-problem in luft auflösen? wärs euch egal wenn z.b. nvidia "optimierungen" für q3-, sesam- oder ut-timedemos einbaut (d.h. wenn sie nicht sowieso schon im treiber drin sind) und dadurch diese demodurchläufe plötzlich doppelt so schnell sind wie die reale in-game performance? man kann wohl davon ausgehen dass es genauso leicht ist ein timedemo zu erkennen wie die 3dmark-tests..

FM tut uns doch in wirklichkeit einen grossen gefallen damit, dass sie sowas aufdecken.. welcher spieleentwickler würde sich schon die mühe machen (und gleichzeitig noch die guten beziehungen zu nvidia riskieren), sowas aufzudecken?

die ersten anzeichen dafür, dass nv in spielen auch cheatet, gibs ja schon am beispiel von sesam und splinter cell wie auf beyond3d nachzulesen (auch wenns im moment noch nicht vollständig geklärt ist obs vielleicht wirklich nur ein bug ist). und das sind nur die spiele bei denen auch ein qualitativer unterschied im spiel feststellbar ist, bei timedemos bei denen nur weniger berechnet wird (z.b. durch wegclippen von levelteilen die im demo nicht zu sehen sind) kann man das ja dann kaum mehr wirklich erkennen..

wer soll das denn in zukunft kontrollieren? wenn sich diese praxis verbreitet sind ja alle öffentlich verfügbaren timedemos schon mal für die tonne.. bei der gelegenheit gleich mal an tipp an die 3dcenter-crew: für das nächste grafikkarten-shootout bitte für alle spiele neu aufgenomme demos verwenden, sonst kann man die objektivität, auf die hier ja so viel wert gelegt wird, schonmal überhaupt nicht mehr garantieren..

so, ich hoffe mal dass ein paar leute hier die tragweite dieser ganzen cheaterei etwas besser erkennen..

LovesuckZ
2003-05-24, 23:28:20
@Unregistered

Nur weil ein paar Spiele darstellungsfehler aufweisen, ist es noch lange kein Cheat. Sonst muesste ja ATi die Cheater schlecht hin sein...

Demirug
2003-05-24, 23:29:39
Originally posted by Unregistered
an alle die hier gross rumschreien "weg mit dem 3dmurks!": glaubt ihr denn wirklich damit würde sich das ganze cheating-problem in luft auflösen? wärs euch egal wenn z.b. nvidia "optimierungen" für q3-, sesam- oder ut-timedemos einbaut (d.h. wenn sie nicht sowieso schon im treiber drin sind) und dadurch diese demodurchläufe plötzlich doppelt so schnell sind wie die reale in-game performance? man kann wohl davon ausgehen dass es genauso leicht ist ein timedemo zu erkennen wie die 3dmark-tests..

Nein der 3dMark ist viel leichter zu erkennen als eine Timedemo. Bei einer Timedemo muss man zuerst erkennen welches Spiel den nun läuft und dann auch noch die spezifische Timedemo erkennen. Beim 3dmark reicht erstmal die Erkenntniss das es der 3dmark ist.

FM tut uns doch in wirklichkeit einen grossen gefallen damit, dass sie sowas aufdecken.. welcher spieleentwickler würde sich schon die mühe machen (und gleichzeitig noch die guten beziehungen zu nvidia riskieren), sowas aufzudecken?

Keiner die wollen ja nur ihr Spiel/Engine verkaufen. Wenn das Spiel dann als Benchmark benutzt wird ist das eben kostenlose Werbung. Die Frage ist nur wie unparteiisch FM wirklich sein kann/will?

die ersten anzeichen dafür, dass nv in spielen auch cheatet, gibs ja schon am beispiel von sesam und splinter cell wie auf beyond3d nachzulesen (auch wenns im moment noch nicht vollständig geklärt ist obs vielleicht wirklich nur ein bug ist). und das sind nur die spiele bei denen auch ein qualitativer unterschied im spiel feststellbar ist, bei timedemos bei denen nur weniger berechnet wird (z.b. durch wegclippen von levelteilen die im demo nicht zu sehen sind) kann man das ja dann kaum mehr wirklich erkennen..

wer soll das denn in zukunft kontrollieren? wenn sich diese praxis verbreitet sind ja alle öffentlich verfügbaren timedemos schon mal für die tonne.. bei der gelegenheit gleich mal an tipp an die 3dcenter-crew: für das nächste grafikkarten-shootout bitte für alle spiele neu aufgenomme demos verwenden, sonst kann man die objektivität, auf die hier ja so viel wert gelegt wird, schonmal überhaupt nicht mehr garantieren..

so, ich hoffe mal dass ein paar leute hier die tragweite dieser ganzen cheaterei etwas besser erkennen..

Ja du hast vollkommen recht. Ich finde es aber durchaus interresant das jetzt plötzlich jeder Massnahmen gegen Benchmarkcheats fordert und das ganze bis vor kurzem noch jedem völlig egal war obwohl dort auch schon fleisig für Benchmarks optimiert wurde.

aths
2003-05-25, 00:25:26
Originally posted by Quasar
Zur Erläuterung:
In Doom, dem originalen Software-Shooter, konnte man IIRC den Kopf mit Tastatursteuerung nicht nach oben und unten bewegen. Eine Art virtuelle Kamera war somit in Teilen definiert. Wäre es hier erlaubt, eine Clip-Plane einzufügen, damit das Spiel schneller läuft? Sicher, man müsste sie abschalten, sobald der Spiele die Maus benutzt.Ein Benchmark soll Vergleichswerte liefern. Dazu muss schon die gleiche Arbeit verrichtet werden. Wenn eine Karte die Arbeit nur "effizienter" ausführt, also mit weniger Takten auskommt, nun gut. Wenn der Treiber speziell für diesen Bench der Karte Arbeit abnimmt, in dem einfach was weggelassen wird, ist das imo Cheat. Warum bricht die 3DM03-Engine denn etliche Optimierungsregeln? Vermutlich, um die Last künstlich zu erhöhen. Wenn es FMs Wille ist, eine unoptimierte Szene zu rendern, kann man über die Sinnhaftigkeit des Marks streiten, hat aber kein Recht, da vorberechnetes HSR zu machen. Man gaukelt damit Leistung vor, die nicht vorhanden ist.

nggalai
2003-05-25, 00:28:27
Hola aths,

Wow. Gut auf den Punkt gebracht. Dem schliesse ich mich vollumfänglich an.

*anschliess*

93,
-Sascha.rb

aths
2003-05-25, 00:29:21
Originally posted by Quasar
Würde ich genauso machen, wenn ich wüsste, ich veliere ~4% und die Konkurrenz ~20-30%, meinst du nicht? Da hat sich NV aber selbst reingeritten. Es ist imo vollumfänglich (danke, nggalai :)) NVs Schuld, dass sie nun als die bösen Cheater dastehen. Wenn ATI aufgrund NVs Verfehlungen da "moralischen Nutzen" draus zieht, hat sich das NV alleine zuzuschreiben.

aths
2003-05-25, 00:31:09
Originally posted by Demirug
NV hat damals nicht alles bekommen hat was sie haben wollten. ATI hat bei DX8 oft genug Veto geschriehen und 3Dfx AFAIK auch. Wo denn z.B.?

Birdman
2003-05-25, 00:36:05
Originally posted by Unregistered
Sag mal Demirug;

mit Verlaub gesagt; spinnst Du?

Ich seh das ganze völlig anders. IMHO cheated Nvidia bei allen Benchmarks und bisher haben wir es nur beim 3DMark03 auch wirklich bemerkt.

Ich lass ab sofort auf jeden Fall meine Finger von Cheating-Nvidias Hardware. Ich lass mich doch nicht verarschen ohne Ende.

Ihr müsst schon alle ( Lovesucks, Demirug, Richthofen, ow etc.. ) ein sehr seltsames Bild von der Wirklichkeit haben, das ihr eine Firma verteidigt, die euch über Monate (und vielleicht sogar über Jahre) angelogen hat. Viel Spaß ihr armen Leute wenn ihr euch freiwillig auf die Fresse hauen lässt und euch dann auch noch artig dafür bedankt. Danke nein, aber sooo blöd bin ich nicht.
Hmm, also Quake3 lief mit keiner andern karte so gut, wie mit einer von nvidia. Vielleicht cheaten sie (nv) ja bei dem spiel, aber trotzdem läufts besser als mit jeder konkurenzhardware.
Daher fühle ich mich kein bisschen angelogen, dann schon eher von anderen 3D renderchips, welche auf der Packung stehen haben "best performance in every game" und dann laufen die halben spiele nicht oder nur mit einschränkungen. (und dies trift bei nvidia ganz und gar nicht zu)

Unregistered
2003-05-25, 00:36:52
Originally posted by Demirug
Nein der 3dMark ist viel leichter zu erkennen als eine Timedemo. Bei einer Timedemo muss man zuerst erkennen welches Spiel den nun läuft und dann auch noch die spezifische Timedemo erkennen. Beim 3dmark reicht erstmal die Erkenntniss das es der 3dmark ist.


wenn im 3dmark einzelne optimierungen durch den splashscreen zw. den gametests getriggert werden (wie im FM-bericht nachzulesen) wird das wohl auch z.B. bei nem q3 timedemo funktionieren.. es steht ja sogar der name des demos in riesigen letter am bildschirm.. ok, dieser ansatz würde sich ev. durch umbenennen des demos austricksen lassen, aber ich bin mir sicher da gibs auch noch andere möglichkeiten..


Originally posted by Demirug
Die Frage ist nur wie unparteiisch FM wirklich sein kann/will?

das ist klar.. so wie ich das sehe kanns mit den unterschiedlichen architekturen zur zeit einfach gar keinen unparteiischen benchmark geben.. dieses problem könnte wohl nur eine api wie OpenGL 2.0 lösen, bei der die hersteller selber die optimale umsetzung der shader von high level auf low level vornehmen.. und selbst damit bleibt immer noch das problem mit den unterschiedlichen präzisionen..

das ganze erinnert mich irgendwie verdammt an das AMD/Intel-benchmark-szenario, wo je nach ausgewählten benchmarks mal der eine und mal der andere gewinnt.. dort gibts bis jetzt ja auch noch keine zufriedenstellende lösung.. ich wäre sehr überrascht wenn AMD ihr versprechen wirklich wahr machen würde und das model rating der kommenden Athlon64 fallen lässt und stattdessen die kennzahl ihrer "True Perfomance Initiative" angibt (sofern es die überhaupt noch gibt). und selbst wenn, intel könnte anschliessend die zahlen einfach für nicht repräsentativ erklären (so wie jetzt nvidia mit dem 3dmark), und schon sind wir wieder genausoweit wie vorher..

Originally posted by Demirug
Ja du hast vollkommen recht. Ich finde es aber durchaus interresant das jetzt plötzlich jeder Massnahmen gegen Benchmarkcheats fordert und das ganze bis vor kurzem noch jedem völlig egal war obwohl dort auch schon fleisig für Benchmarks optimiert wurde.

liegt wohl daran dass es jetzt wirklich öffentlich bestätigt ist.. den schwachsinn von wegen treiber-bug glaubt nvidia ja wohl (hoffentlich) wirklich keiner..

Exxtreme
2003-05-25, 00:58:18
Originally posted by Razor
Und wie 'objektiv' ist es, so etwas wie die PS1.4 'einzubauen' ?
???
Gegen den PS1.4 spricht eigentlich nichts. Dieser ist ein Teil der >=DX8.x-Spezifikation. Weder ATi noch FM noch Micro$~1 können was dafür, daß NV den PS1.4 nicht richtig haben will.

aths
2003-05-25, 05:48:00
Originally posted by Quasar
Denk mal drüber nach... wirst schon drauf kommen.

Der Treiber erkennt den Shadercode und stellt ihn um. Soviel steht fest und ist von ATi auch zugegeben worden.

Also ist der Benchmark-Wert, den man erhält höher, als wenn es keine 3DMark-spezifische Optimierung gegeben hätte, soviel steht nach simpler deduzierender Logik ebenfalls fest.

Insofern ist das genauso ein Versuch, den Kunden zu täuschen.

Ad1) Ob nun 2% oder 20% ist ein quantitativer aber nicht qualitativer Unterschied.

ad2) Inwieweit nun das "Endergebnis", also das fertig gerendert Bild davon beeinflusst wird, vermag ich nicht zu sagen.Nah. Für Demi offenbar noch Optimierung, ist ATIs Vorgehen für mich ebenfalls Cheat, sie haben versucht den Kunden über die Leistung ihres Produkts zu täuschen. Als möglicher Kunde bin ich von diesem Verhalten enttäuscht. Von Nvidias Verhalten bin ich allerdings geradezu entsetzt. Nix von wegen allgemeine Shader-Power verbessert, sondern sie haben ein ganzes Cheat-Paket in den Treiber gebastelt.

Ich sehe klar auch qualitative Unterschiede. ATI lässt nicht einfach (verdeckte) Bildteile in der Berechnung weg. ATIs Shader liefert offenbar auch kein ähnliches Ergebnis, sondern das gleiche wie der Original-Shader. Ich argumentiere natürlich so, dass es alleinig bei FM liegt, welcher Shader genau ausgeführt werden soll. Ausnahme sind anwendungsunabhängige allgemeine Optimierungen. Wie man sieht, gibt es hier eine fließende Grenze, die Grenze zwischen Optimierung und Cheat dort hin zu legen, wo ich es im Moment tu, ist sicher logisch nicht völlig konsistent. Immerhin, lt. meiner Definition ist das PowerVR-HSR kein Cheat, weil nicht nur der 3DMark davon profitiert. Alles, was 1. speziell für den 3DMark vorberechnet wurde und 2. nur dem 3DMark nützt, halte ich für Betrug.

Wohin man die Grenze auch legt, Nvidia hat "viel mehr" gecheatet als ATI. Nvidia führte neue Clipping Planes ein. Das ist so viel mehr Cheat, dass Quantität zur Qualität wird. Die Größe eines Betruges spielt zudem auch immer eine Rolle bei Festsetzung des Strafmaßes. Unterschlage 2% Gelder, das ist :nono: Unterschlage 24%, die Konsequenzen sind anders, weil der Betrug andere Dimensionen hat.

Was ist bei dir denn ein qualitativ schlimmerer Cheat?

BTW, 3% sind für mich eigentlich noch Messungenauigkeit, aber ATI hat immerhin die Sache zugegeben. Von NV habe ich diesbezüglich nichts vergleichbares gehört.

Obwohl ATI sich hier unmoralisch verhalten hat, steht für mich fest, dass Nvidia noch sehr viel unmoralischer vorgegangen ist. Der Betrug unterscheidet sich hier um Faktor 10, mithin einer Größenordnung. Deine Argumentation wirkt auf mich verniedlichend bzw. aufbauschend, je nach dem. Übertragen auf ein Spiel: 2% weniger fps merkt man fast nicht, 24% weniger bedeutet schon eine schlechtere Spiel-Qualität.

Razor
2003-05-25, 08:20:35
Originally posted by Iceman346

Dann liegt das einfach daran das Nvidias Treiber offensichtlich mit dem PS1.4 nicht klarkommen. Theoretisch muss die Karte weniger Arbeit leisten im Gegensatz zum PS1.1
Nur, wenn die PS1.4 bei nVidia nativ (in Hardware) unterstützt werden. Sollten diese über die PS2.0-Engines emuliert werden, sind sie natürlich langsamer als die vermutlich in Hardware realisierten PS1.1...

Ich will hier nicht wieder die alte Diskussion beleben (nicht schon wieder ;-), also sei hier nur kurz gesagt, dass die PS1.4 schon immer rein optional waren. Also weder DX8 noch DX8.1 dies zur Voruassetzung für eine entsprechnede compliance machte. Auch ist es ein Fetaure, was rein von ATI-Hardware (explizit lediglich der R200 und dessen Abkömmlinge) in Hardware unterstützt und sonst von KEINEM anderen Hersteller (also auch nicht nVidia ;-) geboten wurde.

IMHO hat der PS1.4-Code in einem Benchmark nichts zu suchen, der sich anschickt über 'RealWorld'-Perofrmance Aussagen zu machen (was beim Murks ja nun hinten und vorne nicht zutreffen wird).

That's it !

Razor

Razor
2003-05-25, 08:23:55
Originally posted by seahawk

Wie wärs mit Doom III. Der allgemeine Renderpfad ARB2 sieht Vorteile für die R300. Der spezielle Renderpfad für die NV3X Serie sieht Vorteile für diese Karten. Ähnliches vermute ich auch beim 3D Mark.
Du hast also schon Infos zu einer FX5900u mit ARB2-Path irgendwo im Netz gesehen ? Respekt !
(ich nicht ;-)

Wäre Dir sehr dankbar, wenn Du mir hierzu einen Link geben könntest.
(ist nicht polemisch gemeint, sondern wirkliches Interesse !)

Razor

Iceman346
2003-05-25, 08:27:18
Originally posted by Razor

Nur, wenn die PS1.4 bei nVidia nativ (in Hardware) unterstützt werden. Sollten diese über die PS2.0-Engines emuliert werden, sind sie natürlich langsamer als die vermutlich in Hardware realisierten PS1.1...

Ich will hier nicht wieder die alte Diskussion beleben (nicht schon wieder ;-), also sei hier nur kurz gesagt, dass die PS1.4 schon immer rein optional waren. Also weder DX8 noch DX8.1 dies zur Voruassetzung für eine entsprechnede compliance machte. Auch ist es ein Fetaure, was rein von ATI-Hardware (explizit lediglich der R200 und dessen Abkömmlinge) in Hardware unterstützt und sonst von KEINEM anderen Hersteller (also auch nicht nVidia ;-) geboten wurde.

IMHO hat der PS1.4-Code in einem Benchmark nichts zu suchen, der sich anschickt über 'RealWorld'-Perofrmance Aussagen zu machen (was beim Murks ja nun hinten und vorne nicht zutreffen wird).

That's it !

Razor

So, letzter Beitrag zur PS Diskussion von mir:
1. Wer PS2.0 unterstützt muss auch PS1.4 unterstützen.
2. PS1.4 hat an manchen Stellen Vorteile gegenüber dem PS1.1 (kollabierung von Passes), aber der PS2.0 bringt keine weiteren Vorteile --> PS1.4 wird genutzt, da dieser eine höhere Verbreitung hat als "reiner" PS2.0

Aber diese Argumente gab es hier im Forum bereits tausendmal. Wenn dus nicht anerkennen willst dann lass es, aber für mich (und ich schätze für die meisten anderen) ist das Grund genug PS1.4 in Benchmarks und in Spielen zu nutzen.

Razor
2003-05-25, 08:33:19
Originally posted by ernesto.che
Als synthetischer Benchmark ist er zwar weit entfernt von Real-World Benchmarks, dennoch hat er schon als zukunftsweisender Benchmark seine Daseinsberechtigung.

<...snip...>

Man kann doch jede Einzeldisziplin einzeln ablesen und somit die Möglichkeiten des Produktes einschätzen.
Er ist weit entfernt von der 'RealWorld' aber trotzdem 'Zukunftsweisend' ?
Wie das ?
???

Auch kann man die einzelnen Werte NICHT ablesen, wenn man sich nicht registriert und seine Systeminformationen und die Ergebnisse der Öffentlichkeit preis gibt. Als Analyse-Tool (im eigenen System !) taugt es nur in der Pro-Version, die aber kostenpflichtig ist.

Wer sich also nicht registriert und seine Infoemationen preis gibt, wird also draußen gelassen.
Und genau das vermute ich auch mit dem Beta-Programm...

WEG MIT DEM MURKS !
Wie kann nur jemand glauben, dass mit einem komerziellen Benchmark alles stimmen kann ?
???

Mir wäre es wesentlich lieber, dass solche Bench-Suiten
a) real existierende Engines benutzen (also z.Bsp. installierte Vollversionen der Games) und
b) in ihrer Funktionsweise offen gelegt werden.

Erst dann haben wir den wirtschaftlichen Einfluss wieder raus...
Sorry, aber...

Razor

Razor
2003-05-25, 08:37:12
Originally posted by Iceman346

So, letzter Beitrag zur PS Diskussion von mir:
1. Wer PS2.0 unterstützt muss auch PS1.4 unterstützen.
2. PS1.4 hat an manchen Stellen Vorteile gegenüber dem PS1.1 (kollabierung von Passes), aber der PS2.0 bringt keine weiteren Vorteile --> PS1.4 wird genutzt, da dieser eine höhere Verbreitung hat als "reiner" PS2.0

Aber diese Argumente gab es hier im Forum bereits tausendmal. Wenn dus nicht anerkennen willst dann lass es, aber für mich (und ich schätze für die meisten anderen) ist das Grund genug PS1.4 in Benchmarks und in Spielen zu nutzen.
Auch von mir eine letzte Bemerkung zu dieser OT-Diskussion:
Zwischen 'anbieten' und 'in Hardware unterstützen' sehe ich einen himmelweiten Unterschied !
Mir ist der technische Hintergrund der PS1.4 durchaus klar... ebenso klar ist es, dass dieser auf die Hardware-Implementierung von ATI ausgelegt ist.

Und wenn wir jetzt noch einmal sehen, wie hoch tatsächlich die zusätzliche Verbreitung der PS1.4 ist (ich vermute unter 1% weltweit !), dann ist dieser Anteil absolut (!) zu vernachlässigen und keinesfalls eine Begündung für FM dies in einen DX9(8)-Bench einzubauen, der Aussagen über 'RealWorld'-Performance machen will.

Oder sehe ich daran irgendetwas falsch ?
???

Razor

Razor
2003-05-25, 08:45:02
Originally posted by Mr. Lolman

Sozusagen ist das 'cheaten' eigentlich legitim, da ja auch in an allen wichtigen Games 'gecheatet' wird, was sich dann mit den Benchmarkergebnissen decken dürfte... :stareup:
Und DAS ist das eigentliche Problem...

Es wird in allen Bereichen 'optimiert' ('cheaten scheint mir in diesem Zusammenhang nicht legitim ;-) und das durch die Bank weg... bei allen Herstellern. Und offensichtlich ist nVidia erfolgreicher dabei, wenn ATI nut 8% (ohne BQ-Verlust bei GT4) und nVidia satte 50% (ohne BQ-Verklust beim Shadermark) heraus holt.

Letzlich profitieren wir alle davon, wenn Dinge schneller laufen, solange RealWorld-Betrachtungen gemacht werden und die BQ dadurch nicht verschelchtert wird. So ist z.Bsp. die BQ unter den OGL-Performance-Modi beim letzten Deto besser geworden, die Geschwindigkeit aber nochmals (minimal) zugelegt hat.

Warum sollte so etwas nicht legitim sein ?
Der Sinn von synthetischen Benches, die nicht variabel sind, geht mir allerdings derzeit völlig ab.

Was für einen Aussage-Gehalt haben 'optimierte' Synth-Benches ?
???

Razor

aths
2003-05-25, 08:50:59
Originally posted by Razor
Und DAS ist das eigentliche Problem...

Es wird in allen Bereichen 'optimiert' ('cheaten scheint mir in diesem Zusammenhang nicht legitim ;-) und das durch die Bank weg... bei allen Herstellern. Und offensichtlich ist nVidia erfolgreicher dabei, wenn ATI nut 8% (ohne BQ-Verlust bei GT4) und nVidia satte 50% (ohne BQ-Verklust beim Shadermark) heraus holt.Ich fürchte, du mischt hier Dinge durcheinander, die man nicht durcheinander mischen sollte. Reden wir also entweder vom 3DMark oder Shadermark. Beim 3DMark hat NV einfach Sachen "rausgeschnitten" die man bei der Benchmark-Kamerafahrt nicht sieht. Tolle "Optimierung"!

Wenn NV beim Shadermark plötzlich drastisch mehr Leistung gewinnt, heißt das ja im Umkehrschluss, dass der Treiber vorher grottig gewesen sein muss. Da würde ich nicht gleich von "erfolgreich" sprechen. Wenn es ATI gelungen ist, in Dingen Shadermark die mögliche Leistung gleich von Anfang an zu bringen, ist das doch besser als wenn man erst mal optimieren muss.

Wenn NV beim Shadermark einfach die Shader mit eigenen Shadern austauscht, bringt das einzig und allein im Shadermark mehr. Der Anwender hat nichts davon. Deshalb würde ich nicht von erfolgreicher Optimierung sprechen.

Razor
2003-05-25, 08:56:23
Originally posted by Unregistered
an alle die hier gross rumschreien "weg mit dem 3dmurks!": glaubt ihr denn wirklich damit würde sich das ganze cheating-problem in luft auflösen? wärs euch egal wenn z.b. nvidia "optimierungen" für q3-, sesam- oder ut-timedemos einbaut (d.h. wenn sie nicht sowieso schon im treiber drin sind) und dadurch diese demodurchläufe plötzlich doppelt so schnell sind wie die reale in-game performance? man kann wohl davon ausgehen dass es genauso leicht ist ein timedemo zu erkennen wie die 3dmark-tests..
Bei RealWorls-Anwendungen (wie bei den von Dir genanten Games) würde ich einen solchen 'Eingriff' als verwerflich ansehen und die Fa. verurteilen, die so etwas macht. Allerdings ist es hier recht einfach nachzuprüfen, da man einfach ein anderes Timedemo aufnimmt und damit vegleicht (als Kontrolle sozusagen). Beim Murks ist aber eine sog. Debug-Version erforderlich gewesen, um dies aufzudecken, die nicht öffentlich (auch nicht käuflich !) zu erwerben ist.

DAS ist ein gewaltiger Unterschied.
Und da der Murks nur synthetischer Natur ist und KEINE Aussagen über RealWorld-Performance machen kann, ist es mit herzlich egal, ob und wer darin wie cheatet.

Weg mit dem Schrott !
Originally posted by Unregistered
FM tut uns doch in wirklichkeit einen grossen gefallen damit, dass sie sowas aufdecken.. welcher spieleentwickler würde sich schon die mühe machen (und gleichzeitig noch die guten beziehungen zu nvidia riskieren), sowas aufzudecken?
Gute Beziehungen zu nVidia ?
Dann würde FM sicher kein Sterbenswörtchen sagen (so wie jetzt bei ATI) !
Und gerade diese wirtschaftliche Abhängigkeit eines 'freien' Benchmarks stört mich ganz gewaltig...
Originally posted by Unregistered
die ersten anzeichen dafür, dass nv in spielen auch cheatet, gibs ja schon am beispiel von sesam und splinter cell wie auf beyond3d nachzulesen (auch wenns im moment noch nicht vollständig geklärt ist obs vielleicht wirklich nur ein bug ist). und das sind nur die spiele bei denen auch ein qualitativer unterschied im spiel feststellbar ist, bei timedemos bei denen nur weniger berechnet wird (z.b. durch wegclippen von levelteilen die im demo nicht zu sehen sind) kann man das ja dann kaum mehr wirklich erkennen..
Was abzuwarten bleibe...
Nichts wird so heiß gegessen, wie es gekocht wird.
Momentan wird zu viel spekuliert und nichts wirklich 'gewußt'...
Originally posted by Unregistered
wer soll das denn in zukunft kontrollieren? wenn sich diese praxis verbreitet sind ja alle öffentlich verfügbaren timedemos schon mal für die tonne.. bei der gelegenheit gleich mal an tipp an die 3dcenter-crew: für das nächste grafikkarten-shootout bitte für alle spiele neu aufgenomme demos verwenden, sonst kann man die objektivität, auf die hier ja so viel wert gelegt wird, schonmal überhaupt nicht mehr garantieren..
Diese Praxis ist völlig normal und sehr weit verbreitet.
Insofern ist das Kind schon in den Brunnen gefallen...

Man sollte sich jetzt lieber mal darüber gedanken machen, wie man es Firmen wie ATI und nVidia schwerer machen könnte, derart zu 'optimieren'. Und das dies im wesentlichen von den Reviewern abhängig ist (siehe auch z.Bsp. die letzten eskapaden von [H]ardOCP, die zweimal mit ihrer BQ-Verschlimmbesserungstheorie ins Klo gegriffen haben), die ihre Ergebnisse nicht einmal verifizerien und auch zunehemend an wirtschaftliche Interessen gebunden sind.
Originally posted by Unregistered
so, ich hoffe mal dass ein paar leute hier die tragweite dieser ganzen cheaterei etwas besser erkennen..
Scahu Dir einfach mal diesen Thread an:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73060
Du bist leider nicht der erste, der sich zu diesem Thema Gedanken macht...
;-)

Razor

aths
2003-05-25, 09:03:55
Originally posted by Razor
Und da der Murks nur synthetischer Natur ist und KEINE Aussagen über RealWorld-Performance machen kann, ist es mit herzlich egal, ob und wer darin wie cheatet.Mir ist es nicht egal. Cheaten ist imo grundsätzlich abzulehnen. Ich behaupte an dieser Stelle, hätte nur ATI gecheatet, würden so manche Leute andere Äußerungen von sich geben, was das Cheaten ansich angeht.
Originally posted by Razor
Weg mit dem Schrott !In dieser Lautstärke haben das zu 2001-er Zeiten die wenigsten Leute gerufen, welche bevorzugt Nvidia-Karten kaufen.

Weg mit dem Leerzeichen vor dem Ausrufezeichen!

Ich würde nicht sagen, dass der 3DMark Schrott ist. Imo ist es dumm, die Leistung von HW anhand eines Benchmarks zu beurteilen, egal, ob das ein 3DMark oder ein Spiel ist. Schrott sind Reviews, die 3DMark und Quake benchen. Der 3DMark gibt an, wie schnell die gegeben HW die 3DM-Szenen rendern kann. Daraus lassen sich durchaus interessante Erkenntnisse ableiten.

Razor
2003-05-25, 09:05:07
Originally posted by aths
Ich fürchte, du mischt hier Dinge durcheinander, die man nicht durcheinander mischen sollte. Reden wir also entweder vom 3DMark oder Shadermark. Beim 3DMark hat NV einfach Sachen "rausgeschnitten" die man bei der Benchmark-Kamerafahrt nicht sieht. Tolle "Optimierung"!
nVidia hat wie ATI auch den Workload der Hardware/Treiber verringert.
Das einzige, was man nVidia ankreiden könnte, ist, dass es wohl u.a. zulasten der BQ ging. Wäre jetzt der Murks eine RealWorld-Anwendung, wäre dies verwerflich... da der Aussagegehalt der "3DMarks" aber sowieso gleich NULL ist, kann man darüber hinweg sehen...
Originally posted by aths
Wenn NV beim Shadermark plötzlich drastisch mehr Leistung gewinnt, heißt das ja im Umkehrschluss, dass der Treiber vorher grottig gewesen sein muss. Da würde ich nicht gleich von "erfolgreich" sprechen. Wenn es ATI gelungen ist, in Dingen Shadermark die mögliche Leistung gleich von Anfang an zu bringen, ist das doch besser als wenn man erst mal optimieren muss.
Jetzt passiert das auf Seiten von nVidia... früher auf Seiten von ATI.
Wo ist da der Unterschied ?

Offensichtlich hat ATI diesmal mehr die Finger in Dingen wie ARB2 oder DX9 gehabt und somit hat nVidia den Nachteil, 'nachoptimieren' zu müssen, weil ihre Hardware anders arbeitet. Bei DX8 und ATI-Hardware war es damals genau umgekehrt...
Originally posted by aths
Wenn NV beim Shadermark einfach die Shader mit eigenen Shadern austauscht, bringt das einzig und allein im Shadermark mehr. Der Anwender hat nichts davon. Deshalb würde ich nicht von erfolgreicher Optimierung sprechen.
Habe ich irgendetwas von erfolgreicher gefaselt ?
Wenn ja, Schande über mich !
:D

Nein, für mich sind die Begriffe 'Optimierung' und 'Cheat' austauschbar, oder besser die Übergänge zwischen diesen fließend. Einer 'erfolgreichen' Optimierung bei GT4 des Murks03 wiedersprechen ja offensichtlich alle Ansätze, die von den beiden einzigen DX9'ern angeboten werden. ATI zieht dies nun in den nächsten Treibern zurück und es würde mich nicht wundern, wenn nVidia dann mit einem weiteren "Cheat-Treiber" für den Murks kommt, bis das Ding an Relevanz verliert. Vielleicht ist die BQ ja dann wieder OK und auch eine freie Kamarafahrt gewährleistet. Was ist dann ? Ist das dann eine 'legale' Optimierung oder ein Cheat (und ich rede jetzt nicht von FM's Definition !).

Bis denne

Razor

Razor
2003-05-25, 09:08:51
Originally posted by aths
Mir ist es nicht egal. Cheaten ist imo grundsätzlich abzulehnen. Ich behaupte an dieser Stelle, hätte nur ATI gecheatet, würden so manche Leute andere Äußerungen von sich geben, was das Cheaten ansich angeht.
Wo ist der Unterschied zwischen Cheaten und Optimieren ? Wo die Grenze ?
Wer will dies überwachen oder festlegen ?
???

Tatsache ist, dass nach FM's Definition schlicht beide gecheatet haben.
Pech für ATI...
;-)
Originally posted by aths
In dieser Lautstärke haben das zu 2001-er Zeiten die wenigsten Leute gerufen, welche bevorzugt Nvidia-Karten kaufen.

Weg mit dem Leerzeichen vor dem Ausrufezeichen!
Bei DEM Feldzug wirst Du verlieren...
(und mir persönlich ist ein Leerzeichen völlig egal ;-)
Originally posted by aths
Ich würde nicht sagen, dass der 3DMark Schrott ist. Imo ist es dumm, die Leistung von HW anhand eines Benchmarks zu beurteilen, egal, ob das ein 3DMark oder ein Spiel ist. Schrott sind Reviews, die 3DMark und Quake benchen. Der 3DMark gibt an, wie schnell die gegeben HW die 3DM-Szenen rendern kann. Daraus lassen sich durchaus interessante Erkenntnisse ableiten.
Zum Beispiel ?
Dass ATI-Hardware mit den Schrott-Engines vom FM besser klar kommt ?
???

Razor

Razor
2003-05-25, 09:14:28
Originally posted by aths
Ein Benchmark soll Vergleichswerte liefern. Dazu muss schon die gleiche Arbeit verrichtet werden. Wenn eine Karte die Arbeit nur "effizienter" ausführt, also mit weniger Takten auskommt, nun gut. Wenn der Treiber speziell für diesen Bench der Karte Arbeit abnimmt, in dem einfach was weggelassen wird, ist das imo Cheat. Warum bricht die 3DM03-Engine denn etliche Optimierungsregeln? Vermutlich, um die Last künstlich zu erhöhen. Wenn es FMs Wille ist, eine unoptimierte Szene zu rendern, kann man über die Sinnhaftigkeit des Marks streiten, hat aber kein Recht, da vorberechnetes HSR zu machen. Man gaukelt damit Leistung vor, die nicht vorhanden ist.
Dann sag mir doch bitte mal, aths, warum FM hier nicht ein Scenario gewählt hat, was gleichermaßen schlecht für ATI und nVidia ist ? DAS ist IMO der eigentliche Streitpunkt... und wohl auch der Grund, warum nVidia aus dem Beta-Programm ausgestiegen ist.

Was bitte soll an einem Bench 'gut' sein, der die eine Hardware krass bevorzugt und auch noch hardware-spezifische Features (PS1.4) nutzt, um den einzigen Kontrahenden auf weiter Flur schlecht dastehen zu lassen, obwohl im JEDER RealWorld-Betrachtung eine andere Aussage gemacht wird ?

Sorry, aber irgendwie...

Razor

Razor
2003-05-25, 09:16:41
Originally posted by aths
Da hat sich NV aber selbst reingeritten. Es ist imo vollumfänglich (danke, nggalai :)) NVs Schuld, dass sie nun als die bösen Cheater dastehen. Wenn ATI aufgrund NVs Verfehlungen da "moralischen Nutzen" draus zieht, hat sich das NV alleine zuzuschreiben.
Du willst also sagen, dass der eine Cheat 'böse' ist, als der andere Cheat, der 'verzeihbar' ist ?

Genauso argumentiert derzeit FM, obwohl von diesen Leuten BEIDE per Definition als Cheater enttarnt wurden, aber nur nVidia an den Pranger gestellt wurde.

Immer wieder dieses "zweierlei Maß"...
(aber das kennen wir ja von Dir ;-)
:D

Razor

WeyounTM
2003-05-25, 09:18:58
Originally posted by Razor
DAS ist ein gewaltiger Unterschied.
Und da der Murks nur synthetischer Natur ist und KEINE Aussagen über RealWorld-Performance machen kann, ist es mit herzlich egal, ob und wer darin wie cheatet.

Weg mit dem Schrott !


Egal ist es imho nicht unbedingt. Denn es gibt da draußen eine ganze Menge DAU's die den 3DMark als den aussagekräftigen Bench schlechthin werten. Diesen Kunden durch einen so drastischen Cheat etwas vorzugaukeln ist mir persönlich nicht egal.

Man übertrage das mal auf ein anderes Gebiet. Nehmen wir mal PKWs. Hersteller A ermittelt seinen Verbauchswert bei normalen Bedingungen im Straßenverkehr während Hersteller B sein PKW nur auf dem Prüfstand fahren lässt und mal eben den Luftwiderstand dabei unter den Tisch fallen läßt. Ist ja logisch, dass der letztere einen besseren Verbrauch angeben kann, oder ?

Als ein Kunde, der vielleicht wenig von Autos versteht und nur auf die Angabe des Herstellers angewiesen ist, wird man so kräftig über den Tisch gezogen.

Stellt sich eben jetzt nur noch die Frage: wollte nV erwischt werden oder wollten sie nicht :naughty:

Razor
2003-05-25, 09:21:12
Originally posted by Exxtreme

Gegen den PS1.4 spricht eigentlich nichts. Dieser ist ein Teil der >=DX8.x-Spezifikation. Weder ATi noch FM noch Micro$~1 können was dafür, daß NV den PS1.4 nicht richtig haben will.
PS1.4 ist ein optionales Feature, wie so viele andere Dinge auch (da kann Demirug bestimmt Näheres zu sagen ;-) und lediglich auf den Wunsch von ATI implementiert worden. Auch die Hardware-Unterstützung ist bei DX8-Karten ausschließlich bei ATI zu sehen. Insofern verschließt sich mir jetzt der Sinn Deiner Bemerkung.

Soll das jetzt heißen, dass eine Hardware grundsätzliche ALLE Features einer API unterstützen muss ?
Wenn ja, nenn mir bitte eine, die das tut !

Razor

WeyounTM
2003-05-25, 09:24:41
Originally posted by Razor

PS1.4 ist ein optionales Feature, wie so viele andere Dinge auch (da kann Demirug bestimmt Näheres zu sagen ;-) und lediglich auf den Wunsch von ATI implementiert worden.

Nach all den endlosen Diskussionen die ich hier schon mitgelesen habe ist eines ziemlich klar: da die 2.0 Shader abwärtskompatibel sein müssen, ist die Unterstützung von 1.4 schlicht Pflicht. Nicht optional, oder ?

Unregistered
2003-05-25, 09:24:47
Originally posted by Razor

PS1.4 ist ein optionales Feature, wie so viele andere Dinge auch (da kann Demirug bestimmt Näheres zu sagen ;-) und lediglich auf den Wunsch von ATI implementiert worden. Auch die Hardware-Unterstützung ist bei DX8-Karten ausschließlich bei ATI zu sehen. Insofern verschließt sich mir jetzt der Sinn Deiner Bemerkung.

Soll das jetzt heißen, dass eine Hardware grundsätzliche ALLE Features einer API unterstützen muss ?
Wenn ja, nenn mir bitte eine, die das tut !

Razor


Exxreme schrieb nur, dass PS 1.4 "eine Teil der Teil der >=DX8.x-Spezifikation" ist. Er hat nichts davon geschrieben, dass es zwingend notwendig ist.

ow
2003-05-25, 09:26:22
Originally posted by Razor

PS1.4 ist ein optionales Feature,

Razor

???
Seit DX9 nicht mehr. Da ist PS1.4 Pflicht!

Razor
2003-05-25, 09:27:56
Originally posted by Yosh

Egal ist es imho nicht unbedingt. Denn es gibt da draußen eine ganze Menge DAU's die den 3DMark als den aussagekräftigen Bench schlechthin werten. Diesen Kunden durch einen so drastischen Cheat etwas vorzugaukeln ist mir persönlich nicht egal.
Das ist Dein gutes Recht...
Nur muss man ja nicht Deine Meinung teilen.

Mir wäre es sehr viel wichtiger, diese Daus da draußen wachzurütteln !
So wäre es also 'gut', wenn dieses Thema nun auch in die Printmedien gebracht würde (allen voran die Computerbild *g*), damit auch der letzte Idiot begreift, dass der Murks schrott ist... und schon immer war.
Originally posted by Yosh

Man übertrage das mal auf ein anderes Gebiet. Nehmen wir mal PKWs. Hersteller A ermittelt seinen Verbauchswert bei normalen Bedingungen im Straßenverkehr während Hersteller B sein PKW nur auf dem Prüfstand fahren lässt und mal eben den Luftwiderstand dabei unter den Tisch fallen läßt. Ist ja logisch, dass der letztere einen besseren Verbrauch angeben kann, oder ?
Das ist mir zu abgehoben...
Gibt es denn ein allgemeingültiges Simulationsprogramm für alle Auto's dieser Welt, welches 'reale' Aussagen über den Verbrauch aller vergangenen und zukünftigen Automobile treffen will ?
Wohl eher nicht, oder ?
Originally posted by Yosh

Als ein Kunde, der vielleicht wenig von Autos versteht und nur auf die Angabe des Herstellers angewiesen ist, wird man so kräftig über den Tisch gezogen.
Nur kommen die Angaben hier nicht von einem Hersteller, sondern von einem 'unabhängigen' Bench.
Insofern hinkt dieser Vergleich ganz gewaltig !
Originally posted by Yosh

Stellt sich eben jetzt nur noch die Frage: wollte nV erwischt werden oder wollten sie nicht :naughty:
Und genau diese Frage dürfte demnächst geklärt werden...
Würde mich nicht wundern, wenn wir hier eine Überraschung erleben werden.
:D

Bis denne

Razor

Razor
2003-05-25, 09:30:45
Originally posted by Yosh

Nach all den endlosen Diskussionen die ich hier schon mitgelesen habe ist eines ziemlich klar: da die 2.0 Shader abwärtskompatibel sein müssen, ist die Unterstützung von 1.4 schlicht Pflicht. Nicht optional, oder ?
Hatte ich schon in den anderen Posts geschrieben...

Für DX8(.1) optional, im Rahmen der PS2.0-Abwärtskompatibilität muss es zumindest angeboten, aber nicht voll in Hardware unterstützt werden.

Und zwischen 'anbieten' und 'voll in Hardware unterstützen' gibt es einen klaffenden Canyon.
;-)

Razor

Razor
2003-05-25, 09:31:27
Originally posted by ow

???
Seit DX9 nicht mehr. Da ist PS1.4 Pflicht!
Habe mich da wohl unglücklich ausgedrückt, oder ?
:D

Razor

WeyounTM
2003-05-25, 09:37:44
Originally posted by Razor
Das ist Dein gutes Recht...
Nur muss man ja nicht Deine Meinung teilen.

Null Problemo. Wollte Dir auch nur andeuten, dass man es auch aus einer anderen Sichtweise sehen kann. Ich will damit keineswegs ausdrücken, dass Deine Sichtweise falsch ist ;)

Originally posted by Razor Mir wäre es sehr viel wichtiger, diese Daus da draußen wachzurütteln !
So wäre es also 'gut', wenn dieses Thema nun auch in die Printmedien gebracht würde (allen voran die Computerbild *g*), damit auch der letzte Idiot begreift, dass der Murks schrott ist... und schon immer war.

Das wäre zwar wünschenswert, aber ich befürchte leider, dass es nicht funzen wird. Die meisten User wollen gar nicht all die Feinheiten wissen, die sich hinter der Technik verbergen. Ich weiss nicht ob das manchmal ein Segen oder ein Fluch ist ;)


Das ist mir zu abgehoben...
Gibt es denn ein allgemeingültiges Simulationsprogramm für alle Auto's dieser Welt, welches 'reale' Aussagen über den Verbrauch aller vergangenen und zukünftigen Automobile treffen will ?
Wohl eher nicht, oder ?

Hmmm...nun gut. Ist vielleicht zu früh am Sonntag Morgen..kann mich mit dem Vergleichauch vergallopiert haben. Brauche wohl noch eine Tasse Kaffee mehr ;) !
Was ich meine ist folgendes: die Bedingungen unter denen ein Vergleichstest ablaufen soll, sollten immer gleich sein. Wenn der eine Hersteller dabei ein wichtiges Detail schlabbert ist der ganze Vergleich hinüber.

Und ja, auch ich denke, dass der 3DMark sicherlich nicht hundert Pro dazu geeignet ist. Aber es geht auch ums Prinzip. Und dabei bleibt festzuhalten, dass Cheaten nicht gerade kundenfreundlich ist.

Und genau diese Frage dürfte demnächst geklärt werden...
Würde mich nicht wundern, wenn wir hier eine Überraschung erleben werden.
:D

Ich bin auch sehr gespannt :D

Pathfinder
2003-05-25, 09:45:25
Originally posted by Razor

Er ist weit entfernt von der 'RealWorld' aber trotzdem 'Zukunftsweisend' ?
Wie das ?
???

Auch kann man die einzelnen Werte NICHT ablesen, wenn man sich nicht registriert und seine Systeminformationen und die Ergebnisse der Öffentlichkeit preis gibt. Als Analyse-Tool (im eigenen System !) taugt es nur in der Pro-Version, die aber kostenpflichtig ist.

Wer sich also nicht registriert und seine Infoemationen preis gibt, wird also draußen gelassen.
Und genau das vermute ich auch mit dem Beta-Programm...

WEG MIT DEM MURKS !
Wie kann nur jemand glauben, dass mit einem komerziellen Benchmark alles stimmen kann ?
???

Mir wäre es wesentlich lieber, dass solche Bench-Suiten
a) real existierende Engines benutzen (also z.Bsp. installierte Vollversionen der Games) und
b) in ihrer Funktionsweise offen gelegt werden.

Erst dann haben wir den wirtschaftlichen Einfluss wieder raus...
Sorry, aber...

Razor

Razor,
siehst du etwa keine wirtschaftlichen Einfluß in der Zusammenarbeit zwischen ID(Doom3) und NVidia? Glaubst du wirklich, daß mit dem "Ableben" von 3DMark2003 jeglicher wirtschaftlicher Einfluß der Grafikchiphersteller auf (Spiele-/Benchmark-)Softwarehersteller beendet wäre?

NVidia zeigt sich als schlechter Verlierer nach dem Motte: Wenn wir den 3DMark2003 nicht gewinnen dürfen(!!!), dann muß er einfach weg von der Bildfläche, oder: Was nicht sein darf, das kann nicht sein!
Du unterscheidest dich in dieser Hinsicht nicht von NVidia. Es stünde euch beide gut zu Gesicht, wenn ihr den Standard PS1.4/PS2.0 als ein in/durch DX8/9 implementierte Technologie anerkennen könntet und NVidia auf eine Verbesserung ihrer Chip-Architektur hinsichtlich PS1.4/PS2.0 arbeiten würde.

Pathfinder

Exxtreme
2003-05-25, 09:46:36
Originally posted by Unregistered



Exxreme schrieb nur, dass PS 1.4 "eine Teil der Teil der >=DX8.x-Spezifikation" ist. Er hat nichts davon geschrieben, dass es zwingend notwendig ist.
Es ist zwingend notwendig bei DX9. Bei DX8 ist es mehr oder weniger optional.

Razor
2003-05-25, 09:48:11
Originally posted by Yosh
Null Problemo. Wollte Dir auch nur andeuten, dass man es auch aus einer anderen Sichtweise sehen kann. Ich will damit keineswegs ausdrücken, dass Deine Sichtweise falsch ist ;)
Klaro.
Originally posted by Yosh
Das wäre zwar wünschenswert, aber ich befürchte leider, dass es nicht funzen wird. Die meisten User wollen gar nicht all die Feinheiten wissen, die sich hinter der Technik verbergen. Ich weiss nicht ob das manchmal ein Segen oder ein Fluch ist ;)
Viel wichter wäre es doch zu wissen, wie eine zukünftige Anschaffung tatsächlich performt. Und hierzu sind synth-Benches schlicht nicht geeignet...
Originally posted by Yosh
Hmmm...nun gut. Ist vielleicht zu früh am Sonntag Morgen..kann mich mit dem Vergleichauch vergallopiert haben. Brauche wohl noch eine Tasse Kaffee mehr ;) !
Hab' mir auch gerade noch 'ne Tasse geholt...
:D
Originally posted by Yosh
Was ich meine ist folgendes: die Bedingungen unter denen ein Vergleichstest ablaufen soll, sollten immer gleich sein. Wenn der eine Hersteller dabei ein wichtiges Detail schlabbert ist der ganze Vergleich hinüber.
Wohl wahr.
Und was wir hieraus gelernt haben: Alle 'schlabbern'...
(der eine mehr, der andere weniger ;-)
Originally posted by Yosh
Und ja, auch ich denke, dass der 3DMark sicherlich nicht hundert Pro dazu geeignet ist. Aber es geht auch ums Prinzip. Und dabei bleibt festzuhalten, dass Cheaten nicht gerade kundenfreundlich ist.
"huntert pro" ist gut...
Dieser Bench vermittelt nicht einmal ansatzweise Aussagen über 'RealWorld'-Performance.
Und klar ist Cheaten nicht kundenfreundlich... was Werbung im übrigen auch nicht ist.
Originally posted by Yosh
Ich bin auch sehr gespannt :D
Mal schaun'...
;-)

Razor

Exxtreme
2003-05-25, 09:49:08
Originally posted by Razor
Und zwischen 'anbieten' und 'voll in Hardware unterstützen' gibt es einen klaffenden Canyon.
;-)

Razor
Das wissen wir... und was soll uns das sagen?

Razor
2003-05-25, 09:49:15
Originally posted by Exxtreme

Es ist zwingend notwendig bei DX9. Bei DX8 ist es mehr oder weniger optional.
Du bist jetzt schon der vierte (glaube ich ;-), der das zum Besten gibt.
Und bei DX8(.1) ist es definitiv rein optional !

Razor

Razor
2003-05-25, 09:49:50
Originally posted by Exxtreme

Das wissen wir... und was soll uns das sagen?
"Was hat der PS1.4 in einem DX9-Bench (GT4) zu suchen ?"
:D

Razor

Demirug
2003-05-25, 09:50:24
Originally posted by Exxtreme

Es ist zwingend notwendig bei DX9. Bei DX8 ist es mehr oder weniger optional.

Es ist auch nicht bei DX9 zwingend. Nur wer PS 2.0 oder mehr anbieten möchte muss auch PS 1.4 anbieten. Es gibt bei DX ja kaum Dinge die wirklich zwingend erfüllt werden müssen. Nur bestimmte Regeln was die Abhänigkeiten angeht.

Razor
2003-05-25, 09:55:47
Originally posted by Pathfinder

Razor,
siehst du etwa keine wirtschaftlichen Einfluß in der Zusammenarbeit zwischen ID(Doom3) und NVidia? Glaubst du wirklich, daß mit dem "Ableben" von 3DMark2003 jeglicher wirtschaftlicher Einfluß der Grafikchiphersteller auf (Spiele-/Benchmark-)Softwarehersteller beendet wäre?
Definitiv nein !
Aber zumindest würde es denn Sinn von synth-Benches im Zusammenhang mit 'RealWorld'-Betrachtungen in Frage stellen.
Originally posted by Pathfinder

NVidia zeigt sich als schlechter Verlierer nach dem Motte: Wenn wir den 3DMark2003 nicht gewinnen dürfen(!!!), dann muß er einfach weg von der Bildfläche, oder: Was nicht sein darf, das kann nicht sein!
Das ist doch jetzt eine Vermutung von Dir, oder ?
Hast Du einen Einblick in den Source-Code, der Dir einen Hintergrund hierfür liefert.
Weißt Du, warum damals nVidia aus dem Beta-Programm ausgestiegen ist ?

IMO sind da noch viel zu viele Fragen offen, als dass man hierzu vernünftige Aussagen treffen kann.
Aber eines scheint sicher: 'RealWorld'-Betrachtungen werden mit dem Murks offenbar nicht gemacht.
Originally posted by Pathfinder

Du unterscheidest dich in dieser Hinsicht nicht von NVidia. Es stünde euch beide gut zu Gesicht, wenn ihr den Standard PS1.4/PS2.0 als ein in/durch DX8/9 implementierte Technologie anerkennen könntet und NVidia auf eine Verbesserung ihrer Chip-Architektur hinsichtlich PS1.4/PS2.0 arbeiten würde.
Bei PS2.0 gebe ich Dir bei einer DX9-Hardware recht, nicht aber bei PS1.4.
nVidia muss dieses Feature anbieten, mehr aber auch nicht.

Warum sollten sie jetzt ihre ganze Hardware umstricken, nur damit auch eine ATI-Technologie in Hardware voll unterstützt wird ? Eine Antwort hierauf würde mich wirklich interessieren, auch wenn sie vielleicht ein wenig OT wäre...

Razor

Exxtreme
2003-05-25, 09:59:07
Originally posted by Razor

"Was hat der PS1.4 in einem DX9-Bench (GT4) zu suchen ?"
:D

Razor
Razor,

da du wohl kein Programmierer bist, sage ich dir mal eine (inoffizielle) Regel beim Coden.


Man nimmt für einen Zweck meist die ausreichende Technik, sprich wenn sich ein Effekt mit PS1.4 und PS2.0 realisieren lässt, dann nimt man trotzdem PS1.4.

Bakunin3
2003-05-25, 10:02:53
Eine sicher ziemlich dumme Frage will ich stellen:

Warum wird ATi (hier)genau wie nVidia Cheating vorgeworfen, wenn sie doch ihren Treiber nicht auf Geschwindigkeit bei 3DMark2k3 getrimmt haben, sondern sogar 2% langsamer herauskommen, nicht 24% schneller, wie nvidia.

Warum wird ein etwas langsamerer Treiber hier auch als "cheating" begriffen.

Das will mir nicht in den Kopf.
Für Aufklärung dankbar:

B3

Razor
2003-05-25, 10:09:48
Originally posted by Exxtreme

Razor,

da du wohl kein Programmierer bist, sage ich dir mal eine (inoffizielle) Regel beim Coden.

Man nimmt für einen Zweck meist die ausreichende Technik, sprich wenn sich ein Effekt mit PS1.4 und PS2.0 realisieren lässt, dann nimt man trotzdem PS1.4.
Dieses Prinzip ist mir durchaus bekannt, Exxtreme...
;-)

Aber gilt das auch für den Fall, der eingeschränkten Nutzbarkeit ?
Schließlich laufen offenbar die PS1.4 nur auf ATI-Hardware gut...
(unter DX8 sogar exklusiv ;-)

Was spricht also dagegen einen PS2.0 zu nehmen, auch wenn ein PS1.4 reichen würde ?
Ist die Arbeit einen PS1.4-Shader zu erstellern 'einfacher', als einen Shader für 2.0 ?
Und schlußendlich startet der Bench (GT4) ja nur auf PS2.0-Hardware...

Denk mal darüber nach...
(ich weiß, dass Du das schon längst getan hast)
:D

Razor

P.S.: offenbar ist es ja wohl möglich GT2/3 auch auf den PS1.1 laufen zu lassen, ohne BQ-Beeinträchtigungen zu produzieren... wieso ist dieses Prinzip nicht auch hier angewandt worden ?
???

Demirug
2003-05-25, 10:12:54
Originally posted by Exxtreme

Razor,

da du wohl kein Programmierer bist, sage ich dir mal eine (inoffizielle) Regel beim Coden.


Man nimmt für einen Zweck meist die ausreichende Technik, sprich wenn sich ein Effekt mit PS1.4 und PS2.0 realisieren lässt, dann nimt man trotzdem PS1.4.

Ausser deine Optimierunghandbücher sagen dir das was du für offensichtlich richtig hälst denoch falsch ist. OK in den performance Guidelines steht nichts über PS 1.4. Aber bei alle belangen was Shader angeht stehen da immer sehr lange Erklärungen was man alles berücksichtigen muss immer gefolgt von dem einfachen Satz "oder nimm den Cg-Compiler dieser beherscht die ganzen Regeln". Und für die die es nicht wissen der Cg-Compiler baut keine PS 1.4 Programme. Das ändert natürlich nichts daran das nvidia mit der NV3x Rheie eine Hardware geschaffen hat die optimal für 2.0+ ist und die Basis für 3.0 enthält. Mit 1.4 und 2.0 Programmen kommt diese Hardware aus dem Stehgreif einfach nicht zurecht. Hier ist dann eben der Treiber oder der Devsupport gefragt. Wenn der die Entwickler lange genung bearbeitet legen die auch 2.0+ Shadersets bei.

Razor
2003-05-25, 10:13:26
Originally posted by Bakunin3
Eine sicher ziemlich dumme Frage will ich stellen:

Warum wird ATi (hier)genau wie nVidia Cheating vorgeworfen, wenn sie doch ihren Treiber nicht auf Geschwindigkeit bei 3DMark2k3 getrimmt haben, sondern sogar 2% langsamer herauskommen, nicht 24% schneller, wie nvidia.

Warum wird ein etwas langsamerer Treiber hier auch als "cheating" begriffen.

Das will mir nicht in den Kopf.
Für Aufklärung dankbar:

B3
Da hast Du offenbar etwas mißverstanden, Bakunin...
:D

Es geht hier maßgeblich um den GT4 vom Murks, bei dem satte 8% drin waren. Die 2% kommen nur zustande, weil die 8% auf die 4 GT's umgelegt werden.

Um es klar zu sagen: ATI 'cheatet' (lt. FM's Definition !) nur beim GT4 !

Ich hoffe, dass dies nun klarer für Dich ist.
;-)

Razor

Demirug
2003-05-25, 10:19:48
Originally posted by Bakunin3
Eine sicher ziemlich dumme Frage will ich stellen:

Warum wird ATi (hier)genau wie nVidia Cheating vorgeworfen, wenn sie doch ihren Treiber nicht auf Geschwindigkeit bei 3DMark2k3 getrimmt haben, sondern sogar 2% langsamer herauskommen, nicht 24% schneller, wie nvidia.

Warum wird ein etwas langsamerer Treiber hier auch als "cheating" begriffen.

Das will mir nicht in den Kopf.
Für Aufklärung dankbar:

B3

Langsamer? Ja nach dem Patch war ATI genau wie NVIDIA langsamer. Beide haben spezifisch auf den 3dmark optimiert was für FM den generellen Tatbestand des Cheatings erfüllt wobei man das ATI als zahlenden Kunden nicht so klar vorgeworfen hat wie nVidia . OK, nVidia war dabei viel dreister aber zumindestens hätte man für den Gametest 4 für ATI auch einen entsprechenden Absatz mit einer genauen Analyse in das Dokument aufnehmen müssen. So hat das ganze jetzt einen noch faderen Beigeschmak bekommen.

Exxtreme
2003-05-25, 10:20:32
Originally posted by Razor

Dieses Prinzip ist mir durchaus bekannt, Exxtreme...
;-)

Aber gilt das auch für den Fall, der eingeschränkten Nutzbarkeit ?
Schließlich laufen offenbar die PS1.4 nur auf ATI-Hardware gut...
(unter DX8 sogar exklusiv ;-)

Wenn der PS1.4 nicht gescheit auf NV-HW läuft dann gibt es nur einen Schuldigen an diesem Umstand und das ist NV selber.
Originally posted by Razor
Was spricht also dagegen einen PS2.0 zu nehmen, auch wenn ein PS1.4 reichen würde ?
Ist die Arbeit einen PS1.4-Shader zu erstellern 'einfacher', als einen Shader für 2.0 ?
Und schlußendlich startet der Bench (GT4) ja nur auf PS2.0-Hardware...

Denk mal darüber nach...
(ich weiß, dass Du das schon längst getan hast)
:D

Razor

Razor,

du scheinst wirklich extrem auf die DX-Versionen und deren Trennung fixiert zu sein.

So denkt aber kaum ein Programmierer. Der PS1.4 ist ein Teil von DX8 und deswegen auch von DX9. Und wenn er für einen Effekt reicht dann nimmt man ihn anstatt den PS2.0 zu nehmen.

Schau dir mal die Spiele an. Dort werden auch die DX-Versionen bunt durcheinander gemischt. In UT2003 stecken wohl Teile aller DX-Versionen ab DX5 drin *edit* bis auf DX9.x natürlich.

Thowe
2003-05-25, 10:25:08
1. PS1.4 rulen (nur für Razor :) )

2. Sehe ich weder bei ATI noch bei NVIDIA einen Cheat, für mich ist das Notwehr gegen die begrenzten Bewertungs-Algorithmen die die geistige Fähigkeit potentieller Käufer freisetzt.

3. Finde ich Bewertungen Anhand von Zahlen eh blöd

4. Der Thread ist doof :P

Razor
2003-05-25, 10:28:20
Originally posted by Exxtreme

Wenn der PS1.4 nicht gescheit auf NV-HW läuft dann gibt es nur einen Schuldigen an diesem Umstand und das ist NV selber.
Weil ein Unternehmen nicht die Hardware-Implementierungen der Konkurrenz berücksichtigt ?
Na komm, Exxtreme...
Originally posted by Exxtreme

du scheinst wirklich extrem auf die DX-Versionen und deren Trennung fixiert zu sein.

So denkt aber kaum ein Programmierer. Der PS1.4 ist ein Teil von DX8 und deswegen auch von DX9. Und wenn er für einen Effekt reicht dann nimmt man ihn anstatt den PS2.0 zu nehmen.
Nochmal: warum ?
???
Originally posted by Exxtreme

Schau dir mal die Spiele an. Dort werden auch die DX-Versionen bunt durcheinander gemischt. In UT2003 stecken wohl Teile aller DX-Versionen ab DX5 drin.
Und auch in UT2k3 finden sich keine PS1.4-Effekte, obwohl Teil von DX8(.1)...

Schau Dir bitte zu diesem Thema auch den Kommentar von Demirug an.
Ich bin kein DX-Progger...

Razor

Razor
2003-05-25, 10:29:18
Originally posted by Thowe
1. PS1.4 rulen (nur für Razor :) )

2. Sehe ich weder bei ATI noch bei NVIDIA einen Cheat, für mich ist das Notwehr gegen die begrenzten Bewertungs-Algorithmen die die geistige Fähigkeit potentieller Käufer freisetzt.

3. Finde ich Bewertungen Anhand von Zahlen eh blöd

4. Der Thread ist doof :P
Thx Thowe !
Besonders für Punkt 1...
:loveya:

Razor

Xcellerator
2003-05-25, 10:39:07
Originally posted by Razor

Nochmal: warum ?
???



wie oft denn nocht?

wenn man die gewünschten effekte so problemlos realiesieren kann und so ganz nebenbei noch einer viel größere masse einen kleinen geschwindigkeitsvorteil (sämtlichen 8500/9000/9100/9200-besitzern) bieten kann...warum nicht?

kannst du mir diese frage beantworten?

Demirug
2003-05-25, 10:40:25
Razor, verstehe ich mich bitte nicht falsch ich habe grundsätzlich kein Problem mit den 1.4 PS. Ee gibt auch in der grossen Welt der Shader ein schmales Band wo man diese einsetzten kann. Und zwar wenn man mehr als 4 Texturen aber weniger als 7 braucht.

Jetzt gibt es aber wie gesagt die Begrenzungen die einem durch die Performance Guidelines auferlegt werden. Und wenn mir ein IHV sagt das ich die Finger von bestimmten Sachen lassen soll dann tuhe ich das eben auch.

nv darf aber nun nicht damit Rechnen das jeder Entwickler sich an das hält was sie in iheren Guidelines schreiben. (FM tut es ja offensichtlich nicht) In diesen Fällen müssen sie eben das beste daraus machen und auch mit Shadern klarkommen die sich nicht an ihrer Regelen halten. In solchen fällen halte ich es aber auch für vollkommen legal von nvidia (oder einem anderen IHV) sich gegen "verstösse" gegen die Guidelines mit spezifischen Treiberoptimierungen zu wehren.

Exxtreme
2003-05-25, 10:43:13
Originally posted by Razor
Weil ein Unternehmen nicht die Hardware-Implementierungen der Konkurrenz berücksichtigt ?
Na komm, Exxtreme...

Tja, die ATi-HW hat wohl auch keine echte HW-Unterstützung für <PS1.4 drin und trotzdem laufen die Shader schnell genug. Es hängt ausschliesslich von NV ab. Und weswegen keine Technik nutzen blos weil eine Firma meint diese Technik nicht so richtig unterstützen zu wollen?
Originally posted by Razor
Nochmal: warum ?
???

Weil diese vollkommen ausreichen. Das ist ist die Antwort die ich dir geben kann. Nicht-Programmierer werden wohl kaum verstehen warum es so ist.
Originally posted by Razor
Und auch in UT2k3 finden sich keine PS1.4-Effekte, obwohl Teil von DX8(.1)...

Genau. PS1.4 wäre wohl reiner Overkill gewesen und deswegen hat man ihn nicht genommen.

Wie gesagt, man nimmt immer nur die Technik, die für einen Zweck ausreicht.

Wärest du zufrieden gewesen, wenn man ausschliesslich den PS1.4 genommen hätte? (Rein rhetorische Frage... :D )


Für mich ist hier EOD bezüglich Sinn und Unsinn des PS1.4.

Pathfinder
2003-05-25, 10:50:17
Originally posted by Razor
Definitiv nein !

NVidia bestätigte den gegenseitigen (Design-)Einfluß bereits, indem sie öffentlich darlegten, ihr Chip sei hinsichtlich Schattenberechnung in Doom3 optimiert. Kurzum, hier noch zu leugnen heißt Fakten zu ignorieren!
Originally posted by Razor
Das ist doch jetzt eine Vermutung von Dir, oder ?
Hast Du einen Einblick in den Source-Code, der Dir einen Hintergrund hierfür liefert.
Weißt Du, warum damals nVidia aus dem Beta-Programm ausgestiegen ist ?

Nein, keine Vermutung, sondern eine Umschreibung von NVidia's Forderungen bezüglich 3DMark2003, die sich übrigens mit deiner Forderung deckt. Ich erinnere "...weg mit dem Murks !..."
Originally posted by Razor
Aber zumindest würde es denn Sinn von synth-Benches im Zusammenhang mit 'RealWorld'-Betrachtungen in Frage stellen.
IMO sind da noch viel zu viele Fragen offen, als dass man hierzu vernünftige Aussagen treffen kann.
Aber eines scheint sicher: 'RealWorld'-Betrachtungen werden mit dem Murks offenbar nicht gemacht.

Bei PS2.0 gebe ich Dir bei einer DX9-Hardware recht, nicht aber bei PS1.4.
nVidia muss dieses Feature anbieten, mehr aber auch nicht.

Warum sollten sie jetzt ihre ganze Hardware umstricken, nur damit auch eine ATI-Technologie in Hardware voll unterstützt wird ? Eine Antwort hierauf würde mich wirklich interessieren, auch wenn sie vielleicht ein wenig OT wäre...

Razor

Es ist bekannt, daß ATI das Design von PS2.0 in DX9 starkt beeinflussen konnte, wie dies für NVidia bei DX8.0 möglich war. DX9 ist dennoch ein Microsoft Produkt und 3DMark2003 nutzt lediglich die zwei nächsten Schritte in der Evolution des APIs, DX8.1(PS1.4) und DX9/PS2.0, so wie es viele Spiele der nächten Generationen machen werden.
Sicher gibt es berechtigte Kritik am 3DMark2003. Die Geister scheiden sich an der Frage, was man mit dem 3DMark2003 eigentlich anfangen soll und was er tatsächlich aussagt. Dennoch, da bin ich mir sicher, gibt es auch für den Bench eine Daseinberechtigung!
Meine Empfehlung an NVidia hinsichtlich 3DMark2003 wäre:
Nicht gezielt den 3DMark2003 zu diskreditieren, sondern zu akzeptieren, daß die PS1.4/PS2.0 Implementierung in den eigenen Chips verbessert werden muß, um in zukünftigen Spielen besser dastehen zu können. Warum gegen etwas kämpfen, was ohnehin nicht aufzuhalten ist?!


Darüber hinaus bin ich mir sicher:
Sollte ein 3DMark200x mit PS3.0 Disziplin NVidia's Chips wieder besser munden, dann wirst du bestimmt den synthetischen Bench wieder aufleben lassen wollen. Stimmt, diesmal ist es eine Vermutung, aber sie liegt nahe. Möglicherweise hast du bis zu diesem Zeitpunkt deiner bedingungslosen Hingabe bezüglich NVidia entsagt.

G.
Pathfinder

StefanV
2003-05-25, 11:08:50
Oh mann, mal wieder schön zu sehen, daß einige das nachplappern, was bestimmte IHVs vorkauen...

Früher hat es NIEMANDEN gestört, daß 3DFX Hardware und die Kyros absolut beschissen auf dem 3Dmark laufen, aus der NV Ecke kamen auch nur Kommentare wie pech gehabt usw...

Ist schon lustig zu sehen, daß JETZT auf einmal, wo NV im aktuellen 3DMark richtig abkackt, fordern, das der 3Dmark weg muß, schöne Einstellung, besonders da denjenigen die 2 Versionen vorher, die auf NV HW besser liefen, nicht störten...

Die gleiche Leier auch bei den Pixelshadern der Version 1.4, die ja auf NV HW sooo schlecht laufen und deswegen gefälligst nicht einzusetzen sind...

Solangsam frage ich mich echt, was für eine scheiße NV mit den NV3xern gebaut hat, da aktuelle Shader nicht wirklich gut auf ihrer Hardware laufen...

Womit man, wenn man gemein ist, NV ankreiden könnte, daß sie den Standard ignorieren und versuchen einen eigenen Standard zu schaffen...

Jetzt bleibt nur noch abzuwarten, wie SIS, S3, Trident und PowerVR Hardware auf Shader reagieren werden, wenn die 'ATI Shader' auf diesen Chips besser laufen, dann könnte NV ein mittelschweres Problem bekommen...

aths
2003-05-25, 11:08:53
Originally posted by Razor
Wo ist der Unterschied zwischen Cheaten und Optimieren ? Wo die Grenze ?Das ist Ansichtssache.
Originally posted by Razor
Tatsache ist, dass nach FM's Definition schlicht beide gecheatet haben.
Pech für ATI...
;-)Wieso Pech? Pech für NV, weil sie offenbar viel mehr gecheatet haben!
Originally posted by Razor
Bei DEM Feldzug wirst Du verlieren...
(und mir persönlich ist ein Leerzeichen völlig egal ;-)Geplenke sieht aber doof aus. Und ist zudem, ganz nüchtern betrachtet, falsch.
Originally posted by Razor
Zum Beispiel ?
Dass ATI-Hardware mit den Schrott-Engines vom FM besser klar kommt ?
???Es ist sicherlich ein _Vorteil_, wenn eine Hardware auch mit nicht optimiertem Code gut zurecht kommt.

aths
2003-05-25, 11:13:22
Originally posted by Razor
Dann sag mir doch bitte mal, aths, warum FM hier nicht ein Scenario gewählt hat, was gleichermaßen schlecht für ATI und nVidia ist ? DAS ist IMO der eigentliche Streitpunkt... und wohl auch der Grund, warum nVidia aus dem Beta-Programm ausgestiegen ist.Die Frage ist imo falsch gestellt. FM hat ein bestimmtes Szenario genommen. FM kann nichts dafür, dass NV-HW hier vergleichsweise alt aussieht. NV hat seine HW offenbar in Richtung Doom3-Engine getrimmt. Sollte man JC jetzt bitten, seine Engine so zu ändern, dass die GF FX dort ihre Vorteile nicht mehr ausspielen kann?
Originally posted by Razor
Was bitte soll an einem Bench 'gut' sein, der die eine Hardware krass bevorzugt und auch noch hardware-spezifische Features (PS1.4) nutzt, um den einzigen Kontrahenden auf weiter Flur schlecht dastehen zu lassen, obwohl im JEDER RealWorld-Betrachtung eine andere Aussage gemacht wird ?Also, da kann man sich ja den Mund fusselig reden. Was ist am 1.4-er PS "hardware-spezifisch"? Wieso sollte der 1.4-er PS den "einzigen Kontrahenden" (von FM??? Eher von ATI, aber FM ist keine Abteilung von ATI) schlecht dastehen lassen? Die DX9-Karten (3DM03 behauptet von sich, ein DX9-Bench zu sein) von NV haben, wie jede DX9-Karte, auch PS.1.4. Da ist nicht "spezifisch", gell?
Originally posted by Razor
Sorry, aber irgendwie... Eben.

aths
2003-05-25, 11:14:57
Originally posted by Razor
Du willst also sagen, dass der eine Cheat 'böse' ist, als der andere Cheat, der 'verzeihbar' ist ?Ich möchte sagen, dass sich beide Cheats im Cheat-Grad deutlich unterscheiden.
Originally posted by Razor
Genauso argumentiert derzeit FM, obwohl von diesen Leuten BEIDE per Definition als Cheater enttarnt wurden, aber nur nVidia an den Pranger gestellt wurde.Offenbar, weil NV sehr viel mehr cheatet?
Originally posted by Razor
Immer wieder dieses "zweierlei Maß"...
(aber das kennen wir ja von Dir ;-)
:DUnd das aus deinem Munde...

aths
2003-05-25, 11:16:46
Originally posted by Razor
PS1.4 ist ein optionales Feature, wie so viele andere Dinge auch (da kann Demirug bestimmt Näheres zu sagen ;-) und lediglich auf den Wunsch von ATI implementiert worden. Auch die Hardware-Unterstützung ist bei DX8-Karten ausschließlich bei ATI zu sehen. Insofern verschließt sich mir jetzt der Sinn Deiner Bemerkung.Man redet sich wirklich den Mund fusselig. PS.1.4 ist kein optionales Feature, sondern Pflicht für jede DX9-Karte.

"Lediglich auf Wunsch von ATI", wenn ATI die bessere HW hatte, ist es doch gut, wenn es in DX dafür Support gibt? Außerdem wurde der 1.4-er Standard wohl kaum ohne NVs (vielleicht knurrend gegebenen) Segen definiert, denn es war ja klar, dass auch NV dereinst 1.4-er Support anbieten werden muss.

aths
2003-05-25, 11:18:48
Originally posted by Razor
"Was hat der PS1.4 in einem DX9-Bench (GT4) zu suchen ?"
:D Ab DX9 ist der 1.4-er Pflicht. Dass schon einige DX8-Karten den 1.4-er haben, ist aufgrund der nicht so tollen Marktdurchdringungen nicht interessant genug. Bei einem DX9-Bench ist der Einsatz vom 1.4-er Shader hingegen verständlich.

Exxtreme
2003-05-25, 11:18:58
aths,

lass es. Ich fürchte, es keinen Sinn.

aths
2003-05-25, 11:20:14
Originally posted by Razor
Nochmal: warum ?
??? Wenn der 1.4-er reicht, warum sollte man den Effekt mit Shaderversion 2.0 realisieren?

aths
2003-05-25, 11:21:12
Originally posted by Demirug
Ee gibt auch in der grossen Welt der Shader ein schmales Band wo man diese einsetzten kann. Und zwar wenn man mehr als 4 Texturen aber weniger als 7 braucht. Oder wenn man jede Textur 2 mal sampeln möchte.

StefanV
2003-05-25, 11:24:53
aths, Razor wird eh nie einsehen, daß der PS1.4 'gut' ist...

Warum, dazu sagen wir mal lieber nichts...

Razor
2003-05-25, 11:27:02
Originally posted by Xcellerator

wie oft denn nocht?

wenn man die gewünschten effekte so problemlos realiesieren kann und so ganz nebenbei noch einer viel größere masse einen kleinen geschwindigkeitsvorteil (sämtlichen 8500/9000/9100/9200-besitzern) bieten kann...warum nicht?

kannst du mir diese frage beantworten?
Ja, wenn Du mir eine andere Frage beantwortest:
"Wie hoch ist der Anteil an 'zusätzlicher' PS1.4-Hardware ?"
und
"Warum hat man für den GT2/3 dann nicht gleich ausschließlich auf den PS1.1 gesetzt ?"
:D

Razor

Bakunin3
2003-05-25, 11:28:05
Originally posted by Razor

Da hast Du offenbar etwas mißverstanden, Bakunin...
:D

Es geht hier maßgeblich um den GT4 vom Murks, bei dem satte 8% drin waren. Die 2% kommen nur zustande, weil die 8% auf die 4 GT's umgelegt werden.

Um es klar zu sagen: ATI 'cheatet' (lt. FM's Definition !) nur beim GT4 !

Ich hoffe, dass dies nun klarer für Dich ist.
;-)

Razor

*edit* Ahhh, wer lesen kann ist klar im Vorteil. Alles zurück, marsch, marsch... ich hatte mich einfach verlesen... ich kleiner Depp...

B3

Unregistered
2003-05-25, 11:28:11
Originally posted by Razor

Es geht hier maßgeblich um den GT4 vom Murks, bei dem satte 8% drin waren. Die 2% kommen nur zustande, weil die 8% auf die 4 GT's umgelegt werden.

Razor

Yep.. ATi cheated beim GT4 um 8%

ABER

Nvidia cheated beim GT4 um 50%, beim Pixelshader um >50% und beim Vertex-Shader um 37%

Dh, wenn endlich DX9-Spiele auf den Markt kommen hast du bei ATi 100% der Leistung (da die ja beim Pixel-Shader und Vertex-Shader nicht Schummeln) und bei Cheating-Nvidia nur 50% der Leistung oder sogar weniger

Siehe :

http://www.hardware.fr/html/news/#5797


Ein DX9-Spiel läuft also auf einer Nvidia-Karte als Slideshow. Und du fühlst dich nicht betrogen, obwohl du auch wegen der DX9-Fähigkeiten eine FX5200 gewählt hast und keine GF4Ti4200. ManoMan... du bist wirklich gutmütig.

Wie wärs, ich hätte da noch einen alten Pentium133 rumstehen; gut erhalten mit viel RAM und so..für Euro 500,- kriegst du den gaanz günstig. :) Du läßt dir schließlich jeden Bären aufbinden warum also nicht auch diesen.

M O
2003-05-25, 11:29:04
Originally posted by Xcellerator



wie oft denn nocht?

wenn man die gewünschten effekte so problemlos realiesieren kann und so ganz nebenbei noch einer viel größere masse einen kleinen geschwindigkeitsvorteil (sämtlichen 8500/9000/9100/9200-besitzern) bieten kann...warum nicht?

kannst du mir diese frage beantworten?

DARUM NICHT
weil der murks ein DX9 graka test sein soll und nicht ein DX8 und da hat ps1.4 nichts zu suchen

WeyounTM
2003-05-25, 11:30:43
Originally posted by Thowe


4. Der Thread ist doof :P

LOL ! Haste denn Deinen Wauwi Niveau hier ausfindig machen können oder ist er immer noch verschwindibusmäßig unterwegens ;)

Exxtreme
2003-05-25, 11:30:51
Originally posted by M O


DARUM NICHT
weil der murks ein DX9 graka test sein soll und nicht ein DX8 und da hat ps1.4 nichts zu suchen
Wer sagt, daß der 3Dmark03 ein DX9-only-Test ist und dort der PS1.4 nichts zu suchen hat?

StefanV
2003-05-25, 11:31:56
Originally posted by M O
DARUM NICHT
weil der murks ein DX9 graka test sein soll und nicht ein DX8 und da hat ps1.4 nichts zu suchen

Oh mann...

Die Postings von Exxtreme, Demirug und aths zu PS1.4 sind dir wohl entgangen, oder??

Und ein Progger nimmt nunmal den kleinsten Nenner, den er braucht, um einen Effekt darzustellen...

Außerdem läuft der 3Dmark 03 auch auf nicht DX9 HW...

Razor
2003-05-25, 11:32:01
Originally posted by Demirug
Razor, verstehe ich mich bitte nicht falsch ich habe grundsätzlich kein Problem mit den 1.4 PS. Ee gibt auch in der grossen Welt der Shader ein schmales Band wo man diese einsetzten kann. Und zwar wenn man mehr als 4 Texturen aber weniger als 7 braucht.

Jetzt gibt es aber wie gesagt die Begrenzungen die einem durch die Performance Guidelines auferlegt werden. Und wenn mir ein IHV sagt das ich die Finger von bestimmten Sachen lassen soll dann tuhe ich das eben auch.
Ich wollte nicht gesagt haben, dass Du damit ein Problem hast, Demirug !
Aber eben gerade dieses 'schmale' Band ist mein Ansatz...

Lohnt es sich bei der Verbreitung an PS1.4-unterstützender Hardware tatsächlich, diesen Pfad zu integrieren ?
Und warum soll es in einem reinem DX9-Bench (GT4) sinnvoll sein, PS1.4 zu nutzen, anstatt gleich einen PS2.0 ?

Das wären die Fragen, die mich interessieren...
Originally posted by Demirug
nv darf aber nun nicht damit Rechnen das jeder Entwickler sich an das hält was sie in iheren Guidelines schreiben. (FM tut es ja offensichtlich nicht) In diesen Fällen müssen sie eben das beste daraus machen und auch mit Shadern klarkommen die sich nicht an ihrer Regelen halten. In solchen fällen halte ich es aber auch für vollkommen legal von nvidia (oder einem anderen IHV) sich gegen "verstösse" gegen die Guidelines mit spezifischen Treiberoptimierungen zu wehren.
Es geht hier ja uch nicht um JEDEN Entwickler, sondern ausschließlich um FM.
Und die Frage, die zu beantworten ist, ist doch:
"Warum tat FM, was FM tat ?"
;-)

Und insbesondere Deinen letzten Satz möchte 100%'ig zustimmen !
(dem Rest natürlichg auch ;-)

Bis dann

Razor

Thowe
2003-05-25, 11:35:55
Originally posted by Yosh


LOL ! Haste denn Deinen Wauwi Niveau hier ausfindig machen können oder ist er immer noch verschwindibusmäßig unterwegens ;)

Leider nicht, sind immer noch "Niveaulos".

M O
2003-05-25, 11:36:41
Originally posted by aths
Bei einem DX9-Bench ist der Einsatz vom 1.4-er Shader hingegen verständlich.

?
bei einen DX9 bench würde ich mal sagen da wäre Ps 2.0 verständlicher als PS 1.4 oder ?

klar müssen DX9 karten auch PS1.4 verstehen aber für einen DX9 BENCH ist PS 2.0 auch plicht nicht nur 1.4

der murks ist fürn arsch

Razor
2003-05-25, 11:37:58
Originally posted by Exxtreme

Tja, die ATi-HW hat wohl auch keine echte HW-Unterstützung für <PS1.4 drin und trotzdem laufen die Shader schnell genug. Es hängt ausschliesslich von NV ab. Und weswegen keine Technik nutzen blos weil eine Firma meint diese Technik nicht so richtig unterstützen zu wollen?
Weißt Du, wie der Murks geproggt ist ?
Wenn dabei die ATI-spezifischen Guidelines zur Implementierung von PS1.4 berücksichtigt wurden (was sehr wahrscheinlich ist), dann sind diese für ATI Treiber 'optimal' integriert wirden...

Mehr muss ich dazu doch wohl nicht dagen, oder ?
Originally posted by Exxtreme

Weil diese vollkommen ausreichen. Das ist ist die Antwort die ich dir geben kann. Nicht-Programmierer werden wohl kaum verstehen warum es so ist.
Demirug ist ein Programmierer und er hat doch wohl beschieben, dass es von allen herstellern viele "Do" und "Don't" gibt. Offensichtlich wurden ATI's "Do"s befolgt, nVidia's "Don't"s aber nicht. Was auch der Grund für nVidia's Austritt gewesen sein könnte...
Originally posted by Exxtreme

Genau. PS1.4 wäre wohl reiner Overkill gewesen und deswegen hat man ihn nicht genommen.

Wie gesagt, man nimmt immer nur die Technik, die für einen Zweck ausreicht.

Wärest du zufrieden gewesen, wenn man ausschliesslich den PS1.4 genommen hätte? (Rein rhetorische Frage... :D )
Wäre auf jeden Fall der beste Weg gewesen, Epic in den Bankrott zu treiben !
:D
Originally posted by Exxtreme

Für mich ist hier EOD bezüglich Sinn und Unsinn des PS1.4.
Trotzdem konnte ich mir eine Antwort nicht verkneifen...
:D

Razor

Pathfinder
2003-05-25, 11:38:07
Originally posted by Demirug

Razor, verstehe ich mich bitte nicht falsch ich habe grundsätzlich kein Problem mit den 1.4 PS. Ee gibt auch in der grossen Welt der Shader ein schmales Band wo man diese einsetzten kann. Und zwar wenn man mehr als 4 Texturen aber weniger als 7 braucht.

Jetzt gibt es aber wie gesagt die Begrenzungen die einem durch die Performance Guidelines auferlegt werden. Und wenn mir ein IHV sagt das ich die Finger von bestimmten Sachen lassen soll dann tuhe ich das eben auch.

nv darf aber nun nicht damit Rechnen das jeder Entwickler sich an das hält was sie in iheren Guidelines schreiben. (FM tut es ja offensichtlich nicht) In diesen Fällen müssen sie eben das beste daraus machen und auch mit Shadern klarkommen die sich nicht an ihrer Regelen halten. In solchen fällen halte ich es aber auch für vollkommen legal von nvidia (oder einem anderen IHV) sich gegen "verstösse" gegen die Guidelines mit spezifischen Treiberoptimierungen zu wehren.


Ist diese "Band" PS1.4 wirklich so schmal? Wird es nicht vielleicht doch breiter werden in den nächsten Jahren? Ist PS1.4 für wirklich so wenig zu gebrauchen, als daß es die Entwickler einfach auslassen müßten? In eine NVidia-zentristischen Welt mag dies sogar zutreffen, aber in einer pluralistischen Welt (bez. Grafikkarten) natürlich nicht.

Ein Guideline eines IHV ist nicht "Gesetz" und ein "Verstoß" kann demnach auch nicht mit der "Todesstrafe"(3DMark2003) geahndet werden. OpenGL in allen Ehren (man möge es unbedingt weiterentwickeln), aber DX8/9 ist de facto "Gesetz", und was da drin steht PS1.(0-4)/PS2.(+) ist zu "befolgen". Ein IHV, der den Entwicklern ernsthaft sinnvolle (Zwischen-)Schritte (PS1.4) der (Spiele-)Software Evolution verbieten/vorenthalten will, macht dies ausschließlich aus wirtschaftlich motivierten Gründen. Technisch gesehen, ist PS1.4 durchaus sinnvoll und wird genutzt werden. Hat NVidia ersthaft angenommen, man könne von PS1.3 direkt auf eine Niveau springen, daß CineFX zwingend erfordert? Für eine solchen Schritt hätten alle CineFX-Chips um Dimensionen in ihrer Rohleistung schneller sein müssen. Ein Wunschtraum, aber auch nicht mehr, den sie mit ihrer Marktmacht haben realisieren wollen.

Jede Optimierung ist dann legal, wenn sie dem Sinn und Zweck dessen, was sie optimiert, nicht "wegoptimiert". In anderen Worten:
- Beim täglichen Zocken zählen nur FPS bei gleicher Bildqualität. Wie der IHV zusätzliche Frames herauskitzelt, spielt keine Rolle, solange die Bildqualität nicht darunter leidet!
- Bei einem Bench, egal ob Game oder synthetisch, möchte ich die real Leistung der Karte ermitteln können. Jeglich Optimierung, die nur diesem Bench oder diesen Szene(Bench) zugute kommt, ist unzulässig. Der IHV versucht damit bewußt die Spezifikation seines Produktes "aufzuwerten", sprich den Kunden zu täuschen. Ich würde dies als arglistige Täuschung im rechtlichen Sinne bezeichnen.

Pathfinder

M O
2003-05-25, 11:44:39
Originally posted by Stefan Payne


Und ein Progger nimmt nunmal den kleinsten Nenner, den er braucht, um einen Effekt darzustellen...



ja bei programmen oder spielen die fast auf allen maschinen laufen sollen

aber doch nicht bei einen DX9 GRAKA TEST

aths
2003-05-25, 11:45:07
Originally posted by Razor
Aber eben gerade dieses 'schmale' Band ist mein Ansatz...

Lohnt es sich bei der Verbreitung an PS1.4-unterstützender Hardware tatsächlich, diesen Pfad zu integrieren ?Da bleibt mir glatt die Spucke weg. Ich bin's müde...

FM nutzt den 1.4-er dort, wo man den 2.0-er nicht braucht. Soweit klar? Gut.

Alle Karten, die 2.0 beherrschen, können auch 1.4. Die HW-Verbreitung von Karten, die 1.4 beherrschen, steigt in der Zukunft an, weil immer mehr DX9-HW verkauft wird.

Also: Wenn der 1.4-er nicht reicht für einen gegebenen Effekt, wird man gleich 2.0 nehmen. Reicht er aber, nimmt man 1.4. Beim 3DM03 reicht im DX9-Bench der 1.4-er oft aus. Also wird er genommen. Ist auch kein Problem, da alle DX9-Karten 1.4 beherrschen.

Originally posted by Razor
Und warum soll es in einem reinem DX9-Bench (GT4) sinnvoll sein, PS1.4 zu nutzen, anstatt gleich einen PS2.0 ?Weil der 1.4-er für viele Effekte im 3DM03 ausreicht.

Demirug
2003-05-25, 11:46:10
Originally posted by Razor
Lohnt es sich bei der Verbreitung an PS1.4-unterstützender Hardware tatsächlich, diesen Pfad zu integrieren ?

Solange es nur um Passreduktion geht hat man bei der Einführung von DX8 einiges an Erfahrung gesammelt. Mit einem guten Materialeditor sind die entsprechenden Shader und Passes automatisch generierbar.

Wenn es allerdings um spezifische 1.4 Effekte geht wird das schwer vom Erfolg der kleinen ATI-Karten abhängen. Für die "wenigen" R200 Karten lohnt es sicherlich nicht. In verbindung mit Shaderhochsprachen sieht es etwas bessser aus weil da einige eigentlich für 2.0 gedachten Effekte durchaus auch als 1.4 compilierbar sind. Das dumme ist das Shaderhochsprachen wegen den vielen DX7 Chips da drausen im moment nur für Eyecandy einsetzbar sind.

Und warum soll es in einem reinem DX9-Bench (GT4) sinnvoll sein, PS1.4 zu nutzen, anstatt gleich einen PS2.0 ?

Ja da stimme ich dir zu den GT4 hätte man durchaus komplett mit PS 2.0 durchführen können. Die PS 1.4 Performance hat man ja schon beim GT2 und GT3 getestet.

Razor
2003-05-25, 11:47:09
Originally posted by Pathfinder

NVidia bestätigte den gegenseitigen (Design-)Einfluß bereits, indem sie öffentlich darlegten, ihr Chip sei hinsichtlich Schattenberechnung in Doom3 optimiert. Kurzum, hier noch zu leugnen heißt Fakten zu ignorieren!
Du hast geschrieben:

"siehst du etwa keine wirtschaftlichen Einfluß in der Zusammenarbeit zwischen ID(Doom3) und NVidia? Glaubst du wirklich, daß mit dem "Ableben" von 3DMark2003 jeglicher wirtschaftlicher Einfluß der Grafikchiphersteller auf (Spiele-/Benchmark-)Softwarehersteller beendet wäre?"

und ich schrieb:

"Definitiv nein !"

Was genau hast Du an dieser Anwort nicht verstanden ?
???
Originally posted by Pathfinder

Nein, keine Vermutung, sondern eine Umschreibung von NVidia's Forderungen bezüglich 3DMark2003, die sich übrigens mit deiner Forderung deckt. Ich erinnere "...weg mit dem Murks !..."
Nochmal: Hast Du einen Einblick in Source-Code vom Murks ?
Was, wenn dieser tatsächlich im Kern alle "Do"s und "Don't"s von ATI berücksichtig, die von nVidia aber vollständig ignoriert ? Ware das OK ?

Und solange wir das nicht wissen, ist alles andere Spekulation !
Der erste Schritt müsste sein, den Source-Code vom Murks offen zu legen...
Originally posted by Pathfinder

Es ist bekannt, daß ATI das Design von PS2.0 in DX9 starkt beeinflussen konnte, wie dies für NVidia bei DX8.0 möglich war. DX9 ist dennoch ein Microsoft Produkt und 3DMark2003 nutzt lediglich die zwei nächsten Schritte in der Evolution des APIs, DX8.1(PS1.4) und DX9/PS2.0, so wie es viele Spiele der nächten Generationen machen werden.
Und genau das zweifle ich an...
Originally posted by Pathfinder

Sicher gibt es berechtigte Kritik am 3DMark2003. Die Geister scheiden sich an der Frage, was man mit dem 3DMark2003 eigentlich anfangen soll und was er tatsächlich aussagt. Dennoch, da bin ich mir sicher, gibt es auch für den Bench eine Daseinberechtigung!
Meine Empfehlung an NVidia hinsichtlich 3DMark2003 wäre:
Nicht gezielt den 3DMark2003 zu diskreditieren, sondern zu akzeptieren, daß die PS1.4/PS2.0 Implementierung in den eigenen Chips verbessert werden muß, um in zukünftigen Spielen besser dastehen zu können. Warum gegen etwas kämpfen, was ohnehin nicht aufzuhalten ist?!
Und das ist doch wohl mehr Wunschdenken, aller fanATIker, oder ?
Welches Spiel nutzt denn PS1.4, geschweige denn PS2.0 ?
DAS ist also sogar pure Spekulation von Dir !
Originally posted by Pathfinder

Darüber hinaus bin ich mir sicher:
Sollte ein 3DMark200x mit PS3.0 Disziplin NVidia's Chips wieder besser munden, dann wirst du bestimmt den synthetischen Bench wieder aufleben lassen wollen. Stimmt, diesmal ist es eine Vermutung, aber sie liegt nahe. Möglicherweise hast du bis zu diesem Zeitpunkt deiner bedingungslosen Hingabe bezüglich NVidia entsagt.
Ich habe auch schon den Murks01 diskreditiert und werde das auch mit einem Murks04 (oder was auch immer) machen. Ich halte JEDEN synth-Bench für Überflüssig, der vorgibt, 'RealWorld'-Betrachtungen machen zu können !

Auf den Rest dieses Absatzes gehe ich leiber nicht ein...
;-)

Razor

StefanV
2003-05-25, 11:47:36
Originally posted by M O
ja bei programmen oder spielen die fast auf allen maschinen laufen sollen

aber doch nicht bei einen DX9 GRAKA TEST

Das ist deine Ansicht!!

Außerdem hast du dir in deinem Posting schonmal widersprochen, denn der 3DMark03 ist ein Programm, der Einsatz von PS1.4 ist durchaus verständlich und meist richtig.

aths
2003-05-25, 11:47:46
Originally posted by Razor
"Warum hat man für den GT2/3 dann nicht gleich ausschließlich auf den PS1.1 gesetzt ?"
:D Weil es sinnvoll ist, den bestmöglichen Weg zu nehmen. GT2/3 können von den 1.4-er Möglichkeiten profitieren. Also nahm ihn FM.
Originally posted by M O
DARUM NICHT
weil der murks ein DX9 graka test sein soll und nicht ein DX8 und da hat ps1.4 nichts zu suchen Na dann ist doch alles in Butter - denn der 1.4er ist längst nicht auf jeder DX8-Karte zu finden (meine Karte z.B. beherrscht maximal 1.3), jedoch kann jede DX9-Karte auch PS.1.4-Shader ausführen.

Mr. Lolman
2003-05-25, 11:47:51
Full ACK @ Pathfinder. Sehr guter Beitrag.

Originally posted by M O


ja bei programmen oder spielen die fast auf allen maschinen laufen sollen

aber doch nicht bei einen DX9 GRAKA TEST

Wenn der Dx9 Test auf DX8 beinhaltet, dann darf bei den DX8 Tests auf PS 1.4 verwendet werden, so einfach ist das.

Pathfinder
2003-05-25, 11:50:27
Originally posted by aths
...
Also, da kann man sich ja den Mund fusselig reden.
...

Wohl eher die Finder wund tippen! ;) Oder kommuniziert ihr zusätzlich noch telefonisch?

Razor ist schon, er möge mir den Ausdruck nachsehen, eine harte Nuss! ;)

Pathfinder

Razor
2003-05-25, 11:51:45
Originally posted by aths
Das ist Ansichtssache.
Sehe ich genauso und mehr wollte ich auch nicht sagen...
Originally posted by aths
Wieso Pech? Pech für NV, weil sie offenbar viel mehr gecheatet haben!
Die Quantität interessiert mich nicht die Bohne !
Fakt ist, dass beide gecheatet haben...
(wenn man mal FM's Definition eines Cheats nimmt ;-)
Originally posted by aths
Geplenke sieht aber doof aus. Und ist zudem, ganz nüchtern betrachtet, falsch.
Das hast Du falsch verstanden aths, oder wie ist der Nachsatz von Dir aus meinem Zitat zu verstehen ?
(bitte dann also nicht wundern, wenn so eine Antwort kommt)
:D
Originally posted by aths
Es ist sicherlich ein _Vorteil_, wenn eine Hardware auch mit nicht optimiertem Code gut zurecht kommt.
Dir Frage ist halt nur, ob der code für ATI tatsächlich soooo 'unoptimiert' war...
Oder wie ist die Nähe zu dem ATI-eigenen Demo "Nature 1.1" zu erklären ?
:D

Bis denne

Razor

aths
2003-05-25, 11:53:54
Originally posted by M O
?
bei einen DX9 bench würde ich mal sagen da wäre Ps 2.0 verständlicher als PS 1.4 oder ?Erst mal, ja.

Nun sind Shader nutzlos, wenn sie zu komplex sind. Dann ist die Ausführung zu langsam. "Einfache" 2.0-er Shader lassen sich durchaus auch mit 1.4 realisieren, solange keine neuen Operationen verwendet werden, die nur 2.0 beherrscht.
Originally posted by M O
klar müssen DX9 karten auch PS1.4 verstehen aber für einen DX9 BENCH ist PS 2.0 auch plicht nicht nur 1.4 Es kommen ja _auch_ 2.0-er Shader zum Einsatz.

M O
2003-05-25, 11:54:37
Originally posted by Mr. Lolman
Full ACK @ Pathfinder. Sehr guter Beitrag.



Wenn der Dx9 Test auf DX8 beinhaltet, dann darf bei den DX8 Tests auf PS 1.4 verwendet werden, so einfach ist das.

klar
aber der dx9 bench ist fürn arsch weil kein PS2.0 getetst wird sondern immer nur 1.4 ps

murks GT4 ist rein nur für ATI´s krakas geshrieben

StefanV
2003-05-25, 11:55:26
Originally posted by M O
klar
aber der dx9 bench ist fürn arsch weil kein PS2.0 getetst wird sondern immer nur 1.4 ps

murks GT4 ist rein nur für ATI´s krakas geshrieben

FALSCH, in GT4 wird schon PS2.0 getestet...

Razor
2003-05-25, 11:55:31
Originally posted by aths
Die Frage ist imo falsch gestellt. FM hat ein bestimmtes Szenario genommen. FM kann nichts dafür, dass NV-HW hier vergleichsweise alt aussieht. NV hat seine HW offenbar in Richtung Doom3-Engine getrimmt. Sollte man JC jetzt bitten, seine Engine so zu ändern, dass die GF FX dort ihre Vorteile nicht mehr ausspielen kann?
Sehe ich anders...
IMHO steht FM nun in der Beweislast, dass der Murks tatsächlich nicht in die eine oder andere Richtung 'optimiert' wurde. Was, wenn FM genau wusste, wie nVidia-Hardware hier abschneiden würde ?

Du spekulierst, ich spekuliere, wir alle spekulieren...
... bis hier nicht nähere Info's kommen.
Originally posted by aths
Also, da kann man sich ja den Mund fusselig reden. Was ist am 1.4-er PS "hardware-spezifisch"? Wieso sollte der 1.4-er PS den "einzigen Kontrahenden" (von FM??? Eher von ATI, aber FM ist keine Abteilung von ATI) schlecht dastehen lassen? Die DX9-Karten (3DM03 behauptet von sich, ein DX9-Bench zu sein) von NV haben, wie jede DX9-Karte, auch PS.1.4. Da ist nicht "spezifisch", gell?
Eben.
Doch ist es...
Oder warum unterstützt ausschließlich ATI die PS1.4 nativ ?
(wenn wir jetzt mal von den beiden einzigen DX9-Hardware-Implementierungen ATI's und nVidia's absehen)

Razor

Exxtreme
2003-05-25, 11:56:17
Originally posted by M O


klar
aber der dx9 bench ist fürn arsch weil kein PS2.0 getetst wird sondern immer nur 1.4 ps

murks GT4 ist rein nur für ATI´s krakas geshrieben
Nein, GT4 besteht aus mehreren Shadern. Es gibt dort auch einen PS2.0-Shader.

StefanV
2003-05-25, 11:56:45
Originally posted by Razor
Doch ist es...
Oder warum unterstützt ausschließlich ATI die PS1.4 nativ ?
(wenn wir jetzt mal von den beiden einzigen DX9-Hardware-Implementierungen ATI's und nVidia's absehen)

Razor

Unterstützt ATI den PS1.4 wirklich nativ??

SIS und Matrox unterstützen den PS1.3 ja nicht nativ...

Razor
2003-05-25, 11:57:03
Originally posted by aths
Ich möchte sagen, dass sich beide Cheats im Cheat-Grad deutlich unterscheiden.
Was mir herzlich egal ist... siehe oben !
Originally posted by aths
Offenbar, weil NV sehr viel mehr cheatet?
Und ?
Cheat ist Cheat und FM hat deutlich gesagt, was sie darunter verstehen...
Originally posted by aths
Und das aus deinem Munde...
Oh ja, aus meinem Mude und zu Dir gesagt...
:D

Razor

aths
2003-05-25, 11:57:31
Originally posted by Razor
Die Quantität interessiert mich nicht die Bohne !
Fakt ist, dass beide gecheatet haben...Mich interessiert auch die Quantität. Aber auch die Cheat-Qualität unterscheidet sich.
Originally posted by Razor
Dir Frage ist halt nur, ob der code für ATI tatsächlich soooo 'unoptimiert' war...
Oder wie ist die Nähe zu dem ATI-eigenen Demo "Nature 1.1" zu erklären ?
:DSchon 3DMark2001 hatte ein Nature-Demo :D

Wieso springst du eigentlich immer so hin- und her? Ist die FM-Engine deiner Meinung nach nur unoptimiert, oder für ATI-HW optimiert?

aths
2003-05-25, 11:58:17
Originally posted by M O
klar
aber der dx9 bench ist fürn arsch weil kein PS2.0 getetst wird sondern immer nur 1.4 ps Es werden sowohl 1.4-er als auch 2.0-er Shader verwendet.

Razor
2003-05-25, 11:59:09
Originally posted by aths
Man redet sich wirklich den Mund fusselig. PS.1.4 ist kein optionales Feature, sondern Pflicht für jede DX9-Karte.
Klasse aths, jetzt bis Du wohl Nummer 5 !
:D
Originally posted by aths
"Lediglich auf Wunsch von ATI", wenn ATI die bessere HW hatte, ist es doch gut, wenn es in DX dafür Support gibt? Außerdem wurde der 1.4-er Standard wohl kaum ohne NVs (vielleicht knurrend gegebenen) Segen definiert, denn es war ja klar, dass auch NV dereinst 1.4-er Support anbieten werden muss.
nVidia wird mit der 'Zulassung' von PS1.4 wohl rein gar nichts am Hut gehabt haben...
Lediglich M$ wird ein Interesse gehabt haben, auch ATI's Bedürfnisse zu 'befriedigen'...
(und mehr ist es nicht, da für DX8/8.1 optional ;-)

Razor

aths
2003-05-25, 11:59:43
Originally posted by Razor
Sehe ich anders...
IMHO steht FM nun in der Beweislast, dass der Murks tatsächlich nicht in die eine oder andere Richtung 'optimiert' wurde. Was, wenn FM genau wusste, wie nVidia-Hardware hier abschneiden würde ?Was ist dann? Warum sollte FM daran gelegen sein, NV alt aussehen zu lassen?
Originally posted by Razor
Oder warum unterstützt ausschließlich ATI die PS1.4 nativ ?
(wenn wir jetzt mal von den beiden einzigen DX9-Hardware-Implementierungen ATI's und nVidia's absehen)Langsam regt mich das wirklich auf, Razor! Was heißt nun "nativ"? Weißt du denn, wie Shader auf der Graka verarbeitet werden? Ja? Nein?

Razor
2003-05-25, 12:00:07
Originally posted by aths
Ab DX9 ist der 1.4-er Pflicht. Dass schon einige DX8-Karten den 1.4-er haben, ist aufgrund der nicht so tollen Marktdurchdringungen nicht interessant genug. Bei einem DX9-Bench ist der Einsatz vom 1.4-er Shader hingegen verständlich.
Wenn er 'RealWorld'-Betrachtungen anstellen will ?
Wie das ?
???

Razor

aths
2003-05-25, 12:00:53
Originally posted by Razor
Was mir herzlich egal ist... siehe oben !

Und ?
Cheat ist Cheat und FM hat deutlich gesagt, was sie darunter verstehen... Dir kann es egal sein. Die meisten scheinen NV "böser" zu finden, als ATI. Imo nicht ohne Grund. _Dass_ ATI auch gecheatet hat, steht für mich außer Frage.

Razor
2003-05-25, 12:01:16
Originally posted by aths
Wenn der 1.4-er reicht, warum sollte man den Effekt mit Shaderversion 2.0 realisieren?
Warum nicht, wenn dieser Bench sowieso nur auf DX9-Hardware startet ?
Diese Frage ist mir noch immer nicht beantwortet worden !

Ist es aufwändiger einen PS2.0 zu proggen ?
???

Razor

Mr. Lolman
2003-05-25, 12:01:24
Originally posted by Pathfinder
Jede Optimierung ist dann legal, wenn sie dem Sinn und Zweck dessen, was sie optimiert, nicht "wegoptimiert". In anderen Worten:
- Beim täglichen Zocken zählen nur FPS bei gleicher Bildqualität. Wie der IHV zusätzliche Frames herauskitzelt, spielt keine Rolle, solange die Bildqualität nicht darunter leidet!
- Bei einem Bench, egal ob Game oder synthetisch, möchte ich die real Leistung der Karte ermitteln können. Jeglich Optimierung, die nur diesem Bench oder diesen Szene(Bench) zugute kommt, ist unzulässig. Der IHV versucht damit bewußt die Spezifikation seines Produktes "aufzuwerten", sprich den Kunden zu täuschen. Ich würde dies als arglistige Täuschung im rechtlichen Sinne bezeichnen.

Pathfinder


Was eigentlich bedeutet, dass NVs Cheaten insofern verwerflich ist, da diese Mehrleitsung nicht direkt auf Spiele übertragbarbar ist.
(Kamerapfadabhängiges HSR hilft maximal bei Zwischensequenzen was, und geringere Genauigkeit wird wohl kein User der so eine Highend Karte besitzt, in Kauf nehmen.)

Bei ATi ist die Technik schon eher auf (shaderlastige) Spiele übertragbar. Es müsste halt nur auch jedes einzelne Spiel angepasst werden.

--> Nach meiner gestrigen Diskussion mit Demirurg müsste man dann eigentlich die ATi Methode mit 'optimieren' bezeichnen, während NVs Ansatz mit 'cheaten' umschreiben zu wäre.


Jetzt bleibt nur noch due Tatsache, dass der 3dmark kein guter Spielperfomance Indikator ist, da Spieleengines im Allgemeinen eher ressourcenschonend, als ressourcenverschwenderisch programmiert sind.

Razor
2003-05-25, 12:02:52
Originally posted by Exxtreme

Wer sagt, daß der 3Dmark03 ein DX9-only-Test ist und dort der PS1.4 nichts zu suchen hat?
Der GT4 ist ein DX9-only-Bench oder etwa nicht ?
???

Razor

aths
2003-05-25, 12:02:56
Originally posted by Razor
nVidia wird mit der 'Zulassung' von PS1.4 wohl rein gar nichts am Hut gehabt haben...
Lediglich M$ wird ein Interesse gehabt haben, auch ATI's Bedürfnisse zu 'befriedigen'...
(und mehr ist es nicht, da für DX8/8.1 optional ;-)Und Pflicht für DX9. Ohne NVs Einverständnis wäre es wohl nicht dazu gekommen. Es sei denn, MS wollte, dass ein wichtiger Xbox-Chipsatz-Lieferant sauer wird. Dass du immer mit "optional" bei DX8 kommst, verstehe ich nicht. DX9 ist jetzt aktuell. Und da war Optionalität gestern, 1.4 ist Pflicht. Punkt.

WeyounTM
2003-05-25, 12:03:05
Originally posted by Thowe
Leider nicht, sind immer noch "Niveaulos".

Hmmm..ich kenne da eine gute Hundeschule. Solltest Du mit dem Racker mal aufsuchen. Außerdem gibt es ja sowas wie Leinenzwang ;) ! Womit wir den Schuldigen natürlich ausgemacht haben: Thowe ;D

*sorry for ot*

*duck*

aths
2003-05-25, 12:04:17
Originally posted by Razor
Ist es aufwändiger einen PS2.0 zu proggen ?
??? Selbst NV hat gesagt, dass man immer die kleinste Shader-Version nehmen soll, die es noch tut, um die Komplexität gering zu halten.

Exxtreme
2003-05-25, 12:04:28
Originally posted by Razor

nVidia wird mit der 'Zulassung' von PS1.4 wohl rein gar nichts am Hut gehabt haben...
Lediglich M$ wird ein Interesse gehabt haben, auch ATI's Bedürfnisse zu 'befriedigen'...
(und mehr ist es nicht, da für DX8/8.1 optional ;-)

Razor
Ist völlig irrelevant. :D

Razor
2003-05-25, 12:04:42
Originally posted by aths
Da bleibt mir glatt die Spucke weg. Ich bin's müde...
Gut so, denn die Fragen waren an Demirug gestellt...
;-)

Razor

aths
2003-05-25, 12:05:15
Originally posted by Razor
Der GT4 ist ein DX9-only-Bench oder etwa nicht ?
???PS 1.4 ist ein Feature, was auf DX9-Karten immer vorhanden ist oder etwa nicht?

Demirug
2003-05-25, 12:07:48
Originally posted by Pathfinder
Ist diese "Band" PS1.4 wirklich so schmal? Wird es nicht vielleicht doch breiter werden in den nächsten Jahren? Ist PS1.4 für wirklich so wenig zu gebrauchen, als daß es die Entwickler einfach auslassen müßten? In eine NVidia-zentristischen Welt mag dies sogar zutreffen, aber in einer pluralistischen Welt (bez. Grafikkarten) natürlich nicht.

Die breite des Bands ist duch die Spezifikation definiert. Da wird nichts breiter oder schmaler. Was das "Auslasen" angeht so ist das nicht unbedingt eine Frage von für was sie zu gebrauchen sind sonder es geht um die Verbreitung. Primär werden immmer erst mal 2 Technologien unterstützt. Massenmarkt (derzeit DX7) und Higend-Eyecandy (jetzt DX9) die 1.4 PS liegen da dummerweise dazwischen so das sie nicht wirklich interesant sind.

Ein Guideline eines IHV ist nicht "Gesetz" und ein "Verstoß" kann demnach auch nicht mit der "Todesstrafe"(3DMark2003) geahndet werden. OpenGL in allen Ehren (man möge es unbedingt weiterentwickeln), aber DX8/9 ist de facto "Gesetz", und was da drin steht PS1.(0-4)/PS2.(+) ist zu "befolgen". Ein IHV, der den Entwicklern ernsthaft sinnvolle (Zwischen-)Schritte (PS1.4) der (Spiele-)Software Evolution verbieten/vorenthalten will, macht dies ausschließlich aus wirtschaftlich motivierten Gründen. Technisch gesehen, ist PS1.4 durchaus sinnvoll und wird genutzt werden. Hat NVidia ersthaft angenommen, man könne von PS1.3 direkt auf eine Niveau springen, daß CineFX zwingend erfordert? Für eine solchen Schritt hätten alle CineFX-Chips um Dimensionen in ihrer Rohleistung schneller sein müssen. Ein Wunschtraum, aber auch nicht mehr, den sie mit ihrer Marktmacht haben realisieren wollen.

Die DX Spec sagt was gemacht werden kann und wie es gamcht wird. Die Guidelines der IHVs sagen dann wie die zu erwartende Performance ist. Verstösst man gegen die Guidelines wird man mit geringer Leistung bestraft. Ist das Spiel/Anwendung dem IHV wichtig genug wird er versuchen die verstösse mit dem Treiber gerade zu biegen.

Bezüglich der Eyecandy phase ist der Zug für die 1.4 Shader mehr oder minder abgefahren. Das war er eigentlich schon klar als bekannt war das von nv keine Hardware mit PS 1.4 als maximum kommt. Damit sind die PS 1.4 erst mal in der Phase der Passreduktion und kommen später möglicherweise noch in die Baselevelphase. Das hängt aber wie gesagt vom Markterfolg der Lowcost ATI-Karten ab.

Jede Optimierung ist dann legal, wenn sie dem Sinn und Zweck dessen, was sie optimiert, nicht "wegoptimiert". In anderen Worten:
- Beim täglichen Zocken zählen nur FPS bei gleicher Bildqualität. Wie der IHV zusätzliche Frames herauskitzelt, spielt keine Rolle, solange die Bildqualität nicht darunter leidet!
- Bei einem Bench, egal ob Game oder synthetisch, möchte ich die real Leistung der Karte ermitteln können. Jeglich Optimierung, die nur diesem Bench oder diesen Szene(Bench) zugute kommt, ist unzulässig. Der IHV versucht damit bewußt die Spezifikation seines Produktes "aufzuwerten", sprich den Kunden zu täuschen. Ich würde dies als arglistige Täuschung im rechtlichen Sinne bezeichnen.

Pathfinder

Ich mache was optimierungen angeht zwischen einem Benchmark und einem Spiel keinen Unterschied. Solange das Endergebniss stimmt ist es für mich OK. Ausgenommen Optimierungen die sich nicht von einem Benchmark auf ein Spiel übertragen lassen.

Razor
2003-05-25, 12:09:39
Originally posted by Demirug

Solange es nur um Passreduktion geht hat man bei der Einführung von DX8 einiges an Erfahrung gesammelt. Mit einem guten Materialeditor sind die entsprechenden Shader und Passes automatisch generierbar.

Wenn es allerdings um spezifische 1.4 Effekte geht wird das schwer vom Erfolg der kleinen ATI-Karten abhängen. Für die "wenigen" R200 Karten lohnt es sicherlich nicht. In verbindung mit Shaderhochsprachen sieht es etwas bessser aus weil da einige eigentlich für 2.0 gedachten Effekte durchaus auch als 1.4 compilierbar sind. Das dumme ist das Shaderhochsprachen wegen den vielen DX7 Chips da drausen im moment nur für Eyecandy einsetzbar sind.
Danke Demirug für diese sehr ausführliche Antwort.
(habe mir das schon fast so gedacht)
Originally posted by Demirug

Ja da stimme ich dir zu den GT4 hätte man durchaus komplett mit PS 2.0 durchführen können. Die PS 1.4 Performance hat man ja schon beim GT2 und GT3 getestet.
Jep.
Endlich mal ein wahres Wort...
Mit GT2/3 wird also die PS1.4-Performance gemessen (was dann auch das Ergebnis auf nVidia Hardware erklärt).

Thx alot für den Hintergrund bzgl. PS1.4/2.0 !

Razor

Razor
2003-05-25, 12:11:42
Originally posted by Stefan Payne

FALSCH, in GT4 wird schon PS2.0 getestet...
Ah ja, richtig, zumidest das Wasser ist ja PS2.0, nicht ?
:lol:

Razor

Demirug
2003-05-25, 12:11:49
Originally posted by Stefan Payne


Unterstützt ATI den PS1.4 wirklich nativ??

SIS und Matrox unterstützen den PS1.3 ja nicht nativ...

Ja ATI unterstützt die PS 1.4 nativ. sowohl im R200 wie auch im R300

Razor
2003-05-25, 12:13:44
Originally posted by aths

Wieso springst du eigentlich immer so hin- und her? Ist die FM-Engine deiner Meinung nach nur unoptimiert, oder für ATI-HW optimiert?
Ich Speinge nicht hin und her, sondern reagiere nur auf Posts...
Zu Deiner Frage: Nicht 'oder', sondern 'und' !
:D

Was aber noch zu beweisen wäre...
(wie alle anderen Vermutungen von diversen Leuten hier auch ;-)

Razor

Razor
2003-05-25, 12:16:16
Originally posted by aths
Was ist dann? Warum sollte FM daran gelegen sein, NV alt aussehen zu lassen?
Weil sie aus dem Beta-Programm ausgestiegen sind und das FM 'ne menge Kohle gekostet hat ?
(vielleicht, oder "Spekulation" ;-)
Originally posted by aths
Langsam regt mich das wirklich auf, Razor! Was heißt nun "nativ"? Weißt du denn, wie Shader auf der Graka verarbeitet werden? Ja? Nein?
Weiß Du das ?
Ja ? Nein ?

Mit 'nativ' mein ich das, was man im Allgemeinen darunter versteht: "Volle Unterstützung" und nicht nur 'anbieten' (meint sowohl Treiber, als auch Hardware !).

Jetzt verstanden ?
Oh mann...

Razor

Razor
2003-05-25, 12:17:13
Originally posted by aths
Dir kann es egal sein. Die meisten scheinen NV "böser" zu finden, als ATI. Imo nicht ohne Grund. _Dass_ ATI auch gecheatet hat, steht für mich außer Frage.
"Leute eßt Scheiße... millionen Fliegen können sich nicht irren !"
(ein Spaß ;-)

Razor

Razor
2003-05-25, 12:21:15
Originally posted by aths
Und Pflicht für DX9. Ohne NVs Einverständnis wäre es wohl nicht dazu gekommen. Es sei denn, MS wollte, dass ein wichtiger Xbox-Chipsatz-Lieferant sauer wird. Dass du immer mit "optional" bei DX8 kommst, verstehe ich nicht. DX9 ist jetzt aktuell. Und da war Optionalität gestern, 1.4 ist Pflicht. Punkt.
So ein quatsch, sorry...

Wenn es nVidia hätte verhinden können, hätten sie das getan, dessen sei Dir mal gewiß. Aber M$ will ja eine 'Hardware-unabhängige API sein und beugte sich somit ATI's Wunsch.

Und ich komme deswegen mit DX8, weil DX9 keinesfalls 'aktuell' ist... oder gibt's außer dem Murks noch Anwendungen, die keine Tech-Demos der Hersteller sind ?

Nochmal: Für eine PS2.0-'compliance' muss man die PS1.4 lediglich anbieten und nicht mit voller Leistungsfähigkeit unterstützen. Siehe dazu auch Demirugs Post.

Vielleicht habe ich mich ja nun auch für Dich klar ausgedrückt ?
???

Razor

Razor
2003-05-25, 12:22:07
Originally posted by aths
Selbst NV hat gesagt, dass man immer die kleinste Shader-Version nehmen soll, die es noch tut, um die Komplexität gering zu halten.
So so...
Dann erklär mir doch mal endlich jemand, was an einem PS2.0 'komplexer' ist, als an einem PS1.4 !
???

Razor

Razor
2003-05-25, 12:23:44
Originally posted by aths
PS 1.4 ist ein Feature, was auf DX9-Karten immer vorhanden ist oder etwa nicht?
Natürlich... aber nur aufgrund der Abwärtskompatibilität und nicht aufgrund des mit DX9 hinzu (!) gekommenen Featuresets... oder etwa nicht ?
;-)

Razor

Razor
2003-05-25, 12:24:43
Originally posted by Demirug

Ja ATI unterstützt die PS 1.4 nativ. sowohl im R200 wie auch im R300
Danke.
Zumindest einer weiß offensichtlich, was ich mit 'nativ' meine...

Razor

aths
2003-05-25, 12:35:07
Ich kann die Aufregung um PS.1.4 nicht verstehen.

Zum GT4: Läuft erst ab DX9-HW. Jede DX9-HW kann 1.4. Wo ist da das Problem? Einige stellen die Fragen, wieso nicht jeder Shader für Version 2.0 geschrieben wurde. Nun, man kann auch fragen, wieso nicht generell jeder Shader die maximale Programmlänge ausnutzt. Ganz einfach: Weil es nicht gebraucht wird. Wenn 2.0 nicht gebraucht wird, nimmt man 1.4.

Es ist doch nicht FMs Schuld, dass NV mit dem 1.4 nicht so gut zurecht kommt. Es ist ja auch nicht JCs Schuld, dass die Radeon-Karten mit seinem Stencil Shadowing nicht so gut klar kommen wie die FX-Karten.


Zum GT2 und GT3: Macht es Sinn, in einem DX8-Bench den PS.1.4 zu verwenden, wo es in der (ohnehin dünnen) DX8-Basis gar nicht mal so viele Karten gibt, die den 1.4-er haben? Natürlich macht das Sinn! Mit dem Aufkommen von DX9-Karten vergrößert sich auch die PS.1.4-Basis. Nicht nur R200-Derivate profitieren von der Passreduktion, sondern auch alle DX9-Karten.


Ich kann also wirklich NICHT verstehen, warum einige Herren so vehemend gegen FMs Gebrauch des PS.1.4 wettern.

mapel110
2003-05-25, 12:39:41
ahh, razor und demirug meinen mit nativ, dass der r300 den ps1.4 komplett in hardware hat.

halte ich irgendwie für schwachsinn. das würde doch massig transis kosten, den ps1.4 zu verbauen und extra den ps2.0. also praktisch zwei shader, oder ?

aths
2003-05-25, 12:39:47
Originally posted by Demirug
Bezüglich der Eyecandy phase ist der Zug für die 1.4 Shader mehr oder minder abgefahren. Das war er eigentlich schon klar als bekannt war das von nv keine Hardware mit PS 1.4 als maximum kommt. Damit sind die PS 1.4 erst mal in der Phase der Passreduktion und kommen später möglicherweise noch in die Baselevelphase. Das hängt aber wie gesagt vom Markterfolg der Lowcost ATI-Karten ab.Kommende Spiele, die Pixelshader generell voraussetzen, werden vermutlich auch DX9-Shadersets haben. Es wird dann wohl aber auch Sets geben, dass man mit jeder DX8-Karte (also ab PS.1.1) im Prinzip alle Effekte sehen kann. Hier sehe ich die Chance für PS.1.4: Damit das Spiel auf DX8- bzw. LowCost-DX9-Karten überhaupt schnell genug ist, dürfen die Effekte an sich nicht so wahnsinnig komplex sein. Sobald ein Shader aber zu komplex für einen Single Pass 1.1-er Shader ist, reicht 1.4 vermutlich für Single Pass aus. Wenn nicht, bleibt immer noch zu 2.0 zu greifen.

aths
2003-05-25, 12:40:54
Originally posted by Razor
Ich Speinge nicht hin und her, sondern reagiere nur auf Posts...
Zu Deiner Frage: Nicht 'oder', sondern 'und' !
:DTrotz Smiley muss ich dir sagen, dass "und" hier einen Widerspruch erzeugt. Ist eine Enginge unoptimiert, kann sie nicht gleichzeitig optimiert sein.

mapel110
2003-05-25, 12:42:38
Originally posted by aths

Ich kann also wirklich NICHT verstehen, warum einige Herren so vehemend gegen FMs Gebrauch des PS.1.4 wettern.

ich kanns schon verstehen. ihnen gefällt nicht, dass bei einem dx8 test ps1.4 verwendet wird. dabei wird aber imo vergessen, dass der gesamte benchmark nunmal die leistung von dx9 hardware miteinander vergleichen soll.

und dx9 hardware muss auch den shader 1.4 unterstüzen.

zum vergleich von dx8 karten taugt er nichts.

aths
2003-05-25, 12:43:38
Originally posted by Razor
Weil sie aus dem Beta-Programm ausgestiegen sind und das FM 'ne menge Kohle gekostet hat ?

(vielleicht, oder "Spekulation" ;-)Oh mann...
Originally posted by Razor
Mit 'nativ' mein ich das, was man im Allgemeinen darunter versteht: "Volle Unterstützung" und nicht nur 'anbieten' (meint sowohl Treiber, als auch Hardware !).

Jetzt verstanden ?
Oh mann... Der PS.1.4 wird auf der FX sicherlich nicht vom Treiber ausgeführt. Wenn der Treiber den Shader quasi "umschreiben" muss, weil die "Register Combiner" (Achtung, Anführungszeichen) der FX mit dem 1.4-er Code so nichts anfangen können, ist das nicht FMs Problem. Soweit ich weiß, findet ein ähnliches Umschreiben aller <1.4-er Shader auf ATI-HW bis einschließlich R280 statt (edit: Irrtum, bis einschließlich R350), und da beschwert sich keiner.

Demirug
2003-05-25, 12:43:48
Originally posted by mapel110
ahh, razor und demirug meinen mit nativ, dass der r300 den ps1.4 komplett in hardware habt.

halte ich irgendwie für schwachsinn. das würde doch massig transis kosten, den ps1.4 zu verbauen und extra den ps2.0. also praktisch zwei shader, oder ?

nein mapel. Der R300 hat nicht eine PS 2.0 Eiheit und zusätzlich noch eine PS 1.4 Einheit. Die PS 2.0 Einheiten sind so verbaut das sie funktional die PS 1.4 Einheiten enthalten. Deswegen brauchen sie da auch kaum zusätzliche Transitoren.

Demirug
2003-05-25, 12:48:23
Originally posted by aths
Kommende Spiele, die Pixelshader generell voraussetzen, werden vermutlich auch DX9-Shadersets haben. Es wird dann wohl aber auch Sets geben, dass man mit jeder DX8-Karte (also ab PS.1.1) im Prinzip alle Effekte sehen kann. Hier sehe ich die Chance für PS.1.4: Damit das Spiel auf DX8- bzw. LowCost-DX9-Karten überhaupt schnell genug ist, dürfen die Effekte an sich nicht so wahnsinnig komplex sein. Sobald ein Shader aber zu komplex für einen Single Pass 1.1-er Shader ist, reicht 1.4 vermutlich für Single Pass aus. Wenn nicht, bleibt immer noch zu 2.0 zu greifen.

Wir werden jetzt erst mal noch sehr lange Spiele mit Baselevel DX7 haben.

Bezüglich Passreduktion sage ich ja die ganze Zeit nichts anderes. Aber es wird niemand zwanghaft anfangen PS 1.4 Effekte zu schreiben. Wenn ein 1.4 PS abfällt schön wenn nicht Pech gehabt.

aths
2003-05-25, 12:51:13
Originally posted by Razor
So ein quatsch, sorry...

Wenn es nVidia hätte verhinden können, hätten sie das getan, dessen sei Dir mal gewiß. Aber M$ will ja eine 'Hardware-unabhängige API sein und beugte sich somit ATI's Wunsch.MS will eine API sein?

Wenn NV alleine auf der Welt wäre, tja, dann könnten sie schalten und walten wie sie wollten. Das sind sie aber nicht, und sie müssen sich mit anderen arrangieren. Der 2.0-er Shader, so viel ist klar, kann prinzipiell mit 1.4-er Shadern umgehen, wenn auch eine direkte Verarbeitung nicht möglich ist. Das sieht man ja auch bei der FX. Warum sollte NV den 1.4-er dann unbedingt verhindern wollen? Weil er nicht recht in ihr Konzept passte? Wenn ATI hätte verhindern können, dass NV-Eigenschaften standardisiert werden, hätten sie das getan, dessen sei Dir mal gewiß.

Spaß beiseite, ohne grünes Licht von NV wäre es wohl nicht dazu gekommen, dass der 1.4-er Shader Pflicht für 2.0-er Shader wird.
Originally posted by Razor
Und ich komme deswegen mit DX8, weil DX9 keinesfalls 'aktuell' ist... oder gibt's außer dem Murks noch Anwendungen, die keine Tech-Demos der Hersteller sind ?DX9 ist demzufolge unaktuell? Warum hast du eine FX 5200?
Originally posted by Razor
Nochmal: Für eine PS2.0-'compliance' muss man die PS1.4 lediglich anbieten und nicht mit voller Leistungsfähigkeit unterstützen. Featureseitig muss schon volle Leistung da sein. Was die Ausführungsgeschwindigkeit angeht, noch mal, was kann FM dafür, dass die FX hier nicht so flott ist?

aths
2003-05-25, 12:53:58
Originally posted by Razor
So so...
Dann erklär mir doch mal endlich jemand, was an einem PS2.0 'komplexer' ist, als an einem PS1.4 !
???Da fragst du am besten die Leute, die die Verwendung von 1.4 empfehlen, wenn er reicht. Ich weiß hier nur, _dass_ es so ist.
Originally posted by Razor
Natürlich... aber nur aufgrund der Abwärtskompatibilität und nicht aufgrund des mit DX9 hinzu (!) gekommenen Featuresets... oder etwa nicht ?
;-)Das ist Pflicht, weil schon frühzeitig festgelegt wurde, dass das Melden eines Shaders X immer auch bedeutet, alle validen Shader Y mit Y < X zu unterstützen. Irgendwie habe ich das Gefühl, dir passt es nicht, dass ATI damals die featuremäßig besseren DX8-Shader hatte und es ihnen gelungen ist, diese zum DX-Standard zu erheben.

aths
2003-05-25, 12:55:05
Originally posted by Demirug
Wir werden jetzt erst mal noch sehr lange Spiele mit Baselevel DX7 haben.

Bezüglich Passreduktion sage ich ja die ganze Zeit nichts anderes. Aber es wird niemand zwanghaft anfangen PS 1.4 Effekte zu schreiben. Wenn ein 1.4 PS abfällt schön wenn nicht Pech gehabt. Das mit DX7 fürchte ich auch. Dass zwanghaft 1.4-er Shader genommen werden, behaupte ich ja nicht. FM selbst nimmt die 1.4-er soweit ich das sehen kann auch nicht zwanghaft, nur dort, wo man sie gebrauchen kann. "Mehr Eyecandy" wird man dank 1.4 wohl nie haben, dafür weniger Passes für einen gegebenen Effekt. Das tritt wohl nur dann ein, wenn "weniger Passes" bedeutet, dass 1.4 Single Pass ermöglicht. Da die Shader-Leistung jetziger DX9-Karten aber so überragend noch nicht ist, rechne ich auf Jahre hinaus damit, dass für viele Effekte der 1.4 durchaus reicht.

Das mit dem "zwanghaft schreiben" relativiert sich angesichts HLSL ja auch wieder.

Demirug
2003-05-25, 13:00:17
Originally posted by aths
Mit dem Aufkommen von DX9-Karten vergrößert sich auch die PS.1.4-Basis. Nicht nur R200-Derivate profitieren von der Passreduktion, sondern auch alle DX9-Karten.

Die Basis wird grösser. Aber schauen wir uns mal die folgende Situation an.

ATI sag des es dem R300 egal ist ob 1.4 oder 2.0.
NV sagt benutzt Cg (was ja keine PS 1.4 erzeugt) also PS 2.0.

R200 kann 1.1 - 1.4 und ATI macht bezüglich der performance keine klare Aussage.
NV2x kann nur 1.1 (teilweise -1.3)

Wenn die Shader nun von Hand geschrieben werden müssen (Nicht jeder hat sich dafür gute Materialeditoren gebaut) muss abgewogen werden von welchen Shadern man das meiste hat.

Der 2.0 ist ja schon für den Eyecandy gegenüber den Mitbewerbern plicht. Bleiben also noch 1.1 - 1.4 übrig. Und in genau dieser Rheienfolge wird man die Sets programmieren bis die Kohle ausgeht.

Wenn das entsprechende Studio dann weningsten Hochsprachen für die Shader benutzt sieht es etwas besser für 1.4 aus. Aber von Leuten die bis vor kurzem noch erzählt haben das C++ viel zu langsam für Spiele ist erwarte ich nicht das sie Hochsprachen benutzten. Die fürchten einfach den Kontrolverlust wenn sie sich zu weit von der Hardware wegebewegen. Obwohl diese nähe bei den Shadern ja doch nur ein Irrglaube ist.

aths
2003-05-25, 13:05:13
Demirug, deine interessanten Ausführungen übersehen imo einen Punkt: Programmierer sind Menschen.

Menschen sind faul. Eine kleine Programmierer-Einheit wird kaum marktrelevante Titel schreiben, wenn die ihre Shader von Hand machen und da genau abwägen, ob sich das noch rechnet, wie stark wirkt sich das insgesamt aus?

Die Designer wollen sicherlich schon im Vorfeld mit den Materialien spielen. Um einen Material-Editor, und wenn er selbst geschrieben ist, kommt man da imo kaum herum. Der Schritt zur automatischen Shader-Generierung ist da nicht mehr weit. HLSL kann ja auch 1.4-er Pixelshader erzeugen, oder?

Keiner wird sich anstrengen, auf 1.4-er PS zu optimieren, weil die R200-R280-Basis wohl auf Dauer zu klein bleiben wird. Wahrscheinlich wird ein Shader für 1.4 aber doch hier und da abfallen.

Hauptschwachpunkt der Shader <=1.3 ist imo die fehlende Möglichkeit, Texturen 2x zu sampeln. Da kommt man um Multipass nicht herum. Mit 1.4 erledigt man das einfach in der zweiten Phase.

Quasar
2003-05-25, 13:19:44
Originally posted by aths
Kommende Spiele, die Pixelshader generell voraussetzen, werden vermutlich auch DX9-Shadersets haben. Es wird dann wohl aber auch Sets geben, dass man mit jeder DX8-Karte (also ab PS.1.1) im Prinzip alle Effekte sehen kann. Hier sehe ich die Chance für PS.1.4: Damit das Spiel auf DX8- bzw. LowCost-DX9-Karten überhaupt schnell genug ist, dürfen die Effekte an sich nicht so wahnsinnig komplex sein. Sobald ein Shader aber zu komplex für einen Single Pass 1.1-er Shader ist, reicht 1.4 vermutlich für Single Pass aus. Wenn nicht, bleibt immer noch zu 2.0 zu greifen.

Das Problem hierbei ist aber, dass insbesondere die verbreiteten DX8- und DX9-LowCost-Karten eher mit schwacher Füllrate denn mit schwacher Speicherbandbreite ausgestattet sind, so daß das kollabieren von Multi-Pass zwar noch etwas, aber beileibe nicht mehr viel bringt. Vermute ich.

Und du siehst ja selber, welche Schwierigkeiten vollwertige DX8-Karten im DX7-Game UT2003 haben, wenn sie es mit vollen Details darstellen sollen.

Für "echte" DX8-Games bedarf es meines Erachtens eh schon einer guten DX9-Karte, um flüssig und mit vielen, wenn auch möglicherweise nicht allen Details spielen zu können.

(ach ja, sorry für OT und spam, falls der eine oder andere dieses Posting so aufassen sollte)

Demirug
2003-05-25, 13:23:51
Originally posted by aths
Demirug, deine interessanten Ausführungen übersehen imo einen Punkt: Programmierer sind Menschen.

Menschen sind faul. Eine kleine Programmierer-Einheit wird kaum marktrelevante Titel schreiben, wenn die ihre Shader von Hand machen und da genau abwägen, ob sich das noch rechnet, wie stark wirkt sich das insgesamt aus?

Die Designer wollen sicherlich schon im Vorfeld mit den Materialien spielen. Um einen Material-Editor, und wenn er selbst geschrieben ist, kommt man da imo kaum herum. Der Schritt zur automatischen Shader-Generierung ist da nicht mehr weit. HLSL kann ja auch 1.4-er Pixelshader erzeugen, oder?

Keiner wird sich anstrengen, auf 1.4-er PS zu optimieren, weil die R200-R280-Basis wohl auf Dauer zu klein bleiben wird. Wahrscheinlich wird ein Shader für 1.4 aber doch hier und da abfallen.

Hauptschwachpunkt der Shader <=1.3 ist imo die fehlende Möglichkeit, Texturen 2x zu sampeln. Da kommt man um Multipass nicht herum. Mit 1.4 erledigt man das einfach in der zweiten Phase.

Menschen sind nicht nur faul sonder auch teilweise unlogisch.

Die Kosten für die Shader hängen davon ab wie viele unterschiedliche man braucht. Heutige Titel komme da mit sehr wenigen Varianten aus. Aber jedes zusätzliche Set kostet Zeit = Geld und Geld hat man nie genug. Und an den Shadersets die keinen zusätzlichen Eyecandy bringen kann man am besten sparen.

Zum Thema Materialeditor und Designer. Die benutzten zum rumspielen lieber ihre 3d Programme (Maya, 3dStudio, ...) und kommen dann zum Programmier und sagen das sie für das und das Material einen Shader brauchen.

Ja HLSL kann auch 1.4 PS erzeugen. Allerdings muss der Quellcode des Shaders dafür auch 1.4 tauglich sein.

Du kannst auch bei den Shadern < 1.4 mehrmals aus einer Texture sampeln. Man verliert dabei aber eben jedesmal ein Sampel. Also 4 Sampels aus beliebigen texturen. Das kann auch 4 mal die gleiche sein. Aber so oft braucht man sowieso nicht mehr als einen Wert aus einer Texture.

aths
2003-05-25, 13:24:06
Originally posted by Quasar
Das Problem hierbei ist aber, dass insbesondere die verbreiteten DX8- und DX9-LowCost-Karten eher mit schwacher Füllrate denn mit schwacher Speicherbandbreite ausgestattet sind, so daß das kollabieren von Multi-Pass zwar noch etwas, aber beileibe nicht mehr viel bringt. Vermute ich.Wenn ich das richtig verstanden habe, bedeutet Multipass auch, mehrfachen Geometrie-Aufwand.
Originally posted by Quasar
Und du siehst ja selber, welche Schwierigkeiten vollwertige DX8-Karten im DX7-Game UT2003 haben, wenn sie es mit vollen Details darstellen sollen.

Für "echte" DX8-Games bedarf es meines Erachtens eh schon einer guten DX9-Karte, um flüssig und mit vielen, wenn auch möglicherweise nicht allen Details spielen zu können.Japp, da stimme ich überein: Die beste DX8-Karte, also z.B. eine Ti 4600, ist schlicht zu schwachbrüstig für Spiele die voll auf Shader setzen. Imo werden Shader deswegen noch auf längere Zeit für Eye Candy eingesetzt. Multitexturing dort, wo möglich (und sei es auch mit PS realisiert), Bump Mapping wo wirklich nötig.
Originally posted by Quasar
(ach ja, sorry für OT und spam, falls der eine oder andere dieses Posting so aufassen sollte) Imo ist das endlich mal wieder ein sinnvolles Posting von dir gewesen ;D ;D

aths
2003-05-25, 13:28:15
Originally posted by Demirug
Du kannst auch bei den Shadern < 1.4 mehrmals aus einer Texture sampeln. Man verliert dabei aber eben jedesmal ein Sampel. Also 4 Sampels aus beliebigen texturen. Das kann auch 4 mal die gleiche sein. Aber so oft braucht man sowieso nicht mehr als einen Wert aus einer Texture. Ja ich weiß. 4 Texturen insgesamt sind aber recht dürftig.

Quasar
2003-05-25, 13:33:57
Originally posted by aths
Das ist Pflicht, weil schon frühzeitig festgelegt wurde, dass das Melden eines Shaders X immer auch bedeutet, alle validen Shader Y mit Y < X zu unterstützen.
Mißverstehe ich dich, oder widerspricht obige Aussage nicht dem unten angeführten?

Originally posted by aths
Spaß beiseite, ohne grünes Licht von NV wäre es wohl nicht dazu gekommen, dass der 1.4-er Shader Pflicht für 2.0-er Shader wird.
DX9 ist demzufolge unaktuell?

Wie sollte nV denn das möglich sein, kein grünes Licht für 2.0-Shader zu geben, wenn er denn ein Featureset X, welches logischerweise größer als Featureset Y (für PS1.4) ist, enthalten soll?

Natürlich sind 1.4er-PS Pflichtprogramm für alle 2.0-PS, aber nicht nativ in Hardware, d.h. mit voller Leistung nach den von ATi für ihre DX8.1-Hardware ausgegebenen Optimierungsregeln, sondern schlicht und einfach vom Funktionsumfang her, da ein 2.0-Shader auch alles können muss, was ein 1.4er kann.
ATi kann bei 1.4 nun auf ihre DX8.1-Hardware zurückgreifen und darauf vertrauen, dass diese quasi analog zu ihren eigenen Optimierungsguidelines programmiert wurden, weil es schlicht die einzigen sind, die es dazu gibt.
nV hingegen könnte dazu "gezwungen" werden, PS1.4 über die 2.0-Shader laufen zu lassen, und wenn dabei Dinge verwandt werden, wie der optionale Wertebereich für Overbright Lighting, wie es IIRC bei der GT4-Skybox geschah, dies womöglich sogar mit voller Präzision und entsprechendem Performance-Hit.
Das wäre IMO eine Bevorzugung eines Herstellers, da auf eine optionale DX8.1-Komponente zurückgegriffen wird.

Natürlich hätte nV auch komplett ihre Shader auf 1.4-Basis umstellen können, dazu die benötigten Transistoren für 2.0-Shader hinzufügen und darüberhinaus noch ihre CineFX-Erweiterungen implementieren. Ziemlich viel Aufwand, oder?

Pathfinder
2003-05-25, 13:35:54
Originally posted by Demirug
Die breite des Bands ist duch die Spezifikation definiert. Da wird nichts breiter oder schmaler. Was das "Auslasen" angeht so ist das nicht unbedingt eine Frage von für was sie zu gebrauchen sind sonder es geht um die Verbreitung. Primär werden immmer erst mal 2 Technologien unterstützt. Massenmarkt (derzeit DX7) und Higend-Eyecandy (jetzt DX9) die 1.4 PS liegen da dummerweise dazwischen so das sie nicht wirklich interesant sind.

Die Verbreitung von PS1.4 wird durch die Verbreitung von DX9-Karten definiert. PS1.4 ist in DX9 enthalten, also auch in deiner Voraussetzung (DX9) für besonders hübsch anzuschauende Bilder. Die NVidia Hardware-Unterstützung für PS1.4 ist suboptimal, aber daran kann NVidia ja noch arbeiten... Mit "Breite des Bandes" beziehe ich mich auf die Einsatzmöglichkeiten, die sich aufgrund gestiegener Rohleistung nun vermehrt ergeben. Welches Spiel hat schon vor zwei Jahren nennenswert mehr als vier Texturlayer eingesetzt?!
Originally posted by Demirug
Die DX Spec sagt was gemacht werden kann und wie es gamcht wird. Die Guidelines der IHVs sagen dann wie die zu erwartende Performance ist. Verstösst man gegen die Guidelines wird man mit geringer Leistung bestraft. Ist das Spiel/Anwendung dem IHV wichtig genug wird er versuchen die verstösse mit dem Treiber gerade zu biegen.

PS1.4 ist in DX9 enthalten und sicher mehr als nur gelegentlich zum Design der nächsten Eyecandy-Stufe geeignet. PS2.0(+) ist nicht immer zwingend notwendig. Zu dieser Erkenntnis ist auch FM gekommen und hat sie kosequent umgesetzt. Weshalb sollte man auf den Baum klettern, wenn Äpfel, die den eigenen Ansprüchen völlig genügen, bereits auf dem Boden liegen? Wenn NVidia seine Hardware bezüglich PS1.4/2.0 nicht verbesseren möchte, dann sollen sie eben weiter nur an Treiberoptimierungen arbeiten. Die im 3DMark2003 getätigten "Optmierungen" sind allerdings keine solchen, sondern Betrug. Halbwegs neutrale Betrachter der Vorgänge werden es so empfinden!
Originally posted by Demirug
Bezüglich der Eyecandy phase ist der Zug für die 1.4 Shader mehr oder minder abgefahren. Das war er eigentlich schon klar als bekannt war das von nv keine Hardware mit PS 1.4 als maximum kommt. Damit sind die PS 1.4 erst mal in der Phase der Passreduktion und kommen später möglicherweise noch in die Baselevelphase. Das hängt aber wie gesagt vom Markterfolg der Lowcost ATI-Karten ab.

Eine spekulative Sicht der Dinge, zumindest für einen Entwickler. Der Marktanteil ATI's könnte eine gegenteilige Entwicklung bewirken und er stünde mit "heruntergelassenen Hosen" dar. Diverse Games setzten PS1.4 ein und nehmen dabei in Kauf, gegen NVidia's Guidelines zu verstossen. Weshalb wohl?
Originally posted by Demirug
Ich mache was optimierungen angeht zwischen einem Benchmark und einem Spiel keinen Unterschied. Solange das Endergebniss stimmt ist es für mich OK. Ausgenommen Optimierungen die sich nicht von einem Benchmark auf ein Spiel übertragen lassen.
Was verstehst du unter "Ergebnis" bzw. "übertragen"? Es scheint mir, du bist auch der Ansicht, daß der Kunde sich über die Rohleistung einer Karte informieren können sollte, ohne dabei durch solche "Optmierungen" verschaukelt zu werden, die wir in dieser Form niemals in Spielen wiederfinden werden.

Pathfinder

Quasar
2003-05-25, 13:38:11
Originally posted by aths
Wenn ich das richtig verstanden habe, bedeutet Multipass auch, mehrfachen Geometrie-Aufwand.

Wenn man nicht gerade so verschwenderisch mit Geometrie umgeht, wie FM es im 3DMark03 getan hat, dann sehe ich angesichts der weit überdimensionierten Vertexleistungen der meisten DX8-Hardware hier nur selten einen Flaschenhals auf uns zukommen.

Aber, um's mal mit Razor zu sagen: Wir werden sehen.

Demirug
2003-05-25, 13:41:18
Originally posted by aths
Wenn ich das richtig verstanden habe, bedeutet Multipass auch, mehrfachen Geometrie-Aufwand.

mehrfach = erhöhten. Dann stimmt es. ;)

Demirug
2003-05-25, 13:43:16
Originally posted by aths
Ja ich weiß. 4 Texturen insgesamt sind aber recht dürftig.

Ja da sind wir uns einig.

Quasar
2003-05-25, 13:48:04
Noch eines zur PS1.4-Debatte:

Die Unterstützung in DX9 ist Pflicht, ja.
Aber um mal ein Analogon zu verwenden, mit einem Auto, das 200 km/h fahren kann (und evtl. schneller, wenn die Strasse entsprechend präpariert ist ;)), kann man logischerweise auch 140km/h fahren.

Wenn man die 200km/h-Modelle mal als Weiterentwicklungen der letzten Generation ansieht, könnte man zu folgendem Schluss kommen:

Firma "A" hatte schon vorher ein Auto, welches 140km/h fuhr und hat einfach noch einen sechsten Gang ins Getriebe gebaut, Hubraum und Drehmoment erhöht und zack, fuhr das Ding auf einmal 200 Sachen (mit Rückenwind und bergab auch manchmal noch einen Tick schneller).

Firma "n" hatte vorher ein Modell, welches im zweiten Aufguß von 110 auf immerhin 130km/h beschleunigt wurde. Mehr war aber aufgrund von Aerodynamik und Fahrwerk einfach nicht drin. Nun hat man, für höhere Geschwindigkeiten, eine paar zusätzliche Zylinder eingebaut und einen langen Schongang.
Wenn man nun schneller als 130, also auch bsw. "nur" 140 fahren will, muss man in den langen Schongang schalten. Der Motor läuft in niedrigen Geschwindigkeiten weit unter seinem optimalen Drehzahlband und brummt unschön.
Auch bis man auf 200km/h ist, ist das Modell von Firma "A" schneller.
Dafür reicht dieser Schongang, genügend Anlauf und eine glatte Fahrbahn vorausgesetzt, noch viel weiter als nur bis 200km/h. Man könnte evtl. auch 260 Sachen fahren.

Nur wo nützt das auf unseren Straßen, die doch eh von so viel Legacy-Schrott überfüllt sind? ;)

Razor
2003-05-25, 13:48:13
Originally posted by mapel110
ahh, razor und demirug meinen mit nativ, dass der r300 den ps1.4 komplett in hardware hat.

halte ich irgendwie für schwachsinn. das würde doch massig transis kosten, den ps1.4 zu verbauen und extra den ps2.0. also praktisch zwei shader, oder ?
Da der PS1.4 wohl schon ein ganzes Stück näher an einem PS2.0 ist, als es die Vorgänerversionen sind, dürfte Aufwand lange nicht so groß sein, wie Du hier vermutest. Ich denke, dass man sich das nicht so vorstellen sollte, wie beispielsweise eine eigene HW T&L-Einheit. So könnte ich mir vorstellen, dass hier und da einfach ein paar zusätzliche Register existieren und schon ist eine native Unterstützung der PS1.4 gegeben...

Bis denne

Razor

Razor
2003-05-25, 13:54:11
Originally posted by aths
Ich kann die Aufregung um PS.1.4 nicht verstehen.

<...snip...>

Ich kann also wirklich NICHT verstehen, warum einige Herren so vehemend gegen FMs Gebrauch des PS.1.4 wettern.
Der PS1.4 ist unter DX8 eine optionale Insellösung und unter DX9 (PS2.0) nicht mehr wirklich notwendig.
Und warum PS1.4 in einem reinen DX9-Bench verwenden, der 'eh nur auf DX9-Hardware startet ?

Die PS1.4 bringen evtl. (d.h. nur bei entsprechender Optimierung !) auf einer sehr geringen Hardwarebasis Vorteile, wenn sie lediglich zur Performance-Steigerung (i.e. Single-Pass) genutzt werden. Solche Dinge können aber auch auf PS1.1-Hardware so optimiert werden, dass sie dort besser laufen, als auf einer PS1.4-Hardware.

Ich kann wirklich NICHT verstehen, wo der Sinn von PS1.4 sein soll !
;-)

Razor

Razor
2003-05-25, 13:56:05
Originally posted by aths
Trotz Smiley muss ich dir sagen, dass "und" hier einen Widerspruch erzeugt. Ist eine Enginge unoptimiert, kann sie nicht gleichzeitig optimiert sein.
Natürlich kann sie...
Das werden Dir hier so einige Leute auch sicher belegen können.

Siehe auch die Kommentare zu den "Do"s und "Don't"s...
;-)

Razor

Razor
2003-05-25, 13:59:00
Originally posted by mapel110

ich kanns schon verstehen. ihnen gefällt nicht, dass bei einem dx8 test ps1.4 verwendet wird. dabei wird aber imo vergessen, dass der gesamte benchmark nunmal die leistung von dx9 hardware miteinander vergleichen soll.

und dx9 hardware muss auch den shader 1.4 unterstüzen.

zum vergleich von dx8 karten taugt er nichts.
Da aber nur ein einziger Hersteller die PS1.4 nativ unterstützt, macht diese gewaltige Überlast an PS1.4 doch wohl keinen Sinn... vor allem wenn dieser Bench eine 'RealWorld'-Aussage treffen will...

Deinem letzten Satz stimme ich 100% zu, dem vorhergesagten zu 100% nicht !
:D

Razor

P.S.: Auch wenn's weh tut...
DX9-Hardware muss den PS1.4 lediglich anbieten, aber nicht voll in Hardware unterstützen.

mapel110
2003-05-25, 13:59:52
Originally posted by Quasar
Noch eines zur PS1.4-Debatte:

Die Unterstützung in DX9 ist Pflicht, ja.
Aber um mal ein Analogon zu verwenden, mit einem Auto, das 200 km/h fahren kann (und evtl. schneller, wenn die Strasse entsprechend präpariert ist ;)), kann man logischerweise auch 140km/h fahren.

Wenn man die 200km/h-Modelle mal als Weiterentwicklungen der letzten Generation ansieht, könnte man zu folgendem Schluss kommen:

Firma "A" hatte schon vorher ein Auto, welches 140km/h fuhr und hat einfach noch einen sechsten Gang ins Getriebe gebaut, Hubraum und Drehmoment erhöht und zack, fuhr das Ding auf einmal 200 Sachen (mit Rückenwind und bergab auch manchmal noch einen Tick schneller).

Firma "n" hatte vorher ein Modell, welches im zweiten Aufguß von 110 auf immerhin 130km/h beschleunigt wurde. Mehr war aber aufgrund von Aerodynamik und Fahrwerk einfach nicht drin. Nun hat man, für höhere Geschwindigkeiten, eine paar zusätzliche Zylinder eingebaut und einen langen Schongang.
Wenn man nun schneller als 130, also auch bsw. "nur" 140 fahren will, muss man in den langen Schongang schalten. Der Motor läuft in niedrigen Geschwindigkeiten weit unter seinem optimalen Drehzahlband und brummt unschön.
Auch bis man auf 200km/h ist, ist das Modell von Firma "A" schneller.
Dafür reicht dieser Schongang, genügend Anlauf und eine glatte Fahrbahn vorausgesetzt, noch viel weiter als nur bis 200km/h. Man könnte evtl. auch 260 Sachen fahren.

Nur wo nützt das auf unseren Straßen, die doch eh von so viel Legacy-Schrott überfüllt sind? ;)

nettes bild. aber wie gesagt, gibt es bislang nur den 3dmark mit 1.4er support.
ich würde mich erst aufregen, wenn es in games soweit ist(natürlich nur, wenn ich eine nv-karte besässe :naughty: ).

soll sich also ati entschuldigen, dass sie den ps1.4 nativ vom vorgänger unterstützen
oder
soll sich nvidia entschuldigen für den miesen ps1.4 support der dx9 chips
oder
soll sich nvidia entschudligen für den ps1.3 support in der vorgängerversion
oder
soll sich futuremark entschuldigen für den ps1.4 support
???

deiner und razors meinung nach wohl futuremark ;)

Razor
2003-05-25, 14:02:54
Originally posted by aths

Spaß beiseite, ohne grünes Licht von NV wäre es wohl nicht dazu gekommen, dass der 1.4-er Shader Pflicht für 2.0-er Shader wird.
Was wo nachzulesen ist ?
Was füe ein Interesse hätte nVidia an den PS1.4 haben sollen ?
???
Originally posted by aths

DX9 ist demzufolge unaktuell? Warum hast du eine FX 5200?
Featureseitig muss schon volle Leistung da sein. Was die Ausführungsgeschwindigkeit angeht, noch mal, was kann FM dafür, dass die FX hier nicht so flott ist?
FM hat den Code 'verbrochen'... also sind sie die einzigen, die diese Frage beantworten können...
(und das sollten sie schleunigst !)

Razor

Razor
2003-05-25, 14:05:24
Originally posted by aths
Das ist Pflicht, weil schon frühzeitig festgelegt wurde, dass das Melden eines Shaders X immer auch bedeutet, alle validen Shader Y mit Y < X zu unterstützen. Irgendwie habe ich das Gefühl, dir passt es nicht, dass ATI damals die featuremäßig besseren DX8-Shader hatte und es ihnen gelungen ist, diese zum DX-Standard zu erheben.
Völlig korrekt... weil:
Für DX8 zu weit, für DX9 nicht weit genug.
Nix Halbes und nix Ganzes also...
:D

Razor

mapel110
2003-05-25, 14:05:38
Originally posted by Razor

P.S.: Auch wenn's weh tut...
DX9-Hardware muss den PS1.4 lediglich anbieten, aber nicht voll in Hardware unterstützen.

schwachsinn !
er wird doch in hardware unterstützt.

voll unterstützt ? wo soll da der unterschied zu "unterstützt" liegen ?

wir werdens ja sehen bei künftigen dx9 chips anderer hersteller. hoffentlich kommen die bald.

Pathfinder
2003-05-25, 14:05:59
Originally posted by Razor

Der PS1.4 ist unter DX8 eine optionale Insellösung und unter DX9 (PS2.0) nicht mehr wirklich notwendig.
Und warum PS1.4 in einem reinen DX9-Bench verwenden, der 'eh nur auf DX9-Hardware startet ?

Die PS1.4 bringen evtl. (d.h. nur bei entsprechender Optimierung !) auf einer sehr geringen Hardwarebasis Vorteile, wenn sie lediglich zur Performance-Steigerung (i.e. Single-Pass) genutzt werden. Solche Dinge können aber auch auf PS1.1-Hardware so optimiert werden, dass sie dort besser laufen, als auf einer PS1.4-Hardware.

Ich kann wirklich NICHT verstehen, wo der Sinn von PS1.4 sein soll !
;-)

Razor

Weshalb möchtest du unter allen Umständen PS1.4 praktischen Sinn und Nutzen absprechen. Dieser Versuch ist in sich schon gegenstandlos, als daß es einige Spiele gibt, die PS1.4 einsetzen. Damit wäre die sinnvolle Einsatzmöglichkeit zweifelsfrei belegt, es sei denn, du spricht den Entwicklern ab, einen Sinn und Zweck für den Einsatz tatsächlich erkannt zu haben.

Die Diskussion nimmt doch einen sehr zweifelhaften Verlauf und kommt gänzlich vom Thema ab.

Pathfinder

Thowe
2003-05-25, 14:06:39
Also wenn ich den Thread hier so querlese, dann komme ich zu den Schluss, das NVIDIA cheated weil sie keine PS 1.4 haben, anders kann ich mir ein solches OT gebrabbel nicht erklären.

Aber eins hat der Thread, man kann ihn als Schmerzmittel verkaufen, aber nur an mentale Masochisten.

Wobei eine gewisse Fülle an Inhaltsleere ja auch eine Kunst ist, dummlaberei trifft es aber wohl nicht völlig.

Ich geh dann mal wieder meinen Hund suchen, vielleicht splittet ja mal jemand den PS 1.4 Teil ab ... wäre zwar eine Scheissarbeit, aber mal was sinniges.

Demirug
2003-05-25, 14:07:05
Originally posted by Pathfinder

Die Verbreitung von PS1.4 wird durch die Verbreitung von DX9-Karten definiert. PS1.4 ist in DX9 enthalten, also auch in deiner Voraussetzung (DX9) für besonders hübsch anzuschauende Bilder. Die NVidia Hardware-Unterstützung für PS1.4 ist suboptimal, aber daran kann NVidia ja noch arbeiten... Mit "Breite des Bandes" beziehe ich mich auf die Einsatzmöglichkeiten, die sich aufgrund gestiegener Rohleistung nun vermehrt ergeben. Welches Spiel hat schon vor zwei Jahren nennenswert mehr als vier Texturlayer eingesetzt?!

Die DX9 Karten sind aber auch PS 2.0 fähig. Und wenn ATI sagt das es ihnen egal ist ob man auf diesen karten 1.4 oder 2.0 benutzt und NV sagt bitte kein PS 1.4 kann man sich ja leicht ausrechnen wie das ausgeht.

PS1.4 ist in DX9 enthalten und sicher mehr als nur gelegentlich zum Design der nächsten Eyecandy-Stufe geeignet. PS2.0(+) ist nicht immer zwingend notwendig. Zu dieser Erkenntnis ist auch FM gekommen und hat sie kosequent umgesetzt. Weshalb sollte man auf den Baum klettern, wenn Äpfel, die den eigenen Ansprüchen völlig genügen, bereits auf dem Boden liegen? Wenn NVidia seine Hardware bezüglich PS1.4/2.0 nicht verbesseren möchte, dann sollen sie eben weiter nur an Treiberoptimierungen arbeiten. Die im 3DMark2003 getätigten "Optmierungen" sind allerdings keine solchen, sondern Betrug. Halbwegs neutrale Betrachter der Vorgänge werden es so empfinden!

Bei den VS und PS Test konnte bisher AFAIK noch keiner eine beeinträchtigung in der Bildqualität feststellen. Das Wasser könnte sich durchaus noch im Rahmen der erlaubten Toleranz bewegen. Das läst sich aber ohne den Originalcode von FM nicht feststellen. Bei den Weglassen der Geometrie im GT4 ist nv aber wirklich zu weit gegangen.

Eine spekulative Sicht der Dinge, zumindest für einen Entwickler. Der Marktanteil ATI's könnte eine gegenteilige Entwicklung bewirken und er stünde mit "heruntergelassenen Hosen" dar. Diverse Games setzten PS1.4 ein und nehmen dabei in Kauf, gegen NVidia's Guidelines zu verstossen. Weshalb wohl?

Man versucht ja bei einem Spiel auf alle Gudielines einzugen. Da es da ja teilweise überscheidungen gibt sind diese Punkte schnell abgehackt. Dann gibt es noch den Bereich wo sich die Dinge gegenseitig nicht beeinflussen. Kritisch wird es nur bei gegensätzlichen Vorgaben. Wenn man bisher auf PS 1.4 gesetzt hat brauchte man sich ja nicht um nv zu kümmern für deren Karten hat man dann ja 1.1 Shader. und bei diesem kann man dann ja wieder die nv Guides befolgen.

Was verstehst du unter "Ergebnis" bzw. "übertragen"? Es scheint mir, du bist auch der Ansicht, daß der Kunde sich über die Rohleistung einer Karte informieren können sollte, ohne dabei durch solche "Optmierungen" verschaukelt zu werden, die wir in dieser Form niemals in Spielen wiederfinden werden.

Pathfinder

Das Ergebniss ist das was ich auf dem Monitor sehe. Übertragen heist das man bei einem Benchmark nur auf optimierungen zurückgreifen darf die sich so auch auf ein Spiel übertragen lassen. Also eine Optimierung die auf einer festen Kamerafahrt beruht ist für mich keine Optimierung sonder ein Cheat. Dagegen ist das nicht löschen des Framebuffers im GT3 für mich eine optimierung weil man das auch in einem Spiel so machen könnte wenn man weiss das das löschen sowieso immer unnötig ist.

Razor
2003-05-25, 14:14:32
Originally posted by Pathfinder

PS1.4 ist in DX9 enthalten und sicher mehr als nur gelegentlich zum Design der nächsten Eyecandy-Stufe geeignet. PS2.0(+) ist nicht immer zwingend notwendig. Zu dieser Erkenntnis ist auch FM gekommen und hat sie kosequent umgesetzt. Weshalb sollte man auf den Baum klettern, wenn Äpfel, die den eigenen Ansprüchen völlig genügen, bereits auf dem Boden liegen?
Wenn Du diese Behauptung aufstellst, Pathfinder, dann sag Du mir doch bitte mal, wieviel größer der Aufwand ist, einen PS2.0 zu erstellen im Vergleich zu einem PS1.4 !

Schließlich würde ich Dein "auf dem Baum klettern" als sehr großen Aufwand deuten und "auf dem Boden liegen" als sehr geringen. Kannst Du das bitte mit Hintergrund füllen ?

Thx im Voraus

Razor

Quasar
2003-05-25, 14:17:00
Originally posted by mapel110


nettes bild. aber wie gesagt, gibt es bislang nur den 3dmark mit 1.4er support.
ich würde mich erst aufregen, wenn es in games soweit ist(natürlich nur, wenn ich eine nv-karte besässe :naughty: ).

soll sich also ati entschuldigen, dass sie den ps1.4 nativ vom vorgänger unterstützen
oder
soll sich nvidia entschuldigen für den miesen ps1.4 support der dx9 chips
oder
soll sich nvidia entschudligen für den ps1.3 support in der vorgängerversion
oder
soll sich futuremark entschuldigen für den ps1.4 support
???

deiner und razors meinung nach wohl futuremark ;)

Nö, keiner soll sich entschuldigen. Aber wundern über das Bild, was wir im 3DMark03 sehen, sollte sich m.E. auch keiner. :)

Aufregen tu' ich mich auch nicht. Warum auch? Keine Grafikkarte hält ewig und irgendwann ist's halt Zeit, aufzurüsten und wenn die Zeit gekommen ist, schau ich mir an, welche Games ich spielen will und danach suche ich mir die Graka aus, die diese Games am besten unterstützt, so einfach.
Ob sie nun von nV, Ati, SiS, intel, VIA oder sonstwem kommt, ist mir eigentlich wurscht.

Razor
2003-05-25, 14:19:45
Originally posted by mapel110

deiner und razors meinung nach wohl futuremark ;)
Zumindest sollte FM das Prädikat "unabhängig" und den Anspruch 'RealWorld' ablegen...
:D

Razor

Razor
2003-05-25, 14:20:41
Originally posted by mapel110

schwachsinn !
er wird doch in hardware unterstützt.

voll unterstützt ? wo soll da der unterschied zu "unterstützt" liegen ?

wir werdens ja sehen bei künftigen dx9 chips anderer hersteller. hoffentlich kommen die bald.
Bitte lese genau...
"anbieten" und "voll in Hardware unterstützen" war die Unterscheidung...
(und dazwischen liegen Welten !)
:D

Razor

gRoUnD
2003-05-25, 14:21:12
Wieso findest du das nicht selber raus und zweifelst primär erstmal daran ? Allein der Fakt das PS1.4 und 2.0 differenzierte Lösungen sind beinhaltet doch daß es für beide ein optimale Verwendungsmöglichkeit gibt, oder nicht ?

Quasar
2003-05-25, 14:21:24
Originally posted by Demirug
Bei den VS und PS Test konnte bisher AFAIK noch keiner eine beeinträchtigung in der Bildqualität feststellen. Das Wasser könnte sich durchaus noch im Rahmen der erlaubten Toleranz bewegen. Das läst sich aber ohne den Originalcode von FM nicht feststellen. Bei den Weglassen der Geometrie im GT4 ist nv aber wirklich zu weit gegangen.

Hast du dich vertippt, oder habe ich noch etwas nicht mitbekommen? Ich dachte, der Wassershader wäre ausgetauscht worden usw.... Die Geo-Clips waren doch in den GT2 und 3?

Exxtreme
2003-05-25, 14:23:26
Originally posted by Quasar

Aber um mal ein Analogon zu verwenden, mit einem Auto, das 200 km/h fahren kann (und evtl. schneller, wenn die Strasse entsprechend präpariert ist ;)), kann man logischerweise auch 140km/h fahren.

Der Vergleich hinkt gewaltig. ;)

Razor
2003-05-25, 14:24:33
Originally posted by Pathfinder

Weshalb möchtest du unter allen Umständen PS1.4 praktischen Sinn und Nutzen absprechen. Dieser Versuch ist in sich schon gegenstandlos, als daß es einige Spiele gibt, die PS1.4 einsetzen. Damit wäre die sinnvolle Einsatzmöglichkeit zweifelsfrei belegt, es sei denn, du spricht den Entwicklern ab, einen Sinn und Zweck für den Einsatz tatsächlich erkannt zu haben.
Das siehst Du leider falsch.
Ich stelle die massive, völlig überzogene Nutzung der PS1.4 im Murks in Frage und nicht generell...
(worüber man sicherlich auch vortrefflich streiten kann ;-)

Du wirst doch wohl sicher auch den Unterschied zwischen "einige" und "massiv" kenne, oder ?
Oder wie will FM so eine 'RealWorld'-Aussage treffen ?

OK, wenn Sie sagen würden, dass sie mit dem Murks03 lediglich PS1.4-Hardware 'testen' wollen (mit einem winzigen Bruchteil PS2.0 ;-), dann würde ich ja gar nichts sagen. Aber so...

Razor

betasilie
2003-05-25, 14:24:53
Razor, findest Du deine krampfhaften Versuche alles für NV zu drehen nicht langsam langweilig!? Du hast sicherlich bei einigen Teilaspekten recht mit deiner Meinung, aber so langsam werden deine neutorischen Versuche alles NV-gerecht zu diskutieren imho wirklich arm.

Bye Beta

Exxtreme
2003-05-25, 14:30:03
An alle PS1.4-Nichtgutfinder, :D

man hat einen Effekt, den man mit gleicher Geschwindigkeit mit einem PS1.4- und PS2.0-Shader realisieren kann.

Nennt mir bitte einen technischen Grund, warum man den PS2.0 nehmen sollte.

Razor
2003-05-25, 14:30:55
Originally posted by betareverse
Razor, findest Du deine krampfhaften Versuche alles für NV zu drehen nicht langsam langweilig!? Du hast sicherlich bei einigen Teilaspekten recht mit deiner Meinung, aber so langsam werden deine neutorischen Versuche alles NV-gerecht zu diskutieren imho wirklich arm.

Bye Beta
Wenn Du meinst, Beta...
Hier geht es allerdings eher um FM-Murks, falls Du das nicht mitbekommen haben solltest.
So wäre ich Dir denn dankbar wenn Du was zum Thema sagen würdest...

Zumindest danke ich Dir, dass Du mir in einigen "Teilaspekten" recht gibst.
:D

Razor

P.S.: Immer schön locker bleiben... *eg*

Razor
2003-05-25, 14:32:33
Originally posted by Exxtreme
An alle PS1.4-Nichtgutfinder, :D

man hat einen Effekt, den man mit gleicher Geschwindigkeit mit einem PS1.4- und PS2.0-Shader realisieren kann.

Nennt mir bitte einen technischen Grund, warum man den PS2.0 nehmen sollte.
Ich drehe Deine Frage mal um:
"Nennt mir bitte einen technischen Grund, warum man den PS1.4 nehmen sollte."

Und ?
:D

Razor

P.S.: für den technischen Grund fehlt mir der Hinter-(n)... ;-)

Razor
2003-05-25, 14:34:29
Originally posted by Exxtreme
An alle PS1.4-Nichtgutfinder, :D

man hat einen Effekt, den man mit gleicher Geschwindigkeit mit einem PS1.4- und PS2.0-Shader realisieren kann.

Nennt mir bitte einen technischen Grund, warum man den PS2.0 nehmen sollte.
OK, der war nicht so dolle...
;-)

Also nochmal:
In einem Bench, der nur auf DX9-Hardware läuft, macht es doch wohl eigentlich keinen Sinn, die PS1.4 zu benutzen, vor allem, wenn man die von Dir gegebene Prämisse ins Kalkül zieht... oder siehst Du das anders ?

Was für einen Sinn sollte es dann machen, einen PS zu nutzen, der nur auf bestimmter Hardware optimal läuft ?
(und das bitte mit dem Hintergrund, eine 'RealWorld'-Aussage treffen zu wollen...)
???

Razor

M O
2003-05-25, 14:34:48
weil NV ps1.4 nicht voll hardwaren mässig unterstützt

du verstehen ?

Quasar
2003-05-25, 14:36:20
Originally posted by Exxtreme
An alle PS1.4-Nichtgutfinder, :D

man hat einen Effekt, den man mit gleicher Geschwindigkeit mit einem PS1.4- und PS2.0-Shader realisieren kann.

Nennt mir bitte einen technischen Grund, warum man den PS2.0 nehmen sollte.

Wenn er auf jeder dafür ausgelegten Hardware wirklich mit gleicher Geschwindigkeit läuft, gibt's keinen. :D

Wenn nicht, gibt's schon einen.

gRoUnD
2003-05-25, 14:36:53
Hier geht es um FM, richtig. Dazu gehört der PS1.4, genauso wie deine Widerworte und krampfhaften Versuche PS1.4 schon im synthetischen Benchmark abzuschreiben, weil die RealWorld Apps vermutlich genauso schlecht laufen würden / werden. Und da hat beta Recht.

Exxtreme
2003-05-25, 14:38:50
Originally posted by Razor

Ich drehe Deine Frage mal um:
"Nennt mir bitte einen technischen Grund, warum man den PS1.4 nehmen sollte."

Und ?
:D

Razor

Höhere Verbreitung PS1.4-fähiger HW -> höhere Kompatibilität. :D
Originally posted by Razor
P.S.: für den technischen Grund fehlt mir der Hinter-(n)... ;-)
Warum bevorzugst du dann den PS2.0 wenn du eigentlich nicht weisst, was daran besser ist?


Und ich könnte wetten, daß wenn du nicht wüsstest, daß der 3DMark03 PS1.4 verwendet, dies dich überhaupt nicht gestört hätte.
:D

M O
2003-05-25, 14:39:39
RealWorld Apps mit 1.4 wirds aber nicht viele geben
RealWorld Apps schaut so aus 1.1 oder 2.0

betasilie
2003-05-25, 14:39:47
Originally posted by Razor

Wenn Du meinst, Beta...
Hier geht es allerdings eher um FM-Murks, falls Du das nicht mitbekommen haben solltest.
So wäre ich Dir denn dankbar wenn Du was zum Thema sagen würdest...

Zumindest danke ich Dir, dass Du mir in einigen "Teilaspekten" recht gibst.
:D

Razor

P.S.: Immer schön locker bleiben... *eg*
Ich beziehe mich ja auf die FM Diskussion. ´Habe halt lediglich den Eindruck, dass alle für dich kritikwürdigen Aspekte drauf abzielen Nv besser dastehen zu lassen und Du deine Meinung mit der Brechstange durchsetzen willst. ;)

Ich drehe Deine Frage mal um:
"Nennt mir bitte einen technischen Grund, warum man den PS1.4 nehmen sollte."

Z.B., weil PS 1.4 von wirklich allen aktuellen Low-End, Mid-Range und High-End Karten unterstützt wird, der PS2.0 hingegen nicht.

Demirug
2003-05-25, 14:40:21
Originally posted by Quasar


Hast du dich vertippt, oder habe ich noch etwas nicht mitbekommen? Ich dachte, der Wassershader wäre ausgetauscht worden usw.... Die Geo-Clips waren doch in den GT2 und 3?

Bei GT2 und GT3 sind es die "wir löschen den Hintergund nicht" Geschichten. Bei GT4 kommt dann noch hinzu das wenn man die Kamera im Freefly hat plötzlich teile der geometrie fehlen.

betasilie
2003-05-25, 14:41:31
Originally posted by Exxtreme
Und ich könnte wetten, daß wenn du nicht wüsstest, daß der 3DMark03 PS1.4 verwendet, dies dich überhaupt nicht gestört hätte.
:D
bzw, würde es ihn nicht stören, wenn ATI-DX8-Karten ihn nicht unterstützen würden, aber dafür NV-Karte der DX8-Klasse.

Exxtreme
2003-05-25, 14:42:40
Originally posted by M O
RealWorld Apps mit 1.4 wirds aber nicht viele geben
RealWorld Apps schaut so aus 1.1 oder 2.0
Sagt wer?

Quasar
2003-05-25, 14:43:37
Originally posted by Demirug


Bei GT2 und GT3 sind es die "wir löschen den Hintergund nicht" Geschichten. Bei GT4 kommt dann noch hinzu das wenn man die Kamera im Freefly hat plötzlich teile der geometrie fehlen.

???
Irgendwie scheine ich grad' ganz gewaltig auf dem Schlauch zu stehen.
Meinst du die weggeclippte Skybox?

betasilie
2003-05-25, 14:44:55
Originally posted by M O
weil NV ps1.4 nicht voll hardwaren mässig unterstützt

du verstehen ?
Bis auf ein Wort ich verstehn deine Meinung, bin aber andere. ;)

M O
2003-05-25, 14:45:32
Originally posted by Exxtreme

Sagt wer?

ist doch klar oder ?
spiele entwickler werden ihre programme so schreiben das sie auf der gängisten hardware optimal laufen und nicht für die radion 8500/9100 eine ausnahme machen

Razor
2003-05-25, 14:45:52
Originally posted by Exxtreme

Höhere Verbreitung PS1.4-fähiger HW -> höhere Kompatibilität. :D
OK, ein Smilie...
:D

Höhere Kompatibilität = (PS1.1 OR PS2.0) AND NOT PS1.4 !
;D
Originally posted by Exxtreme

Warum bevorzugst du dann den PS2.0 wenn du eigentlich nicht weisst, was daran besser ist?
Weil es mir keiner erklärt...
Kannst Du das ?
Originally posted by Exxtreme

Und ich könnte wetten, daß wenn du nicht wüsstest, daß der 3DMark03 PS1.4 verwendet, dies dich überhaupt nicht gestört hätte.
:D
Klar, wenn ich nicht wüsste, dass ich existiere, dann würde ich mir auch keine Gedanken über meine Existenz machen !
*sinnier*

Wollen wir wieder zum Thema zurück ?

Razor

Quasar
2003-05-25, 14:45:58
Originally posted by Exxtreme

Sagt wer?

Demirug z.B., wenn ich ihn recht verstehe. Natürlich sind das alles Vermutungen, da Kristallkugeln momentan überall ausverkauft sind.

Korak
2003-05-25, 14:47:19
Bis die aktuellen DX9 Karten zur gängigsten Hardware zählen dürfte noch einiges an Zeit verstreichen.

Man siehts an aktuellen Umfragen (TNT2 ahoi).

Edit: geht an M O

Demirug
2003-05-25, 14:48:39
Originally posted by Quasar


???
Irgendwie scheine ich grad' ganz gewaltig auf dem Schlauch zu stehen.
Meinst du die weggeclippte Skybox?

Ja das meine ich. Wobei ich mir immer noch nicht sicher bin wie die wirklich verschwindet.

Razor
2003-05-25, 14:49:47
Originally posted by betareverse

Ich beziehe mich ja auf die FM Diskussion. ´Habe halt lediglich den Eindruck, dass alle für dich kritikwürdigen Aspekte drauf abzielen Nv besser dastehen zu lassen und Du deine Meinung mit der Brechstange durchsetzen willst. ;)
Nun ja, wenn das Dein Eindruck ist, dann ist er eben falsch !
:D
Originally posted by betareverse

Z.B., weil PS 1.4 von wirklich allen aktuellen Low-End, Mid-Range und High-End Karten unterstützt wird, der PS2.0 hingegen nicht.
Nochmal: Es gibt einen Unterschied zwischen 'anbieten' und 'voll in Hardware unterstützen'...
Und wenn ich das richtig sehe, dann ist im Low-End-Segment sogar noch DX6 vertreten und so etwas hat von PixelShadern ala DX8 noch nie etwas gesehen.

Was erzählst Du da eigentlich für einen Stuß ?
???

Razor

Exxtreme
2003-05-25, 14:50:04
Originally posted by M O
ist doch klar oder ?
spiele entwickler werden ihre programme so schreiben das sie auf der gängisten hardware optimal laufen und nicht für die radion 8500/9100 eine ausnahme machen
Seit dem NV3x und R3x0 ist PS1.4 keine Ausnahme...

du verstehen? :D

betasilie
2003-05-25, 14:50:15
Originally posted by M O
spiele entwickler werden ihre programme so schreiben das sie auf der gängisten hardware optimal laufen und nicht für die radion 8500/9100 eine ausnahme machen
Deine Argumentation spricht für PS1.4

weil PS 1.4 von wirklich allen aktuellen Low-End, Mid-Range und High-End Karten unterstützt wird, der PS2.0 hingegen nicht
Der PS1.4 wird von allen aktuellen Karten unterstütz, der Ps2.0 nicht. Mal abgesehen davon, das die PS2.0 der 5200er wahrscheinlich viel zu schwach sind, um sie wirklich in Spielen zu nutzen.

Razor
2003-05-25, 14:50:44
Originally posted by betareverse

bzw, würde es ihn nicht stören, wenn ATI-DX8-Karten ihn nicht unterstützen würden, aber dafür NV-Karte der DX8-Klasse.
Warum sollte das so sein ?
???

Razor