PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PS1.4 beim 3DMark03 ( War:Vergleiche mit Nvidias offiz. 43.45 sind mit Vorsicht zu ge


Razor
2003-03-30, 16:47:55
Originally posted by Exxtreme

Ich denke, daß die Spieleprogrammierer ihre Texturen etc. immer so angepasst haben, daß es unter 32 Bit keine Fehler gab. Futuremark ist wohl davon ausgegangen, daß mindestens 96 Bit verwendet werden und haben die Mother Nature Demo nicht an 64 Bit angepasst, sodaß es zu Grafikfehlern kommt.
Sagen wir es doch gerade hinaus:
Sie haben auf 'ner R300 geproggt und sich keinen Deut um Kompatibilität geschert !

Demirug hat es doch schon deutlich gemacht... DX8-Shader in einem DX9-Test zu benutzen ist einfach hirnrissig und zeugt nicht gerade von guter Programmierleistung.

Und ist Dir eigentlich noch gar nicht aufgefallen, dass der Mother-Nature-Test vom Murks dem Nature-Demo von ATI fast gleicht ? DAS ist eigentlich schon ein hinreichendes Indiz.

Nicht nur, dass sie die GT2/3-Tests deutlich versemmelt haben (ich hoffe, man weiß wie ich das meine ;-), nein, auch der Nature-Test ist speziell auf ATI-Hardware ausgelegt. Vergleichen kann man damit eigentlich so gut wie gar nichts...

Bis denne

Razor

Labberlippe
2003-03-30, 16:58:16
Originally posted by Razor

Sagen wir es doch gerade hinaus:
Sie haben auf 'ner R300 geproggt und sich keinen Deut um Kompatibilität geschert !

Demirug hat es doch schon deutlich gemacht... DX8-Shader in einem DX9-Test zu benutzen ist einfach hirnrissig und zeugt nicht gerade von guter Programmierleistung.

Und ist Dir eigentlich noch gar nicht aufgefallen, dass der Mother-Nature-Test vom Murks dem Nature-Demo von ATI fast gleicht ? DAS ist eigentlich schon ein hinreichendes Indiz.

Nicht nur, dass sie die GT2/3-Tests deutlich versemmelt haben (ich hoffe, man weiß wie ich das meine ;-), nein, auch der Nature-Test ist speziell auf ATI-Hardware ausgelegt. Vergleichen kann man damit eigentlich so gut wie gar nichts...

Bis denne

Razor

und ???
Damalig wurde auf nV Hardware geproggt.
Empfindest Du es da als unfair, das die ATi Karten per Fallback (???) benachteiligt waren.

Wieso hat dann damals MadOnion nicht mit den Patch die PS1.4 gleichmässig mitbeteiligt.

Fakt ist das beide Karten PS 2.0 beherrschen, wenn nVIDIA sich einen Dreck um PS 1.4 schert obwohl dieses besser ist, dann ist das deren Problem.

Gruss Labberlippe

Labberlippe
2003-03-30, 17:00:36
Originally posted by Razor

Jo, und deswegen haben sie Tests ja auch wieder rein genommen und sich darauf zurück gezogen, zumindest einen Unterscheid zwischen offiziellen und nicht-offiziellen Treibern zu machen. Kann gut sein, dass nVidia deswegen so schnell mit dem 43.45 herus gekommen ist, der offensichtlich noch nicht ganz fertig zu sein scheint.

Wie dem auch sei, die Ziebeljungens haben es vermutlich einsehen müssen...

Bis denne

Razor

Nenn das Kind beim Namen.
Die mussten die Ergebnisse wieder reinnehmen das sonst alle nV Jünger flennen und nicht mehr testen können.
Je weniger Testen desto weniger wird der 3DMark verwendet, desto geringer sind die Chancen das die Jungs Kohle verdienen.


oder glaubst Du etwas die Leben vom nichts.

Gruss Labberlippe

Razor
2003-03-30, 17:17:27
Originally posted by Labberlippe

und ???
Damalig wurde auf nV Hardware geproggt.
Empfindest Du es da als unfair, das die ATi Karten per Fallback (???) benachteiligt waren.

Wieso hat dann damals MadOnion nicht mit den Patch die PS1.4 gleichmässig mitbeteiligt.

Fakt ist das beide Karten PS 2.0 beherrschen, wenn nVIDIA sich einen Dreck um PS 1.4 schert obwohl dieses besser ist, dann ist das deren Problem.

Gruss Labberlippe
Da scheinst Du was durcheinander bekommen zu haben...
Sie haben die PS1.4 in einem DX9-Test 'überstrapaziert', was auf R300-Karten (wohlgemerkt können R200-Karten den Test nicht ausführen) wohl zu keinem Problem führte, wohl aber auf 'anderen' DX9-Karten, weil diese Vorgehensweise unter DX9... sagen wir mal 'suboptimal' ist.

Kannst Du mir erklären, warum die Zwiebeljungens in allen 3 Game-Tests so dermaßen auf die PS1.4 fixiert waren ? Und warum ausgerechnet im DX9-Test nicht überall die PS2.0 verwendet wurden ?

Da bin ich ja mal gespannt !
;-)

Razor

Razor
2003-03-30, 17:20:15
Originally posted by Labberlippe

Nenn das Kind beim Namen.
Die mussten die Ergebnisse wieder reinnehmen das sonst alle nV Jünger flennen und nicht mehr testen können.
Je weniger Testen desto weniger wird der 3DMark verwendet, desto geringer sind die Chancen das die Jungs Kohle verdienen.

oder glaubst Du etwas die Leben vom nichts.

Gruss Labberlippe
Hätten sie es nicht getan, dann hätten Sie sich nicht mehr als 'allgemeiner Test' bezeichnen dürfen und wären tatsächlich nicht mehr vom Markt akzeptiert worden. Sie haben halt den Fehler gemacht zu eindeutig auf ATI-Hardware zu proggen. Wenn nun also ein anderer Hersteller dies in seinen Treibern zu kompensieren sucht und sich dabei an die Regeln hält ist rein gar nichts dagegen einzuwenden.

Und genau das mussten die Zwiebelleutz trotz ihres Grolls auf nVidia einsehen und haben einen Rückzieher gemacht.

Nicht mehr, aber auch nicht weniger !

Bis denne

Razor

Exxtreme
2003-03-30, 17:23:31
Originally posted by Razor
Kannst Du mit erklären, warum die Zwiebeljungens in allen 3 Game-Tests so dermaßen auf die PS1.4 fixiert waren ? Und warum ausgerechnet im DX9-Test nicht die PS2.0 verwendet wurden ?

Da bin ich ja mal gespannt !
;-)

Razor
Naja, vermutlich wussten die bei Futuremark nicht, daß der NV30 mit PS1.4 so schlecht abschneidet. Ansonsten kann ich die PS1.4-Fixierung durchaus verstehen. Warum PS2.0 nehmen, wenn es PS1.4 genauso oder sogar besser tut?

Razor
2003-03-30, 17:25:58
Originally posted by Exxtreme

Naja, vermutlich wussten die bei Futuremark nicht, daß der NV30 mit PS1.4 so schlecht abschneidet. Ansonsten kann ich die PS1.4-Fixierung durchaus verstehen. Warum PS2.0 nehmen, wenn es PS1.4 genauso oder sogar besser tut?
Weil die PS1.4 eine exklusive ATI-Erweiterung waren ?
Oder welcher DX8-Chipsatz hat noch gleich die PS1.4 unterstützt ?
???

Exxtreme, ich denke Du weißt ganz genau, worauf ich hinaus wollte...

Razor

P.S.: Was soll der PS1.4 "besser tun", als der PS2.0 ?

LovesuckZ
2003-03-30, 17:26:17
Originally posted by Exxtreme
Ansonsten kann ich die PS1.4-Fixierung durchaus verstehen. Warum PS2.0 nehmen, wenn es PS1.4 genauso oder sogar besser tut?

Warum nicht gleich einen DX9 Bench machen, wenn sowieso die einzgisten Karten die den Benchmark in vernuenftiger Qualitaet aberspulen koennen, auch DX9 Karten sind...

Exxtreme
2003-03-30, 17:30:30
Originally posted by Razor

Weil die PS1.4 eine exklusive ATI-Erweiterung waren ?
Oder welcher DX8-Chipsatz hat noch gleich die PS1.4 unterstützt ?
???

Exxtreme, ich denke Du weißt ganz genau, worauf ich hinaus wollte...

Razor

P.S.: Was soll der PS1.4 "besser tun", als der PS2.0 ?
Ähhm, der NV30 kann angeblich ;) PS2.0. Dann MUSS er auch PS1.4 können. Deswegen ist PS1.4 keine exklusive ATi-Erweiterung mehr.

Und der PS1.1 war lange Zeit eine exklusive NV-Erweiterung. Darüber hat sich aber niemand aufgeregt als 3DM01 erschien.

Quasar
2003-03-30, 17:33:18
Originally posted by Exxtreme

Naja, vermutlich wussten die bei Futuremark nicht, daß der NV30 mit PS1.4 so schlecht abschneidet. Ansonsten kann ich die PS1.4-Fixierung durchaus verstehen. Warum PS2.0 nehmen, wenn es PS1.4 genauso oder sogar besser tut?

Warum jagen sie aber bei PS1.1-1.3 gleich alle Polygone zweimal durch den Test, wenn sie nur bei ein paar Textureffekten zwei Passes machen müssten?
Ich als non-progger kann das z.B. kaum nachvollziehen.

Exxtreme
2003-03-30, 17:33:52
Originally posted by LovesuckZ
Warum nicht gleich einen DX9 Bench machen, wenn sowieso die einzgisten Karten die den Benchmark in vernuenftiger Qualitaet aberspulen koennen, auch DX9 Karten sind...
Dann nenn mir einen 'vernünftigen' Grund warum man PS2.0 nehmen sollte wenn es PS1.4 genauso tut? Wie gesagt, es kann sein, daß die bei FM nicht wussten, daß der NV30 so schlecht mit'm PS1.4 abschneidet.

Exxtreme
2003-03-30, 17:36:27
Originally posted by Quasar


Warum jagen sie aber bei PS1.1-1.3 gleich alle Polygone zweimal durch den Test, wenn sie nur bei ein paar Textureffekten zwei Passes machen müssten?
Ich als non-progger kann das z.B. kaum nachvollziehen.
Warum die es so machen... keine Ahnung. Vielleicht kann Demirug oder zecke was dazu sagen.

Ich programmiere nur langweilige Tools. :D

Demirug
2003-03-30, 17:36:27
Originally posted by Exxtreme

Naja, vermutlich wussten die bei Futuremark nicht, daß der NV30 mit PS1.4 so schlecht abschneidet. Ansonsten kann ich die PS1.4-Fixierung durchaus verstehen. Warum PS2.0 nehmen, wenn es PS1.4 genauso oder sogar besser tut?

PS 1.4 kann absolute nichts was man mit PS 2.0 nicht auch machen kann. So gesehen hätte man den gesamten 4 Test auch gleich nur mit 2.0 Shadern bauen können. Aber ich bin sowieso ein Freund davon durchgängig auf einer Shaderversion zu bleiben.

StefanV
2003-03-30, 17:39:10
Originally posted by Razor

Sagen wir es doch gerade hinaus:
Sie haben auf 'ner R300 geproggt und sich keinen Deut um Kompatibilität geschert !


Razor, 1. wurden die Vorgänger sozusagen auf NV Karten geproggt (stört das einen ??), und zum anderen:

War die R300 oder die GF FX verfügbar, als Futremark den Bench geschrieben hat ??

NV hat sich mit der Verspätung der GF FX also doppelt ins Knie geschossen (ATI schneller, Futuremark nutzt(e) ATI)...

Wenn NV zu lahm mit deren DX9 Karte ist, dann ist das wohl weder ATIs noch Futuremarks Problem, meinst nicht ?

Razor
2003-03-30, 17:39:47
Originally posted by Exxtreme

Ähhm, der NV30 kann angeblich ;) PS2.0. Dann MUSS er auch PS1.4 können. Deswegen ist PS1.4 keine exklusive ATi-Erweiterung mehr.

Und der PS1.1 war lange Zeit eine exklusive NV-Erweiterung. Darüber hat sich aber niemand aufgeregt als 3DM01 erschien.
Soweit ich weiss, KANN der NV30 die PS1.4 ja auch, oder gibt's da gegenteilige Aussagen ?
Und Du hast meine Frage nicht beantwortet:

Welcher DX8-Chipsatz unterstützt die PS1.4 ausser ATI ?

Wäre nett, wenn Du mir hierauf eine Antwort geben könntest...
;-)

Bis denne

Razor

Razor
2003-03-30, 17:40:40
Originally posted by Exxtreme

Dann nenn mir einen 'vernünftigen' Grund warum man PS2.0 nehmen sollte wenn es PS1.4 genauso tut? Wie gesagt, es kann sein, daß die bei FM nicht wussten, daß der NV30 so schlecht mit'm PS1.4 abschneidet.
:lol::rofl::lol:

Razor

Exxtreme
2003-03-30, 17:41:29
Originally posted by Razor
Welcher DX8-Chipsatz unterstützt die PS1.4 ausser ATI ?

Wäre nett, wenn Du mir hierauf eine Antwort geben könntest...
;-)

Bis denne

Razor
Keiner. Zufrieden? Aber was hat das jetzt mit'm Thema zu tun?

Razor
2003-03-30, 17:43:43
Originally posted by Stefan Payne

Razor, 1. wurden die Vorgänger sozusagen auf NV Karten geproggt (stört das einen ??), und zum anderen:

War die R300 oder die GF FX verfügbar, als Futremark den Bench geschrieben hat ??

NV hat sich mit der Verspätung der GF FX also doppelt ins Knie geschossen (ATI schneller, Futuremark nutzt(e) ATI)...

Wenn NV zu lahm mit deren DX9 Karte ist, dann ist das wohl weder ATIs noch Futuremarks Problem, meinst nicht ?
Ad1: Links ? Belege ?

Ad2: Ja und Ja (zumindest für die Entwickler)

Ad3: Deine Meinung...

Ad4: ATI's Problem ( :lol: ) sicher nicht, wohl aber FM's...

Razor

Quasar
2003-03-30, 17:43:43
Mitm Thema zu tun hat das insofern, als daß doch angeblich der Shadercode von PS1.4 sich ziemlich von dem der PS1.1-1.3 unterscheiden soll und Shader neugecoded werden müssten.

PS2.0 soll ja angeblich (wie gesagt, ich bin kein Progger) eine deutlich einfachere Abwärtskompatibilität besitzen, oder?

StefanV
2003-03-30, 17:43:44
Originally posted by Quasar


Warum jagen sie aber bei PS1.1-1.3 gleich alle Polygone zweimal durch den Test, wenn sie nur bei ein paar Textureffekten zwei Passes machen müssten?
Ich als non-progger kann das z.B. kaum nachvollziehen.

Ich schon ;)

Faulheit z.B. ;)

Demirug
2003-03-30, 17:43:57
Originally posted by Quasar


Warum jagen sie aber bei PS1.1-1.3 gleich alle Polygone zweimal durch den Test, wenn sie nur bei ein paar Textureffekten zwei Passes machen müssten?
Ich als non-progger kann das z.B. kaum nachvollziehen.

Wieso alle? Laut dem Techpaper müssen bei PS 1.1 250000 Polys durch die Pipelines und bei PS 1.4 150000 Polys. Und da man den Lichteffekt ja auf alles anwendet muss eben alles mehrfach durch die Pipeline

Razor
2003-03-30, 17:45:21
Originally posted by Exxtreme

Keiner. Zufrieden? Aber was hat das jetzt mit'm Thema zu tun?
Huh ?
Was das mit dem Murks03 zu tun haben soll ?
???

Kann doch nicht Dein ernst sein...
Oder beziehst Du Dich jetzt tatsächlich auf das Thread-Thema ?
:D

Razor

StefanV
2003-03-30, 17:45:42
Originally posted by Razor

Weil die PS1.4 eine exklusive ATI-Erweiterung waren ?
Oder welcher DX8-Chipsatz hat noch gleich die PS1.4 unterstützt ?
???

Exxtreme, ich denke Du weißt ganz genau, worauf ich hinaus wollte...

Razor

P.S.: Was soll der PS1.4 "besser tun", als der PS2.0 ?

Razor, PS1.4 ist Bestandteil von DX9(/8.1), wenn eine Karte PS2 ausführen kann, dann MUSS sie auch PS1.4 'gut' können (insbesondere da 1.4 nicht weit von 2.0 weg ist)...

Demirug
2003-03-30, 17:48:20
Originally posted by Quasar
Mitm Thema zu tun hat das insofern, als daß doch angeblich der Shadercode von PS1.4 sich ziemlich von dem der PS1.1-1.3 unterscheiden soll und Shader neugecoded werden müssten.

PS2.0 soll ja angeblich (wie gesagt, ich bin kein Progger) eine deutlich einfachere Abwärtskompatibilität besitzen, oder?

Ja die PS 1.4 sind irgendwie ganz anders.

von 1.1-1.3 auf 2.0 muss man zwar auch was anpassen aber es liegt mehr auf einer Linie.

Razor
2003-03-30, 17:52:22
Originally posted by Stefan Payne

Razor, PS1.4 ist Bestandteil von DX9(/8.1), wenn eine Karte PS2 ausführen kann, dann MUSS sie auch PS1.4 'gut' können (insbesondere da 1.4 nicht weit von 2.0 weg ist)...
Schmärz schon wieder...

Wieso MUSS eine DX9-Karte die PS1.4 'gut' können ?
Sie muss sie ausführen können und mehr nicht !

Aber vielleicht kannst Du ja mal erklären, warum in 3 von 4 Game-Tests die PS1.4 massiv zum Einsatz gekommen sind, obwohl nur ein einziger Chip-Hersteller diese in seiner DX8(!)-Hardware unterstützt.

Und das mit der 'Faulheit' kannst Du vergessen...
Wenn ich Demi richtig verstanden habe, ist der Unterschied von PS1.3 auf PS1.4 enorm, von PS1.4 auf PS2.0 aber nur noch marginal... zumindest wollte ATI uns dies weis machen...
(Thx an Demirug ;-)

Wo ist da die Logik ?

Für mich und wohl auch jeden, der genauer darüber nachdenkt, haben die Zwiebeljungens ATI hier massivst bevorzugt und wollten das Ganze noch toppen, indem sie versuchten nVidia's Treiber aus zu sperren, die das zu korrigieren suchten.

Hätten sie das tatsächlich durchgezogen hätten Sie sich auf eine satte Klage gefasst machen müssen und definitiv ihre 'Reputation' verspielt... die ohnehin schon angekratzt sein dürfte...

Na ja, aber soweit haben sie es ja wohl nicht kommen lassen, gell ?
:D

Razor

Demirug
2003-03-30, 17:52:23
Originally posted by Stefan Payne


Razor, PS1.4 ist Bestandteil von DX9(/8.1), wenn eine Karte PS2 ausführen kann, dann MUSS sie auch PS1.4 'gut' können (insbesondere da 1.4 nicht weit von 2.0 weg ist)...

Ach Stefan, glaub doch nicht alles was ATI sagt. Die 1.4 sind zwar etwas näher an 2.0 dran als 1.1 bis 1.3 aber so nahe wie ATI das einem bei der Vorstellung des E200 den leuten glauben machten wollte sind sie auch nicht dran.

und gut können muss ein Chip der PS 2.0 kann die PS 1.4 nicht. Er muss sie nur korrekt ausführen. Forderungen bezüglich der Speed gibt es bei DX keine und wird es auch nie geben.

mapel110
2003-03-30, 17:54:12
Originally posted by Demirug


Ja die PS 1.4 sind irgendwie ganz anders.

von 1.1-1.3 auf 2.0 muss man zwar auch was anpassen aber es liegt mehr auf einer Linie.

da hab ich von dir aber schon eine andere aussage gehört.
nämlich, dass der sprung von ps1.4 auf 2.0 nicht so gross wäre, wie der von 1.1/1.3 auf 2.0.

deswegen hätte ATi nur das bestehende erweitert und nv alles komplett neu gemacht. oder hab ich da was falsch verstanden ?!

LovesuckZ
2003-03-30, 18:01:47
Originally posted by Exxtreme
Dann nenn mir einen 'vernünftigen' Grund warum man PS2.0 nehmen sollte wenn es PS1.4 genauso tut?

Der 3dMark2003 soll doch ein DX9 bench sein (jedenfalls laeuft er nur richtig mit DX9 Karten). Da nur der r200 und seine Abkoemmlinge über den PS1.4 verfuegen und die restlichen DX8 Karten von Nvidia, Matrox und SIS hoechsten PS1.3 haben, haette Futuremark gleich auf PS2.0 setzen koennen, da jede Karte die PS2.0 in Hardware unterstuetzen abwaertskomparible seien (hab sowas gehoert). Warum dann nicht gleich auf PS2.0 setzen? So haette man wenigsten einen fairen Vergleich.

edit: Englisch verwirrte mich

Korak
2003-03-30, 18:05:15
Originally posted by LovesuckZ


Der 3dMark2003 soll doch ein DX8 bench sein. Da nur der r200 und seine Abkoemmlinge über den PS1.4 verfuegen und die restlichen DX8 Karten von Nvidia, Matrox und SIS hoechsten PS1.3 haben, haette Futuremark gleich auf PS2.0 setzen koennen, da jede Karte die PS2.0 in Hardware unterstuetzen abwaertskomparible seien (hab sowas gehoert). Warum dann nicht gleich auf PS2.0 setzen? So haette man wenigsten einen fairen Vergleich.

Wenn der 3DMark ein DX8-Benchmark sein soll, hätte man theoretisch PS 2.0 ganz weg lassen sollen.

StefanV
2003-03-30, 18:06:43
Originally posted by LovesuckZ


Der 3dMark2003 soll doch ein DX8 bench sein. Da nur der r200 und seine Abkoemmlinge über den PS1.4 verfuegen und die restlichen DX8 Karten von Nvidia, Matrox und SIS hoechsten PS1.3 haben, haette Futuremark gleich auf PS2.0 setzen koennen, da jede Karte die PS2.0 in Hardware unterstuetzen abwaertskomparible seien (hab sowas gehoert). Warum dann nicht gleich auf PS2.0 setzen? So haette man wenigsten einen fairen Vergleich.

Ist das ein Nachteil für die GF4 TIs gegenüber der Radeon 8500/9000 ??

Exxtreme
2003-03-30, 18:08:08
Originally posted by LovesuckZ


Der 3dMark2003 soll doch ein DX8 bench sein. Da nur der r200 und seine Abkoemmlinge über den PS1.4 verfuegen und die restlichen DX8 Karten von Nvidia, Matrox und SIS hoechsten PS1.3 haben, haette Futuremark gleich auf PS2.0 setzen koennen, da jede Karte die PS2.0 in Hardware unterstuetzen abwaertskomparible seien (hab sowas gehoert). Warum dann nicht gleich auf PS2.0 setzen? So haette man wenigsten einen fairen Vergleich.
Tja, dann wäre ein 'purer' PS2.0-Bench auf DX8-Karten nicht mehr lauffähig. Man müsste so oder so einen Fallback für PS <=1.3-Karten einbauen damit diese laufen. Hätte man für die jetzigen PS1.4-Effekte PS2.0 benutzt, so hätte man ATis R200-Abkömmlinge künstlich ausgebremst da diese ebenfalls den Fallback nutzen müssten.

Demirug
2003-03-30, 18:08:42
Originally posted by mapel110


da hab ich von dir aber schon eine andere aussage gehört.
nämlich, dass der sprung von ps1.4 auf 2.0 nicht so gross wäre, wie der von 1.1/1.3 auf 2.0.

deswegen hätte ATi nur das bestehende erweitert und nv alles komplett neu gemacht. oder hab ich da was falsch verstanden ?!

Nein hast du nicht.

damals ging es um die Hardwareimplementierung also das was so im Chip abläuft. Jetzt geht es um das Programmiermodel. Dort hat man bei den PS 1.4 einen abweichenden Weg gewählt. Frag mich aber bitte nicht warum ich kann nur vermuten das es so für die Treibernetwickler einfacher war/ist. Bei 2.0 Programmiermodel muss der Treiber mehr arbeit leisten.

Aus diesem Grund war für ATI der Sprung von ihrer 1.4 Hardware auf eine 2.0 Hardware einfacher als bei NVIDIA von einer 1.3 auf eine 2.0+ Hardware. Dafür hat ATI dann wesentlich mehr arbeit beim wechsel auf 3.0 als NVIDIA.

Anonym_001
2003-03-30, 18:08:54
Originally posted by Korak


Wenn der 3DMark ein DX8-Benchmark sein soll, hätte man theoretisch PS 2.0 ganz weg lassen sollen.

Warum hätte man sie Theoretisch weglassen können. Man hätte sie weglassen müssen.
Bei DX8 gibt es keine PS 2.0.

Korak
2003-03-30, 18:10:10
Originally posted by Anonym_001


Warum hätte man sie Theoretisch weglassen können. Man hätte sie weglassen müssen.
Bei DX8 gibt es keine PS 2.0.

Ja eben.

(können und sollen is nich das gleiche *Haar spalt*;))

Quasar
2003-03-30, 18:12:36
Originally posted by Demirug


Wieso alle? Laut dem Techpaper müssen bei PS 1.1 250000 Polys durch die Pipelines und bei PS 1.4 150000 Polys. Und da man den Lichteffekt ja auf alles anwendet muss eben alles mehrfach durch die Pipeline
Joa, für den Battle-of-Proxicom Test ist das so. Aber die D3-ähnliche Engine verwendet für jede Lichtquelle bei PS1.3drei Passes vs. single-pass auf PS1.4.
Ohne jetzt auf diesem Detail herumreiten zu wollen, aber es passt ins Bild, denn JC bsw. kommt mit zwei Passes auf derselben Hardware aus.

Beim Trolls-Lair Test sind's dagegen schon 560k vs. 280k. Polys (hier hab' ich mein "jedes" her).

Piffan
2003-03-30, 18:15:53
Originally posted by Exxtreme

Tja, dann wäre ein 'purer' PS2.0-Bench auf DX8-Karten nicht mehr lauffähig. Man müsste so oder so einen Fallback für PS <=1.3-Karten einbauen damit diese laufen. Hätte man für die jetzigen PS1.4-Effekte PS2.0 benutzt, so hätte man ATis R200-Abkömmlinge künstlich ausgebremst da diese ebenfalls den Fallback nutzen müssten.

So ein Blödsinn! Es kommt kein Spielentwickler der Welt auf die Idee, die 1.4 Shader in ein Spiel einzubauen. Entweder bleibt er bei 1,3 - oder er nimmt sofort 2.0! Schließlich will er ja, dass sein Game auf einer möglichst breiten Basis gut aussieht und anständig läuft!

Egal was hier an "Argumenten" noch kommt, der Murks ist überdeutlich Ati- lastig.....

Aber mal im Ernst: Wer kauft denn das Teil wirklich? :bonk:

edit: Aus 1.4 schnell 2.0 gemacht

Demirug
2003-03-30, 18:17:02
Originally posted by Quasar

Joa, für den Battle-of-Proxicom Test ist das so. Aber die D3-ähnliche Engine verwendet für jede Lichtquelle bei PS1.3drei Passes vs. single-pass auf PS1.4.
Ohne jetzt auf diesem Detail herumreiten zu wollen, aber es passt ins Bild, denn JC bsw. kommt mit zwei Passes auf derselben Hardware aus.

Beim Trolls-Lair Test sind's dagegen schon 560k vs. 280k. Polys (hier hab' ich mein "jedes" her).

Stimmt nicht ganz Quasar. Auch bei D3 werden abhängig vom genauen Effekt 2 oder 3 Passes pro Lichtquelle benötigt. Zusätzlich muss man noch sagen das wenn man gnadenloss die Regcombiner ausnutzt in einem Pass mehr machen kann als mit den PS 1.1-1.3 möglich ist. Denn die DX PS stellen ja immer einen Kompromiss dar.

Quasar
2003-03-30, 18:19:21
Originally posted by Demirug


Stimmt nicht ganz Quasar. Auch bei D3 werden abhängig vom genauen Effekt 2 oder 3 Passes pro Lichtquelle benötigt. Zusätzlich muss man noch sagen das wenn man gnadenloss die Regcombiner ausnutzt in einem Pass mehr machen kann als mit den PS 1.1-1.3 möglich ist. Denn die DX PS stellen ja immer einen Kompromiss dar.

Ok, klingt einleuchtend. An die API-bedingten Unterschiede hab' ich jetzt nicht gedacht.

StefanV
2003-03-30, 18:23:41
Originally posted by Piffan


So ein Blödsinn! Es kommt kein Spielentwickler der Welt auf die Idee, die 1.4 Shader in ein Spiel einzubauen. Entweder bleibt er bei 1,3 - oder er nimmt sofort 2.0! Schließlich will er ja, dass sein Game auf einer möglichst breiten Basis gut aussieht und anständig läuft!

Egal was hier an "Argumenten" noch kommt, der Murks ist überdeutlich Ati- lastig.....

Aber mal im Ernst: Wer kauft denn das Teil wirklich? :bonk:

edit: Aus 1.4 schnell 2.0 gemacht

Und die R200 Karten sowie deren Abkömmlinge lässt man im Regen stehen oder wie ?? ;)

Demirug
2003-03-30, 18:25:05
Originally posted by Piffan


So ein Blödsinn! Es kommt kein Spielentwickler der Welt auf die Idee, die 1.4 Shader in ein Spiel einzubauen. Entweder bleibt er bei 1,3 - oder er nimmt sofort 2.0! Schließlich will er ja, dass sein Game auf einer möglichst breiten Basis gut aussieht und anständig läuft!

Egal was hier an "Argumenten" noch kommt, der Murks ist überdeutlich Ati- lastig.....

Aber mal im Ernst: Wer kauft denn das Teil wirklich? :bonk:

edit: Aus 1.4 schnell 2.0 gemacht

Piffan, wir sind so wahnsinnig und haben Pixelshader 1.4 Effektdatein:D

Aber nur weil es Aufgrund des von uns benutzten Shaderframework eigentlich keine Mehrarbeit für uns ist.

LovesuckZ
2003-03-30, 18:27:00
Originally posted by Stefan Payne
Ist das ein Nachteil für die GF4 TIs gegenüber der Radeon 8500/9000 ??

???

Demirug
2003-03-30, 18:27:01
Originally posted by Stefan Payne


Und die R200 Karten sowie deren Abkömmlinge lässt man im Regen stehen oder wie ?? ;)

Stefan, wenn man die Shader für unterschiedliche Versionen alle von Hand schreibt ja. Der Mehraufwand lohnt dann einfach nicht.

LovesuckZ
2003-03-30, 18:28:19
Originally posted by Stefan Payne
Und die R200 Karten sowie deren Abkömmlinge lässt man im Regen stehen oder wie ?? ;)

Neo, die werden bestimmt nen extrapfad erhalten. Und wenn nicht, dann kann man es den Entwicklern nicht übel nehmen, da es mit der P1.4 Untersetuetzung 1:3 steht (DX8 Karten).

Piffan
2003-03-30, 18:29:18
Originally posted by Stefan Payne


Und die R200 Karten sowie deren Abkömmlinge lässt man im Regen stehen oder wie ?? ;)

Wieso das? Haben die Probs mit Shader 1.3???

Das wäre aber ein Pech ;)

Jedenfalls kann es nicht angehen, dass eine Firma ein Prog als allgemeinen Test propagiert, dann aber beim DX9- Test komischerweise eine niedrigere Version des Shaders nimmt, als man von vernünftig denkenden Entwicklern erwarten darf.

Naja, "komisch" ist es eigentlich nicht, wenn man bedenkt, dass es nur einen Hersteller gibt, der diese Shader in Hardware unterstützt.....*eg*

Aber es ist eh sinnlos hier in diesem Forum. Einige sind hier scheinbar absichtlich dümmer als sie sein sollten....Tschö!

zeckensack
2003-03-30, 18:30:19
Originally posted by Razor

Soweit ich weiss, KANN der NV30 die PS1.4 ja auch, oder gibt's da gegenteilige Aussagen ?
Und Du hast meine Frage nicht beantwortet:

Welcher DX8-Chipsatz unterstützt die PS1.4 ausser ATI ?

Wäre nett, wenn Du mir hierauf eine Antwort geben könntest...
;-)

Bis denne

Razor Da duch dich gerade zum "Dick- und Großschreiben" hingerissen fühlst, will ich dir jetzt mal einen Witz erzählen (der der Wahrheit entspricht):
Außer NV-Chips hat kein anderer PS1.1- bis PS1.3-Hardware. Alles Emulation.

Dieser Versionsunsinn ist MS anzulasten, also wende dich doch bitte in deren Richtung bevor du hier rumposaunst.

Und noch quasi-konstruktiv:
NV hätte durchaus auf der GfFX die FP16-HW für den 1.4er Shader nehmen können, wenn das irgendwas gebracht hätte. ATI hat überhaupt keine Integer-HW mehr im R300, und da geht's doch auch ...

Nur weil die FX 'ne Fehlkonstruktion ist (Int&FP: worst of both worlds), sind ATI und/oder FM nicht böse.

Und nochmal, zum tausendsten Mal, extra für dich und LovesuckZ:
Wenn PS1.4 reicht (Präzision, Wertebereich, Befehlssatz), dann nimmt man das. Man nimmt nämlich sinnvollerweise immer das kleinstmögliche, aber trotzdem angemessene Werkzeug für einen Job, gerade wenn es um Performance geht. Oder setzt Serious Sam Pixel Shader voraus? :eyes:

Razor
2003-03-30, 18:30:34
Originally posted by Stefan Payne

Ist das ein Nachteil für die GF4 TIs gegenüber der Radeon 8500/9000 ??
???

Razor

Razor
2003-03-30, 18:32:05
Originally posted by Exxtreme

Tja, dann wäre ein 'purer' PS2.0-Bench auf DX8-Karten nicht mehr lauffähig. Man müsste so oder so einen Fallback für PS <=1.3-Karten einbauen damit diese laufen. Hätte man für die jetzigen PS1.4-Effekte PS2.0 benutzt, so hätte man ATis R200-Abkömmlinge künstlich ausgebremst da diese ebenfalls den Fallback nutzen müssten.
Wie jetzt ?
Wir reden hier vom 'Mother-Nature-Test' und nicht von den DX8-Tests...
Könntest Du das etwas näher erläutern ?

Razor

LovesuckZ
2003-03-30, 18:32:05
Originally posted by zeckensack
Außer NV-Chips hat kein anderer PS1.1- bis PS1.3-Hardware. Alles Emulation.


Hm, auch nicht SIS und Matrox?

zeckensack
2003-03-30, 18:32:16
Originally posted by Razor

Schmärz schon wieder...

Wieso MUSS eine DX9-Karte die PS1.4 'gut' können ?
Sie muss sie ausführen können und mehr nicht !

Aber vielleicht kannst Du ja mal erklären, warum in 3 von 4 Game-Tests die PS1.4 massiv zum Einsatz gekommen sind, obwohl nur ein einziger Chip-Hersteller diese in seiner DX8(!)-Hardware unterstützt.:jedifire:

Weil Befehlssatz
Programmlänge
Wertebereich
Präzisionreichen.

StefanV
2003-03-30, 18:33:17
@Razor

bitte unterlasse deine 'Schmärtz' Postings, das empfinde ich als Beleidigung !!

StefanV
2003-03-30, 18:33:44
Originally posted by LovesuckZ
Hm, auch nicht SIS und Matrox?

Wenn Zeckie das sagt, dann wirds wohl so sein :eyes:

AlfredENeumann
2003-03-30, 18:33:49
Originally posted by Razor
Und warum ausgerechnet im DX9-Test nicht überall die PS2.0 verwendet wurden ?


Weil du überall nicht PS2.0 brauchst.

Demirug
2003-03-30, 18:35:20
Originally posted by zeckensack
Da duch dich gerade zum "Dick- und Großschreiben" hingerissen fühlst, will ich dir jetzt mal einen Witz erzählen (der der Wahrheit entspricht):
Außer NV-Chips hat kein anderer PS1.1- bis PS1.3-Hardware. Alles Emulation.

Auch NV20 und NV25 emulieren PS 1.1 (bzw 1.3) nur. Das solltest gerade du als OpenGL Programmierer wissen ;)

AlfredENeumann
2003-03-30, 18:35:27
Originally posted by Razor

Weil die PS1.4 eine exklusive ATI-Erweiterung waren ?



Ist es nicht. Es steht jedem frei PS1.4 zu implementiern.

StefanV
2003-03-30, 18:36:23
Originally posted by zeckensack
:jedifire:

Weil Befehlssatz
Programmlänge
Wertebereich
Präzisionreichen.

Eben, so sehe ich das auch...

Eine andere Vorgehensweise wäre Perlen vor die Säue schmeißen (oder mit Kanonen auf Spatzen schießen)...

Nur anscheinend argumentieren einige damit, daß PS1.4 'müll' ist und nur von ATI kommt, weil sie nicht einsehen wollen, daß die PS Performance der GF FX einfach unterirdisch ist.

AlfredENeumann
2003-03-30, 18:39:53
Originally posted by Razor

Aber vielleicht kannst Du ja mal erklären, warum in 3 von 4 Game-Tests die PS1.4 massiv zum Einsatz gekommen sind, obwohl nur ein einziger Chip-Hersteller diese in seiner DX8(!)-Hardware unterstützt.



Andersrum. Warum muß ATI dafür leiden wen die anderen den PS1.4 nicht unterstützen.

nggalai
2003-03-30, 18:40:43
Hola,
Originally posted by LovesuckZ
Der 3dMark2003 soll doch ein DX8 bench sein.Tippfehler? Meinst Du nicht DX9 Bench?

Wenn ja, ACK. Wenn nein, Nicaragua???

93,
-Sascha.rb

mapel110
2003-03-30, 18:44:54
Originally posted by nggalai
Hola,
Tippfehler? Meinst Du nicht DX9 Bench?

Wenn ja, ACK. Wenn nein, Nicaragua???

93,
-Sascha.rb

eben, warum regen sich alle so auf. nemmt doch 3dmark2001se. da war die welt doch in ordnung :|

zeckensack
2003-03-30, 18:45:04
Originally posted by Demirug


Auch NV20 und NV25 emulieren PS 1.1 (bzw 1.3) nur. Das solltest gerade du als OpenGL Programmierer wissen ;) Jein ;)
Die Texturinstruktionen von PS1.1 entsprechen exakt und eins-zu-eins NV_texture_shader.
Bei den Color-Ops liegen Teile brach, jedenfalls gibt es nichts in PS1.1 was der NV25 nicht direkt als Combiner-Op umsetzt (man denke hier an exotischere Dinge wie conditional moves).

Außerdem glaube ich nicht wirklich, daß Xabre/Parhelia zB derart beschränkte dependant reads hat wie NV2x. Man wird hier lediglich 'keinen Bock' gehabt haben, eine eigene Shaderversion von MS zu fordern - was ja ohnehin im Ganzen ziemlich in die Hose gegangen ist, wie man an diesem Thread wieder eindrucksvoll sehen kann.

Demirug
2003-03-30, 18:48:39
Originally posted by Stefan Payne


Eben, so sehe ich das auch...

Eine andere Vorgehensweise wäre Perlen vor die Säue schmeißen (oder mit Kanonen auf Spatzen schießen)...

Nur anscheinend argumentieren einige damit, daß PS1.4 'müll' ist und nur von ATI kommt, weil sie nicht einsehen wollen, daß die PS Performance der GF FX einfach unterirdisch ist.

mhm dann kann ich dir aber zwei Beispiele sagen wo ATI die Kanone bevorzugt.

1. Auch wenn die PS 1.1-1.3 ausreichen bekommt man von ATI die empfehlung alles mit PS 1.4 zu machen da diese dem Treiber/Chip besser bekommen.

2. ATI hat ebenso die Parole ausgegeben das sobald man ein Vertexshaderprogramm benutzt alle Vertexoperationen mit Vertexshaderprogramme durchführen soll (auch wenn Fixed T&L reichen würde) weil sie mit dem wechsel zwischen Fixed T&L und dem Vertexshader nicht so gut klarkommen.

Exxtreme
2003-03-30, 18:51:41
Originally posted by Razor

Wie jetzt ?
Wir reden hier vom 'Mother-Nature-Test' und nicht von den DX8-Tests...
Könntest Du das etwas näher erläutern ?

Razor
Ich rede nicht nur von MN-Test. ;)

Aber auch bei MN habe ich keine überzeugende Begründung gehört warum man PS2.0 nehmen sollte wenn PS1.4 vollkommen reicht.

zeckensack
2003-03-30, 18:53:34
Originally posted by zeckensack
Man nimmt nämlich sinnvollerweise immer das kleinstmögliche, aber trotzdem angemessene Werkzeug für einen Job, gerade wenn es um Performance geht.

Matt scheint der gleichen Meinung zu sein :P
(FF-Lighting vs Vertex Shader)
Originally posted by mcraighead:
No, I'd definitely recommend that you use the fixed function if it happens to be precisely what you want -- that is, unless you want to throw away a significant amount of lighting performance. It's an even bigger deal, of course, on hardware that *only* has fixed-function T&L and no programmability -- which is a huge number of chips.

Of course, there are still various cases where you can do a better job optimizing, due to assumptions you can make about your own app's data and behavior. But if all you want is fixed function and nothing else, ...

It's not particularly surprising that ATI would advocate you use a vertex program 100% of the time. Even if it didn't help your app running on ATI hardware, it'd hurt your app running on NVIDIA hardware!

- Matt
Man beachte auch ruhig den letzten Absatz, mit freier Rollenverteilung. 'Übertriebene' Shader schaden nur ...

Wer nicht weiß wer Matt ist ... Treiberprogger@NV.
Quelle: http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/008245.html

Demirug
2003-03-30, 18:54:26
Originally posted by zeckensack
Jein ;)
Die Texturinstruktionen von PS1.1 entsprechen exakt und eins-zu-eins NV_texture_shader.
Bei den Color-Ops liegen Teile brach, jedenfalls gibt es nichts in PS1.1 was der NV25 nicht direkt als Combiner-Op umsetzt (man denke hier an exotischere Dinge wie conditional moves).

Außerdem glaube ich nicht wirklich, daß Xabre/Parhelia zB derart beschränkte dependant reads hat wie NV2x. Man wird hier lediglich 'keinen Bock' gehabt haben, eine eigene Shaderversion von MS zu fordern - was ja ohnehin im Ganzen ziemlich in die Hose gegangen ist, wie man an diesem Thread wieder eindrucksvoll sehen kann.

Ja die Textureops werden auch unter OpenGL so unterstützt. Aber ATI hat das ganze ja abgenickt den gefragt wurden sie.

Was den Xabre und Parhelia angeht so würde ich beim ersteren sagen das dieser genau auf die Spec gebaut wurde. In einem Interview wurde mal sowas in der Art erwähnt.

Solange Matrox nicht endlich mal die Extensionbeschreibung kann man auch nicht sagen wo dort die zusätzlichen Möglichkeiten sind.

StefanV
2003-03-30, 19:00:17
Originally posted by Demirug


mhm dann kann ich dir aber zwei Beispiele sagen wo ATI die Kanone bevorzugt.

1. Auch wenn die PS 1.1-1.3 ausreichen bekommt man von ATI die empfehlung alles mit PS 1.4 zu machen da diese dem Treiber/Chip besser bekommen.

2. ATI hat ebenso die Parole ausgegeben das sobald man ein Vertexshaderprogramm benutzt alle Vertexoperationen mit Vertexshaderprogramme durchführen soll (auch wenn Fixed T&L reichen würde) weil sie mit dem wechsel zwischen Fixed T&L und dem Vertexshader nicht so gut klarkommen.

Naja, das sind Herstellerabhängige 'Design Guides', das ist eine andere Geschichte :-)

Ich bin von einem 'klar denkenden/gewissenhaften' Programmierer ausgegangen ;)

PS: hat jemand einen Link zu 'ner Einleitung zu Delphi 3D Programmierung ?? ;)
'etwas kleinkram' kann ich zwar mit Delphi, das ist aber recht beschränkt ,)

Demirug
2003-03-30, 19:00:36
Originally posted by Exxtreme

Ich rede nicht nur von MN-Test. ;)

Aber auch bei MN habe ich keine überzeugende Begründung gehört warum man PS2.0 nehmen sollte wenn PS1.4 vollkommen reicht.

weil er eben nicht immer reicht. Ich sage nur over-bright
lighting. Bei 1.4 nur Option bei 2.0 Plicht.

zeckensack
2003-03-30, 19:02:08
Originally posted by Stefan Payne
PS: hat jemand einen Link zu 'ner Einleitung zu Delphi 3D Programmierung ?? ;)
'etwas kleinkram' kann ich zwar mit Delphi, das ist aber recht beschränkt ,) Üpp (http://www.delphi3d.net/) ???

Demirug
2003-03-30, 19:08:02
Originally posted by Stefan Payne
PS: hat jemand einen Link zu 'ner Einleitung zu Delphi 3D Programmierung ?? ;)
'etwas kleinkram' kann ich zwar mit Delphi, das ist aber recht beschränkt ,)

DX mit Delphi in Deutsch

zum Lesen: http://www.minfos.de/selfdxd/index.html
zum Download: http://www.minfos.de/delphi/selfdxd.zip

Xcellerator
2003-03-30, 19:16:53
Originally posted by Quasar
Mitm Thema zu tun hat das insofern, als daß doch angeblich der Shadercode von PS1.4 sich ziemlich von dem der PS1.1-1.3 unterscheiden soll und Shader neugecoded werden müssten.

PS2.0 soll ja angeblich (wie gesagt, ich bin kein Progger) eine deutlich einfachere Abwärtskompatibilität besitzen, oder?

OT: es heisst: [...] insofern, als [...]

immer wieder schrecklich anzusehen...

Quasar
2003-03-30, 19:21:15
ebenfalls OT:
Was ist an meinen "insofern, als" anders als an deinem "insofern, als"?

BTW, das Wort "Mitm" gips genausowenig, wie ich hier die semantische Bedeutung von Gips hätte aufgrund der phonetischen Ähnlichkeit entfremdem dürfen. ;)

Razor
2003-03-30, 20:10:27
Tja, liebe Leutz, das ist langsam zu hoch für mich...
(Für Stefan wohl auch, wenn er erst sagt, dass er von 'klar denkenden/programmierenden Entwicklern' ausgeht und im nächsten Moment zugibt, davon keine Ahnung zu haben :lol: )

Egal.
Wenn ich das mal zusammen fassen darf:
mann nimmt auch in allgemeinen Applikationen IMMER den kleinstmöglichen Shader, auch wenn das bedeutet, dass es auf einer bestimmten Hardware einen Vorteil bedeutet
Shader fröhlich zu mixen ist 'gut', weil effizient
In allgemeinen DX8-Tests Shader zu benutzen, die nur auf Hardware eines Chipherstellers vernünftig läuft, ist legitim
Habe ich das so richtig formuliert, zecki ?
;-)

Bis denne

Razor

Xcellerator
2003-03-30, 20:43:34
Originally posted by Quasar
ebenfalls OT:
Was ist an meinen "insofern, als" anders als an deinem "insofern, als"?

BTW, das Wort "Mitm" gips genausowenig, wie ich hier die semantische Bedeutung von Gips hätte aufgrund der phonetischen Ähnlichkeit entfremdem dürfen. ;)


ich bin etwas müde ;)

also: insofern, als OHNE dass, in deinem bespiel also:

"[...]zu tun hat das insofern, als doch angeblich [...]"



[/klugscheisser]

mapel110
2003-03-30, 21:20:01
Originally posted by Razor
Tja, liebe Leutz, das ist langsam zu hoch für mich...
(Für Stefan wohl auch, wenn er erst sagt, dass er von 'klar denkenden/programmierenden Entwicklern' ausgeht und im nächsten Moment zugibt, davon keine Ahnung zu haben :lol: )

Egal.
Wenn ich das mal zusammen fassen darf:
mann nimmt auch in allgemeinen Applikationen IMMER den kleinstmöglichen Shader, auch wenn das bedeutet, dass es auf einer bestimmten Hardware einen Vorteil bedeutet
Shader fröhlich zu mixen ist 'gut', weil effizient
In allgemeinen DX8-Tests Shader zu benutzen, die nur auf Hardware eines Chipherstellers vernünftig läuft, ist legitim
Habe ich das so richtig formuliert, zecki ?
;-)

Bis denne

Razor

full ack !

Ansa19
2003-03-30, 21:51:33
so leutz, hab auch mal was dazu beizutragen:
ich seh 3dmark2k03 hauptsächlich als DX9 Benchmark, der dazu da is DX9 GraKa's zu testen.
Der DX8 test ist ne nette dreingabe.wnen ich also DX9 testen will setz' ich als hersteller für nen DX8 test die grösstmögliche PS1.x version ein die von nem hersteller unterstützt wird, dnen PS2.0 unterstützt ja auch PS1.4.
mit dem DX8 test wird halt der DX8 speed von DX9 Graka's getestet, und wnen der nV30 nicht gut mit klar kommt nVidias prob.ati's R200 bietet nunmal die beste DX8.1 unterstützung, wnen nV noch kein PS1.4 integriert hat in den nV25 ihr prob.der r200 ist einfach gegenüber nV25 die beste DX8.1 Kompatibilität, was die Spielehersteller damit anfangen ist ihr ding, werden wohl bloss DX8.0 einsetzen.wieso wollt ihr die R200 deswegen niedermachen weil sie mehr features hat?
ist nunmal in der GraKageschichte so das wenn ne GraKa ein Feature unterstützt es mehr Speed in nem Benchmark gibt.siehe 3DMark2000 (DX7 Test,damals aktuell Voodoo5 und GF2 GTS.GF2 hatte deutlich mehr Punkte obwohl T&L kein muss von DX7 war!).wenn nv20 und nv25 kein DX8.1 beherschen ist es immernoch über ps1.3 oder 1.1 ausführbar,dann jedoch mit weniger Speed.ist aber denke mal in 3DMark2k03 eh nicht mehr relevant, alle Welt wird sich jetzt auf DX9 stürzen und der DX8 test wird den Speed der DX9 GraKa's unter verwendung von DX8.1 zeigen unter verwendung von ps1.4 da alle ps2.0 GraKa's jenes unterstützen.

zeckensack
2003-03-30, 22:16:45
Originally posted by Razor
Wenn ich das mal zusammen fassen darf:
mann nimmt auch in allgemeinen Applikationen IMMER den kleinstmöglichen Shader, auch wenn das bedeutet, dass es auf einer bestimmten Hardware einen Vorteil bedeutet
Shader fröhlich zu mixen ist 'gut', weil effizient
In allgemeinen DX8-Tests Shader zu benutzen, die nur auf Hardware eines Chipherstellers vernünftig läuft, ist legitim
Habe ich das so richtig formuliert, zecki ?
;-)

Bis denne

Razor
... weil (davon auszugehen ist, daß) hier mehr Performance zu holen ist. Siehe Matt's Aussage. Daß die GfFX bei PS1.4 langsamer als bei PS2.0 sein soll, das ist das eigentlich paradoxe an der Geschichte. Btw, ist das eigentlich belegt, oder ist das ein aus dem allgemeinen 3DM03-Gebashe erwachsener moderner Mythos?
Jedenfalls, keine Sau wäre im Voraus auf diese Idee gekommen. Es ist völlig unlogisch, daß eine reduzierte Untermenge von PS2.0 langsamer sein soll als PS2.0 selbst. Sollte diese Kuriosität an der Integer-Geschichte liegen, dann hat NV IMO keinerlei Rücksicht verdient. Wer Blödsinn in seine Hardware einbaut, muß das auch verantworten, und darf nicht später herumjammern. ATI hat sich AFAIR auch nicht über den 3DMark01 beschwert, nur weil der R300 jetzt alles in FP24 rechnet, während die Konkurrenz Integer fährt.
das richtige Werkzeug für den Job zu nehmen, ist gut. Der 'Job' wechselt durchaus mehrmals pro Frame. Ich weiß nicht was daran so schwer zu begreifen ist ...
ZB: ich will eine Elfe darstellen *eg*
Für die Flügel hätte ich gerne schöne Reflektions-/Refraktionseffekte, da nehme ich lieber PS2.0.
Die Elfe soll aber auf einer simplen Parkbank sitzen. Rendere ich die Parkbank jetzt auch mit einem (albern kurzen) 2.0er Shader, obwohl sie's garnicht nötig hat, oder falle ich da mal ganz kurz auf stinknormales Multitexturing (wenn überhaupt ...) zurück? Meine Antwort sollte klar sein ;)
Ein Benchmark mißt Dinge(TM). Funktionieren diese Dinge gut, dann kommt eine hohe Zahl heraus. Wenn nicht, dann eben nicht. So einfach ist das.
'Legitim' liegt im Auge des Betrachters. Wie du mittlerweile gesehen hast, macht 3DMark03 in Punkto Pixel Shader IMO nichts verkehrtes (an anderen Stellen extremst, ist aber hier OT). Wenn du 'praxisrelevant' meinst, und es immer noch um die Auswahl der Shaderversionen geht, dann gibt's für 03 von mir ein bis zwei Daumen nach oben.

Ein Begriff, der noch eines Kommentars bedarf, ist "allgemeiner DX8-Test". Ich halte die Versionsmanie von MS für totalen Quatsch, das rüberzubringen ist ein ganz wichtiges Anliegen meinerseits. Trotzdem mußt du zugestehen, daß der R200 bei gleichem Takt wie NV25 nicht sooo schlecht aussah im 3DM01.
Wenn etwas 'allgemein' sein, aber auf grundverschiedenen HW-Architekturen laufen soll, dann muß man es auf den kleinsten gemeinsamen Nenner aufbauen. Dieser ist PS1.3, was auf 'ner R200 bei weitem nicht das native Format darstellt. Und ja, das war trotzdem legitim, weil DX8 keine sinnvollere Basis hergibt. Genauso legitim wie die 1.4er Shader in MN.
Wäre DX vor fünf Jahren gestorben (wie es das eigentlich hätte tun müssen), oder hätte MS einen Anfall von überdurchschnittlicher Inspiration beim Design der Shader-Schnittstellen gehabt, dann müssten wir uns jetzt nicht mit einem solchen Shice herumschlagen ...

Demirug
2003-03-30, 22:44:18
Originally posted by zeckensack
... weil (davon auszugehen ist, daß) hier mehr Performance zu holen ist. Siehe Matt's Aussage. Daß die GfFX bei PS1.4 langsamer als bei PS2.0 sein soll, das ist das eigentlich paradoxe an der Geschichte. Btw, ist das eigentlich belegt, oder ist das ein aus dem allgemeinen 3DM03-Gebashe erwachsener moderner Mythos?
Jedenfalls, keine Sau wäre im Voraus auf diese Idee gekommen. Es ist völlig unlogisch, daß eine reduzierte Untermenge von PS2.0 langsamer sein soll als PS2.0 selbst. Sollte diese Kuriosität an der Integer-Geschichte liegen, dann hat NV IMO keinerlei Rücksicht verdient. Wer Blödsinn in seine Hardware einbaut, muß das auch verantworten, und darf nicht später herumjammern. ATI hat sich AFAIR auch nicht über den 3DMark01 beschwert, nur weil der R300 jetzt alles in FP24 rechnet, während die Konkurrenz Integer fährt./SIZE]

Mit PS 2.0 ist die FX mit sehr hoher wahrscheinlichkeit auch nicht schneller. Wer hat den auch sowas behauptet? Beim 1.4 kann NVIDIA ja mehr optimieren als bei 2.0. Der Punkt dürfte nur sein das die NV30 Treiber PS 1.4 misserable umsetzten weil NVIDIA ja nichts davon hält.

Wie ich ja schon oben aufgeführt habe ist deine Vermutung aber nicht allgemein gültig.

Das mit dem FP24 gegen Integer beim 01 Murks verstehe ich jetzt aber nicht ganz.

[SIZE=1]das richtige Werkzeug für den Job zu nehmen, ist gut. Der 'Job' wechselt durchaus mehrmals pro Frame. Ich weiß nicht was daran so schwer zu begreifen ist ...
ZB: ich will eine Elfe darstellen *eg*
Für die Flügel hätte ich gerne schöne Reflektions-/Refraktionseffekte, da nehme ich lieber PS2.0.
Die Elfe soll aber auf einer simplen Parkbank sitzen. Rendere ich die Parkbank jetzt auch mit einem (albern kurzen) 2.0er Shader, obwohl sie's garnicht nötig hat, oder falle ich da mal ganz kurz auf stinknormales Multitexturing (wenn überhaupt ...) zurück? Meine Antwort sollte klar sein ;)

Never ZS. Bei einer Karte mit Pixelshader sollte man nie auf die alten Texturestages zurückfallen. Das ist eine ganz schlechte Idee. Ansonsten ist das "richtige" Werkzeug teilweise vom Chip abhängig. NVIDIA mag die Fixes T&L Funktion. ATI nicht wirklich.

Ein Benchmark mißt Dinge(TM). Funktionieren diese Dinge gut, dann kommt eine hohe Zahl heraus. Wenn nicht, dann eben nicht. So einfach ist das.
'Legitim' liegt im Auge des Betrachters. Wie du mittlerweile gesehen hast, macht 3DMark03 in Punkto Pixel Shader IMO nichts verkehrtes (an anderen Stellen extremst, ist aber hier OT). Wenn du 'praxisrelevant' meinst, und es immer noch um die Auswahl der Shaderversionen geht, dann gibt's für 03 von mir ein bis zwei Daumen nach oben.

Im MN Test ist definitive ein Fehler. FM geht immer davon aus das PS 1.4 eine grössern Wertbereich hat. Für den Himmel hätte man ebenfalls einen PS 2.0 benutzten müssen.

Ein Begriff, der noch eines Kommentars bedarf, ist "allgemeiner DX8-Test". Ich halte die Versionsmanie von MS für totalen Quatsch, das rüberzubringen ist ein ganz wichtiges Anliegen meinerseits. Trotzdem mußt du zugestehen, daß der R200 bei gleichem Takt wie NV25 nicht sooo schlecht aussah im 3DM01.
Wenn etwas 'allgemein' sein, aber auf grundverschiedenen HW-Architekturen laufen soll, dann muß man es auf den kleinsten gemeinsamen Nenner aufbauen. Dieser ist PS1.3, was auf 'ner R200 bei weitem nicht das native Format darstellt. Und ja, das war trotzdem legitim, weil DX8 keine sinnvollere Basis hergibt. Genauso legitim wie die 1.4er Shader in MN.

Was die Versionierungregeln angeht sind wir uns ja einig. Aber das was bei OpenGL 2.0 im Bereich der Shader abläuft scheint mir auch nicht optimal.

Wäre DX vor fünf Jahren gestorben (wie es das eigentlich hätte tun müssen), oder hätte MS einen Anfall von überdurchschnittlicher Inspiration beim Design der Shader-Schnittstellen gehabt, dann müssten wir uns jetzt nicht mit einem solchen Shice herumschlagen ...

Ich bin froh das es nicht gestorben ist (trotz der Macken die es noch hat). Der OpenGL Extensionwahn ist nicht gerade förderlich es den Entwicklern einfacher zu machen.

Aber um das Thema von meiner Seite abzuschliessen.

Der Einsatz von PS 1.4 bei den Tests 2 und 3 ist sinnvoll da weniger passes immer besser sind und wenn es nur die eingesparten Batches sind. Solange mir keiner beweist das die FX bei benutzung des PS 1.1 Pfad schneller ist werde ich meine Meinung nicht ändern.

Beim Test4 hätte man IMO alles mit PS 2.0 machen sollen aber da kann man ja geteilter Meinung sein.

aths
2003-03-31, 01:11:35
Originally posted by Labberlippe
Fakt ist das beide Karten PS 2.0 beherrschen, wenn nVIDIA sich einen Dreck um PS 1.4 schert obwohl dieses besser ist, dann ist das deren Problem.Sehe ich auch so: Es wäre sinnvoll gewesen, sich an den Defakto-Standard zu halten und nicht - siehe DXT1 - nur mal gerade so die Minimum-Anforderungen zu erfüllen.

Quasar@Work
2003-03-31, 12:44:11
Originally posted by aths
[..]Defakto-Standard[...]
Hm,
meinst du damit die PS1.4?
Falls ja, wie kommst du auf "Defakto-Standard"? Weil eine Zwischenversion von DX eine ausser der Reihe laufende* Shaderversion unterstützt, damit ATi sich nicht benachteiligt fühlt.?

*sowohl, was Programmierung als auch "allgemeine" Verfügbarkeit angeht.

Unregistered
2003-03-31, 13:51:20
Originally posted by Quasar@Work

Hm,
meinst du damit die PS1.4?
Falls ja, wie kommst du auf "Defakto-Standard"? Weil eine Zwischenversion von DX eine ausser der Reihe laufende* Shaderversion unterstützt, damit ATi sich nicht benachteiligt fühlt.?

*sowohl, was Programmierung als auch "allgemeine" Verfügbarkeit angeht.

Wenn ich deinen Quatsch so lese frag ich mich auch, ob du dich nicht benachteiligt fühlst...

Quasar@Work
2003-03-31, 13:58:08
Originally posted by Unregistered


Wenn ich deinen Quatsch so lese frag ich mich auch, ob du dich nicht benachteiligt fühlst...

Schade, daß du solcherlei billige Anfeindung aus der anonymen Ecke heraus schreibst und damit andere Gäste, die nicht registriert sind, mit in ein schlechtes Licht rückst.

Quasar@Work
2003-03-31, 14:00:27
BTW, niemand zwingt dich, meinen Quatsch zu lesen. Registrier' dich und setz' mich auf deine Ignore-List :D

(Zu Hause hab' ich auch einen Account, meine Unreg-Postings wirst du also leider trotzdem ertragen müssen)

aths
2003-04-01, 11:49:17
Originally posted by Razor

Soweit ich weiss, KANN der NV30 die PS1.4 ja auch, oder gibt's da gegenteilige Aussagen ?
Und Du hast meine Frage nicht beantwortet:

Welcher DX8-Chipsatz unterstützt die PS1.4 ausser ATI ?

Wäre nett, wenn Du mir hierauf eine Antwort geben könntest...
;-)Da eine Menge DX8-Chips (Radeon 8500, 9000, 9100, 9200) und alle DX9-Chips PS.1.4-fähig sind, wird bald eine recht breite Basis dafür vorhanden sein, gell?
Originally posted by Razor
Weil die PS1.4 eine exklusive ATI-Erweiterung waren ? Nö. PS.1.4 sind standardisiert und optional für DX8, Zwang für DX9. Pixelshader 1.4 ist Standard, ob das die GF3 nun kann oder nicht ;-)

In diesem Sinne,

aths

aths
2003-04-01, 11:51:20
Originally posted by Quasar@Work
Hm,
meinst du damit die PS1.4?
Falls ja, wie kommst du auf "Defakto-Standard"? Weil eine Zwischenversion von DX eine ausser der Reihe laufende* Shaderversion unterstützt, damit ATi sich nicht benachteiligt fühlt.?

*sowohl, was Programmierung als auch "allgemeine" Verfügbarkeit angeht. Für PixelShader 1.4 gibts einerseits eine Minimal-Spezifikation, andererseits einen Defakto-Standard. Es wäre schön, wenn sich NV daran gehalten hätte. Aber in ihrer Großkotzigkeit supporten sie das, was sie supporten müssen, nur minimal. Denn merke: Alles wichtige (PS 2.0+) kommt nur von NV.

Das mit "aus der Reihe laufend" kann ich nicht bestätigen. Pixelshader 1.4 war imo ein wichtiger Schritt zum Pixelshader 2.0. Außerdem ist Pixelshader 1.4 in fast allen Belangen viel besser als 1.3. Es wäre doch schade, wenn die Technik schon mal da ist, dass das nicht in Hardware gegossen würde.

Mit dem Aufkommen von billigster DX9-HW wäre jetzt die Zeit des PS.1.4 gekommen. Aber die Herren von NV haben ja nicht mal Overbright Lighting-Support eingebaut. Angesicht der Füllraten-Leistung heutiger HW wäre in meinen Augen Pixelshader 1.4 genau das richtige.

Unregistered
2003-04-01, 12:19:15
Hi

Ich kann aths nur zustimmen, hätte nVIDIA den PS1.4 vernünftig implemtiert dann wäre die ganze Diskussion hinfällig.

Ich fasse das so auf das nVIDIA wiedereinmal versucht deren "Standart" durchzudrücken.
So wie ich die technische Erläuterung hier verstanden habe ist PS1.4 sinnvoller als die PS1.3 und PS1.1.

Für richtige DX9 Applikationen geht der FX noch die Puste.
Würde man aber stärler den PS1.4 nutzen, dann könnte man mehrere Effekte in einen Pass nutzen.
Ergo bessere Bildqualität bei besseren Speed. (Im Vergleich zu PS 1.1 1.3 )

Kurz gesagt die nVIDIA User sind dadurch gezwungen auf Qualität zu pfeifen weil nVIDIA zu PS1.4 NEIN sagt.

Würde dies von nVIDIA besser supportet werden, dann würde PS1.4 auch mehr Einzug in den Games erhalten.

Geht jetzt aber nicht da die GeForce(ausnahme FX) PS1.4 nicht nutzen und bei der FX einfach zu langsam ist.

Schade eigentlich da es sicher noch einige Zeit dauern wird, bis PS2.0 in den Spielen Einzug hält und derweilen dürfen wir uns noch Speed mässig mit PS 1.1 1.3 rumschlagen, anstatt PS 1.4 eingesetzt wird lieber der minimale Shader eingehalten was die Performance unten hält.
Was machen die Entwickler dann. ???
Weniger Effekte programmieren damit der Speed passt.

Gruss Labberlippe

Quasar@Work
2003-04-01, 12:32:04
Originally posted by aths
Das mit "aus der Reihe laufend" kann ich nicht bestätigen. Pixelshader 1.4 war imo ein wichtiger Schritt zum Pixelshader 2.0. Außerdem ist Pixelshader 1.4 in fast allen Belangen viel besser als 1.3. Es wäre doch schade, wenn die Technik schon mal da ist, dass das nicht in Hardware gegossen würde.
Demirug kann das im Gegensatz zu dir aber offenbar, denn sonst würde er nicht sagen, daß von der Programmierung her PS2.0 viel eher auf einer Linie mit PS1.1-1.3 liegen, als mit PS1.4 vergleichbar zu sein.

Und genau das meinte ich: Der Standard PS1.1-1.3 wurde von ATi ignoriert und der PS1.4-Standard in die DX-Zwischenversion 8.1 reingedrückt.
PS1.4 mag technisch gesehen ein Schritt in Richtung PS2.0 sein, von der Art und Weise seiner Anwendung scheint man (ohne das jetzt first-hand behaupten zu können!) ihm aber deutlich sein "außer-der-Reihe-sein" anzumerken.
Wieviele Programmierer machen sich die Mühe, PS1.1-1.3, PS1.4 und PS2.0 separat zu unterstützen?


Originally posted by aths
Mit dem Aufkommen von billigster DX9-HW wäre jetzt die Zeit des PS.1.4 gekommen. Aber die Herren von NV haben ja nicht mal Overbright Lighting-Support eingebaut. Angesicht der Füllraten-Leistung heutiger HW wäre in meinen Augen Pixelshader 1.4 genau das richtige.
Das Argument mit dem Overbright-Lighting klingt IMO etwas...seltsam. Oder wirfst du ATi vor, keine Spezialitäten der Register Combiners aus der GeForce-Serie in Hardware zu unterstützen???
Der PS1.4 scheint soweit unterstützt zu werden, wie es nötig ist. Der Rest ist lt. Demirug optional.

zecki ohne Keks
2003-04-01, 12:49:07
Originally posted by Demirug


Mit PS 2.0 ist die FX mit sehr hoher wahrscheinlichkeit auch nicht schneller. Wer hat den auch sowas behauptet? Beim 1.4 kann NVIDIA ja mehr optimieren als bei 2.0. Der Punkt dürfte nur sein das die NV30 Treiber PS 1.4 misserable umsetzten weil NVIDIA ja nichts davon hält.Es wird angeprangert, daß MN 1.4er Shader benutzt. Viele sind sich allerdings wohl nicht sooo klar darüber, warum das falsch sein soll. Entweder ist's die Performance, und dann geht der Vorwurf automatisch postwendend zurück an NV.
Oder es ist die Sache mit der Spec-Kuriosität bzgl Integer-Shadern bei DX. Das wußte ich überhaupt nicht, bevor du das gesagt hast. Aber wenn das ein Problem ist, dann liegt's wieder entweder an MS (bitte bitte zuerst nachdenken, und erst dann die Spezifikation verabschieden), oder an NV (bitte bitte beim Hardware-Design keinen Unsinn machen).
Weder Futuremark noch ATI können Schuld daran haben, daß PS1.4 auf NV30 nicht gut läuft. Mehr fällt mir dazu beim besten Willen nicht ein.

Das mit dem FP24 gegen Integer beim 01 Murks verstehe ich jetzt aber nicht ganz.NV25-Benches im 3DM01 sind Integer. Der R300 fährt intern FP24. Wenn man sich der Argumentationsweise mit der der 03er Murks zerlegt wird bedient, müßte man sagen daß der R300 unfair benachteiligt wird, weil er sich ja viel mehr anstrengen muß. Das meinte ich.

Never ZS. Bei einer Karte mit Pixelshader sollte man nie auf die alten Texturestages zurückfallen. Das ist eine ganz schlechte Idee.Nach meinen Tests ist es dem R200 (und seinem Treiber) schnurzpiepe, ob ich glDisable(GL_ATI_FRAGMENT_SHADER) mache, oder einen äquivalenten Shader binde. Beides sind natürlich state changes, und somit nicht umsonst. Sie sind aber exakt gleich teuer.
Warum NV das nicht hinbekommt ist mir ein Rätsel. Wieder habe ich so das Gefühl, daß man sich besser auf das Problem konzentriert hätte, als öffentlich herumzujammern. Es kann doch so schwer nicht sein, zumal die 'fixed function' Sachen beim NV2x auch vom Reg Combiner gemacht werden. Der einzige Vorstellbare Stolperstein ist der davorgenagelte Texture Shader, der abgeschaltet werden muß. Aber man ist ja sowieso gerade dabei, render states zu ändern :|

Ansonsten ist das "richtige" Werkzeug teilweise vom Chip abhängig. NVIDIA mag die Fixes T&L Funktion. ATI nicht wirklich. Das ist wohl der Knackpunkt. NV scheint darauf zu bestehen, jede Menge alter Hardware mitzuschleppen, quasi als eingebauten 'legacy support'. Ziel war offensichtlich maximale Geschwindigkeit in 'alten' Apps, und das Weiternutzen von ausgetretenen Treiberpfaden. Dafür gibt es einen Oberbegriff, und er lautet 'Faulheit'. Wenn das nach hinten losgeht, dann hat NV das zu verantworten, und nicht FM oder ATI.


Im MN Test ist definitive ein Fehler. FM geht immer davon aus das PS 1.4 eine grössern Wertbereich hat. Für den Himmel hätte man ebenfalls einen PS 2.0 benutzten müssen.Der naheliegende 'Fix' wäre ein Patch für 3DM, der die HDR-Shader als 2.0 implementiert. Bin schon gespannt, ob dann endlich Ruhe ist =)

Was die Versionierungregeln angeht sind wir uns ja einig. Aber das was bei OpenGL 2.0 im Bereich der Shader abläuft scheint mir auch nicht optimal.

Ich bin froh das es nicht gestorben ist (trotz der Macken die es noch hat). Der OpenGL Extensionwahn ist nicht gerade förderlich es den Entwicklern einfacher zu machen. Angesichts dieses Threads könnte ich das gleiche über DirectX 9 sagen ;)
Aber das hatten wir ja alles schon diskutiert, lassen wir es erstmal darauf beruhen. Ist sowieso hier OT :)
Aber um das Thema von meiner Seite abzuschliessen.

Der Einsatz von PS 1.4 bei den Tests 2 und 3 ist sinnvoll da weniger passes immer besser sind und wenn es nur die eingesparten Batches sind. Solange mir keiner beweist das die FX bei benutzung des PS 1.1 Pfad schneller ist werde ich meine Meinung nicht ändern.

Beim Test4 hätte man IMO alles mit PS 2.0 machen sollen aber da kann man ja geteilter Meinung sein.
Allerdings ;)

ow
2003-04-01, 13:43:00
Originally posted by aths
Da eine Menge DX8-Chips (Radeon 8500, 9000, 9100, 9200) und alle DX9-Chips PS.1.4-fähig sind, wird bald eine recht breite Basis dafür vorhanden sein, gell?
Nö. PS.1.4 sind standardisiert und optional für DX8, Zwang für DX9. Pixelshader 1.4 ist Standard, ob das die GF3 nun kann oder nicht ;-)

In diesem Sinne,

aths

Hallo aths. PS 1.1 und 1.3 sind afaik ebenso Standard. Und die Basis dafuer ist wesentlich breiter als fuer PS1.4, gelle?

Demirug
2003-04-01, 13:45:53
Originally posted by zecki ohne Keks
Es wird angeprangert, daß MN 1.4er Shader benutzt. Viele sind sich allerdings wohl nicht sooo klar darüber, warum das falsch sein soll. Entweder ist's die Performance, und dann geht der Vorwurf automatisch postwendend zurück an NV.

Wobei ich mir wie schon gesagt nicht vorstellen kann das der NV30 mit 1.1 oder 2.0 Shadern schneller ist. Weil 1.1 mehr passes (teuer im Vertexshader) und bei 2.0 weniger Optimierungsmöglichkeiten. Bei einem Benchmark hätte ich eben auf Karten die es können gerne beides gesehen (1.1 und 1.4) für die Endpunkte hätte man dann ja das jeweils bessere ergebniss nehmen können. Und wenn dann auf dem NV30 auch 1.4 schneller gewessen wäre als 1.1 hätten wir uns die ganze Sache hier sparen können.

Oder es ist die Sache mit der Spec-Kuriosität bzgl Integer-Shadern bei DX. Das wußte ich überhaupt nicht, bevor du das gesagt hast. Aber wenn das ein Problem ist, dann liegt's wieder entweder an MS (bitte bitte zuerst nachdenken, und erst dann die Spezifikation verabschieden), oder an NV (bitte bitte beim Hardware-Design keinen Unsinn machen).
Weder Futuremark noch ATI können Schuld daran haben, daß PS1.4 auf NV30 nicht gut läuft. Mehr fällt mir dazu beim besten Willen nicht ein.

Kompromisse. Es war wohl nicht möglich alle Hersteller auf eine Genauigigkeit festzulegen. Die Alternative wäre gewessen alles einfach auf -1..+1 festzulegen.

Und irgendwann muss NVIDIA gegenüber MS ja auch JA zum PS 1.4 gesagt haben ergo müssen sie jetzt dafür gerade stehen oder eben verkünden das sie aus der DX Sache aussteigen.

NV25-Benches im 3DM01 sind Integer. Der R300 fährt intern FP24. Wenn man sich der Argumentationsweise mit der der 03er Murks zerlegt wird bedient, müßte man sagen daß der R300 unfair benachteiligt wird, weil er sich ja viel mehr anstrengen muß. Das meinte ich.

hatte mir schon fast gedacht das du das so meinst :) Wenn der R300 eben nur fp24 kann ist das doch die Schuld von ATI ;)

Nach meinen Tests ist es dem R200 (und seinem Treiber) schnurzpiepe, ob ich glDisable(GL_ATI_FRAGMENT_SHADER) mache, oder einen äquivalenten Shader binde. Beides sind natürlich state changes, und somit nicht umsonst. Sie sind aber exakt gleich teuer.
Warum NV das nicht hinbekommt ist mir ein Rätsel. Wieder habe ich so das Gefühl, daß man sich besser auf das Problem konzentriert hätte, als öffentlich herumzujammern. Es kann doch so schwer nicht sein, zumal die 'fixed function' Sachen beim NV2x auch vom Reg Combiner gemacht werden. Der einzige Vorstellbare Stolperstein ist der davorgenagelte Texture Shader, der abgeschaltet werden muß. Aber man ist ja sowieso gerade dabei, render states zu ändern :|

Das ganze ist eine allgemeine Empfehlung von MS. Pixelshader haben gegenüber den Texturestages den vorteil das der Treiber das ganze nur einmal optimieren muss und für den Shaderwechsel in Summe weniger daten zum Treiber übertragen werden müssen. Hinzu kommt noch das man bei der verwendung von Texturestages eigentlich immer noch den Treiber vor dem Rendern fragen soll ob er das was man von im will überhaupt kann. Aber sowohl bei ATI und NVIDIA sind die Treiber aber so gut das es kaum ins Gewicht fällt aber ein paar Calls (Pixelshader aktivieren 1 Call + Konstanten setzten, TSS mindestens 2 eher 3 Calls pro Stage) kann man sich denoch sparen und ich schreibe auch lieber PS-Code als Stagesetups (wobei ich inzwischen keines von beidem mehr direkt schreibe).

Das ist wohl der Knackpunkt. NV scheint darauf zu bestehen, jede Menge alter Hardware mitzuschleppen, quasi als eingebauten 'legacy support'. Ziel war offensichtlich maximale Geschwindigkeit in 'alten' Apps, und das Weiternutzen von ausgetretenen Treiberpfaden. Dafür gibt es einen Oberbegriff, und er lautet 'Faulheit'. Wenn das nach hinten losgeht, dann hat NV das zu verantworten, und nicht FM oder ATI.

Das mitschleppen ist scheinbar eine Marotte von NV. Auch beim NV20 wurde ja noch teile der FT&L mitgenommen um dann beim NV25 entgültig rauszufliegen. Ich gehe davon aus das man beim NV35 spätestens beim NV40 die Regcombiner vollständig herrausnimmt und alles nur noch mit der neuen Pipeline macht. Der NV30 hat nun mal nicht genügend Rohpower um die Regcombiner vollständig bei gleicher Speed zu emulieren (Der R300 wahrscheinlich auch nicht). Aber das sie bezüglich der PS 1.4 etwas geschlaffen haben sehe ich auch so.

Der naheliegende 'Fix' wäre ein Patch für 3DM, der die HDR-Shader als 2.0 implementiert. Bin schon gespannt, ob dann endlich Ruhe ist =)

Ja patch ist eine gute Idee.

ow
2003-04-01, 13:46:01
Ich heb das mal nocmals hervor:



Der PS1.4 scheint soweit unterstützt zu werden, wie es nötig ist. Der Rest ist lt. Demirug optional.



@aths: einen Defakto-Standard gibt es afaik nicht, der scheint deiner Fantasie zu entspringen und hier wohl an ATi angelehnt.

ow
2003-04-01, 13:51:27
Originally posted by Unregistered
Hi

Ich kann aths nur zustimmen, hätte nVIDIA den PS1.4 vernünftig implemtiert dann wäre die ganze Diskussion hinfällig.


Gruss Labberlippe


Der PS1.4 von NV ist vernueftig implementiert. Naemlich nach dem PS1.4 Standard.
Was FM tut ist, eine fuer PS1.4 optionale Funktion im 3dmurks zu nutzen. Und sowas darf imo ueberhaupt nicht sein, wenn dieser PS1.4 auf JEDER PS1.4HW laufen soll.

Man stelle sich mal vor, der PS2.0 Shader in MotherNature waere ein 2.0+ Shader. Dann koennte ihn nur die GFFX korrekt ausfuehren, aber nicht die R300. Soviel zu Standard und Optionen.

zeckensack
2003-04-01, 14:15:00
Originally posted by Demirug
hatte mir schon fast gedacht das du das so meinst :) Wenn der R300 eben nur fp24 kann ist das doch die Schuld von ATI ;)Absolut, nur daß es hier eben keine Probleme mit der Performance, und keinen öffentlichen Aufruhr gegeben hat. Es funktioniert einfach.
Und wo kein Problem ist, ist die Schuldfrage unwichtig ;)

Das ganze ist eine allgemeine Empfehlung von MS. Pixelshader haben gegenüber den Texturestages den vorteil das der Treiber das ganze nur einmal optimieren muss und für den Shaderwechsel in Summe weniger daten zum Treiber übertragen werden müssen. Hinzu kommt noch das man bei der verwendung von Texturestages eigentlich immer noch den Treiber vor dem Rendern fragen soll ob er das was man von im will überhaupt kann. Aber sowohl bei ATI und NVIDIA sind die Treiber aber so gut das es kaum ins Gewicht fällt aber ein paar Calls (Pixelshader aktivieren 1 Call + Konstanten setzten, TSS mindestens 2 eher 3 Calls pro Stage) kann man sich denoch sparen und ich schreibe auch lieber PS-Code als Stagesetups (wobei ich inzwischen keines von beidem mehr direkt schreibe).Das hört sich aber altmodisch an :|
Also bei meinem mittlerweile lange nicht gepflegten Glide Wrapper habe ich dieses Problem zu Beginn auch gehabt, aber es lässt sich ganz simpel lösen.
Man benutzt aggressiv 'latched states', tut also erst einmal garnichts, wenn die Applikation render states ändern will. Erst wenn das nächste Dreieck gerendert wird, schaut man sich die in der Zwischenzeit geänderten States an, und sorgt dafür daß alles paßt. Das ist recht leicht zu implementieren, und führt zu grandiosen Speedgewinnen. Mein Wrapper ist zB in Unreal I gut zwanzig mal so schnell wie XGL 0.04 ...

Um das auf D3D zu übertragen, die States müssen erst dann zu einem Shader kompiliert werden, wenn das nächste Dreieck reinkommt. Das macht man, indem man in die DrawPrimitive-Methode eine einfache (boolean) Abfrage, und konditional ein 'unlatch_states()' einbaut. Das kostet fast nichts, auf modernen Prozessoren optimiert die branch prediction immer für den 'common case', nämlich daß keine neuen render states anliegen.

Würde mich schwer wundern, wenn ich dieses Verfahren mal eben so 'aus Versehen' erfunden hätte, und NV diesen Trick nicht kennt :|

Demirug
2003-04-01, 14:36:51
Originally posted by zeckensack
Absolut, nur daß es hier eben keine Probleme mit der Performance, und keinen öffentlichen Aufruhr gegeben hat. Es funktioniert einfach.
Und wo kein Problem ist, ist die Schuldfrage unwichtig ;)

Genau :)

Das hört sich aber altmodisch an :|
Also bei meinem mittlerweile lange nicht gepflegten Glide Wrapper habe ich dieses Problem zu Beginn auch gehabt, aber es lässt sich ganz simpel lösen.
Man benutzt aggressiv 'latched states', tut also erst einmal garnichts, wenn die Applikation render states ändern will. Erst wenn das nächste Dreieck gerendert wird, schaut man sich die in der Zwischenzeit geänderten States an, und sorgt dafür daß alles paßt. Das ist recht leicht zu implementieren, und führt zu grandiosen Speedgewinnen. Mein Wrapper ist zB in Unreal I gut zwanzig mal so schnell wie XGL 0.04 ...

Um das auf D3D zu übertragen, die States müssen erst dann zu einem Shader kompiliert werden, wenn das nächste Dreieck reinkommt. Das macht man, indem man in die DrawPrimitive-Methode eine einfache (boolean) Abfrage, und konditional ein 'unlatch_states()' einbaut. Das kostet fast nichts, auf modernen Prozessoren optimiert die branch prediction immer für den 'common case', nämlich daß keine neuen render states anliegen.

Würde mich schwer wundern, wenn ich dieses Verfahren mal eben so 'aus Versehen' erfunden hätte, und NV diesen Trick nicht kennt :|

Da haben wir uns falsch verstanden. Zur Karte werden AFAIK die Änderungen auch erst übertragen wenn ein Drawcall kommt. Ob und wie DX die Werte zwischenspeichert hängt davon ab ob man ein normales oder ein pure Device erzeugt.

Die Stellen wo es einen unterschied macht sind folgenden:

1. API-Calls in die DX-Runtime:

Pixelshader: 1 Call + Konstanten setzten (geht normalerweise auch mit einem Call)

TSS: 2-10 Calls pro stage.

Sind zwar nur ein paar CPU-Takte aber wenn man sie so einfach einsparen kann.

2. Drawcall
Pixelshader: Kaum aufwand. wenn ein anderer Pixelshader als beim vorherigen Call benutzt wird muss dieser nur in den Kommandostrom eingefügt werden.

TSS: Wenn sich nichts geändert hat kein Problem. Aber bei einer Änderung müssen die Stages in das Chip interne Model für Fragmentprocessing umgestzt werden. Das kostet dann schon mal ein paar ordentliche Takte. Schlaue Treiber arbeiten hier mit Cacheverfahren aber dieser muss ja dann auch durchsucht werden. Bei den Pixelshadern wird diese arbeit schon beim anlegen (ausserhalb der Renderschleife) durchgeführt.

In Summe spart man bei der Verwendung von Pixelshader ein paar CPU Takte ein (je schlechter der Treiber in diesem Bereich ist desto mehr) was uns wieder ein paar zusätzliche Batches bringen kann.

Der Punkt warum ich hier die Bevorzugung von Pixelshadern gegenüber von TSS Propergandiere ist das man die TSS Daten mit einem einfachen Programm automatisch in einen Pixelshader konvertieren kann. Wenn man dieses Programm in den Materialeditor der Engine einbaut bekommt man die PS-Programme ohne mehrarbeit. Und wenn der Editor richtig gut ist fast er 2 oder mehrer TSS Passes zu einem PS-Pass zusammen.

Andre
2003-04-01, 14:37:59
Originally posted by aths
Für PixelShader 1.4 gibts einerseits eine Minimal-Spezifikation, andererseits einen Defakto-Standard. Es wäre schön, wenn sich NV daran gehalten hätte. Aber in ihrer Großkotzigkeit supporten sie das, was sie supporten müssen, nur minimal. Denn merke: Alles wichtige (PS 2.0+) kommt nur von NV.


Ahh, der aths lebt wieder sein Feindbild aus.
Aber solche Art von Kommentaren nehmen sich leider selbst den Sinn, weil das einfach lächerlich ist, was du da schreibst.
Außer, ja außer, du gibts mir deine Kristallkugel, wo du deine Weisheiten herhast.
Du solltest dein NV-kauft-3DFX-Trauma mal endlich überwinden, aths.

Und irgendwie meine ich, dass dir die Zügel etwas entgleiten, was ist bloß los mit dir?

ow
2003-04-01, 14:52:23
Full Ack @ Andre.

Unregistered
2003-04-01, 15:19:53
Originally posted by ow
Full Ack @ Andre.

;D

Demirug
2003-04-01, 15:20:17
So richtig verstehen kann ich die Aufregung um die PS 1.4 hier ehrlich gesagt nicht.

Was spielt es für eine Rolle wie gut oder schlecht der NV30 im Murks performt? Es kommt auf die Leistung in den Spielen an.

Gehen wir mal von dem Fall aus das ein Spiel PS 1.1, 1.4 sowie 2.0 unterstützt (primär jetzt mal immer nur der gleiche Effekt) und es stellt sich tatsächlich heraus das der NV30 trotz multipass mit PS 1.1 schneller als mit 1.4 ist. Dann wird es wohl nicht lange dauern bis es einen Patch dafür gibt (wenn es nicht von anfang an sowieso so eingebaut ist).

Wir müssen hier doch auch streng zwischen dem theoretische optimum und dem was wirklich abläuft unterscheiden.

Optimal wäre es wenn es für jeden Shader perfekt angepasste Effekte in einem Spiel gibt in der Praxsis muss man doch schon froh sein wenn der Hersteller mehr als 2 Varianten (eine für die Screenshots und die wenigen Besitzer von Highend karten und eine zweite für den ganzen Rest an Karten) vorgesehen hat.

Meine persönliche Wunschliste für den 3dmark wäre das für alle Test die auch mit geringeren Anforderungen auskommen trotzdem auch entsprechende Shader der neueren Generation benutzten. Dann jeden test mit alle dort möglichen Pfaden (TSS, PS 1.1, PS 1.4, PS 2.0, ...) durchlaufen lassen und am Ende für jeden Pfad einen Leistungnummer rauswerfen.

Endorphine
2003-04-01, 15:54:27
Demirug,
die DX9-Engine an der du mitarbeitest, für welche PS-Version ist die denn optimiert? Das ist doch das IMHO eigentlich interessanteste. Nicht das, was die Chips können oder nicht können, sondern das, was ein Engineprogger aus den verbreiteten Hardwarefähigkeiten macht und folgert.

ow
2003-04-01, 16:08:33
Originally posted by Demirug
So richtig verstehen kann ich die Aufregung um die PS 1.4 hier ehrlich gesagt nicht.




Ich werd's mal versuchen:

Wenn ich dich richtig verstanden habe, dann nutzt der PS1.4 im 3DMark Nature eine fuer PS1.4 nur optionale Komponente. Und optionale Komponenten koennen aber muessen nicht unterstutzt werden (deshalb ja optional). Hieraus wird von den NV-Bashern nun abgeleitet, dass NV die PS1.4 nicht korrekt unterstuetzen wuerde, was aber ja wohl nicht so ist. Und da kommen dann so Sprueche wie "Aber in ihrer Großkotzigkeit supporten sie (Anm.: NV) das, was sie supporten müssen, nur minimal."

Endorphine
2003-04-01, 16:13:42
Bis ich in dieses Forum kam hätte ich es nie für möglich gehalten, dass man um solche Dinge wie die Unterstützung unterschiedlicher Pixelshader-Revisionen in einem Pseudobenchmark so herrlich flamen kann ;D

Quasar@Work
2003-04-01, 16:16:50
Originally posted by Demirug
Meine persönliche Wunschliste für den 3dmark wäre das für alle Test die auch mit geringeren Anforderungen auskommen trotzdem auch entsprechende Shader der neueren Generation benutzten. Dann jeden test mit alle dort möglichen Pfaden (TSS, PS 1.1, PS 1.4, PS 2.0, ...) durchlaufen lassen und am Ende für jeden Pfad einen Leistungnummer rauswerfen.

Jap! Freie Wahl sowohl der (FSAA/AF-)Level als auch der benutzten Rendering-Strategie, um [b]dieselbe[/i]* Optik zu erreichen!

*"dieselbe" meint innerhalb des normalen menschlichen Wahrnehmungsspektrums!

Lutschbirne
2003-04-01, 16:20:26
Die, die Ati verteidigen stützen sich auf schlechte Argumente. (hab nur die erste Seite des Threads gelesen, wenn das nicht auf Alle Beiträge passt, sorry.)
Ich halte meine Meinung neutral zwischen NV und Ati.
Und ich kann nur sagen, dass das Argument : "Na und, bei den früheren Benches wurde NV bevorzugt, dann isses jetzt doch auch mal toll, wenn Ati bevorzugt wird, ist nur fair" total arm.
Kleines Gegenbeispiel: Irgend ein land fängt aus nicht offensichtlichem Grund einen Krieg gegen ein Xbeliebiges anderes an. Nun beschwert sich jemand und sagt: "Hey, ihr könnt doch nicht einfach so einen Krieg anfangen" "tja"," können sie ja dann sagen, "Deutschland hat einen viel grösseren krieg angefangen, also dürfen wir das hier allemal" (ist nur ein Beispiel, das zwar ein wenig hinkt, mir fiel aber kein besseres ein. Ich denke, dass wir dadrüber nicht diskutieren müssen hier, ich glaube man konnte erkennen, in welche Richtung ich gezielt habe mit dem Beispiel.)

Denkt mal ein wenig weiter.
Denkt daran, dass auch Ati betrügen kann, oder einfach unfair bevorzugt ist in einem benchmark.
Und, dass die Zwiebelmänner nicht gewusst hätten, dass Die Nvidia Karten dafür nicht so geiignet sind, das halte ich für sehr unwahrscheinlich :)

Lutschbirne

Xcellerator
2003-04-01, 16:35:11
Originally posted by Lutschbirne
Die, die Ati verteidigen stützen sich auf schlechte Argumente. (hab nur die erste Seite des Threads gelesen, wenn das nicht auf Alle Beiträge passt, sorry.)


allein mit diesem kommentar hast du dich auf das gleiche level gestellt...genau wie andre und ow mal wieder...merkt ihr nicht, dass ihr keinen deut besser seid, wenn ihr anderen leuten unterstellungen macht? zumindest aths hat seine standpunkte eindeutig mit argumenten untermauert...

Labberlippe
2003-04-01, 16:42:46
Originally posted by ow



Ich werd's mal versuchen:

Wenn ich dich richtig verstanden habe, dann nutzt der PS1.4 im 3DMark Nature eine fuer PS1.4 nur optionale Komponente. Und optionale Komponenten koennen aber muessen nicht unterstutzt werden (deshalb ja optional). Hieraus wird von den NV-Bashern nun abgeleitet, dass NV die PS1.4 nicht korrekt unterstuetzen wuerde, was aber ja wohl nicht so ist. Und da kommen dann so Sprueche wie "Aber in ihrer Großkotzigkeit supporten sie (Anm.: NV) das, was sie supporten müssen, nur minimal."

Das Sie Ihn supporten ist zwar ok, aber nicht mit den ausreichenden vernünftigen Speed..
Das ist der Punkt den ich sehe und wenn nVIDIA es nicht in der gleichen Performance realisieren kann, dann ist das sehr wohl deren Problem und nicht der von Futuremark und ATI.

Sorry aber ATi hat auch sehen müssen das PS1.3 in einer vernünftigen Geschwindigkeit läuft.

oder willst Du mir jetzt erzählen das die armen Jungs von nVIDIA ungerecht behandelt werden, weil mal nicht ein Shader von dennen im Einsatz kommt.

Gruss Labberlippe

Labberlippe
2003-04-01, 16:48:44
Hi

Nachtrag:
Das wäre dann das gleiche, wenn man behauptet das CG eine eigene API für nVIDIA ist, nur weil ATi "keine" ausreichende Compiler liefert....

Nur mal als Anmerkung beim Cg wurde ja gesagt das dieses gut optmimiert für nVIDIA Karten ist.
Freilich funtioniert dieser auch auf anderen Karten, nur die bevorzugung ist halt deren Design.
So wie Argumentierst Du das.

Richtig das ist das Problem vom ATi, die sollen auch ein vernünftiges Tool bieten.

und genauso sehe ich es beim PS1.4

Gruss Labberlippe

aths
2003-04-01, 16:53:15
Originally posted by Labberlippe
Ich fasse das so auf das nVIDIA wiedereinmal versucht deren "Standart" durchzudrücken. Standard. Mit d! Mit d! Mit d!!
Originally posted by Labberlippe
Kurz gesagt die nVIDIA User sind dadurch gezwungen auf Qualität zu pfeifen weil nVIDIA zu PS1.4 NEIN sagt.Nee. Kurz gesagt, stehen Radeon 8500 - Radeon 9200-Besitzer im Regen, da die Entwickler für die neusten Effekte dann gleich PixelShader 2.0 nehmen müssen, damit das auch auf nV-HW vernünftig aussieht.

LovesuckZ
2003-04-01, 16:57:58
Originally posted by aths
Nee. Kurz gesagt, stehen Radeon 8500 - Radeon 9200-Besitzer im Regen, da die Entwickler für die neusten Effekte dann gleich PixelShader 2.0 nehmen müssen, damit das auch auf nV-HW vernünftig aussieht.

Und was ist mit den Xabre, GF3/4 und Parhelia Besitzer? Oder nehmen 8500/9000 eine hoehere Stellung ein?

Labberlippe
2003-04-01, 17:03:41
Originally posted by aths
Standard. Mit d! Mit d! Mit d!!
Nee. Kurz gesagt, stehen Radeon 8500 - Radeon 9200-Besitzer im Regen, da die Entwickler für die neusten Effekte dann gleich PixelShader 2.0 nehmen müssen, damit das auch auf nV-HW vernünftig aussieht.

(Argh F.. Standard.(

So kann man es auch ausdrücken.

Mich wundert immer wieder wie manche nVIDIA Jünger hier versuchen verzweifelt nVIDIA zu verteidigen und die anderen Herstellern eins reindrücken.

Mich errinnert das damals an die V5 und T&L Diskussion.
Wir haben damals gesagt, das T&L zwar schön aber in der damaligen Form nichts bringt und 3dfx Begrüsst wird da deren FSAA als erstes vernünftig einsetzbar war.

Des öfteren wurde dann Argumentiert das man ja irgendwo anfangen muss.
Gejubelt und gefreud haben sich einig über die Punkte im 3DMark2000.

Jetzt wo ein Hersteller eine höhere Shader Version bringt als nV wird diese gleich als sinnlos abgestempelt, weil die "Masse" das ja nicht hat.

Wenn ich von der Massse gehe dann ist PS1.4 sehr stark vertreten.
Alle ATi Karten + die neuen von nVIDIA.

Bis PS 2.0 Einzug halten wird, wird es noch eine Weile dauern aber alle neuen Karten und die ATi´s können PS1.4.

Sollen wir jetzt darauf verzichten nur weil nVIDIA meckert. ???


Gruss Labberlippe

LovesuckZ
2003-04-01, 17:08:02
Originally posted by Labberlippe
Bis PS 2.0 Einzug halten wird, wird es noch eine Weile dauern aber alle neuen Karten und die ATi´s können PS1.4.


welchen Sinn gibt es, statt auf PS2.0 auf 1.4 zu setzen, wenn fast nur alle DX9 faehigen Karten diesen Shader überhaupt unterstuetzen?

aths
2003-04-01, 17:10:33
Originally posted by Quasar@Work
Demirug kann das im Gegensatz zu dir aber offenbar, denn sonst würde er nicht sagen, daß von der Programmierung her PS2.0 viel eher auf einer Linie mit PS1.1-1.3 liegen, als mit PS1.4 vergleichbar zu sein. PixelShader 1.3 und 2.0 sind deutlich anders. 1.4 erinnert deutlich eher an 2.0. In 1.3 kann man z.B. jede Textur nur einmal sampeln, in 1.4 kann man sie immerhin schon 2x sampeln, in 2.0 kann man sie (je nach maximaler Shaderlänge) beliebig oft sampeln. Außerdem dürfen Textursamplings irgendwo in der Mitte stehen. Das Ergebnis eines (Teil-)Shaders als neue Sample-Koordinate zu nehmen geht mit 1.3 nicht single pass, mit 1.4 iirc schon. Mit 2.0 erst recht.
Originally posted by Quasar@Work
Und genau das meinte ich: Der Standard PS1.1-1.3 wurde von ATi ignoriert und der PS1.4-Standard in die DX-Zwischenversion 8.1 reingedrückt."DX-Zwischenversion", "Standard 1.1" - hier wird krampfhaft versucht, Schuld auf ATI zu schieben, wo keine Schuld ist, bzw. diesen Shader kleinzureden.

In DX gibt es Caps, aber keine Extensions. Es ist alles Standard, völlig egal ob es mit DX 8.0 oder mit DX 8.1 Einzug hält.

PixelShader 1.1 sind streng genommen erweiterte Register-Combiner (NV-propritär) die mit DX8 standardisiert wurden. Man kann ATI nicht vorwerfen, irgendwas nicht-standardmäßiges in DX reingedrückt zu haben. Denn was erst mal in DX ist, ist Standard, und der 1.1 - 1.3-Standard wurde von nV entscheidend mit geprägt. Du müsstest nV vorwerfen, ihre Register-Combiner mit allen Vor- und Nachteilen in DX reingedrückt zu haben.

ATI hat den 1.1-er nicht ignoriert wie du schreibst, bekanntlich ist R100 fast PS.1.0-fähig (1.1 ist 1.0 sehr ähnlich.)

Als 1.4 in Hardware gegossen wurde, war das 2.0-Konzept schon da. PixelShader 2.0 sind in der Tat mit verbesserten 1.4-er Shadern realisierbar. ATI hat sozusagen mit ihre erweiterten "Register Combinern"-Pendants als 2.0-er Standard durchgedrückt, während nV mit 2.0+ gleich in Richtung 3.0 weiter gedacht hat.
Originally posted by Quasar@Work
PS1.4 mag technisch gesehen ein Schritt in Richtung PS2.0 sein, von der Art und Weise seiner Anwendung scheint man (ohne das jetzt first-hand behaupten zu können!) ihm aber deutlich sein "außer-der-Reihe-sein" anzumerken.Jeder Pixelshader sampelt Texturen (bzw. Farben) und verknüpft diese Ergebnisse mit mathematischen Operationen. Das ist allen Shadern gemeinsam.
Originally posted by Quasar@Work
Wieviele Programmierer machen sich die Mühe, PS1.1-1.3, PS1.4 und PS2.0 separat zu unterstützen?Dass Shader von Hand in Assembler geschrieben werden, sollte hoffentlich bald der Vergangheit angehören.
Originally posted by Quasar@Work
Das Argument mit dem Overbright-Lighting klingt IMO etwas...seltsam. Oder wirfst du ATi vor, keine Spezialitäten der Register Combiners aus der GeForce-Serie in Hardware zu unterstützen???ATI unterstützt PixelShader 1.3 mindestens so gut, wie nV. (Ich weiß nicht, ob Radeon 8500 auch bei 1.3 Overbright Lighting zulässt.) Register Combiner sind eine Sache für OpenGL, was hier nicht Thema ist.
Originally posted by Quasar@Work
Der PS1.4 scheint soweit unterstützt zu werden, wie es nötig ist. Der Rest ist lt. Demirug optional. Der PS.1.4 wird gerade so weit untersützt, dass die FX 2.0 melden darf (ohne 1.4-er Support dürfte ja maximal 1.3 gemeldet werden.) Der defakto-Standard des 1.4-er Shaders wird jedoch nicht unterstützt. Ich glaube, das Wort "kleinlich" beschreibt diese Entscheidung ganz gut.

Demirug
2003-04-01, 17:11:06
Originally posted by Endorphine
Demirug,
die DX9-Engine an der du mitarbeitest, für welche PS-Version ist die denn optimiert? Das ist doch das IMHO eigentlich interessanteste. Nicht das, was die Chips können oder nicht können, sondern das, was ein Engineprogger aus den verbreiteten Hardwarefähigkeiten macht und folgert.

Auf gar keine Version. In diesen Bereichen ist die Engine vollkommen neutral. Sämtliche Effekte werden über "Shadersets" von extern parametriert. Im ganzen Enginecode gibt es nicht eine Zeile die auf eine bestimmte Shaderversion zugeschnitten ist. So können wir jederzeit (auch nachdem ein Spiel schon lange fertig ist) ein für einen Chip optimiertes (optimiert heist hier ausnutzten der Chip-Features) Shaderset erzeugen.

Labberlippe
2003-04-01, 17:13:17
Originally posted by LovesuckZ


welchen Sinn gibt es, statt auf PS2.0 auf 1.4 zu setzen, wenn fast nur alle DX9 faehigen Karten diesen Shader überhaupt unterstuetzen?

Achso und die R8500/ R9100 und 9000 vergessen wir oder wie. ???
Sind sogar DX 8 Chips.

Gruss Labberlippe

aths
2003-04-01, 17:14:31
Originally posted by ow
Hallo aths. PS 1.1 und 1.3 sind afaik ebenso Standard. Und die Basis dafuer ist wesentlich breiter als fuer PS1.4, gelle? Die Basis ist breiter, die Anzahl single pass realisierbarer Effekte leider deutlich schmaler. Die meisten Effekte, die (auch moderne) Hardware füllratenmäßig (bzw. PS-Ops-mäßig) nicht überfordern, wären mit 1.4 auch realisierbar, 2.0 bedeutet dann mit Kanonen auf Spatzen zu schießen. Imo ist es sinnvoll, in einer Engine sowohl Dual Pass 1.1-er Schader als auch 1.4-er single pass Shader zu erlauben und zu verwenden.

Dass das auch auf DX9-HW zurück schlägt, und R300 hier ggü. NV30 im Vorteil ist, ist alleine NVs Schuld.

LovesuckZ
2003-04-01, 17:15:09
Originally posted by Labberlippe
Achso und die R8500/ R9100 und 9000 vergessen wir oder wie. ???
Sind sogar DX 8 Chips.

Gruss Labberlippe

Und was ist mit den restlichen DX8 Karten?
Tja, das ist ein Teufelskreis:)

aths
2003-04-01, 17:17:32
Originally posted by ow
Ich heb das mal nocmals hervor:

@aths: einen Defakto-Standard gibt es afaik nicht, der scheint deiner Fantasie zu entspringen und hier wohl an ATi angelehnt. Die bisherige Implementierung von 1.4 unterstützt Overbright-Lighting. Weil ATI das so gemacht hat, und entsprechende Karten seit langem im Handel erhältich und in Rechnern eingebaut sind, ist ATIs über die Spezifikation hinausgehende Implementierung der Defakto-Standard.

Originally posted by ow
Der PS1.4 von NV ist vernueftig implementiert. Naemlich nach dem PS1.4 Standard. Der 1.4-er PS ist genauso vernünftig implementiert, wie DXT1 in in GF1-4: Gerade so der Spezifikation entsprechend, ohne Rücksicht darauf, dass es andere Hersteller besser gemacht haben.

aths
2003-04-01, 17:19:07
Originally posted by Andre
Ahh, der aths lebt wieder sein Feindbild aus.
Aber solche Art von Kommentaren nehmen sich leider selbst den Sinn, weil das einfach lächerlich ist, was du da schreibst.
Außer, ja außer, du gibts mir deine Kristallkugel, wo du deine Weisheiten herhast.
Du solltest dein NV-kauft-3DFX-Trauma mal endlich überwinden, aths.

Und irgendwie meine ich, dass dir die Zügel etwas entgleiten, was ist bloß los mit dir? Ich spreche eine klare Sprache und komme auf das Wesentliche, ohne jedoch grobe Wörter zu benutzen wie das bei anderen der Fall ist, oder jemandem Traumata zu unterstellen, wie das leider bei dir der Fall ist.

Es wäre schön wenn du argumentativ, auf technischer Ebene kommen würdest und nicht so, wie zitiert.

Quasar@Work
2003-04-01, 17:19:42
Originally posted by aths
PixelShader 1.3 und 2.0 sind grundlegend anders. 1.4 erinnert deutlich eher an 2.0. In 1.3 kann man z.B. jede Textur nur einmal sampeln, in 1.4 kann man sie immerhin schon 2x sampeln, in 2.0 kann man sie (je nach maximaler Shaderlänge) beliebig oft sampeln. Außerdem dürfen Textursamplings irgendwo in der Mitte stehen. Das Ergebnis eines (Teil-)Shaders als neue Sample-Koordinate zu nehmen geht mit 1.3 nicht single pass, mit 1.4 iirc schon. Mit 2.0 erst recht.

Leider habe ich hier kaum noch Zeit, deswegen in Kürze:
Originally posted by Quasar@Work
Demirug kann das im Gegensatz zu dir aber offenbar, denn sonst würde er nicht sagen, daß von der Programmierung her PS2.0 viel eher auf einer Linie mit PS1.1-1.3 liegen, als mit PS1.4 vergleichbar zu sein.
Ich habe mal den von dir zwar mitgequoteten, aber offenbar nicht beachteten Teil hervorgehoben. _Darauf_ kam es mir an.


Originally posted by aths
ATI unterstützt PixelShader 1.3 mindestens so gut, wie nV. (Ich weiß nicht, ob Radeon 8500 auch bei 1.3 Overbright Lighting zulässt.) Register Combiner sind eine Sache für OpenGL, was hier nicht Thema ist.
Der PS.1.4 wird gerade so weit untersützt, dass die FX 2.0 melden darf (ohne 1.4-er Support dürfte ja maximal 1.3 gemeldet werden.) Der defakto-Standard des 1.4-er Shaders wird jedoch nicht unterstützt. Ich glaube, das Wort "kleinlich" beschreibt diese Entscheidung ganz gut.

Die Reg-Comb. waren ein _Beispiel_, wo wir grad bei "kleinlich" sind.

Quasar@Work
2003-04-01, 17:19:43
Originally posted by aths
PixelShader 1.3 und 2.0 sind grundlegend anders. 1.4 erinnert deutlich eher an 2.0. In 1.3 kann man z.B. jede Textur nur einmal sampeln, in 1.4 kann man sie immerhin schon 2x sampeln, in 2.0 kann man sie (je nach maximaler Shaderlänge) beliebig oft sampeln. Außerdem dürfen Textursamplings irgendwo in der Mitte stehen. Das Ergebnis eines (Teil-)Shaders als neue Sample-Koordinate zu nehmen geht mit 1.3 nicht single pass, mit 1.4 iirc schon. Mit 2.0 erst recht.

Leider habe ich hier kaum noch Zeit, deswegen in Kürze:
Originally posted by Quasar@Work
Demirug kann das im Gegensatz zu dir aber offenbar, denn sonst würde er nicht sagen, daß von der Programmierung her PS2.0 viel eher auf einer Linie mit PS1.1-1.3 liegen, als mit PS1.4 vergleichbar zu sein.
Ich habe mal den von dir zwar mitgequoteten, aber offenbar nicht beachteten Teil hervorgehoben. _Darauf_ kam es mir an.


Originally posted by aths
ATI unterstützt PixelShader 1.3 mindestens so gut, wie nV. (Ich weiß nicht, ob Radeon 8500 auch bei 1.3 Overbright Lighting zulässt.) Register Combiner sind eine Sache für OpenGL, was hier nicht Thema ist.
Der PS.1.4 wird gerade so weit untersützt, dass die FX 2.0 melden darf (ohne 1.4-er Support dürfte ja maximal 1.3 gemeldet werden.) Der defakto-Standard des 1.4-er Shaders wird jedoch nicht unterstützt. Ich glaube, das Wort "kleinlich" beschreibt diese Entscheidung ganz gut.

Die Reg-Comb. waren ein _Beispiel_....

aths
2003-04-01, 17:20:18
Originally posted by LovesuckZ
Und was ist mit den Xabre, GF3/4 und Parhelia Besitzer? Oder nehmen 8500/9000 eine hoehere Stellung ein? Radeon 8500 - 9200-er Karten sind wohl weit mehr verbreitet als Xabre und Parhelias zusammen. Für den Rest gibt es dann eben dual pass Shader, was niedrigere Performance nach sich zieht.

Quasar@Work
2003-04-01, 17:20:30
@Mods:
Könnte jemand bitte diesen und den Post darüber löschen?

LovesuckZ
2003-04-01, 17:24:16
Originally posted by aths
Radeon 8500 - 9200-er Karten sind wohl weit mehr verbreitet als Xabre und Parhelias zusammen. Für den Rest gibt es dann eben dual pass Shader, was niedrigere Performance nach sich zieht.

Woher willst du die Verbreitung wissen? Hast du genauere Daten aus Asien und Amerika?

Labberlippe
2003-04-01, 17:24:26
Originally posted by aths
Radeon 8500 - 9200-er Karten sind wohl weit mehr verbreitet als Xabre und Parhelias zusammen. Für den Rest gibt es dann eben dual pass Shader, was niedrigere Performance nach sich zieht.

und da ja die "NV-Masse" nicht hat, müssen wir uns mit niedriger Performance zufrieden geben.

Gruss Labberlippe

aths
2003-04-01, 17:24:53
Originally posted by LovesuckZ
welchen Sinn gibt es, statt auf PS2.0 auf 1.4 zu setzen, wenn fast nur alle DX9 faehigen Karten diesen Shader überhaupt unterstuetzen? Wurde mehrfach gesagt: Immer den kleinsten Shader nehmen, um den gewünschen Effekt zu erzeugen. Wenn es 1.4 auch tut (was derzeit in den meisten Fällen zutrifft) sollte man nicht 2.0 nehmen.

Labberlippe
2003-04-01, 17:25:31
Originally posted by LovesuckZ


Woher willst du die Verbreitung wissen? Hast du genauere Daten aus Asien und Amerika?

Woher willst Du Wissen wieviele überhaupt DX 8 Karten haben.
Ich schätze das mehr TNT2 und teilweise DX 7 Karten in Systemen verbaut sind alls alle DX8 und DX 9 zusammen.

Gruss Labberlippe

LovesuckZ
2003-04-01, 17:26:34
Originally posted by Labberlippe
und da ja die "NV-Masse" nicht hat, müssen wir uns mit niedriger Performance zufrieden geben.

Gruss Labberlippe

Es ist nvidia schuld, weil die Shader der 8500 nicht "ausgereift" sind?

/edit: wirft man das nicht auch Nvidia mit dem PS1.4 vor?

StefanV
2003-04-01, 17:27:42
Originally posted by aths
Der 1.4-er PS ist genauso vernünftig implementiert, wie DXT1 in in GF1-4: Gerade so der Spezifikation entsprechend, ohne Rücksicht darauf, dass es andere Hersteller besser gemacht haben.

oder z.B. EMBM, dem NV Dot3 'entgegengesetzt' haben und es erst mit der GF3 'implementiert' hat (weil sie es mussten)...

NV verhält sich (fast) so wie Intel, wenn es um die 'Features' der Konkurenz geht !!

LovesuckZ
2003-04-01, 17:28:17
Originally posted by Labberlippe
Woher willst Du Wissen wieviele überhaupt DX 8 Karten haben.


Ich hab nie in diese Richtung was behauptet.

Labberlippe
2003-04-01, 17:28:39
Originally posted by LovesuckZ


Es ist nvidia schuld, weil die Shader der 8500 nicht "ausgereift" sind?

:rofl:





Gruss Labberlippe

LovesuckZ
2003-04-01, 17:29:14
Originally posted by aths
Wurde mehrfach gesagt: Immer den kleinsten Shader nehmen, um den gewünschen Effekt zu erzeugen.

Nur ne Frage: Auch, wenn die DX8 Karten mit diesen Shader nicht so gut umgehen koennen?

aths
2003-04-01, 17:29:45
Originally posted by Quasar@Work
@Mods:
Könnte jemand bitte diesen und den Post darüber löschen? Nein, diese Schande bleibt auf ewig für alle sichtbar :D

Antworten kann ich leider nicht, da mir in der Kürze der Sinn deines Postings nicht verständlich genug wurde. Ich würde mich freuen, wenn du das etwas ausführlicher schreiben könntest.

StefanV
2003-04-01, 17:30:00
Originally posted by LovesuckZ
Es ist nvidia schuld, weil die Shader der 8500 nicht "ausgereift" sind?

/edit: wirft man das nicht auch Nvidia mit dem PS1.4 vor?

1. nein, die Shader 1.4 sind nicht schlecht, es ist NVs schuld, daß sie die 1.4 nicht ordentlich 'eingebacken' haben.

2. ja, das tut man und völlig zu recht!
NV hätte auch mal darauf schauen können, was andere machen und mal den Standard anderer unterstützen können anstatt die eigenen Standards mit aller Macht durchdrücken zu wollen.
Wenn der Xabre2 und alle anderen DX9 Chips sich an die ATI 'Vorgabe' halten, dann hat NV ein 'geringeres' Problem.

[außerdem klingt dein Posting 'etwas' nach NV Brille]

Labberlippe
2003-04-01, 17:33:30
Originally posted by LovesuckZ


Es ist nvidia schuld, weil die Shader der 8500 nicht "ausgereift" sind?

/edit: wirft man das nicht auch Nvidia mit dem PS1.4 vor?

Na weil Du editierst hast.


Sorry aber die Shader vom R8500 können tadelos und in schneller Performence mit PS1.1 und 1.3 umgehen und das obwohl es Quasi emuliert wird.

nVIDIA hat in den neuen Karten eine höhere PS 2.0 Shader Version als ATi und kann noch immer nicht mit PS 1.4 umgehen.
nVIDIA hat einen anderen Weg gewählt und dafür jetzt FM und ATi zu prügeln ist lächerlich.

Da könnt Ihr alles schön reden wir Ihr wollt.

Gruss Labberlippe

Xmas
2003-04-01, 18:04:25
Originally posted by aths
Die bisherige Implementierung von 1.4 unterstützt Overbright-Lighting. Weil ATI das so gemacht hat, und entsprechende Karten seit langem im Handel erhältich und in Rechnern eingebaut sind, ist ATIs über die Spezifikation hinausgehende Implementierung der Defakto-Standard.

Der 1.4-er PS ist genauso vernünftig implementiert, wie DXT1 in in GF1-4: Gerade so der Spezifikation entsprechend, ohne Rücksicht darauf, dass es andere Hersteller besser gemacht haben.
Aha, und wenn NVidia vom NV3x mehr verkauft als ATI vom R300, dann sind plötzlich 1024 Instruktionen Defakto-Standard statt 64? Hat sich etwa irgendein Hersteller darum gekümmert, dass die Register Combiner von GF1 viel mehr können als andere Karten derselben Generation?

Wenn NVidia PS1.4 mit Integer von -2 bis +2 implementiert, dann ist das völlig legitim und den Spezifikationen entsprechend. Wenn man bei FutureMark einfach annimmt, dass man von -8 bis +8 rechnen kann, dann ist das ein Bug.

ow
2003-04-01, 18:08:14
Originally posted by Stefan Payne


1. nein, die Shader 1.4 sind nicht schlecht, es ist NVs schuld, daß sie die 1.4 nicht ordentlich 'eingebacken' haben.

2. ja, das tut man und völlig zu recht!
NV hätte auch mal darauf schauen können, was andere machen und mal den Standard anderer unterstützen können anstatt die eigenen Standards mit aller Macht durchdrücken zu wollen.
Wenn der Xabre2 und alle anderen DX9 Chips sich an die ATI 'Vorgabe' halten, dann hat NV ein 'geringeres' Problem.

[außerdem klingt dein Posting 'etwas' nach NV Brille]

1. NV hat die 1.4 Shader spezifikationsgerecht implementiert. Punkt aus aus. Alles andere ist unsiniges FanATiker-Geschwafel. Die Geschwindigkeit mit der ein Shader zu laufen hat ist NICHT spezifiziert.

2. Wieso hat Ati eigentlich nicht geschaut was NV macht, sondern musste mit was eigenem daherkommen? Wollte ATi mit aller Macht den eigenen Standard durchdrücken? Siehst du wie sinnlos deine 'Argumentation' ist??

[außerdem klingt dein Posting 'etwas' nach ATi Brille]

ow
2003-04-01, 18:10:43
Originally posted by Xmas

Aha, und wenn NVidia vom NV3x mehr verkauft als ATI vom R300, dann sind plötzlich 1024 Instruktionen Defakto-Standard statt 64? Hat sich etwa irgendein Hersteller darum gekümmert, dass die Register Combiner von GF1 viel mehr können als andere Karten derselben Generation?

Wenn NVidia PS1.4 mit Integer von -2 bis +2 implementiert, dann ist das völlig legitim und den Spezifikationen entsprechend. Wenn man bei FutureMark einfach annimmt, dass man von -8 bis +8 rechnen kann, dann ist das ein Bug.


Full Ack.
Wird mal Zeit, dass jemand mit entsprechenden Kenntnissen aths aufklärt.:D

ow
2003-04-01, 18:12:57
@Labberlippe:

es geht hier nicht um Geschwindigkeit des PS1.4 bei NV, sondern darum, dass FutureMark einen Bug im 3DM03 hat, indem sie eine Funktion nutzen, die nur optional ist und auch nur auf ATi Karten verfügbar. Also ein reiner 'ATi-Shader'.

Demirug
2003-04-01, 18:20:33
Defakto standards haben bei DX nichts verloren und da lasse ich mich auch auf keine Diskussion ein weil es zu DX7 Zeiten auch eine Rheie von unterschiedlichen "Standards" im Pixelbereich gegeben hat und man bei jeden Chip hoffen musste das er das Setup versteht und auch rendern kann. Das einzig verbindliche ist das was in den offiziellen DX Spezifikationen steht. Und dort steht nun mal ganz klar das "overbright light" bei den 1.x Shadern eine option ist. Also ist es als Entwickler meine Pflicht darauf zu achten und entsprechend zu reagieren:

- verzicht auf diese Feature.
- aktzeptieren das es nicht auf allen Chips funktioniert (für einen Benachmark keine gute Idee).
- Chip die es nicht können aussperren (für ein Spiel schlecht).
- mehrer Shader benutzten. Einen 1.x für Karten die es damit können und einen 2.0 für Karten die es erst damit können.

Und wenn ein Chiphersteller sagt: unserer Integereinheit kann kein Overbright light und die FP einheit wollen wir dafür nicht benutzten dann muss man das eben so hinnehmen.

Auch wenn ich mich wiederhole: Nur weil ATI sagt das PS 1.4 näher an den 2.0 dran ist muss das nicht in allen belangen stimmen. Rein Technologisch betrachtet sind sie natürlich schon näher dran aber das Programmiermodel ist anderes.

Ein 1.1-1.3 Shader ist wie folgt aufgebaut.
4 Textureoperationen
8 Rechenoperationen

Bei einem 1.4 Shader hat man aus den 4 Textureoperationen 6 gemacht dafür sind aber die komplexen Textureoperationen nicht mehr erlaubt. Als Ausgleich dafür erhält man eine zweite phase mit nochmal dem gleichen. Ein 1.4 Shader hat also folgenden aufbau:

6 Textureoperationen
8 Rechenoperationen
6 Textureoperationen
8 Rechenoperationen

Ein Block aus 6 Texture und 8 Rechenoperationen wird als Phase bezeichnet und damit sind dann auch ein paar lästige nebeneffekte verbunden. Beim Übergang von Phase 1 in Phase 2 verliert man alle Alphawerte in den Temp-Register. In Summe kann man also 6 Werte (nur RGB nicht A) von phase 1 in Phase 2 übernehmen. Die Farbwerte aus dem Vertexshader stehen interesanterweise auch erst in phase 2 zur Verfügung. Man sollte diese ganzen dinge im Kopf haben wenn man 1.4 Shader schreibt.

Bei 2.0 gibt es diese Phasen im programmiermodel nicht mehr (In der Hardware von ATI aber scheinbar immer noch). Man schreibt den Shader einfach am Stück runter und kann dabei Texture und Rechenoperationen beliebig mischen.

Das was den 1.4 also so besonders macht ist dieser Phasenübergang dafür gibt es dementsprechend auch extra eine Anweisung (phase).

Was solls mag man sich nun denken ein 1.4 Shader ist doch dann ganz schnell in einen 2.0 umgeändert. Man wirft einfach die Phase Anweisung heraus. Das ist auch richtig nur werden in der Praxsis Schader selten von unten nach oben konvertiert sondern umgekehrt. Man nimmt den besten Effekt und reduziert in herunter und von 2.0 auf 1.4 macht da nicht wirklich Spass. Auf 1.1-1.3 geht es in der Regel etwas einfacher weil man die Stellen an denen man zum Multipass aufteilen kann schnell sieht bzw gleich erkennt was man rauswerfen muss. Bei 1.4 hat man dann den Ehrgeiz es doch irgendwie ohne grossartiges rauswerfen hinzubekommen und bastelt an der Phasenaufteilung rum.

Lange rede kurzer Sinn. Das Assemblermodel der PS 1.4 hat es in sich. Mit den Shaderhochsprachen wird das aber glücklicherweise einfacher weil man da diese arbeit der Phasenaufteilung dem Compiler überlassen kann und der macht das schon ganz gut.

Wer seine Shader in Assembler schreibt wird also den Mehraufwand für die 1.4 Shader aus dem weg gehen wollen weil er die 1.1 Shader ja auf jeden Fall braucht. Bei Entwickler die mit einer Shaderhochsprache arbeiten ist die Wahrscheinlichkeit viel höher das man auch optimierte 1.4 Shader bekommt.

aths
2003-04-01, 18:26:59
Originally posted by Xmas
Aha, und wenn NVidia vom NV3x mehr verkauft als ATI vom R300, dann sind plötzlich 1024 Instruktionen Defakto-Standard statt 64? Hat sich etwa irgendein Hersteller darum gekümmert, dass die Register Combiner von GF1 viel mehr können als andere Karten derselben Generation?Seitdem sie in DX8.0 als PixelShader Standard wurde, wird der Defakto-PS-Standard den GF3 realisiert hat, von allen eingehalten. Ich bin sicher, hätte GF3 was den Farbraum angeht, die DX-Spezifikation überboten, hätten alle bedeutenden Hersteller das mit übernommen. Es kommt ja darauf an, dass auf ihrer HW auch das läuft, was auf der GF3 entwickelt wurde.

Falls NV30 vor dem R300 auf dem Markt gekommen wäre, und R300 zu diesem Zeitpunkt noch in Entwicklung gewesen wäre, und der finale R300 dann nur 64 Instruktionen beherrscht, würde ich das ATI ankreiden und ihnen eine minimalistische Lösung vorwerfen.
Originally posted by Xmas
Wenn NVidia PS1.4 mit Integer von -2 bis +2 implementiert, dann ist das völlig legitim und den Spezifikationen entsprechend. Wenn man bei FutureMark einfach annimmt, dass man von -8 bis +8 rechnen kann, dann ist das ein Bug. Das lässt sich schwerlich abstreiten. Wenn FX ebenfalls 3 Bits fürs Overbright Lighting hätte, wäre es noch schöner. Ich hoffe, dass sind in der zukünftigen Realisierung auch der alten Shader mit FP das Thema Farbraum erledigt.

Im Moment kümmert sich nV jedenfalls nicht darum, dass PS.1.4-Anwendungen auf ihrer HW genauso gut laufen wie auf der Radeon. Das würde ich als potenzieller Kunde allerdings erwarten.

aths
2003-04-01, 18:33:29
Originally posted by ow
1. NV hat die 1.4 Shader spezifikationsgerecht implementiert.Stimmt.
Originally posted by ow
Die Geschwindigkeit mit der ein Shader zu laufen hat ist NICHT spezifiziert.Stimmt auch. War aber offenbar ein Schuss ins Knie von NV.
Originally posted by ow
2. Wieso hat Ati eigentlich nicht geschaut was NV macht, sondern musste mit was eigenem daherkommen? Haben sie doch: Ein PS 1.3 sieht auf Radeon 8500 garantiert nicht schlechter aus als auf GeForce4 Ti.
Originally posted by ow
Wollte ATi mit aller Macht den eigenen Standard durchdrücken? Siehst du wie sinnlos deine 'Argumentation' ist??ATI wollte, dass die Fähigkeiten ihrer HW nicht nur in OpenGL, sondern auch in DX genutzt werden können.
Originally posted by ow
[außerdem klingt dein Posting 'etwas' nach ATi Brille] Ohne einen Flamewar anzetteln zu wollen - du springst bei jedem Seitenhieb auf NV wie von einer Tarantel gestochen auf, dir müsste man dann eine NV-Brille bescheinigen. (Und jetzt machen wir einen Poll (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=63203), durch welche Brille ich sehe...)

Demirug
2003-04-01, 18:47:25
Originally posted by aths
Seitdem sie in DX8.0 als PixelShader Standard wurde, wird der Defakto-PS-Standard den GF3 realisiert hat, von allen eingehalten. Ich bin sicher, hätte GF3 was den Farbraum angeht, die DX-Spezifikation überboten, hätten alle bedeutenden Hersteller das mit übernommen.

das was die GF3 Pixelshader machen ist das minimalste was inzwischen noch spezifiziert ist. Die 1.0 PS wurde aufgrund der Tatsache das entsprechende Hardware nie den Markt erreicht hat entfernt. Wäre das nicht relative schnell offentsichtlich gewessen wären die meisten Shader heute wohl nach dem 1.0 Model programmiert. Man macht sich eben nicht gerne zuviel arbeit.

Falls NV30 vor dem R300 auf dem Markt gekommen wäre, und R300 zu diesem Zeitpunkt noch in Entwicklung gewesen wäre, und der finale R300 dann nur 64 Instruktionen beherrscht, würde ich das ATI ankreiden und ihnen eine minimalistische Lösung vorwerfen.
Das lässt sich schwerlich abstreiten.

Die ursprüngliche DX9 Version hatte aber nur diese "minimalistische Lösung" vorgesehen bevor sich MS entschloss das ganzen 9.1 Zeug gleich in DX9 einzubauen. Bei einer neuen Runde muss immer einer den Grundlevel definieren und bei den PS und VS war es diesemal eben ATI. Solange sich die ganzen IHVs wenigstens auf einen gemeinsamen Grundlevel einigen bin ich ja schon ganz zufrieden.

aths
2003-04-01, 18:50:38
Originally posted by Demirug
das was die GF3 Pixelshader machen ist das minimalste was inzwischen noch spezifiziert ist.Ich weiß :)
Originally posted by Demirug Die 1.0 PS wurde aufgrund der Tatsache das entsprechende Hardware nie den Markt erreicht hat entfernt. Wäre das nicht relative schnell offentsichtlich gewessen wären die meisten Shader heute wohl nach dem 1.0 Model programmiert. Man macht sich eben nicht gerne zuviel arbeit. Wäre mit viel Verspätung urplötzlich 1.0-er HW erschienen, wäre das Geschrei wohl groß gewesen, warum die HW nur 1.0 kann, obwohl DX8 lediglich 1.0 vorschreibt und nicht 1.1.

mapel110
2003-04-01, 18:55:09
Originally posted by aths

Wäre mit viel Verspätung urplötzlich 1.0-er HW erschienen, wäre das Geschrei wohl groß gewesen, warum die HW nur 1.0 kann, obwohl DX8 lediglich 1.0 vorschreibt und nicht 1.1.

:| macht der satz sinn ?!

Demirug
2003-04-01, 18:59:29
Originally posted by aths
Wäre mit viel Verspätung urplötzlich 1.0-er HW erschienen, wäre das Geschrei wohl groß gewesen, warum die HW nur 1.0 kann, obwohl DX8 lediglich 1.0 vorschreibt und nicht 1.1.

Ja Geschrei hätte das schon gegeben. Aber dann wäre da ja immer noch der DX7 Fallback gewesen und glücklicherweise hätte man die meisten 1.1 Shader direkt ohne Änderung auch als 1.0 zum laufen bekommen.

Girli
2003-04-01, 19:00:20
Originally posted by Demirug
Defakto standards haben bei DX nichts verloren und da lasse ich mich auch auf keine Diskussion ein weil es zu DX7 Zeiten auch eine Rheie von unterschiedlichen "Standards" im Pixelbereich gegeben hat und man bei jeden Chip hoffen musste das er das Setup versteht und auch rendern kann. Das einzig verbindliche ist das was in den offiziellen DX Spezifikationen steht. Und dort steht nun mal ganz klar das "overbright light" bei den 1.x Shadern eine option ist. Also ist es als Entwickler meine Pflicht darauf zu achten und entsprechend zu reagieren:

- verzicht auf diese Feature.
- aktzeptieren das es nicht auf allen Chips funktioniert (für einen Benachmark keine gute Idee).
- Chip die es nicht können aussperren (für ein Spiel schlecht).
- mehrer Shader benutzten. Einen 1.x für Karten die es damit können und einen 2.0 für Karten die es erst damit können.

Und wenn ein Chiphersteller sagt: unserer Integereinheit kann kein Overbright light und die FP einheit wollen wir dafür nicht benutzten dann muss man das eben so hinnehmen.

Auch wenn ich mich wiederhole: Nur weil ATI sagt das PS 1.4 näher an den 2.0 dran ist muss das nicht in allen belangen stimmen. Rein Technologisch betrachtet sind sie natürlich schon näher dran aber das Programmiermodel ist anderes.

Ein 1.1-1.3 Shader ist wie folgt aufgebaut.
4 Textureoperationen
8 Rechenoperationen

Bei einem 1.4 Shader hat man aus den 4 Textureoperationen 6 gemacht dafür sind aber die komplexen Textureoperationen nicht mehr erlaubt. Als Ausgleich dafür erhält man eine zweite phase mit nochmal dem gleichen. Ein 1.4 Shader hat also folgenden aufbau:

6 Textureoperationen
8 Rechenoperationen
6 Textureoperationen
8 Rechenoperationen

Ein Block aus 6 Texture und 8 Rechenoperationen wird als Phase bezeichnet und damit sind dann auch ein paar lästige nebeneffekte verbunden. Beim Übergang von Phase 1 in Phase 2 verliert man alle Alphawerte in den Temp-Register. In Summe kann man also 6 Werte (nur RGB nicht A) von phase 1 in Phase 2 übernehmen. Die Farbwerte aus dem Vertexshader stehen interesanterweise auch erst in phase 2 zur Verfügung. Man sollte diese ganzen dinge im Kopf haben wenn man 1.4 Shader schreibt.

Bei 2.0 gibt es diese Phasen im programmiermodel nicht mehr (In der Hardware von ATI aber scheinbar immer noch). Man schreibt den Shader einfach am Stück runter und kann dabei Texture und Rechenoperationen beliebig mischen.

Das was den 1.4 also so besonders macht ist dieser Phasenübergang dafür gibt es dementsprechend auch extra eine Anweisung (phase).

Was solls mag man sich nun denken ein 1.4 Shader ist doch dann ganz schnell in einen 2.0 umgeändert. Man wirft einfach die Phase Anweisung heraus. Das ist auch richtig nur werden in der Praxsis Schader selten von unten nach oben konvertiert sondern umgekehrt. Man nimmt den besten Effekt und reduziert in herunter und von 2.0 auf 1.4 macht da nicht wirklich Spass. Auf 1.1-1.3 geht es in der Regel etwas einfacher weil man die Stellen an denen man zum Multipass aufteilen kann schnell sieht bzw gleich erkennt was man rauswerfen muss. Bei 1.4 hat man dann den Ehrgeiz es doch irgendwie ohne grossartiges rauswerfen hinzubekommen und bastelt an der Phasenaufteilung rum.

Lange rede kurzer Sinn. Das Assemblermodel der PS 1.4 hat es in sich. Mit den Shaderhochsprachen wird das aber glücklicherweise einfacher weil man da diese arbeit der Phasenaufteilung dem Compiler überlassen kann und der macht das schon ganz gut.

Wer seine Shader in Assembler schreibt wird also den Mehraufwand für die 1.4 Shader aus dem weg gehen wollen weil er die 1.1 Shader ja auf jeden Fall braucht. Bei Entwickler die mit einer Shaderhochsprache arbeiten ist die Wahrscheinlichkeit viel höher das man auch optimierte 1.4 Shader bekommt.

Wenn 6 Texturen pro Block genommen werden, wie es beim PS1.4 der Fall ist.
Wie reagiert der PS1.3 darauf. ???

Eines verstehe ich nicht, wenn ich die möglichkeit habe das in mit PS1.4 in "einer" Phase zu nutzen warum sollte man sich dann mit div. Möglichkeiten rumschlagen wie es bei P1.3 realisiert werden kann.

Mir ist schon klar das es nicht gut ist nur auf PS 1.4 zu gehen, aber warum hat nVIDIA hier einfach nicht versucht dieses auch zu realiseren.

Ich schätze das dieses vom Design der Karte nicht geht und deshalb wurde hier ein eigener Weg genommen.

Was besser und schlechter ist, kann natürlich nur der Progger wissen, aber im Grunde genommen kann man ATi dafür nicht foltern.

Dann sollen halt deutlichere Standarts gelegt werden und daran müssen sich alle halten, ansonsten wird es bald wieder so zugehen wie am Anfang.
Für jeden Chip eine eigene "Ini" und Optimierung.

Gruss Labberlippe

Girli
2003-04-01, 19:02:27
Originally posted by ow


1. NV hat die 1.4 Shader spezifikationsgerecht implementiert. Punkt aus aus. Alles andere ist unsiniges FanATiker-Geschwafel. Die Geschwindigkeit mit der ein Shader zu laufen hat ist NICHT spezifiziert.

2. Wieso hat Ati eigentlich nicht geschaut was NV macht, sondern musste mit was eigenem daherkommen? Wollte ATi mit aller Macht den eigenen Standard durchdrücken? Siehst du wie sinnlos deine 'Argumentation' ist??

[außerdem klingt dein Posting 'etwas' nach ATi Brille]

ATi hat "quasi" die PS1.4 Shader gebracht und MS hat die Spezifikation gedrückt damit die GeForce auch 8.1 kompatibel sind.
Sofern ich mich noch richtig erinnern kann.
Haben wir aber auch schon damals im Spekuforum diskutiert. (wenn ich mich nicht irre.)

Gruss Labberlippe

Unregistered
2003-04-01, 19:04:26
Ist schon lustig, das Geschrei. Und warum? Weil mal nicht direkt auf Nvidia-HW optimiert wurde und plötzlich sieht Nvidia gaaanz alt aus. Für die anderen Hersteller ist das wohl kein Problem, die sind es gewohnt, die Suppe auszulöffeln.

Ich hör es ganz deutlich: "...Ich hab doch Nvidia gekauft, weil darauf immer optimiert wurde und jetzt scheissen die drauf..., bääähhh." :bawling:

mapel110
2003-04-01, 19:06:28
Originally posted by Demirug


Ja Geschrei hätte das schon gegeben. Aber dann wäre da ja immer noch der DX7 Fallback gewesen und glücklicherweise hätte man die meisten 1.1 Shader direkt ohne Änderung auch als 1.0 zum laufen bekommen.

ah, jetzt wirds klarer.

wieso wird eingentlich support aus dx rausgenommen ? frisst das soviel zusaätzlichen speicher in den DLL's ?!
versteh ich irgendwie nicht.

Demirug
2003-04-01, 19:14:35
Originally posted by Girli
Wenn 6 Texturen pro Block genommen werden, wie es beim PS1.4 der Fall ist.
Wie reagiert der PS1.3 darauf. ???

Wenn du bei einem 1.3 Shader versuchts mit 6 Texturen zu arbeiten bekommst du diesen Shader nicht durch die DX-Validierung. Es geht einfach nicht.

Eines verstehe ich nicht, wenn ich die möglichkeit habe das in mit PS1.4 in "einer" Phase zu nutzen warum sollte man sich dann mit div. Möglichkeiten rumschlagen wie es bei P1.3 realisiert werden kann.

Der Punkt ist das man es mit einen 1.1 Shader realisieren muss weil das nun mal inzwischen der Grundlevel für DX8 ist. Der 1.4 Shader dagegen ist eine option weil ja jede PS 1.4 Karte auch die 1.1 Shader kann. Ergo wenn das Buget knapp ist kann man hier sparen.

Mir ist schon klar das es nicht gut ist nur auf PS 1.4 zu gehen, aber warum hat nVIDIA hier einfach nicht versucht dieses auch zu realiseren.

Ich schätze das dieses vom Design der Karte nicht geht und deshalb wurde hier ein eigener Weg genommen.


Für den NV25 kamm das ganze zu spät als das NVIDIA da wirklich noch was tun hätte können und der NV30 kann ja PS 1.4.

Was besser und schlechter ist, kann natürlich nur der Progger wissen, aber im Grunde genommen kann man ATi dafür nicht foltern.

Ich bin da ja etwas gespalten. Technisch ist eindeutig 1.4 besser nur eben nicht so umgänglich bei der Programmierung. Da es jetzt aber Hochsprachen gibt ist die Programmeriung viel einfacher geworden.

Dann sollen halt deutlichere Standarts gelegt werden und daran müssen sich alle halten, ansonsten wird es bald wieder so zugehen wie am Anfang.
Für jeden Chip eine eigene "Ini" und Optimierung.

Gruss Labberlippe

Es gibt doch einen deutlichen Standard und der heist PS 1.4 mit einem zahlenraum von -1 bis +1. Grössere Zahlenräume sind optional.

Ich habe nichts gegen das Ausnutzen von Chip spezifische Features solange es auch einen allgemeinen Basispfad gibt und sich die Mehrarbeit dafür in Grenzen hält damit das Buget nicht so laut stöhnt.

Demirug
2003-04-01, 19:19:32
Originally posted by mapel110


ah, jetzt wirds klarer.

wieso wird eingentlich support aus dx rausgenommen ? frisst das soviel zusaätzlichen speicher in den DLL's ?!
versteh ich irgendwie nicht.

Nö der Platz ist das kleinste Problem und in den DX8 DLLs ist das ganze ja auch noch drin. Es geht dabei eher darum den Entwicklern ganz klar zu sagen:

Es wird keine PS 1.0 Hardware mehr geben benutzt 1.1 als Basis.

Hinzu kommt noch das alles was man rauswirft auch nicht mehr getestet und supportet werden muss und wenn es wie gesagt eh nie Hardware die nur 1.0 kann geben wird kann man die Zeit die man dafür braucht sinnvoller nutzen.

Endorphine
2003-04-01, 19:32:20
@Demi:
Da meine Frage vorhin untergegangen ist, mich eine Antwort aber brennend interessiert (*nerv*):
Die DX9-Engine an der du mitarbeitest, für welche PS-Version ist die denn optimiert? Das ist doch das IMHO eigentlich interessanteste. Nicht das, was die Chips können oder nicht können, sondern das, was ein Engineprogger aus den verbreiteten Hardwarefähigkeiten macht und folgert.

Edit:
Hat sich erledigt. Hab was übersehen *g* Thx!

ow
2003-04-01, 19:33:40
Originally posted by Demirug


Ja Geschrei hätte das schon gegeben. Aber dann wäre da ja immer noch der DX7 Fallback gewesen und glücklicherweise hätte man die meisten 1.1 Shader direkt ohne Änderung auch als 1.0 zum laufen bekommen.

Ist zwar OT, aber vielleicht weisst du das (oder jemand anders):

Welche PS-Version wäre denn dem Ur-Radeon zuteil geworden, hätte er nicht diese Beschränkung auf 3 Tex/pass?

Die PS aus dem DX8SDK-Sample 'MFCPixelshader' laufen jedenfall einwandfrei auf dem Radeon1 ebenso einge PS-Samples aus dem 'NVEffectsbrowser'.

ow
2003-04-01, 19:36:54
Originally posted by Endorphine
@Demi:
Da meine Frage vorhin untergegangen ist, mich eine Antwort aber brennend interessiert (*nerv*):
Die DX9-Engine an der du mitarbeitest, für welche PS-Version ist die denn optimiert? Das ist doch das IMHO eigentlich interessanteste. Nicht das, was die Chips können oder nicht können, sondern das, was ein Engineprogger aus den verbreiteten Hardwarefähigkeiten macht und folgert.

??

iirc hat Demi diese Frage längst beantwortet.

->
/edit:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=62857&postid=801517#post801517

ow
2003-04-01, 19:41:34
achso, da war noch was:D

3DM03, XP1700, SDRAM, R8500LE@9100 (@265/265)

Mit PS1.4 Support:

ow
2003-04-01, 19:42:19
Und einmal nur mit PS1.1:

ow
2003-04-01, 19:44:29
Und 3DM2001, advanced pixel shader

mit PS1.4 support: 81,6 fps, mit PS 1.1: 61,5 fps

Labberlippe
2003-04-01, 19:51:47
Originally posted by Demirug


Wenn du bei einem 1.3 Shader versuchts mit 6 Texturen zu arbeiten bekommst du diesen Shader nicht durch die DX-Validierung. Es geht einfach nicht.



Der Punkt ist das man es mit einen 1.1 Shader realisieren muss weil das nun mal inzwischen der Grundlevel für DX8 ist. Der 1.4 Shader dagegen ist eine option weil ja jede PS 1.4 Karte auch die 1.1 Shader kann. Ergo wenn das Buget knapp ist kann man hier sparen.



Für den NV25 kamm das ganze zu spät als das NVIDIA da wirklich noch was tun hätte können und der NV30 kann ja PS 1.4.



Ich bin da ja etwas gespalten. Technisch ist eindeutig 1.4 besser nur eben nicht so umgänglich bei der Programmierung. Da es jetzt aber Hochsprachen gibt ist die Programmeriung viel einfacher geworden.



Es gibt doch einen deutlichen Standard und der heist PS 1.4 mit einem zahlenraum von -1 bis +1. Grössere Zahlenräume sind optional.

Ich habe nichts gegen das Ausnutzen von Chip spezifische Features solange es auch einen allgemeinen Basispfad gibt und sich die Mehrarbeit dafür in Grenzen hält damit das Buget nicht so laut stöhnt.

Die Zahlenräume wurden (wenn ich micn nicht irre) deshalb so knapp gelegt, damit auch die anderen Chip diese nutzen können.
Um mehr geht es mir nicht.

Man kann nicht einfach sagen das nVIDIA den PS1.4 korrekt implementiert hat.
nVIDIA konnte das so wie Du gesagt hast nicht mehr ändern und erst mit FX "nachreichen".
Nur sind hier in meine Augen 2 Div. Design vorhanden und diesmal gibt es halt für einige ein Problem weil das auf deren Karten nicht "perfekt" wie gehabt läuft.

Der Rest ist Geschmackssache.

Ich als R9000 Besitzer würde das natürlich begrüssen wenn PS1.4 mehr eingesetzt wird. Keine Frage. :)

Gruss Labberlippe

Labberlippe
2003-04-01, 19:53:53
Originally posted by ow
Und 3DM2001, advanced pixel shader

mit PS1.4 support: 81,6 fps, mit PS 1.1: 61,5 fps

Ja und ???
Es sollte doch bekannt sein das P1.1 quasi emuliert wird.
Hat damals jemand gemault und einen derartigen Aufschrei wie nVIDIA und einige User verursacht. ???

Gruss Labberlippe

ow
2003-04-01, 19:57:14
Originally posted by Labberlippe


Ja und ???
Es sollte doch bekannt sein das P1.1 quasi emuliert wird.
Hat damals jemand gemault und einen derartigen Aufschrei wie nVIDIA und einige User verursacht. ???

Gruss Labberlippe

Oh....das war ein rein technischer Post, falls sich jamnd dafür interessiert. Was ATi wie beim PS1.1 macht weiss ich nicht. Iss mir auch egal.:D

StefanV
2003-04-01, 20:01:50
Originally posted by ow


Ist zwar OT, aber vielleicht weisst du das (oder jemand anders):

Welche PS-Version wäre denn dem Ur-Radeon zuteil geworden, hätte er nicht diese Beschränkung auf 3 Tex/pass?

Die PS aus dem DX8SDK-Sample 'MFCPixelshader' laufen jedenfall einwandfrei auf dem Radeon1 ebenso einge PS-Samples aus dem 'NVEffectsbrowser'.

1.0, wenn M$ ATI nicht über den Tisch gezogen hätte ??

Endorphine
2003-04-01, 20:16:10
Originally posted by ow


??

iirc hat Demi diese Frage längst beantwortet.

->
/edit:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=62857&postid=801517#post801517
Oh sorry, das hab ich nun wieder überlesen :sulkoff:

LovesuckZ
2003-04-01, 20:28:12
Originally posted by Labberlippe
Ich als R9000 Besitzer würde das natürlich begrüssen wenn PS1.4 mehr eingesetzt wird. Keine Frage. :)

Gruss Labberlippe

Was dir aber durchaus kaum einen Nutzen bringen koennte (wenn die Werte die Digit-Life ermitteln haben, stimmen sollten).

http://www.digit-life.com/articles2/digest3d/0203/itogi-video-3dm-gt2-1024-p4.html

Demirug
2003-04-01, 20:58:18
Originally posted by ow


Ist zwar OT, aber vielleicht weisst du das (oder jemand anders):

Welche PS-Version wäre denn dem Ur-Radeon zuteil geworden, hätte er nicht diese Beschränkung auf 3 Tex/pass?

Die PS aus dem DX8SDK-Sample 'MFCPixelshader' laufen jedenfall einwandfrei auf dem Radeon1 ebenso einge PS-Samples aus dem 'NVEffectsbrowser'.

hehe ist das immer noch in den ATI-Treiber drin? Normalerweise war für die Ur-Radeon überhaupt kein Pixelshader vorgesehen. ATI hat dann aus welchen Gründen auch immer in die Treiber was eingebaut was es ermöglicht hat ein Subset der 1.x Shader laufen zu lassen. Das ganze wurde unter den Entwicklern auch gerne mal als PS 0.5 bezeichnet.

Wirklich sinnvoll war das ganze aber nicht unbedingt weil man AFAIR eigentlich alles was damit geht auch über das TSS nutzen kann. Mit dem kleinen Nachteil den ich oben schon mal aufgeführt habe.

Demirug
2003-04-01, 21:14:55
Originally posted by Labberlippe


Die Zahlenräume wurden (wenn ich micn nicht irre) deshalb so knapp gelegt, damit auch die anderen Chip diese nutzen können.
Um mehr geht es mir nicht.

Man kann nicht einfach sagen das nVIDIA den PS1.4 korrekt implementiert hat.
nVIDIA konnte das so wie Du gesagt hast nicht mehr ändern und erst mit FX "nachreichen".
Nur sind hier in meine Augen 2 Div. Design vorhanden und diesmal gibt es halt für einige ein Problem weil das auf deren Karten nicht "perfekt" wie gehabt läuft.

Der Rest ist Geschmackssache.

Ich als R9000 Besitzer würde das natürlich begrüssen wenn PS1.4 mehr eingesetzt wird. Keine Frage. :)

Gruss Labberlippe

Das mit dem Zahlenraum ist ein ganz übles Problem für NVIDIA und zwar aus folegden Grund. Der Treiber darf nur einen Zahlenraum für alle 1.x Shader melden. Würde NVIDIA also einen grösseren Zahlenraum für 1.4 unterstüzen wollen müssten sie das auch für 1.1 - 1.3 tun. Und das können sie aus Performancesgründen derzeit wohl einfach nicht. Und dann einfach nur so unter der Hand den Bereich nur für 1.4 zu erhöhen ist auch nicht drin weil dann der Treiber definitive nicht mehr mit der Spec zu vereinbaren ist.

Wie schon mehrfach von mir und auch anderen gesagt ist der Treiber konforn mit der Spec. Problem haben nur die Entwickler die den grösseren Zahlenbereich bei PS 1.4 als Tatsache gesehen haben (woran ATI nicht ganz schuldloss ist ;) ).

Es gibt derzeit sogar mindestens 3 PS 1.4 Varianten R200, R300/R350 und NV31/NV34/NV30. Alle haben einen anderen Wertbereich. Wie es mit den anderen ATI derivaten aussieht habe ich jetzt nicht im Kopf.

Wie gesagt in Verbindung mit dem HLSL-Compiler kann ich mich mit den PS 1.4 mehr anfreunden als bisher.

Xmas
2003-04-01, 21:25:47
Originally posted by Stefan Payne
1.0, wenn M$ ATI nicht über den Tisch gezogen hätte ??
Ich bin mir nicht sicher, aber AFAIK kann der original Radeon auch nur 3 Operationen zu den 3 Texturen (jedenfalls ist auch unter OpenGL nicht mehr drin)
Das wäre als PS ziemlich erbärmlich.

ow
2003-04-01, 21:27:06
Originally posted by Demirug


hehe ist das immer noch in den ATI-Treiber drin? Normalerweise war für die Ur-Radeon überhaupt kein Pixelshader vorgesehen. ATI hat dann aus welchen Gründen auch immer in die Treiber was eingebaut was es ermöglicht hat ein Subset der 1.x Shader laufen zu lassen. Das ganze wurde unter den Entwicklern auch gerne mal als PS 0.5 bezeichnet.

Wirklich sinnvoll war das ganze aber nicht unbedingt weil man AFAIR eigentlich alles was damit geht auch über das TSS nutzen kann. Mit dem kleinen Nachteil den ich oben schon mal aufgeführt habe.

Ja, das ist noch in den Treibern drin.:D
Zumindest bis zu den späten 2.x Catalyst, seitdem hab ich keine Radeon1 mehr.

Das 1.x-Subset bezieht sich also nicht nur auf die fehlende Fähigkeit zu 4 Tex/pass, sondern es fehlt noch mehr zu einem 'echten' PS.

Demirug
2003-04-01, 21:37:37
Originally posted by ow


Ja, das ist noch in den Treibern drin.:D
Zumindest bis zu den späten 2.x Catalyst, seitdem hab ich keine Radeon1 mehr.

Das 1.x-Subset bezieht sich also nicht nur auf die fehlende Fähigkeit zu 4 Tex/pass, sondern es fehlt noch mehr zu einem 'echten' PS.

was genau geht und was nicht weiss ich nun wirklich nicht da ich immer die Finger davon gelassen habe. AFAIK gab es da auch nie eine "offizielle" Dokumentation dazu.

zeckensack
2003-04-01, 22:26:39
Originally posted by Xmas

Ich bin mir nicht sicher, aber AFAIK kann der original Radeon auch nur 3 Operationen zu den 3 Texturen (jedenfalls ist auch unter OpenGL nicht mehr drin)
Das wäre als PS ziemlich erbärmlich. Ack.
Nur der Vollständigkeit halber, die Radeon 1 beherrscht eine 'multiply add'-Op und kann alle Operationen mit einem fixen Bias versehen (+0.5).
Auch noch halbwegs modern ist Subtraktion im Combiner, das gab's AFAIR damals nicht auf jeder Karte (auch mit optionalem Bias).
Dann noch die übliche Skalierung der Ergebnisse um 1, 2 und 4.
Wer's ganz genau wissen will, klickt hier (http://oss.sgi.com/projects/ogl-sample/registry/ATI/texture_env_combine3.txt).

Und dann natürlich noch EMBM.

StefanV
2003-04-01, 22:27:57
Originally posted by zeckensack
Und dann natürlich noch EMBM.

...und DOT3 ;)

zeckensack
2003-04-01, 22:29:43
Originally posted by Stefan Payne


...und DOT3 ;) Ja :)

StefanV
2003-04-01, 22:30:48
Originally posted by zeckensack
Ja :)

Die Radeon war ja damals die erste Karte, die 'alles' konnte (EMBM UND DOT3) ;)

Konnte die nicht auch Cube Enviroment Mapping ??

zeckensack
2003-04-01, 22:31:58
Originally posted by Stefan Payne


Die Radeon war ja damals die erste Karte, die 'alles' konnte (EMBM UND DOT3) ;)

Konnte die nicht auch Cube Enviroment Mapping ?? Ja :D

StefanV
2003-04-01, 22:36:26
Originally posted by zeckensack
Ja :D

Das ist auch die Karte, bei der ich mich geärgert hab, daß ich meine ELSA GLADIAC GTS gegen eine Radeon 32DDR getauscht hab...

Weil ich 2 WOchen später eine Radeon 64DDR für 'n Appel und 'n Ei bekommen hab *spam* *eg*

Andre
2003-04-01, 23:33:52
aths,

"Ich spreche eine klare Sprache und komme auf das Wesentliche, ohne jedoch grobe Wörter zu benutzen wie das bei anderen der Fall ist, oder jemandem Traumata zu unterstellen, wie das leider bei dir der Fall ist."

Haha, geil.
Traumata?
Das ich nicht lache.

"Es wäre schön wenn du argumentativ, auf technischer Ebene kommen würdest und nicht so, wie zitiert."

Dürfen hier nur Techniker posten?

Razor
2003-04-02, 06:37:46
Originally posted by Girli


ATi hat "quasi" die PS1.4 Shader gebracht und MS hat die Spezifikation gedrückt damit die GeForce auch 8.1 kompatibel sind.
Sofern ich mich noch richtig erinnern kann.
Haben wir aber auch schon damals im Spekuforum diskutiert. (wenn ich mich nicht irre.)

Gruss Labberlippe
Was ist denn das für ein Unsinn ?
PS1.4 sind schlicht nicht als "must have" in die Spezifikationen für DX8.1 aufgenommen worde, wie auch die PS1.2/1.3 für DX8.0. Wo ist da das Problem ? Nur weil ATI deswegen nicht die einzige (!) Hardware bot, die DX8.1 in Hardware unterstützt ?

Klar, wäre wirklich sinnvoll gewesen, dieses 'Feature' als "must have" zu impementieren...
Eine eigene DX-Version, exclusiv für ATI !
Schöööööönnnnnn....
:D

Ne, also wirklich LL

Razor

Razor
2003-04-02, 06:41:06
Originally posted by Labberlippe

Ich als R9000 Besitzer würde das natürlich begrüssen wenn PS1.4 mehr eingesetzt wird. Keine Frage. :)
Warum das ?
???

Soweit ich weiß, kommt der PS1.4 lediglich im Murks03 und in den ATI-Techdemos zur Ehre...
... ansonsten ist's 'ne Totgeburt !

Bis denne

Razor

Razor
2003-04-02, 06:42:28
Originally posted by Labberlippe

Ja und ???
Es sollte doch bekannt sein das P1.1 quasi emuliert wird.
Hat damals jemand gemault und einen derartigen Aufschrei wie nVIDIA und einige User verursacht. ???

Gruss Labberlippe
Ah ja...
Und was machen wir mit allen anderen Apps da draußen, die DX8-Shader benutzen ?
Was meinst Du, warum Deine 9000 da so langsam ist ?
Hmmm...

Razor

Unregistered
2003-04-02, 08:31:45
Originally posted by Razor

Was ist denn das für ein Unsinn ?
PS1.4 sind schlicht nicht als "must have" in die Spezifikationen für DX8.1 aufgenommen worde, wie auch die PS1.2/1.3 für DX8.0. Wo ist da das Problem ? Nur weil ATI deswegen nicht die einzige (!) Hardware bot, die DX8.1 in Hardware unterstützt ?

Klar, wäre wirklich sinnvoll gewesen, dieses 'Feature' als "must have" zu impementieren...
Eine eigene DX-Version, exclusiv für ATI !
Schöööööönnnnnn....
:D

Ne, also wirklich LL

Razor

Hi

Äh das dieses nicht als must habe ist, ist mir schon klar.
Nur bitte was soll das geflenne der nVIDIA User hier.
Ihr jammert rum, weil euren Punkte im neuen 3DMark nichts mehr ansteigen.
Warte halt auf die richtigen Games und basta.
komisch sind es gerade diejenigen die sich am meisten aufregen die immer gepredigt haben, das der 3DMark eh nur eine Techdemo ist.

Übrigens hat quasi nVIDIA ja auch mit den PS20+ eine eigene Version entworfen und ist auch nicht must to have....

Erkläre mir jetzt warum PS2.0+ wichtiger als PS2.0 ist.

Gruss Labberlippe

Unregistered
2003-04-02, 08:33:24
Originally posted by Razor

Warum das ?
???

Soweit ich weiß, kommt der PS1.4 lediglich im Murks03 und in den ATI-Techdemos zur Ehre...
... ansonsten ist's 'ne Totgeburt !

Bis denne

Razor

Naja klar ist eine Totgeburt, weil nVIDIA es ja kategorisch ablehnt den PS1.4 zu supporten.
Kannst ja aber nochmal die Ausführungen hier durchlesen, dann wirst Du feststellen das PS1.4 wohl sinnvoll ist, nur diese PS 1.4 nicht ins design der nv Karten passt.

Gruss Labberlippe

Unregistered
2003-04-02, 08:35:41
Originally posted by Razor

Ah ja...
Und was machen wir mit allen anderen Apps da draußen, die DX8-Shader benutzen ?
Was meinst Du, warum Deine 9000 da so langsam ist ?
Hmmm...

Razor

4*1 Design und 250/200 Low End halt.

Kannst nicht vergleichen, wobei ich mit vernünftigen Rams Setting schon in der Lage wäre eine 8500LE von Hercules anzgreifen.

Grus Labberlippe

Quasar@Work
2003-04-02, 08:37:45
Originally posted by Unregistered
Erkläre mir jetzt warum PS2.0+ wichtiger als PS2.0 ist.

Gruss Labberlippe

Für den Vertexshader fielen mir da so zwei drei Beispiele ein...

Der Pixelshader wird im Game-Bereich sicher hinreichen, solange kein nVidia-optimiertes Game erscheint. Für den professionellen Bereich könnte ich mir die Möglichkeit, längere und komplexere Shader zu nutzen, durchaus als reizvoll vorstellen.

Quasar@Work
2003-04-02, 08:45:34
BTW, zu der kompletten Overbright-Lighting Diskussion:
Daß nVidia sich neuerdings _strikt_ an die Vorgaben hält, ist IMO Futuremark zu verdanken, die bei einem sehr populären Benchmark, der weltweit leider als _das_ (einzige) Mittel der Wahl zur Beurteilung neuer Grafikkarten herangezogen wird, auf eine _optionale_ Erweiterung der DX-Spezifikation durch einen Hersteller gesetzt haben. _Zufällig_ ist das genau in der Version passiert, im deren Entwicklungsverlauf nVIDIA ankündigte, sich aus diesem Projekt, in dem man vorher zusammen u.a. mit ATi saß, zurückzuziehen und somit beträchtliche Finanzmittel für Futuremark verlorengegangen und nur noch die Beiträge von ATi vorhanden sein dürften (Spekulation!!)

Auch wenn aths das anders sieht, aber die Situation wäre so, als würde man die über die DX-PS1.1-1.3 Spezifikation hinausgehenden Möglichkeiten der Register Combiner (i.Ü. kein OpenGL-Feature, sondern ein Chip-Feature, aths) nutzen, um mit PS1.1-1.3 allein nicht im Single-Pass mögliche Operationen durchzuführen.

Insofern eine Chip-Spezifische Optimierung, die Futuremark im Vorfeld eigentlich bekannt sein _musste_.

Die aktuellen Treiber von nVidia scheinen sich diesbezüglich enger als je zuvor an die Spezifikationen von M$ zu halten....

zeckensack
2003-04-02, 09:07:20
Originally posted by Razor

Was ist denn das für ein Unsinn ?
PS1.4 sind schlicht nicht als "must have" in die Spezifikationen für DX8.1 aufgenommen worde, wie auch die PS1.2/1.3 für DX8.0. Wo ist da das Problem ? Nur weil ATI deswegen nicht die einzige (!) Hardware bot, die DX8.1 in Hardware unterstützt ?

Klar, wäre wirklich sinnvoll gewesen, dieses 'Feature' als "must have" zu impementieren...
Eine eigene DX-Version, exclusiv für ATI !
Schöööööönnnnnn....
:D

Ne, also wirklich LL

Razor Was ist denn das für ein Unsinn?
DX hat überhaupt keine 'must haves'.

Ne, also wirklich Razor

zecki

edit: Wenn du wirklich das Gefühl hast, über die bloße Existenz von PS1.4 diskutieren zu wollen, dann mach das besser wo anders. Ich mach auch bestimmt kräftig mit, wenn du so einen Thread eröffnest, keine Sorge :bäh:

Radeonator
2003-04-02, 09:50:46
Originally posted by Quasar@Work


Für den Vertexshader fielen mir da so zwei drei Beispiele ein...

Der Pixelshader wird im Game-Bereich sicher hinreichen, solange kein nVidia-optimiertes Game erscheint. Für den professionellen Bereich könnte ich mir die Möglichkeit, längere und komplexere Shader zu nutzen, durchaus als reizvoll vorstellen.

Könnte ich mir vorstellen, wenn da nicht die gigantische Abwärme und der gigantische Lärm wären...;)

Die karte ist für Workstations wohl eher unbrauchbar, es sein denn man arbeitet über Terminal CLients ;)

Demirug
2003-04-02, 10:08:58
Jetzt hängt euch doch bitte nicht so an dem fehlenden Overbright Light bei NV PS 1.4 auf.

JC wurde irgendwann mal gefragt was er den von dem grösseren Zahlenbereich bei ATI halten würde. Die Antwort war das er es ganz gut findet aber es für DOOM III zum Beispiel überhaupt nicht gebraucht wird.

Also nur weil bei NV der Zahlenbereich von -1 bis +1 geht wird der PS 1.4 dadurch ja nicht unbrauchbar. Man kann damit ja nach wie vor Reduktion der Anzahl von Passes betreiben.

Die Frage ist jetzt nur noch wie verhält sich ein PS 1.4 zu einem funktional identischen 2.0(+) auf der Performancesseite (auf NV Hardware natürlich). Ist der 1.4 Shader nicht schneller als der 2.0 Shader sinkt natürlich etwas die motivation sich die arbeit mit dem 1.4 zu machen. Ist der 1.4 Shader sogar langsamer sieht es richtig übel aus.

Die Fragen bei sowas sind eben immer:

1.Was kostet mich ein Pfad?
2.Um wieviele Systeme erhöhe ich damit meinen Kundekreis?
3.Gibt mir der Pfad neue Eyecandys?
4.Welche Systeme profitieren von dem zusätzlichen Pfad?

2 ist immer recht einfach zu handhaben. Der Pfad mit den geringsten Anforderungen definiert die Systemmenge.

3 ist ebenfalls einfach. Mit den Pfad welcher die meisten Features eines Highend chips nutzt bekommt man die Eyecandys für die Screenshots.

Und alle Pfade dazwischen sind Abwägungen zwischen 1 und 4.

Ein Pfad soll hier nicht wie bei einer OpenGL Engine als Arbeit für den Programmierer verstanden werden sondern als arbeit für den Effektentwickler.

Der Einsatz von PS 1.4 wird also in den meisten Fällen davon abhängen wie viele Systeme davon profitieren und ob das die mehrkosten rechtfertigt. Da der Einsatz von Hochsprachen die Kosten senkt steigt die Wahrscheinlichkeit wenn allerdings nur die R200 (und Derivate) Rheie wirklich davon profitiert ist das eher schlecht (ausser ATI läst in diesem Fall was springen um die Motivation zu erhöhen).

Demirug
2003-04-02, 10:12:15
Originally posted by Radeonator


Könnte ich mir vorstellen, wenn da nicht die gigantische Abwärme und der gigantische Lärm wären...;)

Die karte ist für Workstations wohl eher unbrauchbar, es sein denn man arbeitet über Terminal CLients ;)

Wenn Geld keine Rolle spielt nimmt man sich eben eine Quadro auf der ist der Fön ja nicht verbaut. Das dürfte immer noch günstiger sein als eine gute KVM-Verlängerung.

Exxtreme
2003-04-02, 11:02:08
[B]Originally posted by
Klar, wäre wirklich sinnvoll gewesen, dieses 'Feature' als "must have" zu impementieren...
Eine eigene DX-Version, exclusiv für ATI !
Schöööööönnnnnn....
:D

Ne, also wirklich LL

Razor
Öhhm, DX8 war auch eine Zeitlang ausschliesslich NV vorbehalten. :)

Endorphine
2003-04-02, 11:06:22
Originally posted by Exxtreme
Öhhm, DX8 war auch eine Zeitlang ausschliesslich NV vorbehalten. :) Und DX9 für ATI bis jetzt :)
NV3x Grafikkarten sind ja bis heute nicht real im europäischen Einzelhandel lieferbar.

Quasar@Work
2003-04-02, 11:13:53
Originally posted by Radeonator


Könnte ich mir vorstellen, wenn da nicht die gigantische Abwärme und der gigantische Lärm wären...;)

Die karte ist für Workstations wohl eher unbrauchbar, es sein denn man arbeitet über Terminal CLients ;)

Du weisst, daß die Quadros mit "üblicher" Kühlung auskommen, die nicht lauter als die Kühlung der Radeons und/oder GF4 ist?

zeckensack
2003-04-02, 13:25:16
Originally posted by Quasar@Work


Du weisst, daß die Quadros mit "üblicher" Kühlung auskommen, die nicht lauter als die Kühlung der Radeons und/oder GF4 ist? Das stimmt wohl, die Preise dieser Karten sind aber nicht wirklich attraktiv für die gebotene Leistung. Es sei denn, wie Demirug sagte, "Geld spielt keine Rolle".

ow
2003-04-02, 13:36:59
Originally posted by zeckensack
Das stimmt wohl, die Preise dieser Karten sind aber nicht wirklich attraktiv für die gebotene Leistung. Es sei denn, wie Demirug sagte, "Geld spielt keine Rolle".


Welche Karten im Profi-Bereich haeltst du denn fuer preislich attraktiv und was bieten die mehr??

aths
2003-04-02, 13:45:33
Originally posted by Andre
aths,

"Ich spreche eine klare Sprache und komme auf das Wesentliche, ohne jedoch grobe Wörter zu benutzen wie das bei anderen der Fall ist, oder jemandem Traumata zu unterstellen, wie das leider bei dir der Fall ist."

Haha, geil.
Traumata?
Das ich nicht lache.

"Es wäre schön wenn du argumentativ, auf technischer Ebene kommen würdest und nicht so, wie zitiert."

Dürfen hier nur Techniker posten? Andre, wer kam mit dem Trauma?

Es dürfen natürlich nicht nur Techniker hier posten, jedoch zu technischen Fragen würde ich mir technische Meinungen wünschen, und keine Vorhaltungen über Traumata.

aths
2003-04-02, 13:56:53
Originally posted by Razor
Was ist denn das für ein Unsinn ?
PS1.4 sind schlicht nicht als "must have" in die Spezifikationen für DX8.1 aufgenommen worde, wie auch die PS1.2/1.3 für DX8.0. Wo ist da das Problem ? Was ist denn das für ein Unsinn?

Mit DX8.0 gabs nur Pixelshader 1.0 (Rampage) und 1.1 (GeForce3). DX 8.1 wurde dann erweitert um Version 1.2 (3DLabs-Chips) und 1.3 (NV25, Parhelia) sowie 1.4 (R200).

Quelle: Xmas :D

ow
2003-04-02, 13:59:32
Originally posted by aths
Was ist denn das für ein Unsinn?

Mit DX8.0 gabs nur Pixelshader 1.0 (Rampage) und 1.1 (GeForce3). DX 8.1 wurde dann erweitert um Version 1.2 (3DLabs-Chips) und 1.3 (NV25, Parhelia) sowie 1.4 (R200).

Quelle: Xmas :D


??????

Jetzt musst du mir aber mal erklaeren, was an Razors Aussage falsch war, da du genau dasselbe sagst wie er auch.

aths
2003-04-02, 14:04:59
Razor verbindet 1.2 und 1.3 mit DX8.0, obwohl in DX8.0 davon gar keine Rede war.

ow
2003-04-02, 14:08:40
Achso, ich hatte mehr das 'must-have' im Auge. Da is naemlich auch fuer DX8.1 nur PS/VS bis 1.1.

aths
2003-04-02, 14:10:41
Originally posted by Razor
Soweit ich weiß, kommt der PS1.4 lediglich im Murks03 und in den ATI-Techdemos zur Ehre...
... ansonsten ist's 'ne Totgeburt !Hätte nV jetzt PS.1.4 mit dem gleichen Farbraum unterstützt, wie ATI das tut, könnte die große Stunde noch kommen.

aths
2003-04-02, 14:14:03
Originally posted by Quasar@Work
Insofern eine Chip-Spezifische Optimierung, die Futuremark im Vorfeld eigentlich bekannt sein _musste_.Hier stimme ich natürlich zu. Es verwundert mich, dass nV hier nicht rechtzeitig FM auf die Finger geklopft hat.

Ansonsten sehe ich keine Möglichkeiten, Register Combiner spezifische Erweiterungen in DX irgendwie nutzen zu können. Das "darf" NV gar nicht. Einen größeren Farbraum zu nehmen, darf man aber. Auch bezweifle ich, dass NV25-Register Combiner die Fähigkeiten von PS.1.4 erreichen, was Ops oder Texturen pro Single Pass angeht. Würde es so große Erweiterungen geben, hätte man vielleicht auch ein PS 1.3+ oder so :D durchgedrückt.

aths
2003-04-02, 14:18:16
Originally posted by Labberlippe
Man kann nicht einfach sagen das nVIDIA den PS1.4 korrekt implementiert hat.Nun doch, das muss man sogar so sagen. Ansonsten dürfte der Treiber keinen PS.2.0-Support melden.

Unregistered
2003-04-02, 14:23:37
Originally posted by aths
Hier stimme ich natürlich zu. Es verwundert mich, dass nV hier nicht rechtzeitig FM auf die Finger geklopft hat.

Ansonsten sehe ich keine Möglichkeiten, Register Combiner spezifische Erweiterungen in DX irgendwie nutzen zu können. Das "darf" NV gar nicht. Einen größeren Farbraum zu nehmen, darf man aber. Auch bezweifle ich, dass NV25-Register Combiner die Fähigkeiten von PS.1.4 erreichen, was Ops oder Texturen pro Single Pass angeht. Würde es so große Erweiterungen geben, hätte man vielleicht auch ein PS 1.3+ oder so :D durchgedrückt.

Demirug
2003-04-02, 14:27:23
Originally posted by aths
Hätte nV jetzt PS.1.4 mit dem gleichen Farbraum unterstützt, wie ATI das tut, könnte die große Stunde noch kommen.

ach aths. ;)

Das mit dem Farbraum ist nur ein ganz kleines Kriterium wenn es um den Einsatz von PS 1.4 geht. Der Hauptpunkt bei PS 1.4 sind erst mal die 6 Texturen/Pass. Das man aus jeder zweimal fetchen darf ist noch besser. Die zusätzlichen 8 Instruktionen sind auch noch schön nur muss man da ja ein bischen was zum emulieren der PS 1.1-1.3 Textureoperationen abziehen und zum verrechnen von 6(bzw bis 12) Texturewerte braucht man sowieso ein paar Instruktionen mehr.

Das Hauptargument sind also die 6 Texturen. Dummerweise kann man mit der DX7 Pipeline sogar 8 benutzten nur fehlen dort ein paar andere Dinge aus den PS. Ich hätte deshalb gernen noch einen PS 1.5 mit 8 Texturen im 1.4 Still. Mit 1.1-1.3 als Basis würde ich mich aber auch zufrieden geben.

Ansonsten habe ich ja oben schon viel über das für und wieder PS 1.4 in realen Anwendungen (Spielen) geschrieben.

Quasar@Work
2003-04-02, 14:29:49
Originally posted by aths
Hier stimme ich natürlich zu. Es verwundert mich, dass nV hier nicht rechtzeitig FM auf die Finger geklopft hat.

Ich denke, daß sie das haben. Aber möglicherweise war da die Programmierung des 3DMark schon so weit fortgeschritten, daß man bei FM keine derartigen Änderungen mehr machen wollte und das führte dazu, daß nVidia aus dem 3DMark-Projekt ausgestiegen ist (IIRC im Dezember irgendwann).

Originally posted by aths
Ansonsten sehe ich keine Möglichkeiten, Register Combiner spezifische Erweiterungen in DX irgendwie nutzen zu können. Das "darf" NV gar nicht. Einen größeren Farbraum zu nehmen, darf man aber.
Da sehe ich nicht ganz den Unterschied. Durch Einsatz der RC könnte man evtl. einiges schneller erledigen, wofür man bei anderen Chips zusätzliche Takte einplanen müsste. Den _optional_ erweiterten Farbraum zu nutzen, um in _einem Benchmark_ eine Szene darzustellen halte ich für genauso "verboten", denn es geht doch schließlich darum, Leistungsvergleiche bei zumindest "default" gleicher Bildqualität durchzuführen.

Originally posted by aths
Auch bezweifle ich, dass NV25-Register Combiner die Fähigkeiten von PS.1.4 erreichen, was Ops oder Texturen pro Single Pass angeht. Würde es so große Erweiterungen geben, hätte man vielleicht auch ein PS 1.3+ oder so :D durchgedrückt.
Das sehe ich auch so. PS1.4 können mit RC nicht drin sein, sonst wäre das sicher groß vermarktet worden. Ebensowenig glaube ich, daß durch _optimalen_ bzw. optimierten Einsatz der RC das Rendering nV2x _teils_ deutlich beschleunigt werden könnte.

aths
2003-04-02, 14:38:11
Originally posted by Quasar@Work
Ich denke, daß sie das haben. Aber möglicherweise war da die Programmierung des 3DMark schon so weit fortgeschritten, daß man bei FM keine derartigen Änderungen mehr machen wollte und das führte dazu, daß nVidia aus dem 3DMark-Projekt ausgestiegen ist (IIRC im Dezember irgendwann). Das hätte nV in der Begründung dann wohl auch erwähnt. Einen Shader auszutauschen kann für FM nicht der große Aufwand sein. Ich erwarte beim 3DMark03 früher oder später einen Patch, der diesen Shader austauscht. Denn der Vorwurf, an der Spec vorbei programmiert zu haben, ist berechtigt, und wohl kaum mit FMs Zielen in Einklang zu bringen.
Originally posted by Quasar@Work
Da sehe ich nicht ganz den Unterschied. Durch Einsatz der RC könnte man evtl. einiges schneller erledigen, wofür man bei anderen Chips zusätzliche Takte einplanen müsste. Register Combiner sind mit DX nicht anzufassen.
Originally posted by Quasar@Work
Den _optional_ erweiterten Farbraum zu nutzen, um in _einem Benchmark_ eine Szene darzustellen halte ich für genauso "verboten", denn es geht doch schließlich darum, Leistungsvergleiche bei zumindest "default" gleicher Bildqualität durchzuführen.Nunja, ich halte es "nur" für "fahrlässig". Persönlich wäre ich davon ausgegangen, dass der NV30 als Wunderchip bzw. völlig neue Architektur sich von der Integer-Pipeline gelöst hätte, oder aber den 16-Bit-FP-Pfad auch für 16-Bit-Integer verwenden könnte. Da wäre Overbright Lighting und erhöhte Genauigkeit gar kein Thema gewesen. Da hat FM ein paar Annahmen getroffen, die nicht eingetreten sind. Sie sind deshalb nicht eingetreten, weil NV schlicht zu träge war und den ganzen Uralt-Schrott von anno dunnemals noch mitschleppt. Das Overbright-Problem ist natürlich trotzdem von FM verschuldet, die über die Spec hinaus programmiert haben.

Quasar@Work
2003-04-02, 14:41:29
Originally posted by aths
Register Combiner sind mit DX nicht anzufassen.

Wenn man sie anfasste, wäre es einer Optimerung auf einen Hersteller, der der DX-Spec nicht entspringt. Aber ist es explizit verboten, weitergehende Features zu nutzen?

Demirug
2003-04-02, 14:41:33
Originally posted by Quasar@Work

Da sehe ich nicht ganz den Unterschied. Durch Einsatz der RC könnte man evtl. einiges schneller erledigen, wofür man bei anderen Chips zusätzliche Takte einplanen müsste. Den _optional_ erweiterten Farbraum zu nutzen, um in _einem Benchmark_ eine Szene darzustellen halte ich für genauso "verboten", denn es geht doch schließlich darum, Leistungsvergleiche bei zumindest "default" gleicher Bildqualität durchzuführen.

Solche RC Tricks gibt es definitive im DX7 Teil der Treiber. In wie weit man das auch bei den PS nutzt weiss ich jetzt aber nicht.

Das sehe ich auch so. PS1.4 können mit RC nicht drin sein, sonst wäre das sicher groß vermarktet worden. Ebensowenig glaube ich, daß durch _optimalen_ bzw. optimierten Einsatz der RC das Rendering nV2x _teils_ deutlich beschleunigt werden könnte.

Es sind nicht die RCs die verhindern das NV25 nicht PS 1.4 fähig ist. Das Hauptproblem ist das der NV25 keine Datenwegen vom PS zurück zu den TMUs hat. Es ist also nicht möglich den Wert eines Temp-Registers aus dem PS als Texturekoordinate wieder in die TMUs einzuspeisen. Und solche Rückpfade baut man nicht mal schnell in einen Chip ein weil sowas wenn es nicht von Anfang an vorgesehen war ganz schön das Timeing versaut.

aths
2003-04-02, 14:43:46
Originally posted by Quasar@Work
Wenn man sie anfasste, wäre es einer Optimerung auf einen Hersteller, der der DX-Spec nicht entspringt. Aber ist es explizit verboten, weitergehende Features zu nutzen? Du hast unter DX keine Möglichkeit, Register Combiner zu nutzen. Du kannst lediglich Pixelshader verwenden, wobei die Hardware für PS und RC die gleiche ist. Die DX-API zeigt dir aber nur PS und keine RC. Da kannst du nicht optimieren. Was genau möglich ist, ist im DX SDK nachzulesen. Was darüber hinaus geht, wird von DX verweigert, egal ob die HW das nun kann oder nicht. Vielleicht kann der Treiber den PS-Mikrocode für die PS/RC-HW optimieren. Als DX-Programmierer hast du da keine Chance.

Demirug
2003-04-02, 15:06:23
Originally posted by aths
Register Combiner sind mit DX nicht anzufassen.

Ja direkt geht da nichts. Aber indirekt schon dafür braucht man allerdings einen gute Kontakt in die Treiberentwicklung.

Nunja, ich halte es "nur" für "fahrlässig". Persönlich wäre ich davon ausgegangen, dass der NV30 als Wunderchip bzw. völlig neue Architektur sich von der Integer-Pipeline gelöst hätte, oder aber den 16-Bit-FP-Pfad auch für 16-Bit-Integer verwenden könnte. Da wäre Overbright Lighting und erhöhte Genauigkeit gar kein Thema gewesen. Da hat FM ein paar Annahmen getroffen, die nicht eingetreten sind. Sie sind deshalb nicht eingetreten, weil NV schlicht zu träge war und den ganzen Uralt-Schrott von anno dunnemals noch mitschleppt. Das Overbright-Problem ist natürlich trotzdem von FM verschuldet, die über die Spec hinaus programmiert haben.

Diese Entscheidung hat einen relative einfache Hintergrund. OpenGL und die RC Extension. Diese RCs sind so mächtig das die Power der FP Pipelines für einen Emulation derzeit einfach nicht ausreicht und es würde schon blöd aussehen wenn ein NV30 mit 500 Mhz bei einem gut optimierten RC Setup langsamer als eine GF4TI4200 ist, oder?.

Andre
2003-04-02, 15:20:00
Originally posted by aths
Andre, wer kam mit dem Trauma?

Es dürfen natürlich nicht nur Techniker hier posten, jedoch zu technischen Fragen würde ich mir technische Meinungen wünschen, und keine Vorhaltungen über Traumata.

Dann lass doch einfach unqualifizierte Randbemerkungen und gut ist.

Xmas
2003-04-02, 19:30:28
Originally posted by zeckensack
Ack.
Nur der Vollständigkeit halber, die Radeon 1 beherrscht eine 'multiply add'-Op und kann alle Operationen mit einem fixen Bias versehen (+0.5).
Auch noch halbwegs modern ist Subtraktion im Combiner, das gab's AFAIR damals nicht auf jeder Karte (auch mit optionalem Bias).
Dann noch die übliche Skalierung der Ergebnisse um 1, 2 und 4.
Wer's ganz genau wissen will, klickt hier (http://oss.sgi.com/projects/ogl-sample/registry/ATI/texture_env_combine3.txt).

Und dann natürlich noch EMBM.
Wenn ich mir das so ansehe, können die RC von NVidia doch ein gutes Stück mehr. Lediglich auf Texturseite (EMBM, 3D-Texturen) waren GF1/2 unterlegen.

aths
2003-04-02, 19:45:06
Originally posted by Andre
Dann lass doch einfach unqualifizierte Randbemerkungen und gut ist. Ich konnte in meinen Postings in diesem Thread keine unqualifizierte Randbemerkung finden, außer vielleicht in Zitaten.

StefanV
2003-04-02, 19:46:12
Originally posted by Andre
Dann lass doch einfach unqualifizierte Randbemerkungen und gut ist.

Welche meinst du ??

Ich konnte nur (berechtigte) Seitenhiebe auf NV finden :|

Razor
2003-04-02, 20:21:38
Originally posted by Unregistered

Hi

Äh das dieses nicht als must habe ist, ist mir schon klar.
Nur bitte was soll das geflenne der nVIDIA User hier.
Ihr jammert rum, weil euren Punkte im neuen 3DMark nichts mehr ansteigen.
Warte halt auf die richtigen Games und basta.
komisch sind es gerade diejenigen die sich am meisten aufregen die immer gepredigt haben, das der 3DMark eh nur eine Techdemo ist.

Übrigens hat quasi nVIDIA ja auch mit den PS20+ eine eigene Version entworfen und ist auch nicht must to have....

Erkläre mir jetzt warum PS2.0+ wichtiger als PS2.0 ist.

Gruss Labberlippe
Hi auch,

kannst Du mir vielleicht sagen, was Dein Kommentar jetzt mit meinem Post zu tun hat ?
Und wo ich behauptet haben soll, dass 2.0+ 'wichtiger' ist, als 2.0 ?
Und welche Games werden mit PS1.4-Support heraus kommen ?
???

Fragen über Fragen...
Insbesondere die beiden letzten Punkte würden mich interessieren !

Bis denne

Razor

Razor
2003-04-02, 20:26:11
Originally posted by Unregistered

Naja klar ist eine Totgeburt, weil nVIDIA es ja kategorisch ablehnt den PS1.4 zu supporten.
Kannst ja aber nochmal die Ausführungen hier durchlesen, dann wirst Du feststellen das PS1.4 wohl sinnvoll ist, nur diese PS 1.4 nicht ins design der nv Karten passt.

Gruss Labberlippe
Die PS1.4 sind eine spezielle ATI-'Erfindung', die noch nicht einmal Marktakzeptanz fanden.
Und mit den PS2.0 werden sie ja zumindest rudimentär unterstützt...
Wollen wir eine Wette eingehen, dass sie trotzdem keine (relal-world) Anwendung finden ?

Der NV25 ist ein aufgemotzter NV20 (oder letzterer eine abgespeckte Variante des ersteren ;-) und damit passen ATI's Hardwareimplementierungen eben nicht ins Konzept. Warum hätte nVidia eine (zudem noch sehr erfolgreiche) Architektur über den Haufen werfen sollen, nur weil ATI einen Vorgriff (und mehr ist es nicht) auf die PS2.0 wagte ?

Sorry, aber irgendwie verdrehst Du hier die Tatsachen !

Bis denne

Razor

Razor
2003-04-02, 20:28:24
Originally posted by zeckensack
Was ist denn das für ein Unsinn?
DX hat überhaupt keine 'must haves'.

Ne, also wirklich Razor

zecki

edit: Wenn du wirklich das Gefühl hast, über die bloße Existenz von PS1.4 diskutieren zu wollen, dann mach das besser wo anders. Ich mach auch bestimmt kräftig mit, wenn du so einen Thread eröffnest, keine Sorge :bäh:
Wie jetzt ?
PS1.1 ist kein 'must have' für eine DX8-compliance ?
PS2.0 auch keines für eine jene von DX9 ?

Ich glaube, jetzt redest Du hier Unsinn.
Hmmm...

Razor

P.S.: Das mit der 'bloßen Existenz' hatten wir schon mal vor geraumer Zeit... erinnerst Du Dich ?
Ich sage aber jetzt nicht, wer recht behalten hat...
:D

Razor
2003-04-02, 20:30:47
Originally posted by Exxtreme

Öhhm, DX8 war auch eine Zeitlang ausschliesslich NV vorbehalten. :)
Jo, weil ATI 'nen halbes Jahr zu spät gekommen ist...
Erinnert einen irgendwie an die jetzige Situation, gell ?
;-)

Bis denne

Razor

Razor
2003-04-02, 20:33:23
Originally posted by Endorphine
Und DX9 für ATI bis jetzt :)
NV3x Grafikkarten sind ja bis heute nicht real im europäischen Einzelhandel lieferbar.
Tja, ich hatte allerdings schon 'ne Terratec 5800ultra für 499€ im MediaMarkt in der Hand.
War echt nah dran, mir das Ding zu holen...
... der Fön hat mich aber abgehalten !
:D

Bis denne

Razor

P.S.: Ich kann dir midestens 4 Online-Shops nennen. die die Dinger auf Lager haben...

Razor
2003-04-02, 20:36:36
Originally posted by aths
Razor verbindet 1.2 und 1.3 mit DX8.0, obwohl in DX8.0 davon gar keine Rede war.
Sorry, aths, war etwas unglücklich ausgedrücht und zum schluss sogar falsch...
:D

Aber Du hast vielleicht trotzdem verstanden, was ich zum Ausdruck bringen wollte ?

Razor

Razor
2003-04-02, 20:40:15
Originally posted by aths
Hätte nV jetzt PS.1.4 mit dem gleichen Farbraum unterstützt, wie ATI das tut, könnte die große Stunde noch kommen.
Und hättesn andere Hersteller (Matrox, SIS) die PS1.4 unmterstützt, vielleicht auch...
Haben Sie aber nicht und das vermutlich aus gutem Grund.

Sorry, aber die PS1.4 werden, wenn überhaupt, nur minimalst eingestezt werden, weil der Aufwand für die geringe Hardwareverbreitung einfach zu groß ist.

Wie schon gesagt, sie werden nur von einem einzigen DX8-Chiphersteller unterstützt und damit ist's damit vorbei... ganz egal, was für ein Farbraum dahinter steht, oder nicht.

Das mit der großen Stunde wird nichts.

Bis denne

Razor

Obligaron
2003-04-02, 22:04:09
Originally posted by Razor
Die PS1.4 sind eine spezielle ATI-'Erfindung', die noch nicht einmal Marktakzeptanz fanden.
Und mit den PS2.0 werden sie ja zumindest rudimentär unterstützt...
Wollen wir eine Wette eingehen, dass sie trotzdem keine (relal-world) Anwendung finden ?

Der NV25 ist ein aufgemotzter NV20 (oder letzterer eine abgespeckte Variante des ersteren ;-) und damit passen ATI's Hardwareimplementierungen eben nicht ins Konzept. Warum hätte nVidia eine (zudem noch sehr erfolgreiche) Architektur über den Haufen werfen sollen, nur weil ATI einen Vorgriff (und mehr ist es nicht) auf die PS2.0 wagte ?

muh
blöde frage: weso ist DX jetzt ein NV konzept? :D
PS 1.4 gehöhren genauso zu den specs von DX 8.1 wie PS 1.1 und 1.3 und wenn das NV nicht in den Kramm passt ist das doch ihr Problem, sie müssen das umsetzen was in DX als Specs vorliegt!


Demirug hat doch ganz gut beschrieben wann es sich rentiert PS 1.4 einzusetzen.

Effekt1: läuft auf 1.3 mit 1.4 läufts schneller mit 2.0 läufts wie bei 1.4 ==> entscheidung: PS 1.3 einsetzen als min. 1.4 als "fast path"

Effekt2: läuft auf 1.4 mit 2.0 läufts wie bei 1.4 ==> entscheidung: PS 1.4 einsetzten läuft ja da genauso

Effekt3: läuft auf (1.4+Overbright Lighting oder erhöhte Genauigkeit) oder 2.0 ==> entscheidung: oehm ^^ da es ja nicht pflicht bei PS 1.4 das Overbright Lighting und/oder erhöhte Genauigkeit dabei ist könnte dies nur auf ATi chips funktionieren selbst auf DX9.0 Grafikchips, da diese ja auch nur bei 1.4 das "minimum" von 1.4 verfügbar sein muss. daher kann man sich nicht den 2.0 pfad ersparren (für alle DX 9 Grakas). Und wenn wir nur einen 2.0er Pfad einbauen, dann fällt die Radeon weg. also MUSS man einen 2.0er Pfad einbauen und KANN noch einen extra 1.4Pfad einbauen, der aber auch Overbright Lighting und/oder erhöhte Genauigkeit verlangt einsetzen um die Radeon 8500 und co. noch mitzunehmen.

ich hoff das stimmt soweit.

mfg,
obligaron

aths
2003-04-02, 22:10:54
Originally posted by Razor
Die PS1.4 sind eine spezielle ATI-'Erfindung', die noch nicht einmal Marktakzeptanz fanden.Man könnte auch sagen, die PS.1.4 setzen eine so hoch entwickelte HW voraus, dass andere Hersteller nicht bereit waren, ihre Hardware entsprechend zu verbessern.
Originally posted by Razor
Und mit den PS2.0 werden sie ja zumindest rudimentär unterstützt...Nein, sie werden entsprechend der Spec vollständig unterstützt.

aths
2003-04-02, 22:11:22
Originally posted by Razor
Aber Du hast vielleicht trotzdem verstanden, was ich zum Ausdruck bringen wollte ?Nein, leider.

aths
2003-04-02, 22:14:23
Originally posted by Razor
Und hättesn andere Hersteller (Matrox, SIS) die PS1.4 unmterstützt, vielleicht auch...
Haben Sie aber nicht und das vermutlich aus gutem Grund.Ja: ATIs Hardware war zu hoch entwickelt, ein Redesign des eigenen Chips wäre horrend teuer geworden.
Originally posted by Razor
Sorry, aber die PS1.4 werden, wenn überhaupt, nur minimalst eingestezt werden, weil der Aufwand für die geringe Hardwareverbreitung einfach zu groß ist.Wieso? Wenn jetzt Engines programmiert werden, kommen die z.B. in 12 oder 18 Monaten mit einem Spiel auf den Markt. Dann sind DX9-Karten schon einigermaßen weit verbreitet, und DX8-PS.1.4-HW ist so dünn auch nicht. Immerhin jede Radeon seit 8500 bietet das an, und wenn jetzt "dank" FX 5200 die Schwemme der Billigst-DX9-Chips kommen, ist abzusehen, dass 1.4-Fähigkeit zwar noch immer nicht von einer GF3 geboten wird, aber von vielen anderen Karten.
Originally posted by Razor
Wie schon gesagt, sie werden nur von einem einzigen DX8-Chiphersteller unterstützt und damit ist's damit vorbei... ganz egal, was für ein Farbraum dahinter steht, oder nicht.Sie werden von jedem Hersteller unterstützt, der vor hat, HW mit DX9-Shadern auf den Markt zu bringen.
Originally posted by Razor
Das mit der großen Stunde wird nichts.Das wird die Zeit zeigen. Wie der 3DM03 zeigt, reichen PS 1.4 für die meisten "guten" Effekte aus, mit 1.3-HW sind leider zwei Passes erforderlich.

Piffan
2003-04-02, 23:46:10
Als Laie verfolge ich die Diskussion hier so gut es geht....

Mal ne grundsätzliche Frage: Es wird oft gesagt, dass die Verwendung des PS 2.0 sowas wie "Kanonen" auf Spatzen sei, falls man ihn gar nicht zwingend benötige; man also echte Vorteile durch die Wahl einer kleineren Versionsnummer erziele, wenn diese den gewünschten Effekt ermöglicht.

Wenn dem so ist, dann besteht für mich kein Zweifel, dass NV derben Bockmist gebaut hat, indem man aus Stolz, Eitelkeit oder anderen niedrigen Gründen den PS 1.4 nur halbherzig unterstützt, obwohl aufgrund der relativ weit verbreiteten R8500 dieser schon LANGE auf breiter Basis unterstützt wird....

Also nach meinem bescheidenen Verständnis Daumen hoch für aths, die Pfui- Kelle für Andre......Für einen Mod hat der Herr ne schlechte Vorstellung gegeben. Die Sache mit dem Trauma, tztztz :nono:

Naja, man kann nicht jeden Tag gut sein......;)

Ich fürchte nach den letzten Debakeln, dass es mit NV weiter bergab geht. Erst die Föhnnummer, weil man technisch einfach nicht mithalten kann, nun offenbaren sich noch weitere taktische Spielchen, die aber im Falle des 3dMarks voll in die Hose gegangen sind und den Stern weiter sinken lassen....wenn wegen der miserablen Verfügbarkeit der FX nun noch die Entwickler auf Atis Zug aufspringen, ferner der DAU rafft, was ihm mit den Billig- FXen untergejubelt werden soll, dann ist NV bald ganz weg vom Fenster....

Die Parallelen zu 3DFX sind zu deutlich: Der einstige Überflieger geht an Überheblichkeit und Größenwahn zu Grunde!

NV: Aufwachen! Die Konkurrenz schläft nicht und ist derzeit technisch stark überlegen. Scheinbar haben die Lenker bei NV wohl was geraucht und raffen derzeit nicht, wie ernst die Lage ist.

Labberlippe
2003-04-03, 01:14:45
Originally posted by Razor

Die PS1.4 sind eine spezielle ATI-'Erfindung', die noch nicht einmal Marktakzeptanz fanden.
Und mit den PS2.0 werden sie ja zumindest rudimentär unterstützt...
Wollen wir eine Wette eingehen, dass sie trotzdem keine (relal-world) Anwendung finden ?

Der NV25 ist ein aufgemotzter NV20 (oder letzterer eine abgespeckte Variante des ersteren ;-) und damit passen ATI's Hardwareimplementierungen eben nicht ins Konzept. Warum hätte nVidia eine (zudem noch sehr erfolgreiche) Architektur über den Haufen werfen sollen, nur weil ATI einen Vorgriff (und mehr ist es nicht) auf die PS2.0 wagte ?

Sorry, aber irgendwie verdrehst Du hier die Tatsachen !

Bis denne

Razor

Markakzetptanz nicht, deshalb weil nVIDIA nicht der Lage war mit der GeForce4 einen solchen Shader zu integrieren. LESSE DEMIRUGS ausführung.

Wird PS 2.0+ eine Anwendung finden ausser "Games" von nVIDIA ???

Richtig den Shader konnte nVIDIA nicht realisieren und dieses konnte auch nicht mit der FX gemacht werden.

Kurz hier liegt nicht die Schuld bei ATi.
Sorry aber ich verstehe Dich nicht.
Hat halt ATi einen PS1.4 Shader und weiter. ???

Gruss Labberlippe

Labberlippe
2003-04-03, 01:17:46
Originally posted by Razor

Jo, weil ATI 'nen halbes Jahr zu spät gekommen ist...
Erinnert einen irgendwie an die jetzige Situation, gell ?
;-)

Bis denne

Razor

Deshalb hat nVIDIA jetzt "2.0+" auch weil die zu spät waren.

Du kannst aber auch gerne meine andere Meinungen Argumentieren.

Bsp. Spezifiaktionen von MS runtergesetzt damit auch die GeForce Karten sich DX8.1 nennen dürften.

Nicht nur die Sachen die Dir passen.

Sag mal tippe ich so undeutlich oder ist Dir nicht klar worauf ich hinaus will. ???

Gruss Labberlippe

ow
2003-04-03, 06:52:05
Originally posted by Piffan
Als Laie verfolge ich die Diskussion hier so gut es geht....

Mal ne grundsätzliche Frage: Es wird oft gesagt, dass die Verwendung des PS 2.0 sowas wie "Kanonen" auf Spatzen sei, falls man ihn gar nicht zwingend benötige; man also echte Vorteile durch die Wahl einer kleineren Versionsnummer erziele, wenn diese den gewünschten Effekt ermöglicht.

Wenn dem so ist, dann besteht für mich kein Zweifel, dass NV derben Bockmist gebaut hat, indem man aus Stolz, Eitelkeit oder anderen niedrigen Gründen den PS 1.4 nur halbherzig unterstützt, obwohl aufgrund der relativ weit verbreiteten R8500 dieser schon LANGE auf breiter Basis unterstützt wird....




Da hast du was falsch verstanden: der von FM eingsetzte Effekt ist eben nicht mit PS1.4 darstellbar, also hätte man PS2.0 nehmen müssen. Ein klares Versagen von Futuremark.

Demirug
2003-04-03, 08:41:04
Wir müssen doch mal langsam ganz klar trennen.

PS 1.4 beim 3dmark und PS 1.4 im Allgemeinen.

Bei den Games 2 und 3 ist der Einsatz ja in Ordnung ausser das ich bei einem Benchmark niemals zwei unterschiedliche Pfade benutzt hätte. Das ist irgendwie so als ob man bei einem Hürdenlauf den einen Läufer auf eine 200m strecke mit 40cm Hürden und den anderen auf eine 100m strecke mit 60m Hürden laufen läst. Das Ergebniss ist schwer zu vergleichen.

Beim Test4 war der PS 1.4 für den Himmel und die Sonne ebene die falsche Wahl aber das hatte wir ja nun schon zu genüge.

Kommen wir nun zum allgemeineren Einsatz von PS 1.4.

Die schader müssen ja bekanntermassen von jemandem erstellt werden = Zeit = Geld und Geld hat man nie genug.

In der Regel schreibt man zuerst den Highendshader (Eyecandy) der wichtigere Grund dafür ist aber das man danach genau weiss welche Texturen und Geometriedaten man für den Effekt braucht. Es gibt fast nichts schlimmeres als wenn man den Designer am ende sagt das sie alles noch mal anfassen müssen weil man jetzt eben noch den effekt aufpoliert hat. Für diesen Shader nimmt man das beste was den Highendkarten gemeinsam ist (derzeit Shaderversion 2.0)

Nachdem man den oberen Level definiert hat kümmert man sich als nächstes um den untersten Level (derzeit leider noch oft DX7 = 2 Texturen und 2 Anweisungen und möglichst nur Fixed T&L).

Eigentlich ist man jetzt fertig da sichergestellt ist das es auf allen Karten läuft. Da man aber in der Regel jetzt noch Zeit und Buget in diesem Bereich hat kümmert man sich um weitere Shaderpfade und zwar in der Rheihenfolge in der die meisten Chips von dem zusätzlichen Pfad profitieren. (Aussnahme: ein IHV läst ein bischen Geld springen denn damit läst sich die Rheienfolge in desen Sinne beeinflussen und ja die Welt ist schlecht.) Was das heist kann sich sicherlich jeder ausrechnen. Erst 1.1 dann 1.2/1.3 (wenn man damit im vergleich zu 1.1 noch was optimieren kann) dann 1.4 und als letztes die ganzen 2.0+ Varianten die noch auftauchen werden. Das gilt jetzt nur wenn die Shaderentwickler zu den Hardcoreleuten (ich brauche keine Hochsprache. Assembler ist das einzig Wahre) gehören.

Sobald eine Hochsprache zum einsatz kommt ändert sich diese Vorgehensweise etwas.

Zuerst einmal werden Shader programmiert die sich für 2.0 eignen. Aus diesen kann man dann ohne problemen die Shader für die ganzen 2.0+ Varianten erzeugen. Läst sich der Shader direkt auch für ein 1.4(Pixel) und 1.1(Vertex) Ziel compileren nimmt man das auch gleich mit geht es nicht heist das erst mal Pech für 1.4. Von diesem Punkt an geht es dann wie oben weiter. DX7 (falls nötig) DX8 (VS und PS 1.1) und dann noch die Shader welche sich nicht auf Anhieb als 1.1(VS)/1.4(PS) Version erzeugen lassen haben. Mit einer Hochsprache ist es aber in der Regel einfacher das runterkonvertieren von PS 2.0 auf 1.4 zu machen.

Man sieht also das die Wahrscheinlichkeit für den Einsatz von PS 1.4 trotz der technischen Überlegenheit gegenüber 1.1 nicht so gross ist. Das ganze sind einfach kaufmänische Überlegungen. Mit einer Shaderhochsprache steigt die Wahrscheinlichkeit aber da drausen rennen noch eine ganze Menge von den Hardcoreshaderentwickler rum.

Quasar
2003-04-03, 09:22:05
Originally posted by aths
Man könnte auch sagen, die PS.1.4 setzen eine so hoch entwickelte HW voraus, dass andere Hersteller nicht bereit waren, ihre Hardware entsprechend zu verbessern.
Man könnte aber auch auf die Idee kommen, das die TMUs bei ATi so beschränkt waren, das man die aufwendigeren Texturops der PS1.1-1.3 emulieren musste und nur die einfacheren der PS1.4 nativ ausführen kann. ;)

zeckensack
2003-04-03, 10:14:40
Originally posted by Xmas

Wenn ich mir das so ansehe, können die RC von NVidia doch ein gutes Stück mehr. Lediglich auf Texturseite (EMBM, 3D-Texturen) waren GF1/2 unterlegen. Japp, da brauchen wir uns nichts vorzumachen:
Die Combiner-HW der Geforce 1 war der Konkurrenz seinerzeit meileinweit voraus - vielleicht als übertriebene Reaktion auf die unglaublich flexiblen Combiner der Voodoo 1 ;)

So weit voraus, daß es bis einschließlich NV25 keine wesentlichen Änderungen mehr gebraucht hat. Das einzige was bei 'neueren' Geforces in diesem Bereich anders ist, ist die schiere Anzahl der RCs, infolgedessen wurde die Konstantenverwaltung auch leicht getweakt.
Alt: 4 Globale Konstanten, sichtbar für alle RCs.
Neu: 2 Globale Konstanten, plus 2 Konstanten pro RC, die jeweils nur innerhalb dieses RCs verfügbar sind (=> insgesamt 10 Konstanten auf NV25).

zeckensack
2003-04-03, 10:23:27
Originally posted by Razor

Wie jetzt ?
PS1.1 ist kein 'must have' für eine DX8-compliance ?
PS2.0 auch keines für eine jene von DX9 ?

Ich glaube, jetzt redest Du hier Unsinn.
Hmmm...
Es kommt noch besser: nichtmal Texturfilter sind 'must haves' für DX8 ... den Begriff 'cap bit' hast du schonmal gehört, gelle?

Razor

P.S.: Das mit der 'bloßen Existenz' hatten wir schon mal vor geraumer Zeit... erinnerst Du Dich ?
Ich sage aber jetzt nicht, wer recht behalten hat...
:D PS1.4 ist mächtiger als PS1.x mit x<=3. Ende, aus.
Warum das nicht ausreichend genutzt wird, ist wirklich nicht dein Problem. Wieder mal die falsche Schuldzuweisung, btw. Es könnte Faulheit respektive Budgetlimitierung bei den Devs sein. Aber ganz sicher ist es nicht 'böse' oder 'schlecht' von ATI.
Daß es überhaupt nicht in Spielen genutzt wird/werden wird, ist eine pure Behauptung deinerseits - Vaporware sozusagen -, und mit sowas brauchen wir uns nicht abzugeben, gelle?

In diesem Sinne,
zecki

zeckensack
2003-04-03, 10:32:14
Originally posted by Razor

Und hättesn andere Hersteller (Matrox, SIS) die PS1.4 unmterstützt, vielleicht auch...
Haben Sie aber nicht und das vermutlich aus gutem Grund.Der da wäre? "NVIDIA hat das auch nicht, warum also wir?" ist eine Begründung, aber kein guter Grund. :eyes:
Sorry, aber die PS1.4 werden, wenn überhaupt, nur minimalst eingestezt werden, weil der Aufwand für die geringe Hardwareverbreitung einfach zu groß ist.Fakten, Fakten, Fakten. Hättest du wohl gerne (wie sonst erklären sich diese Postings).
*kopfschüttel* (http://shop.mediamarkt.de/webapp/wcs/stores/servlet/MMCategoryListView?storeId=5000&langId=-3&catalogId=5000&categoryId=10002&parentcategoryId=5000)

Wie schon gesagt, sie werden nur von einem einzigen DX8-Chiphersteller unterstützt und damit ist's damit vorbei... ganz egal, was für ein Farbraum dahinter steht, oder nicht.

Das mit der großen Stunde wird nichts.

Bis denne

Razor
?-) :flower:

zeckensack
2003-04-03, 10:43:34
Originally posted by ow
Da hast du was falsch verstanden: der von FM eingsetzte Effekt ist eben nicht mit PS1.4 darstellbar, also hätte man PS2.0 nehmen müssen. Ein klares Versagen von Futuremark. Ich hatte da gerade eine Idee, die politisch betrachtet sicher auch nicht viele Freunde finden wird :|

PS1.4 in Verbindung mit dem höheren Wertebereich (der über die DX-Runtime abfragbar ist!) erlaubt sehr wohl die Darstellung des gewünschten Effekts.

Futuremark könnte sich ergo damit begnügen, zusätzlich den Wertebereich der Integer-PS abzufragen, und falls dieser nicht ausreicht auf 2.0 raufgehen. R200 könnte (theoretisch, MN läuft auf diesen Karten ja garnicht erst) mit PS1.4 weiterfahren. Der R300 auch.

Ergebnis: optimale Hardwarenutzung. Zumal ATI ja anscheinend gut damit klarkommt, verschiedene Shader-Versionen bunt zu mischen.

Ich mag mir aber nicht ausmalen, wie groß dann das Geschrei seitens des NV30-Lagers ausfallen wird, von wegen 'unfair benachteiligt' uä :|

ow
2003-04-03, 10:47:10
Originally posted by zeckensack

Futuremark könnte sich ergo damit begnügen, zusätzlich den Wertebereich der Integer-PS abzufragen, und falls dieser nicht ausreicht auf 2.0 raufgehen.


Ich wuesste nicht, was daran auszusetzen waere.
Ein Standard 2.0-Shader ist doch wohl besser als ein '1.4er mit Optionen'.

Quasar
2003-04-03, 10:47:16
Originally posted by zeckensack
Es kommt noch besser: nichtmal Texturfilter sind 'must haves' für DX8 ... den Begriff 'cap bit' hast du schonmal gehört, gelle?

In der von dir gequoteten Passage sprach Razorle aber ausdrücklich von DX8-compliance, für die, AFAIK doch gewisse Mindestanforderungen gelten, im Gegensatz zur puren compatibility (know your enemy, gelle? ;))

zeckensack
2003-04-03, 10:48:46
Originally posted by Quasar

Man könnte aber auch auf die Idee kommen, das die TMUs bei ATi so beschränkt waren, das man die aufwendigeren Texturops der PS1.1-1.3 emulieren musste und nur die einfacheren der PS1.4 nativ ausführen kann. ;) Die Texture-Ops sind nicht wirklich aufwendiger. Bei PS1.1-1.3 mußt du dir eine von (AFAIR) 27 Möglichkeiten auswählen, wie du auf Texturen zugreifen willst, die meisten davon sind dependant reads in irgendeiner Form. Willst du was anderes machen => no go.

Bei PS1.4 kannst du die Texturkoordinaten für den nächsten Zugriff selbst ausrechnen, mit den gleichen Arithmetik-Ops die auch für die Farben benutzt werden.
Alle dependant reads, die PS1.3 kann, kann auch PS1.4. Es kann dir halt passieren, daß du für die Berechnung der Texturkoordinaten mal zwei Instruction Slots brauchst. Dafür hast du aber auch deren 16 Stück, und nicht nur acht.

Quasar
2003-04-03, 10:50:40
Originally posted by zeckensack
Ich hatte da gerade eine Idee, die politisch betrachtet sicher auch nicht viele Freunde finden wird :|

PS1.4 in Verbindung mit dem höheren Wertebereich (der über die DX-Runtime abfragbar ist!) erlaubt sehr wohl die Darstellung des gewünschten Effekts.

Futuremark könnte sich ergo damit begnügen, zusätzlich den Wertebereich der Integer-PS abzufragen, und falls dieser nicht ausreicht auf 2.0 raufgehen. R200 könnte (theoretisch, MN läuft auf diesen Karten ja garnicht erst) mit PS1.4 weiterfahren. Der R300 auch.

Ja, sicher. DANN hat wirklich nVidia schuld, wenn sie für gleiche Bildqualität eine höhere Shaderversion benötigen.

Für einen synthetischen Benchmark ist so etwas IMO legitim (wenn auch nicht "nett", aber nettsein wird ja nicht verlangt).

Quasar
2003-04-03, 10:52:09
Originally posted by zeckensack
Die Texture-Ops sind nicht wirklich aufwendiger. Bei PS1.1-1.3 mußt du dir eine von (AFAIR) 27 Möglichkeiten auswählen, wie du auf Texturen zugreifen willst, die meisten davon sind dependant reads in irgendeiner Form. Willst du was anderes machen => no go.

Bei PS1.4 kannst du die Texturkoordinaten für den nächsten Zugriff selbst ausrechnen, mit den gleichen Arithmetik-Ops die auch für die Farben benutzt werden.
Alle dependant reads, die PS1.3 kann, kann auch PS1.4. Es kann dir halt passieren, daß du für die Berechnung der Texturkoordinaten mal zwei Instruction Slots brauchst. Dafür hast du aber auch deren 16 Stück, und nicht nur acht.

Ah so. Danke für die Aufklärung.
Also nicht weniger mächtig, nur teilweise weniger flexibel?

Demirug
2003-04-03, 11:17:04
Originally posted by zeckensack
Die Texture-Ops sind nicht wirklich aufwendiger. Bei PS1.1-1.3 mußt du dir eine von (AFAIR) 27 Möglichkeiten auswählen, wie du auf Texturen zugreifen willst, die meisten davon sind dependant reads in irgendeiner Form. Willst du was anderes machen => no go.

Sind nicht ganz 27.

PS 1.1 = 13
PS 1.2 = 17
PS 1.3 = 18
PS 1.4 = 4

Bei PS1.4 kannst du die Texturkoordinaten für den nächsten Zugriff selbst ausrechnen, mit den gleichen Arithmetik-Ops die auch für die Farben benutzt werden.
Alle dependant reads, die PS1.3 kann, kann auch PS1.4. Es kann dir halt passieren, daß du für die Berechnung der Texturkoordinaten mal zwei Instruction Slots brauchst. Dafür hast du aber auch deren 16 Stück, und nicht nur acht.

Ich enttäusche dich ja nicht gerne aber es gibt 2 Anweisungen (texm3x3spec und texm3x3vspec) die man mit PS 1.4 nicht nachbilden kann.

Die zusätzlichen 8 Arithmetik slots sind auch schnell aufgebraucht weil man wie du schon sagst für die dependant reads gerne ein paar braucht und die zusätzlichen Texturewerte wollen ja auch verrechnet werden. Aber es reicht ja nie was man bekommt ;)

zeckensack
2003-04-03, 12:07:05
Originally posted by Demirug
Ich enttäusche dich ja nicht gerne ...Sowas enttäuscht mich doch nicht. Ich bin immer froh, wenn ich etwas dazulernen kann :)

Demirug
2003-04-03, 13:24:42
Originally posted by zeckensack
Sowas enttäuscht mich doch nicht. Ich bin immer froh, wenn ich etwas dazulernen kann :)

Wenn das so ist will ich dir auch sagen warum es nicht geht:


1: tex t0
2: texm3x3pad t1, t0
3: texm3x3pad t2, t0
4: texm3x3spec t3, t0, c0


1. t0rgb = RGB Wert aus der Texture von Stage0 mit der Texturekoordinate 0

2. Die Texturekorrdinaten 1-3 bilden mit den UWV Werten einen 3*3 Matrix.

3. Der Wert in t0rgb wird mit dieser Matrix transformiert und ergibt N

4. E = c0

und jetzt kommt es:

5. Kuvw = 2*[(N*E)/(N*N)]*N - E

6. Mit den koordinaten Kuvw wird nun von der Texture auf Stage3 gesampelt.

Mit PS 1.4 kann man das ganze nicht umsetzen weil es dort keine möglichkeit gibt eine Division durchzuführen.

texm3x3vspec führt die gleiche Berechnung durch nur der Wert von E wird anders erzeugt.

Piffan
2003-04-03, 13:43:57
Originally posted by zeckensack
Ich hatte da gerade eine Idee, die politisch betrachtet sicher auch nicht viele Freunde finden wird :|

PS1.4 in Verbindung mit dem höheren Wertebereich (der über die DX-Runtime abfragbar ist!) erlaubt sehr wohl die Darstellung des gewünschten Effekts.

Futuremark könnte sich ergo damit begnügen, zusätzlich den Wertebereich der Integer-PS abzufragen, und falls dieser nicht ausreicht auf 2.0 raufgehen. R200 könnte (theoretisch, MN läuft auf diesen Karten ja garnicht erst) mit PS1.4 weiterfahren. Der R300 auch.

Ergebnis: optimale Hardwarenutzung. Zumal ATI ja anscheinend gut damit klarkommt, verschiedene Shader-Versionen bunt zu mischen.

Ich mag mir aber nicht ausmalen, wie groß dann das Geschrei seitens des NV30-Lagers ausfallen wird, von wegen 'unfair benachteiligt' uä :|

Das Geschrei wäre sicher groß!

Aber NV hätte ja einfach mal den PS 1.4 mit dem erweiterten Zahlenbereich unterstützen können...Ob es nun der Spec entspricht oder nicht, ist doch togal. Es wäre einfach nur sinnvoll gewesen, nachdem durch die Rad 8500 ja schon eine gewisse Hardwarebasis so weit war.....Aber nein, NV handelt nicht im Sinne der Konsumenten und des Fortschritts, sondern lässt sich von taktischen Erwägungen leiten...

So aber wird das Ganze sich noch als Bumerang entpuppen: Wenn dann nämlich die Ati Hardware mit den "erweiterten" PS 1.4- Shadern schneller läuft als die NV- Hardware auf PS 2.0......

Bei der starken Verbreitung von Ati- Karten ab der Radeon 8500 gibts ne Menge Hardware im Lande, die davon "bevorzugt" werden könnte, ergo wird es mit tödlicher Sicherheit auch mal Anwendung in realen Spielen finden. Allein schon aus Gründen der Eitelkeit der Entwickler, die mal zeigen wollen, wie performant ihre Engine läuft, wenn man klug programmiert.
Derzeit ist der Hype um NV völlig abgekühlt, Ati macht momentan die Musik....Nicht umsonst ist im neuen Aldi ne Radeon...

Bei zunehmender Marktdurchdringung können es sich die Entwickler einfach nicht mehr leisten, nur NV- konform zu proggen, wie es in der jüngsten Vergangenheit noch vereinzelt vorkam.....

zeckensack
2003-04-03, 13:51:17
Originally posted by Demirug
2. Die Texturekorrdinaten 1-3 bilden mit den UWV Werten einen 3*3 Matrix.

3. Der Wert in t0rgb wird mit dieser Matrix transformiert und ergibt N

<...>
5. Kuvw = 2*[(N*E)/(N*N)]*N - E
Verstehe :)

Lösung 1:
Auf "/(N*N)" verzichten, und mit Interpolationsartefakten leben :|

Lösung 2:
Der Interpolation auf die Sprünge helfen. "/(N*N)" könnte ja fehlerfrei entfallen, wenn t1..t3 immer einen normalisierten Vektor enthielte. Die Interpolation des Vektors ist aber nur linear (Texturfilter).
=> Auflösung der Textur 'T0' erhöhen. Schwierig, weil wahrscheinlich eine 3D-Textur gefragt ist.

Lösung 3:
PS2.0 nehmen, und zwei dependant reads ausführen (zuerst die berühmte normalization cube map) :bäh:

Demirug
2003-04-03, 13:57:57
@zeckensack: PS 2.0 kann Divisionen. Ist aber ein 2 Anweisungen Befehl weil man zuerst den Kehrwert bestimmt und dann multipliziert.

Demirug
2003-04-03, 14:47:41
Originally posted by Piffan


Das Geschrei wäre sicher groß!

Aber NV hätte ja einfach mal den PS 1.4 mit dem erweiterten Zahlenbereich unterstützen können...Ob es nun der Spec entspricht oder nicht, ist doch togal. Es wäre einfach nur sinnvoll gewesen, nachdem durch die Rad 8500 ja schon eine gewisse Hardwarebasis so weit war.....Aber nein, NV handelt nicht im Sinne der Konsumenten und des Fortschritts, sondern lässt sich von taktischen Erwägungen leiten...

So aber wird das Ganze sich noch als Bumerang entpuppen: Wenn dann nämlich die Ati Hardware mit den "erweiterten" PS 1.4- Shadern schneller läuft als die NV- Hardware auf PS 2.0......

Bei der starken Verbreitung von Ati- Karten ab der Radeon 8500 gibts ne Menge Hardware im Lande, die davon "bevorzugt" werden könnte, ergo wird es mit tödlicher Sicherheit auch mal Anwendung in realen Spielen finden. Allein schon aus Gründen der Eitelkeit der Entwickler, die mal zeigen wollen, wie performant ihre Engine läuft, wenn man klug programmiert.
Derzeit ist der Hype um NV völlig abgekühlt, Ati macht momentan die Musik....Nicht umsonst ist im neuen Aldi ne Radeon...

Bei zunehmender Marktdurchdringung können es sich die Entwickler einfach nicht mehr leisten, nur NV- konform zu proggen, wie es in der jüngsten Vergangenheit noch vereinzelt vorkam.....



Das Entwicklungsteam kommt voller freude zu der "Person mit dem Geld" (kutz PmdG) und legt den Projektplan vor. Das Team möchte nur moderne Hardware (>= DX8) unterstützen aber dort alles so ideal wie möglich. Die PmdG kommt nun in dem Projektplan an die Stelle wo die entwicklungskosten für die Effekte aufgeführt sind und liest dort eine Auflistung

VS 1.1 & PS1.1 xxx Manntage
VS 1.1 & PS1.4 xxx Manntage
VS 2.0 & PS2.0 xxx Manntage
VS 2.0+ & PS2.0+ (NVIDIA) xxx Manntage
VS 2.0+ & PS2.0+ (S3) xxx Manntage
VS 2.0+ & PS2.0+ (???) xxx Manntage

Die PmdG schaut auf das Papier schaut das Team an und fragt: "Das ist nicht euer Ernst, oder?". Das Team (zu diesem Zeitpunkt noch sehr davon überzeugt alles richtig geplannt zu haben) antwortet mit "Natürlich".

PmdG: Das geht so nicht ihr könnt doch die ganzen Leuten ohne Shaderfähigen Karten nicht aussperren.
Team: Warum nicht die wenigen kaufen sich doch sowieso bald was neues.
PmdG (wedelt mit der letzten Marktanalyse): Nein es gibt noch so viele ältere Karten und ihr baut dafür support ein. Ich will möglichst viele Karten als unterstützt angeben ein DX6 Pfad als minimum sollte es schon sein.
Team (im Schockzustand): DX6 ?!? Mit solchen Karten geht ja fast nichts. DX7 könnten wir vielleicht noch machen.
PmdG (grinst): OK das müssen wir dann noch in den Plan aufnehmen und im Gegenzug was rausnehmen sonst stimmt ja die Gesamtkalkulation nicht mehr. Diese Herstellerspezifischen müssen nun wirklich nicht sein. Weg damit. Möglicherweise können wir dafür noch von einem IHV Geld bekommen wenn wir es nachträglich wieder aufnehmen.
Team (inzwischen leicht frustiert): OK wenn es den sein muss.
PmdG: Wenn wir gerade dabei sind. Ihr wisst die Zeiten sind schlecht und jeder muss sparen was können wir den noch rauswerfen?
Team: (im Chor): NICHTS!
PmdG: Doch da geht noch was. Wie währe es den mit diesen 2.0 Effekten? Die haben wir bisher auch nicht gebraucht.
Team: Die brauchen wir aber damit unsere Screenshots so gut wie die von den Mitbewerbern aussehen.
PmdG: OK das leutet ein. Was ist dann mit diesen 1.1 und 1.4 Effekten? Für diese Karten reicht doch auch der DX7 Pfad, oder?
Team: Schon aber damit können wir sachen machen die mit DX7 nicht so richtig gehen.
PmdG: mhm weil ihr es seit und wir ja bisher gut miteinader ausgekommen sind lassen wir eins davon drin. Auf den 1.4 fähigen Karten laufen doch auch die 1.1 Effekte?
Team: Ja
PmdG: OK dann sparen wir uns die 1.4 Effekte.

Nachdem auch noch andere Punkte der Plannung zerlegt wurden steht auf der Seite mit der Effektplanunng

F T&L & DX7 TSS
VS 1.1 & PS1.1 xxx Manntage
VS 1.1 & PS1.4 xxx Manntage NEIN
VS 2.0 & PS2.0 xxx Manntage
VS 2.0+ & PS2.0+ (NVIDIA) xxx Manntage NEIN
VS 2.0+ & PS2.0+ (S3) xxx Manntage NEIN
VS 2.0+ & PS2.0+ (???) xxx Manntage NEIN


Etwas überspitzt aber sowas passiert wirklich

HOT
2003-04-03, 15:37:06
Leuchtet absolut ein Demi ;)
Wie sieht das mit GL 2.0 aus? Hier sollte doch ein total unabhängige Hochsprache geschaffen werden. Ginge es damit nicht einfach alle Shaderfähigen Karten nach ihren Fähigkeiten zu unterstützen?

Piffan
2003-04-03, 19:26:20
Originally posted by HOT
Leuchtet absolut ein Demi ;)
Wie sieht das mit GL 2.0 aus? Hier sollte doch ein total unabhängige Hochsprache geschaffen werden. Ginge es damit nicht einfach alle Shaderfähigen Karten nach ihren Fähigkeiten zu unterstützen?

Afaik ist NV aus dem OpenGl- Konzert ausgeschieden.....Auch MS zeigt ihm die kalte Schulter.....

Statt einheitlicher scheint derzeit alles heterogener zu werden....:(

Hach, was waren das noch Zeiten, als es außer den Voodoos nix andres gab ;)

Xmas
2003-04-03, 23:01:12
Originally posted by zeckensack
So weit voraus, daß es bis einschließlich NV25 keine wesentlichen Änderungen mehr gebraucht hat. Das einzige was bei 'neueren' Geforces in diesem Bereich anders ist, ist die schiere Anzahl der RCs, infolgedessen wurde die Konstantenverwaltung auch leicht getweakt.
Alt: 4 Globale Konstanten, sichtbar für alle RCs.
Neu: 2 Globale Konstanten, plus 2 Konstanten pro RC, die jeweils nur innerhalb dieses RCs verfügbar sind (=> insgesamt 10 Konstanten auf NV25).
Müssten das nicht 18 Konstanten sein (wegen 8 logischer RC)?

Demirug
2003-04-04, 07:35:57
Originally posted by HOT
Leuchtet absolut ein Demi ;)
Wie sieht das mit GL 2.0 aus? Hier sollte doch ein total unabhängige Hochsprache geschaffen werden. Ginge es damit nicht einfach alle Shaderfähigen Karten nach ihren Fähigkeiten zu unterstützen?

Im Prinzip ja. Leider gibt es hier ein paar abers.

Es ist nicht sicher in wie weit die IHVs für Karten der DX8 Klasse noch OpenGL 2.0 Treiber zur Verfügung stellen. Bei DX7 glaube ich schon gar nicht daran. NV könnte da viel aus dem Cg Projekt übernehmen aber ATI müsste sozusagen bei 0 anfangen.

Wenn es OpenGL 2.0 Treiber also nur für Karten der DX9 (und neuer) Generation geben sollte hat man für die älteren Karten immer noch die alten Problemen.

Der Shadercode soll vom Treiber optimal auf die Hardware umgesetzt werden. Schafft der Treiber das aber nicht muss er trotzdem den Effekt darstellen notfalls mit einer Softwareemulation. Der Treiber darf in einem solchen Fall zwar eine performances Warnung zurückgeben aber die nützt reichlich wenig wenn das Programm keinen Fallback hat. Das dumme ist also das man, ohne es mit jeder Hardware/Treiber Kombination zu testen, nicht sagen kann wo ein Shader-Programm richtig läuft und wo die Emulation einspringt. Und wenn dann eine neue Karte auftaucht die bei den Tests nicht berücksichtigt wurde kann es sein das es für diese für bestimmte Effekte kein passendes Shaderprogramm gibt.

Das macht mir etwas Bauchschmerzen.

Demirug
2003-04-04, 07:42:07
Originally posted by Piffan


Afaik ist NV aus dem OpenGl- Konzert ausgeschieden.....Auch MS zeigt ihm die kalte Schulter.....

Statt einheitlicher scheint derzeit alles heterogener zu werden....:(

Hach, was waren das noch Zeiten, als es außer den Voodoos nix andres gab ;)

NVIDIA macht da immer noch fleisig mit. MS ist ausgestiegen weil sie keinen Sinn mehr darin sahen. Die Argumenation war in etwa:

Wir bauen derzeit selbst keine 3dhardware für die wir OpenGL Support leisten müssten.

Unser OpenGL Softwaresupport ist eigentlich nur noch eine Hülle für die OpenGL Treiber der IHVs und es lohnt sich aus performancesgründen nicht neue Extensions in den Softwaretreiber einzuplegen.

Aus diesem Grund möchte man das sich die eigenen Leute mehr auf DirextX konzentrieren.

PS: OpenGL war noch nie einheitlich und es wird eher besser weil sie die IHVs in letzter Zeit etwas schneller auf einigen können.