PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R420 lediglich mit 2.X Shadern?


Seiten : [1] 2

Demirug
2004-02-19, 20:30:51
Wenn man nach den unterstützten Shaderversionen des R420 stochert trift man immer nur auf Löcher. Wie es der Zufall so will hat mich ATI am Wochenende mit einer Entwicklernewsletter versorgt. Unter anderem werben sie dort für eine neue Version iheres Shadertools Ashli. Also habe ich mir heute mal den aktuellen Stand heruntergeladen.

Diese neue Version unterstützt nun unterschiedliche Shaderprofile. Neben Shadern für die OpenGL Fragmentshader Extension können auch 2.0 und 2.X Shader für DX9 erzeugt werden. Zusätzlich gibt es dann noch eine Auswahl für die Chipfamilie. Dort steht R300, NV30 (nennt man unterstützt die Konkurrenz) und R420.

Das ich damit dann ein bischen rumspielen musste dürfte klar sein. Es war kein Problem mit dem R420 Profil einen superlangen 2.X Shader (455 Anweisungen) zu erzeugen. Allerdings weigerte sich das System beharlich aus einem if im Sourecode eine Branchanweisung im Shadercode zu bauen. Ok das könnte ja daran liegen das man das noch nicht implementiert hat. Also habe ich mal mit dependent Reads mein glück versucht. Beim R420 Profil bricht er nach dem 4 Level ab. Versucht man das mit dem NV30 Profil gibt es einen internen Fehler und es kommt gar nichts dabei raus. Das NV30 Profil ist also anders als das R420 Profil.

Zum Swizzeln lies sich der Compiler leider auch nicht überreden. Das einzige nachweisbare 2.X Feature ist also die Programmlänge. Einen unlimitierte dependent Read wollte der Compiler für den R420 auf keinen Fall erzeugen. Ohne diesen gibt es aber auch keine PS 3.0.

Also entweder stimmt das Tool nicht oder R420 hat einen PS 2.X welcher unter dem NV30 Level liegt.

LovesuckZ
2004-02-19, 20:46:09
Original geschrieben von Demirug
Also entweder stimmt das Tool nicht oder R420 hat einen PS 2.X welcher unter dem NV30 Level liegt.

Und das schlimmste waere, dass viele dies noch gut finden, weil ja so mehr Platz da sei, die Row performance zu verbessern. Hoffentlich wird er kein "NV30". Kaum neues, aber deutlich schneller als der Vorgaenger Chip unter PS2.0 Anwendungen...

Exxtreme
2004-02-19, 20:51:59
Naja, wenn der R420 kein PS3.0 kann dann ist's zwar schade aber kein Beinbruch. :)

LovesuckZ
2004-02-19, 20:55:23
Original geschrieben von Exxtreme
Naja, wenn der R420 kein PS3.0 kann dann ist's zwar schade aber kein Beinbruch. :)

Hm, bei nvidia sind aber langsame PS2.0 für einige ein todesurteil... :D
Koennte man eigentlich davon ausgehen, dass, wenn der r420 nicht über PS/VS3.0, man es sich beim Refreshchip auch spare?

AlfredENeumann
2004-02-19, 21:03:40
Ne ist ja noch kein Beinbruch. Bis PS/VS3.0-Soft kommt ist eh ein Refresh draußen der es (vielleicht) nutzt.
Wer, außer einem Spieleentwickler, braucht zu langsame Shader?
Wenn ich mir ne Karte hole die ein Schweinegeld kostet, dann soll sie eines machen, und zwar Brutal schnell sein, damit ich möglichst lange was von ihr habe.
Und solange meine R300 nicht an Ihre grenzen stößt sehe ich auch keine veranlassung ne neue Karte zu kaufen.

Naja. Vieleicht kann ich ja unserer Marketingabteilung eine "Dauerleihgabe" abschwatzen.:D

StefanV
2004-02-19, 21:07:17
Original geschrieben von LovesuckZ
Und das schlimmste waere, dass viele dies noch gut finden, weil ja so mehr Platz da sei, die Row performance zu verbessern. Hoffentlich wird er kein "NV30". Kaum neues, aber deutlich schneller als der Vorgaenger Chip unter PS2.0 Anwendungen...

1. abwarten und Tee rauchen, noch ist der R420 noch nicht da, es wird noch viel Wasser der Elbe entlang fließen...

2. Abwarten wie die Leistungen der einzelnen Chips ausschauen...

3. naja, irgendwie find ich 3.0 Shader zu ergeizig, für einen 130nm Prozess :|

Ich für meinen Geschmack hab lieber eine sau schnelle Karte als eine die viele Features beherrscht ;)
Denn die Features nutzen ja nicht soo viel, wenn sie zu langsam sind...

Gast
2004-02-19, 21:07:23
NAja demi man könnte es auch so bewerten, dass Ati vielleicht noch gar nicht will dass das geht. Sondern erst auf die offizielle Vorstellung des R420 wartet und dann die weiteren Funktionen freischaltet :)
Aber imho eher unwahrscheinlich, denn dann hätten sie ja sofort den ganzen R420 pfad herauslassen können.

LovesuckZ
2004-02-19, 21:10:37
Original geschrieben von Stefan Payne
Ich für meinen Geschmack hab lieber eine sau schnelle Karte als eine die viele Features beherrscht ;)
Denn die Features nutzen ja nicht soo viel, wenn sie zu langsam sind...

Komisch, genau dies ist auch eine NV30, aber sie wird wegen der wenigen neuen features kritisiert?!
Nunja, die Meinungen einiger sind wie Faehnchen: immer dem Ati Wind nach...

Exxtreme
2004-02-19, 21:13:50
Original geschrieben von Gast
NAja demi man könnte es auch so bewerten, dass Ati vielleicht noch gar nicht will dass das geht. Sondern erst auf die offizielle Vorstellung des R420 wartet und dann die weiteren Funktionen freischaltet :)
Aber imho eher unwahrscheinlich, denn dann hätten sie ja sofort den ganzen R420 pfad herauslassen können.
Ja, das könnte ich mir auch vorstellen. :) Kann sein, daß es beim Launch des R420 eine neue Version des Tools Ashli gibt.

StefanV
2004-02-19, 21:20:30
Original geschrieben von LovesuckZ
Komisch, genau dies ist auch eine NV30, aber sie wird wegen der wenigen neuen features kritisiert?!

Die nV30 wurde nicht nur wegen der nicht ganz geglückten 2.0 Shader so kritisiert, auch wegen des FSAAs, der sehr hohen Hitzeentwicklung, noch dazu konnte sie sich nie wirklich von der R300/256bit absetzen...

nV hat mti der nV30 wirklich alles falsch gemacht...
Hätte nV eine Einslot Kühlung hinbekommen und DDR-I SPeicher verwendet, dann wäre sie eine einigermaßen brauchbare alternative zur 9500 PRO gewesen...

Demirug
2004-02-19, 21:24:14
Original geschrieben von Exxtreme
Ja, das könnte ich mir auch vorstellen. :) Kann sein, daß es beim Launch des R420 eine neue Version des Tools Ashli gibt.

Die Hoffnung stirbt zuletzt. Ich werde aber morgen mal den Dev-Support quälen da ich sowieso noch ein paar Bugs gefunden haben.

Demirug
2004-02-19, 21:25:33
Original geschrieben von Stefan Payne
3. naja, irgendwie find ich 3.0 Shader zu ergeizig, für einen 130nm Prozess :|


nVidia hat diesen Ergeiz. Und die 2.0 Shader sollen dabei auch viel schneller geworden sein.

Demirug
2004-02-19, 21:29:08
Original geschrieben von AlfredENeumann
Ne ist ja noch kein Beinbruch. Bis PS/VS3.0-Soft kommt ist eh ein Refresh draußen der es (vielleicht) nutzt. Wer, außer einem Spieleentwickler, braucht zu langsame Shader?

Wieso langsam? Richtig implementiertes statisches Branching ist ratenschnell. Und man spart sich das ständige Umladen des Shaderprogramms.

Zudem habe ich schon genügend fertige HLSL Shader gesehen die Sofort von PS 3.0 profitieren würden.

LovesuckZ
2004-02-19, 21:30:22
Stark OT:

Original geschrieben von Stefan Payne
Die nV30 wurde nicht nur wegen der nicht ganz geglückten 2.0 Shader so kritisiert, auch wegen des FSAAs, der sehr hohen Hitzeentwicklung, noch dazu konnte sie sich nie wirklich von der R300/256bit absetzen...

Warum PS2.0 kritisieren, wenn diese erst 1 bis 1 1/2 Jahre (von der Verfügbarkeit des NV30) spaeter wirklich benötigt werden?
Warum sei keine Unterstuetzung von PS3.0/VS3.0 nicht schlimm, aber eine "schlechte" PS2.0 Geschwindigkeit todbringend?
AA ist doch ein Feature und wie du sagtes: "lieber eine sau schnelle Karte als eine die viele Features beherrscht".
Und unter DX8 ist eine NV30 nun wirklich mehr als zukunftstauglich.
Absetzen vom r300? Ist die nicht schnell genug? Also ist auch eine N30 schnell genug.

Die gegenseitigen Vorwürfe dürfen gern zu Hause bleiben.

Demirug
2004-02-19, 21:47:06
Wir wollen doch beim Thema bleiben. Was beim NV30 alles nicht so toll gelaufen ist haben wir doch schon genügend diskutiert.

Also:

Auswirkungen wenn R420 wirklich nur mit 2.X kommt?

Weitere Indizien die dafür oder dagegen sprechnen?

LovesuckZ
2004-02-19, 21:51:57
Original geschrieben von Demirug
Auswirkungen wenn R420 wirklich nur mit 2.X kommt?
Weitere Indizien die dafür oder dagegen sprechnen?

Die Aussage: "focus more transistors on raw processing power, so we can deliver a huge leap in performance (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=124343)"

Winter[Raven]
2004-02-19, 21:54:57
Original geschrieben von Exxtreme
Ja, das könnte ich mir auch vorstellen. :) Kann sein, daß es beim Launch des R420 eine neue Version des Tools Ashli gibt.

Ohhhh man, ich liebe diese Gespräche. Ich finds schon immer wieder lustig wie "neutral sag" Ati Anhäger irgend welche Ausreden, oder Strohalme erfinden um zuzeigen das Ati doch keine Fehler macht.

@ thema

Sollte Ati wirklich auf den falschen Pferd setzen, der Schritt von Shader 2.0 auf 3.0 ist ned groß, und sollten die Dev's schneller umschwänken als es sich ATi denkt (NV dachte auch nicht das sich PS2.0 schnell durchsetzen) hat Ati wirklich ein Problem, und wenn es wirklich stimmt das der R420 nicht mal an den NV30 futures kommt, dann wird Nvidia diesen Umstand ohne Scham ausnützen und damit könnte Ati ihre "gunst" bei den Dev's verlieren.

Quasar
2004-02-19, 21:59:04
Original geschrieben von LovesuckZ
Stark OT:
[...]
Ach, LS, laß' es gut sein. Du wirst kaum jemanden finden, der konsequent zu seiner Meinung steht.
*sing* Das Fähnlein, es flattert...


Original geschrieben von Demirug
Auswirkungen wenn R420 wirklich nur mit 2.X kommt?

Weitere Indizien die dafür oder dagegen sprechnen?

a) Auswirkungen:
Das 2.x-Profil (mit ATix = nVidiax) wird plötzlich viel beliebter werden und auch die, die es heute noch als zusätzlichen und sinnlosen Aufwand hinstellen, werden es propagieren.
Das Marketing von nV wird versuchen, aus den 3.0-Shadern EXTREM Kapital zu schlagen. Wer weiß, vielleicht sogar mit einem oder zwei richtigen 3.0-Launch-Titeln (die dann selbstverständlich erst nach 6 Monaten so gepatcht werden, daß auch andere Karten halbwegs damit laufen).


b)
Pro: Es ermöglicht in letzter Konsequenz höhere "Rohleistung" bei schon bestehenden Architekturen. Damit könnte man dann in den verfügbaren 2.0-Shader-Games sicherlich auch den nV40 gut in Schach halten.
edit:
Dafür spräche auch, daß, seit dem vom ArtX-Team (welches es selbstverständlich gar nicht gibt) entwickelten R300 keine Neuerung mehr kam. Die Linie scheint noch nicht genug gemolken und ATis Entwicklerressourcen (ArtX-Team *eg*) könnten ja durch die XBox2 ziemlich gebunden sein - daß das R200-Team einen neuen Chip entwickelt hat, glaubt wohl keiner mehr...

Contra: Wieso überhaupt 2.x und nicht weiterhin 2.0? Konntest du bis auf die Programmlänge irgendwas finden, was bei ATis 2.x-Version mehr drin ist, als bei 2.0? Ansonsten hielte ich das für eine DX-konforme, Treiberbasierte F-Buffer-Abwandlung, sprich, der R420 hat NIX neues.

Demirug
2004-02-19, 22:08:44
Original geschrieben von Quasar
a) Auswirkungen:
Das 2.x-Profil (mit ATix = nVidiax) wird plötzlich viel beliebter werden und auch die, die es heute noch als zusätzlichen und sinnlosen Aufwand hinstellen, werden es propagieren.

Aufgrund von dem was ich bisher gefunden haben würde ich sagen ATIs 2.X hat weniger optionale Features als das des NV30.

Das Marketing von nV wird versuchen, aus den 3.0-Shadern EXTREM Kapital zu schlagen. Wer weiß, vielleicht sogar mit einem oder zwei richtigen 3.0-Launch-Titeln (die dann selbstverständlich erst nach 6 Monaten so gepatcht werden, daß auch andere Karten halbwegs damit laufen).

Wenn nVidia Shader 3.0 verfügbarkeit als DX 9.1 definiert werden sie in iheren Marketingunterlagen behaupten das ATI nur einen DX9 Chip hat und deswegen eine Generation dahinter liegt. Einen Titel brauchen sie da noch nicht mal.


b)
Pro: Es ermöglicht in letzter Konsequenz höhere "Rohleistung" bei schon bestehenden Architekturen. Damit könnte man dann in den verfügbaren 2.0-Shader-Games sicherlich auch den nV40 gut in Schach halten.

Ja, dann wird es interesant ob die Steigerung von nV gross genug ist um aufzuholen und zusätzlich die Steigerung von R300 auf R420 zu kompensieren.

Contra: Wieso überhaupt 2.x und nicht weiterhin 2.0? Konntest du bis auf die Programmlänge irgendwas finden, was bei ATis 2.x-Version mehr drin ist, als bei 2.0? Ansonsten hielte ich das für eine DX-konforme, Treiberbasierte F-Buffer-Abwandlung, sprich, der R420 hat NIX neues.

Das einzige 2.X Feature das der Compiler beim R420 Profil genutzt hat war die grössere Programmlänge. Technisch gesehen rechtfertigt diese Steigerung ja die 400er Nummer. Vorallem die FireGL Karten werden diese langen Shader brauchen.

UnreaL
2004-02-19, 22:21:27
Man Demirug

Wo hast du das ganze wissen her?
Hut zieh !


Ps:warum stellst du kein Grafik Chip her ;D


byby

Quasar
2004-02-19, 22:26:39
Original geschrieben von Demirug
Ja, dann wird es interesant ob die Steigerung von nV gross genug ist um aufzuholen und zusätzlich die Steigerung von R300 auf R420 zu kompensieren.
Bei reinen 2.0-Shadern: Ich glaube nicht.
In Spielen, in denen dann auch 2.x zum Einsatz kommt: sehr wahrscheinlich. (und ich hoffe, daß darunter bitte bitte nicht die Quali leiden muss)

Original geschrieben von Demirug
Das einzige 2.X Feature das der Compiler beim R420 Profil genutzt hat war die grössere Programmlänge. Technisch gesehen rechtfertigt diese Steigerung ja die 400er Nummer. Vorallem die FireGL Karten werden diese langen Shader brauchen.
Kann der Ashli-Compiler auf R350-Chips schon die F-Buffer nutzen?

Demirug
2004-02-19, 22:26:55
Original geschrieben von UnreaL
Man Demirug

Wo hast du das ganze wissen her?
Hut zieh !

Angelesen.

Ps:warum stellst du kein Grafik Chip her ;D


byby

Dafür fehlt mir nun doch das nötige Kleingeld. Zudem bin ich ja eher Softwareentwickler als Hardwareentwickler.

Exxtreme
2004-02-19, 22:34:34
Original geschrieben von Winter[Raven]
Ohhhh man, ich liebe diese Gespräche. Ich finds schon immer wieder lustig wie "neutral sag" Ati Anhäger irgend welche Ausreden, oder Strohalme erfinden um zuzeigen das Ati doch keine Fehler macht.

Jetzt mal bitte langsam mit den jungen Pferden. ;) Die Idee ist gar nicht so abwägig, daß sich ATi im Voraus nicht in die Karten schauen lässt. Vielleicht ist Demirug schon dafür berüchtigt, daß er Infos leakt. X-D Ausserdem hat Demirug einige Bugs in der Software gefunden was darauf schliessen lässt, daß Ashli noch nicht so richtig fertig ist.

Demirug
2004-02-19, 22:37:34
Original geschrieben von Quasar
Bei reinen 2.0-Shadern: Ich glaube nicht.
In Spielen, in denen dann auch 2.x zum Einsatz kommt: sehr wahrscheinlich. (und ich hoffe, daß darunter bitte bitte nicht die Quali leiden muss)

Wenn bei 2.X nur die zusätzliche Programmlänge genutzt wird sollte es keinen Unterschied bei der Speed gegenüber 2.0 geben. Wie sich der NV40 zum R420 stellen wird hängt IMHO im wesentlichen davon ab wie viel zusätzliche Rechenpower ATI dem R420 spendiert hat.

Kann der Ashli-Compiler auf R350-Chips schon die F-Buffer nutzen?

Nein, Ist ein Shader zu lang wird er in mehrer Passes zerlegt und die Zwischenergebnisse werden in FP-Buffer gespeichert.

Demirug
2004-02-19, 22:42:10
Original geschrieben von Exxtreme
Vielleicht ist Demirug schon dafür berüchtigt, daß er Infos leakt. X-D

Ich bin kein unbekannter beim Marketing (als Demirug). Ob sie allerdings meinen Nick mit meiner regulären Anmeldung beim Dev-Support verbinden können bezweifle ich. Zudem habe ich mir die Ashli Version anonym geholt. Ich habe also die welche jeder bekommen kann.

Ausserdem hat Demirug einige Bugs in der Software gefunden was darauf schliessen lässt, daß Ashli noch nicht so richtig fertig ist.

hehe. Das sind Parserfehler und unschöne Optimierungen. Das dürfte aber nichts mit so generellen Sachen wie dependent Read Limits zu tun haben.

VooDoo7mx
2004-02-19, 23:12:27
Zum Thema:

Also ich würde es erschreckend finden wenn ATi kein 3.0 Shader unterstützen würde.
ATi ist jedoch zu Zeit in einer Marktführerposition und könnte mit nicht-implementieren dieser Technik auch deren Nutzung bei diversen Spieleprogrammierern unschmackhaft machen.
Intel fährt im Moment eine ähnliche Technikblockade indem sie 64Bit erst beim Tejas freischalten wollen.
So bleibt die Massentauglichkeit dieser Technik eingeschrenkt.

Original geschrieben von Quasar
edit:
Dafür spräche auch, daß, seit dem vom ArtX-Team (welches es selbstverständlich gar nicht gibt) entwickelten R300 keine Neuerung mehr kam. Die Linie scheint noch nicht genug gemolken und ATis Entwicklerressourcen (ArtX-Team *eg*) könnten ja durch die XBox2 ziemlich gebunden sein - daß das R200-Team einen neuen Chip entwickelt hat, glaubt wohl keiner mehr...


Ist zwar extrem OffTopic aber...
Wie schon gesagt stammt der R300 Chip nicht aus der ATi Schmiede in Kanada sondern aus der Schmiede in der USA.
Hinter dem USA-Studio verbirgt sich nichts anderes als das Unternehmen ArtX was ATi schon seit einiger Zeit aufgekauft hat.
Der letzte eigenständige Chip aus dem "Norden" war der R200 der sich aber wie seine vielen Vorgänger nicht wirklich gegen NVidia(früher auch 3DFX) durchsetzen konnte.
Wer denkt, dass die guten ATi Chips aus der Firmenzentrale in Kanada kommt, der irrt.

ArtX hat den Grafikchip für das N64 und den Grafikchip/Systemkontroller "Flipper" für den Gamecube entwickelt. Kurz bevor der Gamecube fertig war, wurde ArtX von ATi aufgekauft. So thront auf meinen Gamecube jetzt das ATi Logo.

Während ArtX äh ich meine ATi South den R300 entwickelte kümmerte sich das kanadische Team um den RV250 und später um den RV350.
Zurzeit arbeitet das nördliche Team am R420 welcher ja zum Großteil auf der R300 Technologie basiert die ja von ATi South schon lange fertig gestellt wurde.

ArtX äh natürlich ATi South in den Staaten arbeitet zur zeit am R500, welcher laut neusten Gerüchten auch in die X-Box2 kommen soll. Ein verdammt cleverer Schachzug von ATi da das ehemalige ArtX Team sehr viel erfahrung mit Konsolen Technik hat.

betasilie
2004-02-19, 23:19:22
Original geschrieben von VooDoo7mx
Ist zwar extrem OffTopic aber...
Wie schon gesagt stammt der R300 Chip nicht aus der ATi Schmiede in Kanada sondern aus der Schmiede in der USA.
Hinter dem USA-Studio verbirgt sich nichts anderes als das Unternehmen ArtX was ATi schon seit einiger Zeit aufgekauft hat.
Der letzte eigenständige Chip aus dem "Norden" war der R200 der sich aber wie seine vielen Vorgänger nicht wirklich gegen NVidia(früher auch 3DFX) durchsetzen konnte.
Wer denkt, dass die guten ATi Chips aus der Firmenzentrale in Kanada kommt, der irrt.

ArtX hat den Grafikchip für das N64 und den Grafikchip/Systemkontroller "Flipper" für den Gamecube entwickelt. Kurz bevor der Gamecube fertig war, wurde ArtX von ATi aufgekauft. So thront auf meinen Gamecube jetzt das ATi Logo.

Während ArtX äh ich meine ATi South den R300 entwickelte kümmerte sich das kanadische Team um den RV250 und später um den RV350.
Zurzeit arbeitet das nördliche Team am R420 welcher ja zum Großteil auf der R300 Technologie basiert die ja von ATi South schon lange fertig gestellt wurde.

ArtX äh natürlich ATi South in den Staaten arbeitet zur zeit am R500, welcher laut neusten Gerüchten auch in die X-Box2 kommen soll. Ein verdammt cleverer Schachzug von ATi da das ehemalige ArtX Team sehr viel erfahrung mit Konsolen Technik hat.
Das Thema hatten wir schon verdammt oft und die Teams sind definitv nicht mehr so einfach zu trennen, wie Du das hier darstellst.

RoKo
2004-02-20, 00:00:52
Zudem muß irgendwer dort auch den Cube 2 Chip entwickeln.

Tyler_Durden
2004-02-20, 00:37:18
@ Voodoo
Der Grafikchip des N64 war aber von SGI und nicht von ArtX! Zumal eben dieser ja eh ein totaler Schuß in den Ofen war, von der Leistung her!
Das N vor der 64 heißt ja bekanntlich nicht Nintendo, sondern Nebelwerfer 64!
muahahahaha.............das musste mal gesagt werden! :D

Godmode
2004-02-20, 00:47:56
Also wenn die Shader 3.0 wirklich so schnell an Bedeutung bekommen wie die 2.0er dann wird ATI ein Problem bekommen. Und wenn die Shader dann auch noch hinter Nvidia 2.X sind dann weiss ich auch nicht was das bringen soll.

aths
2004-02-20, 01:11:07
Original geschrieben von bans3i
Also wenn die Shader 3.0 wirklich so schnell an Bedeutung bekommen wie die 2.0er dann wird ATI ein Problem bekommen. Und wenn die Shader dann auch noch hinter Nvidia 2.X sind dann weiss ich auch nicht was das bringen soll. 3.0 wird unter Ausnutzung bestimmter 3.0-Features auf dem NV40 wohl nicht so schnell sein, wie 2.X (wo jene 3.0-Feature ja nicht verwendet werden können.) So schnell wird 3.0 nicht an Bedeutung gewinnen.

Allerdings kann ich mir kaum vorstellen, dass ATI so lange brauchte, nur um einen schnelleren Chip mit höherem Instruction Count zu entwickeln.

Sir Integral Wingate Hellsing
2004-02-20, 01:16:52
Oh man(n), hier glorifizeren ziemlich viele die 3.0 Shader.
Der R420 soll vielleicht auch nur hohe Auflösungen im Zusammenhang mit AA/AF beschleunigen. Wenn das mit zweistelligen Prozentpunkten gelingt, dann wird das Ding sicherlich nen Knaller. Die neueren Shader werden bei ATi sicherlich für den R500 aufgespart bzw weiterentwickelt.

Ailuros
2004-02-20, 02:03:39
Original geschrieben von aths
3.0 wird unter Ausnutzung bestimmter 3.0-Features auf dem NV40 wohl nicht so schnell sein, wie 2.X (wo jene 3.0-Feature ja nicht verwendet werden können.) So schnell wird 3.0 nicht an Bedeutung gewinnen.

Allerdings kann ich mir kaum vorstellen, dass ATI so lange brauchte, nur um einen schnelleren Chip mit höherem Instruction Count zu entwickeln.

ROFL render targets in Illustrationen (synthetische techdemos, erste zukuenftige Implementationen in Spiele usw.) von PS/VS3.0 werden eher klein gehalten, damit die Leistung auch nicht zu sehr einbricht.

Zum zweiten Paragraph stimme ich zu; Sinn macht das auf jeden Fall nicht. Obwohl hinter den Kulissen man staendig von 3.0 shadern versichert wurde in der Vergangenheit, ist es auch nicht das erste Mal bei ATI, dass was versprochen wird und dann doch nicht laeuft....

Blutgrätsche
2004-02-20, 07:43:40
Keine 3.0 Shader Unterstützung wäre ein Armutszeugnis für ATI. Auch wenn jemand deren Bedeutung als niedrig einschätzt, so heisst das nicht, dass man sie einfach weglassen kann. DX9 gibt es offiziell zwar erst seit Ende 2002, aber definiert ist es mindestens schon seit Sommer 2002. Die R4XX Generation muss 18 Monate bis zum R500 und DXnext ausreichen. MS hat ausserdem 3.0 Shader HW-Unterstützung für Frühjahr 2004 angekündigt. Eine DX-Unterversion seitens ATI zu überspringen macht für mich schlicht keinen Sinn. Nur (in bestimmten Fällen meinetwegen auch massive) Performance-Verluste wären akzeptabel.

seahawk
2004-02-20, 08:13:33
Einfach abwarten. :D

Der R420 wird "Next Generation Shader Technology" bieten :D

Gast
2004-02-20, 08:35:53
Original geschrieben von Demirug
nVidia hat diesen Ergeiz. Und die 2.0 Shader sollen dabei auch viel schneller geworden sein.

Ati hatte den Ehrgeiz schneller 6 besser als nvidia zu sein ! Ergebnis 2003: GESCHAFFT!

Siehe Marktanteile!

Fakten zählen mein lieber Freund und kein Marketing-WISCHI-WASCHI Bla Bla.

Bisher ist aus guten Gründen nur Bla Bla über den R420 bekannt.

Du wirst dich noch wundern was da kommt! Von mir aus kann nv jede Woche eine NEUE Grafikkarten-Bezeichnung rausbringen, ist doch 88 solange der Teufel im 24-BIT Desaster steckt wird es nicht besser.

Demirug
2004-02-20, 09:28:01
Original geschrieben von Gast
Ati hatte den Ehrgeiz schneller 6 besser als nvidia zu sein ! Ergebnis 2003: GESCHAFFT!

Siehe Marktanteile!

Ja, ATI hat auf den gleichen Marktanteil aufgeholt (um die Promille will ich mich jetzt nicht streiten) was sie nicht zuletzt dem starken Wachstum im Mobil Bereich zu verdanken haben.

Schneller sind sie. Was das besser angeht sollte man sich auf den zu betrachtenden Bereich einigen.

Fakten zählen mein lieber Freund und kein Marketing-WISCHI-WASCHI Bla Bla.

Welches "Marketing-WISCHI-WASCHI"? Bisher gibt es da offiziel ja noch gar nichts. Das NV4X das Shadermodel 3.0 unterstützt ist allerdings ein Fakt.

Bisher ist aus guten Gründen nur Bla Bla über den R420 bekannt.

Du wirst dich noch wundern was da kommt! Von mir aus kann nv jede Woche eine NEUE Grafikkarten-Bezeichnung rausbringen, ist doch 88 solange der Teufel im 24-BIT Desaster steckt wird es nicht besser.

Ich lasse mich gerne überraschen. :)

Ich bestreite ja gar nicht das der R420 schnell sein wird. Wie schnell genau muss sich noch zeigen. Nur darum geht es mir hier ja überhaupt nicht. Die unterstütze Shaderversion ist relevant. Das es eine Verbesserung gegenüber dem R300 geben wird ist ja nun klar aber wie gross der Sprung ist eher ungewiss. Die Indizien sprechen aber für mich im Moment eher gegen PS 3.0 bei ATI.

Welches 24Bit Desaster? nVidia hat mit 24Bit doch gar nichts am Hut.

ShadowXX
2004-02-20, 09:31:36
Also X-bit Labs sagen jetzt auch, das ATI PS/VS3.0 haben und (was ich übrigens wesentlich interesanter finde) das SIe intern mit FP32 rechnen...


ATI Technologies Showcases R420 at Intel Developer Forum

Graphics Company Gives Sneak Peak on Next Generation VPU Performance
by Anton Shilov
02/19/2004 | 09:38 AM

ATI Technologies demonstrated a personal computer with working prototype of its next-generation graphics processor known under R420 code-name at Intel Developer Forum, giving a glance at performance of the forthcoming visual processing unit.

The upcoming graphics chips from the two leading graphics processors developers, dubbed ATI R420 and NVIDIA NV40, are expected to offer more advanced capabilities along with tangibly improved performance in modern 3D applications. Both chips will sport Pixel Shaders 3.0 and Vertex Shaders 3.0, more efficient FSAA and anisotropic filtering patterns as well as new 256-bit memory controllers supporting DDR, GDDR2 and GDDR3 memory types.

ATI code-named R420 processor is rumored to be made using 0.13 micron low-k process technology at TSMC. The chip incorporating 160 million of transistors is projected to have 8 advanced pixel pipelines ATI calls “extreme pipelines” as well as 6 vertex shader engines.

ATI Technologies is reported to have said that the next-generation visual processing unit shown off at IDF – the code-named R420 – is capable of running at 100fps in Colin McRae Rally 2004 game, which is 2 or 3 times faster compared to “today’s DirectX 9.0 hardware”.

In case ATI’s performance indications are correct and the R420 is compared to the RADEON 9800 PRO-class hardware, it means that the R420 has very seriously revamped architecture compared to the R300/R350 processors. David Orton, the President and COO for ATI Technologies, indicated in early December 2003 that the next-generation VPU will have 32-bit precision for Pixel Shaders, a bit higher precision compared to R300’s 24-bit.

This is not a new trend for ATI to showcase unannounced hardware during exhibitions. Nearly two years ago ATI demonstrated its R300 – RADEON 9700 PRO – graphics card at E3 show in the USA about 2.5 months before announcement and nearly 3.5 months before the actual shipments.


während ersteres wohl mehr Speku ist (wobei der r420 wie gesagt Live auf dem Intel-Def vorgeführt wurde), soll letzteres (also 32Bit FP) schon seit Dezember bekannt gewesen sein......

Haben ich oder wir da was Verschlafen??

J.S.Shadow

Demirug
2004-02-20, 09:36:48
Original geschrieben von ShadowXX
während ersteres wohl mehr Speku ist (wobei der r420 wie gesagt Live auf dem Intel-Def vorgeführt wurde), soll letzteres (also 32Bit FP) schon seit Dezember bekannt gewesen sein......

Haben ich oder wir da was Verschlafen??

J.S.Shadow

IMHO war die Aussage von David Orton eher so zu verstehen das FP32 eine gute Sache wäre und sie es früher oder später auch einsetzten wollen. Es wurde aber nicht unbedingt klar ob sich das jetzt R420 oder R500 bezieht.

EDIT: Habe mir jetzt mal kurz die x-bit Historie angeschaut.

Das mit den 3.0 Shader taucht in der Liste auf die sie bei Anand abgeschrieben haben. Nur hat Anand dort gar nichts über Shaderversionen gesagt.

Im Dezember war hinter dem FP32 übrigends auch noch ein ?. Die Schlussfolgerung war das wenn MS für PS 3.0 FP32 verlangt müsse der R420 ja FP32 haben. FP32 ist aber auch für PS 3.0 keine Pflicht auch wenn es jemanden gibt der das gerne glauben machen möchte.

Quasar
2004-02-20, 09:38:35
Original geschrieben von Demirug
Wenn bei 2.X nur die zusätzliche Programmlänge genutzt wird sollte es keinen Unterschied bei der Speed gegenüber 2.0 geben. Wie sich der NV40 zum R420 stellen wird hängt IMHO im wesentlichen davon ab wie viel zusätzliche Rechenpower ATI dem R420 spendiert hat.
Ja, bei ATi. Aber nV kann ja durchaus von 2.x profitieren. Deswegen meinte ich, daß bei reinen 2.0-Shadern ATi vorn liegen wird und bei 2.x eben nV. :)
Betreff Rechenpower: Ich glaube einfach mal, was dieser ATi-Mensch da bezgl. der Pixelfüllrate sagte. Ist ja eine ziemlich eindeutige Aussage, die nicht allzuviel Interpretationsspielraum läßt... (3xRV360@500MHz).

Original geschrieben von Demirug
Nein, Ist ein Shader zu lang wird er in mehrer Passes zerlegt und die Zwischenergebnisse werden in FP-Buffer gespeichert.
Und das im Unterschied zum R420-Profil? Also eindeutig das Verlagern des SW-F-Buffer in einen HW-Buffer. Grandiose Leistung. Vielleicht kriegen wir ja sogar TruForm zurück. :lol:

[dzp]Viper
2004-02-20, 09:41:08
Mal eine ganz einfach frage an die Shader 3.0 verfechter ;)

Wollt ihr eine Grafikkarte die:

- Jetzt vielleicht doppelt so schnell ist wie einen 9800xt

oder

- jetzt eine grafikkarte die viele neue features hat, da für aber nicht so schnell ist wie die obere lösung (und erst schnell ist wenn in ca. einem jahr die ersten games für shader 3.0 rauskommen?)

:kratz2:

Mir wäre Variante 1 lieber - ich will performance JETZT und nicht erst in einem Jahr *g*

Aber das optimum wäre ja eigentlich wenn beide Möglichkeiten erfüllt werden würden *träum*

Wir werden sehen - momentan is das alles so extreme spekulation - da glaubt man am besten garnix :D

Quasar
2004-02-20, 09:46:01
Mal eine Antwort für die "2.0-Shader-reicht-Apologeten":

Was ist gegen neue Features einzuwenden? Die GF4MX war böse, weil sie keine Shader bot, die FX5200 ist böse, weil sie zwar mehr als DX9-2.0-Shader bietet, aber zu langsam ist.

Wenn ATi eine schneller (meinetwegen auch extrem schnelle) 2.0-Shader-Karte hinbekommt: Ist doch toll, kann sich jeder kaufen, der das auch toll findet und die hunderte von FPS genießen.

Wenn nV nun eine 3.0-Shader-Karte hinbekommt, finde ich das auch toll, selbst wenn sie, wovon ich ca. ausgehe, nur ca. 75-80% der 2.0-Shader-Leistung eines R420 bringt, sollte das dicke langen und man kann zusätzlich schön mit den neuen 3.0-Dingern rumspielen.

Demirug
2004-02-20, 09:48:03
Original geschrieben von Quasar
Ja, bei ATi. Aber nV kann ja durchaus von 2.x profitieren. Deswegen meinte ich, daß bei reinen 2.0-Shadern ATi vorn liegen wird und bei 2.x eben nV. :)

Wie soll nV von 2.X profitieren? Das einzige was dort wirklich Sparpotenial hat ist Branching. Da wird man dann aber sowieso eher gleich einen 3.0 Shader benutzten.

Betreff Rechenpower: Ich glaube einfach mal, was dieser ATi-Mensch da bezgl. der Pixelfüllrate sagte. Ist ja eine ziemlich eindeutige Aussage, die nicht allzuviel Interpretationsspielraum läßt... (3xRV360@500MHz).

War die Aussage wirklich auf die Pixelfüllrate bezogen? Oder war es nicht eher ein allgemeines 3 mal schneller ohne Angabe was nun genau schneller sein wird?

Und das im Unterschied zum R420-Profil? Also eindeutig das Verlagern des SW-F-Buffer in einen HW-Buffer. Grandiose Leistung. Vielleicht kriegen wir ja sogar TruForm zurück. :lol:

Ich glaube schon das man den internen Programmspeicher beim R420 vergrössert hat. Die paar Transitoren sollte schon noch übrig gewesen sein. Soll heisen das die Ultralangen Shader auf einem R420 wohl auch ohne Zwischenbuffer im RAM auskommen.

Quasar
2004-02-20, 09:51:54
Original geschrieben von Demirug
Wie soll nV von 2.X profitieren? Das einzige was dort wirklich Sparpotenial hat ist Branching. Da wird man dann aber sowieso eher gleich einen 3.0 Shader benutzten.
Das müsstest du doch am besten wissen. *eg* Nee, Spaß beiseite, ich meine damit auch z.B. Reduzierung der Rechengenauigkeit, wo's ohne IQ-Einbußen möglich ist.
Original geschrieben von Demirug
War die Aussage wirklich auf die Pixelfüllrate bezogen? Oder war es nicht eher ein allgemeines 3 mal schneller ohne Angabe was nun genau schneller sein wird?
Ich meine ja. Ich such nochmal...
edit:
...The R420/423 chips will offer twice the pixel fill rate and vertex throughput of the R350 core, as well as increases in memory bandwidth....
http://www.anandtech.com/video/showdoc.html?i=1966
Original geschrieben von Demirug
Ich glaube schon das man den internen Programmspeicher beim R420 vergrössert hat. Die paar Transitoren sollte schon noch übrig gewesen sein. Soll heisen das die Ultralangen Shader auf einem R420 wohl auch ohne Zwischenbuffer im RAM auskommen.
Ja, das war meine Annahme. Wie lang dürfen die neuen denn nun genau sein?

Demirug
2004-02-20, 09:55:14
Original geschrieben von [dzp]Viper
Mal eine ganz einfach frage an die Shader 3.0 verfechter ;)

Wollt ihr eine Grafikkarte die:

- Jetzt vielleicht doppelt so schnell ist wie einen 9800xt

oder

- jetzt eine grafikkarte die viele neue features hat, da für aber nicht so schnell ist wie die obere lösung (und erst schnell ist wenn in ca. einem jahr die ersten games für shader 3.0 rauskommen?)

:kratz2:

Mir wäre Variante 1 lieber - ich will performance JETZT und nicht erst in einem Jahr *g*

Aber das optimum wäre ja eigentlich wenn beide Möglichkeiten erfüllt werden würden *träum*

Wir werden sehen - momentan is das alles so extreme spekulation - da glaubt man am besten garnix :D

Es wird nicht ein Jahr dauern.

Es spricht übrigens nichts dagegen das man schnelle 2.0 Shader un eine 3.0 Option hat. Eine gute 2.0 Speed ist ja vorraussetzung für eine gute 3.0 Speed. Bei 3.0 geht es ja primär nur darum Situationsbedingt 2.0 Teilshader auszuführen. So das man zum Beispiel berechnungen weglässt wenn man sowieso nichts davon sehen könnte. Bumpmapping in der Ferne deaktiveren ist sowas.

ShadowXX
2004-02-20, 09:57:42
Original geschrieben von Quasar
Mal eine Antwort für die "2.0-Shader-reicht-Apologeten":

Was ist gegen neue Features einzuwenden? Die GF4MX war böse, weil sie keine Shader bot, die FX5200 ist böse, weil sie zwar mehr als DX9-2.0-Shader bietet, aber zu langsam ist.

Wenn ATi eine schneller (meinetwegen auch extrem schnelle) 2.0-Shader-Karte hinbekommt: Ist doch toll, kann sich jeder kaufen, der das auch toll findet und die hunderte von FPS genießen.

Wenn nV nun eine 3.0-Shader-Karte hinbekommt, finde ich das auch toll, selbst wenn sie, wovon ich ca. ausgehe, nur ca. 75-80% der 2.0-Shader-Leistung eines R420 bringt, sollte das dicke langen und man kann zusätzlich schön mit den neuen 3.0-Dingern rumspielen.

Ich bin zwar nicht oft deiner Meinung, aber diesmal muss ich dir voll und ganz zustimmen...

Hatte ich übrigens schonmal gesagt (Abstimmungstrhread):

Falls ATI keine PS/VS3.0 haben sollte und die nV40 bei PS2.0 nur ca. 5-10% langsamer sein sollte, hat nV alle Trümpfe in der Hand....

Dann würde es sogar langen, wenn Sie Ihr 4xOGAA auf 4xRGAA umgestellt hätten...

Und ATI hätte es geschafft, all Ihren Kredit, den SIe sich mühsam über 1 1/2 Jahren aufgebaut haben, innerhalb von Sekunden zu zerstören...
ATIs r3xx Erfolg würde dann als Eintagsfliege eingestuft werden...oder um ganz böse zu sein, als "Zufallstreffer".

J.S.Shadow

Demirug
2004-02-20, 09:59:23
Original geschrieben von Quasar
Das müsstest du doch am besten wissen. *eg* Nee, Spaß beiseite, ich meine damit auch z.B. Reduzierung der Rechengenauigkeit, wo's ohne IQ-Einbußen möglich ist.

2.X unterstützt nach wie vor nur die beiden FP Formate. Genau wie 2.0 auch. Ein reduzieren auf FX12 (bei den NV3X) kann also nur der Treiber veranlassen.

Ja, das war meine Annahme. Wie lang dürfen die neuen denn nun genau sein?

In der Readme steht das jetzt bis zu 512 Anweisungen unterstützt werden. Das ist das obere Limit für 2.X. Weil es das untere für 3.0 ist und keine 2.X Shader erlaubt sind die über das Minimum von 3.0 hinausgehen. Testweise habe ich einen Shader mit um die 450 Anweisungen erzeugen lassen. Die 512 sollte also auf einem R420 kein Problem sein.

seahawk
2004-02-20, 09:59:56
Was aber auch bedeutet, dass 3.0 Shader gegenüber 2.0 Shadern schneller sein können, weil

a) nicht immer Shader hin und her geschoben werden müssen
b) unnötige Rechenarbeit verhindert werden kann
c) eine höhere Flexibilität vorliegt

Es kann also sein, dass die Karte eine Karte mit 3.0 Fähigkeit unter 2.0 langsamer ist, aber unter 3.0 vorne liegt. Die Nutzung der 3.0 Shader ist allerdings kein großer Aufwand AFAIK.

robbitop
2004-02-20, 10:02:20
@Voodoo

Der R300 ist wie oft besprochen (auch wenns von der Leistung so aussah) kein wirklich neuer Chip.
Er basiert deutlich auf dem R200 (bereits hier war das TriSetup für 6x Sparse ausgelegt, und Multisampling hätte auch laufen sollen, wenn sich da kein Bug eingeschlichen hätte). ATi hat schlicht Bugs entfernt, auf FP umgestellt, Pipelines dupliziert und VS dupliziert. Gut ein paar neue Features wie die Colorcompression kamen hinzu.


PS 3:
Mich überrascht es allerdings nicht dass der R420 kein PS 3 Support bieten kann. Denn die damaligen Gerüchte von Loki als kurzfristiger "PlanB" lassen kein großartiges neues Design zu. Somit musste man auf den R300 Kern zurückgreifen. Sprich aufboren und shrinken.
Auch wenn gewisse Leute Anderes meinten :)

Quasar
2004-02-20, 10:02:59
Original geschrieben von Demirug
2.X unterstützt nach wie vor nur die beiden FP Formate. Genau wie 2.0 auch. Ein reduzieren auf FX12 (bei den NV3X) kann also nur der Treiber veranlassen.


*Oooops* Ich dachte, FP16 wäre erst mit 2.x "legal".

Demirug
2004-02-20, 10:04:59
Original geschrieben von seahawk
Was aber auch bedeutet, dass 3.0 Shader gegenüber 2.0 Shadern schneller sein können, weil

a) nicht immer Shader hin und her geschoben werden müssen
b) unnötige Rechenarbeit verhindert werden kann
c) eine höhere Flexibilität vorliegt

Es kann also sein, dass die Karte eine Karte mit 3.0 Fähigkeit unter 2.0 langsamer ist, aber unter 3.0 vorne liegt. Die Nutzung der 3.0 Shader ist allerdings kein großer Aufwand AFAIK.

ACK. Wenn man die Shader im HLSL Code hat und diese schon Elemente enthalten die mit 3.0 besser umgesetzt werden können ist der Aufwand deafakto gleich 0.

Demirug
2004-02-20, 10:07:00
Original geschrieben von Quasar
*Oooops* Ich dachte, FP16 wäre erst mit 2.x "legal".

ATI war ja auch sehr bemüht PP (Partial Precision) bei den 2.0 Shadern totzuschweigen.

Gast
2004-02-20, 11:00:33
Original geschrieben von Quasar
Mal eine Antwort für die "2.0-Shader-reicht-Apologeten":

Was ist gegen neue Features einzuwenden? Die GF4MX war böse, weil sie keine Shader bot, die FX5200 ist böse, weil sie zwar mehr als DX9-2.0-Shader bietet, aber zu langsam ist.

Wenn ATi eine schneller (meinetwegen auch extrem schnelle) 2.0-Shader-Karte hinbekommt: Ist doch toll, kann sich jeder kaufen, der das auch toll findet und die hunderte von FPS genießen.

Wenn nV nun eine 3.0-Shader-Karte hinbekommt, finde ich das auch toll, selbst wenn sie, wovon ich ca. ausgehe, nur ca. 75-80% der 2.0-Shader-Leistung eines R420 bringt, sollte das dicke langen und man kann zusätzlich schön mit den neuen 3.0-Dingern rumspielen.
Quasar, ich stimme dir im Grunde in allen Punkten zu, allerdings ist besonders Absatz Nr. 3 recht fragwürdig.

Sollte ATI wirklich die Pixel FillRate effektiv verdoppeln können, zusätzlich >50% mehr Vertex-Power haben (6 statt 4 Vertex-Engines + Enhancements), und die Bandbreite von ca. 20GB/s auf über 30GB/s steigern können, und das alles in Bezug auf R350, dann dürfte zumindest klar sein, das ATI hier ein Monster hat, und das darf man getrost wörtlich nehmen.

Wenn man jetzt davon ausgeht, das NVIDIA nicht nur den derzeitigen Vorsprung von ATI beim 2.0-Modell aufholt, sondern auch gleich 75-80% der Leistung des R420 erreichen will, dann erscheint mir das etwas zuviel des Guten. Natürlich alles nur in Anbetracht der "Infos" mit denen wir hier derzeit spekulieren können.

Ob und wie sich VS/PS 3.0 auf die Entwickler/Spiele auswirkt ist schwer abzuschätzen, allerdings wäre es sicherlich nicht verkehrt, sie zu unterstützen, da wird wohl niemand direkt widersprechen.

Ich hoffe übrigens inständig, das der NV40 nicht nur schneller, sondern auch in gleichem Maße die Bildqualität durch neue AA-Muster angehoben wird, denn sonst ist die Wahl zumindest für mich einfach.

Tyler_Durden
2004-02-20, 11:02:24
Für mich ist die Wahl eh einfach!
Keine von beiden Kaufen, da meine 9800pro noch sicher bis zur nächsten Generation reicht, oder zumindest bis zum Refreshchip! ;)

HajottV
2004-02-20, 11:16:02
Original geschrieben von ShadowXX
Falls ATI keine PS/VS3.0 haben sollte und die nV40 bei PS2.0 nur ca. 5-10% langsamer sein sollte, hat nV alle Trümpfe in der Hand....


Sind die Karten sonft feature-gleich, würde ich 10% für 3.0 eintauschen, ja.


Dann würde es sogar langen, wenn Sie Ihr 4xOGAA auf 4xRGAA umgestellt hätten...


Nicht, wenn's von der Konkurrenz 6-fach sparse gammakorrigiert gibt. Ob nVivdia auch wirklich was am FSAA verbessert... warten wir's ab, wäre auf jeden Fall sehr begrüßenswert.


Und ATI hätte es geschafft, all Ihren Kredit, den SIe sich mühsam über 1 1/2 Jahren aufgebaut haben, innerhalb von Sekunden zu zerstören...


Ah, etwa so, wie nVidia mit dem Staubsauger? *)

Gruß

Jörg

*) Jaja, ich weiß schon, hätte ich lassen sollen. Schmutz und kleine Steine über mich.

ShadowXX
2004-02-20, 11:26:51
Original geschrieben von HajottV
Ah, etwa so, wie nVidia mit dem Staubsauger? *)

Gruß

Jörg

*) Jaja, ich weiß schon, hätte ich lassen sollen. Schmutz und kleine Steine über mich.

Jupps...genauso wie nV mit Ihrem Staubsauger....nur hat nV den Vorteil, das Sie davor und dannach* wieder was gutes abgeliefert haben...dadurch haben SIe grösseren Kredit (speziel durch die erfolgreiche Vergangenheit, der nv30 wir als Ausrutscher angesehen...bei ATI würds dann Eintagsfliege heissen...)

J.S.Shadow

*
auch wenn ich kein nV Fan bin, muss ich doch sagen, das nv mit dem nv35 sehr schnell und gut reagiert hat...

Demirug
2004-02-20, 11:27:28
Original geschrieben von Gast
Quasar, ich stimme dir im Grunde in allen Punkten zu, allerdings ist besonders Absatz Nr. 3 recht fragwürdig.

Sollte ATI wirklich die Pixel FillRate effektiv verdoppeln können, zusätzlich >50% mehr Vertex-Power haben (6 statt 4 Vertex-Engines + Enhancements), und die Bandbreite von ca. 20GB/s auf über 30GB/s steigern können, und das alles in Bezug auf R350, dann dürfte zumindest klar sein, das ATI hier ein Monster hat, und das darf man getrost wörtlich nehmen.

Wenn man jetzt davon ausgeht, das NVIDIA nicht nur den derzeitigen Vorsprung von ATI beim 2.0-Modell aufholt, sondern auch gleich 75-80% der Leistung des R420 erreichen will, dann erscheint mir das etwas zuviel des Guten. Natürlich alles nur in Anbetracht der "Infos" mit denen wir hier derzeit spekulieren können.

Wenn es nicht Absolute Offtopic wäre könnte ich es ja mal vorrechnen wie nVidia den R420 bei PS 2.0 einholen und sogar schlagen kann. Wenn jemand interesse draran hat soll er hier einen neuen Thread aufmachen.

Ob und wie sich VS/PS 3.0 auf die Entwickler/Spiele auswirkt ist schwer abzuschätzen, allerdings wäre es sicherlich nicht verkehrt, sie zu unterstützen, da wird wohl niemand direkt widersprechen.

Einen gewissen Spieltrieb habe wir Entwickler ja alle. Wenn eine ausreichende Marktsättigung zu erwarten ist (was der Fall sein wird) wird es auch benutzt werden.

Gast
2004-02-20, 11:28:09
Original geschrieben von Gast
Quasar, ich stimme dir im Grunde in allen Punkten zu, allerdings ist besonders Absatz Nr. 3 recht fragwürdig.

Sollte ATI wirklich die Pixel FillRate effektiv verdoppeln können, zusätzlich >50% mehr Vertex-Power haben (6 statt 4 Vertex-Engines + Enhancements), und die Bandbreite von ca. 20GB/s auf über 30GB/s steigern können, und das alles in Bezug auf R350, dann dürfte zumindest klar sein, das ATI hier ein Monster hat, und das darf man getrost wörtlich nehmen.

Wenn man jetzt davon ausgeht, das NVIDIA nicht nur den derzeitigen Vorsprung von ATI beim 2.0-Modell aufholt, sondern auch gleich 75-80% der Leistung des R420 erreichen will, dann erscheint mir das etwas zuviel des Guten. Natürlich alles nur in Anbetracht der "Infos" mit denen wir hier derzeit spekulieren können.

Das mag sein. Vielleicht werden sie auch nur 60-70% erreichen, ich weiß es nicht.

Zwei Punkte hierzu noch:
1. Das Problem woran es bei nVs aktueller Shaderhardware krankt bekannt und AFAIK mit genügend Transistoren relativ einfach zu beheben (Temp-Register).

2. Bei ATi läuft schon "alles rund", so daß hier eine Verbesserung entweder über Takt, Parallelität oder erweiterte FP-Einheiten (was auch wieder auf Parallelität hinausläuft) erreicht werden muss.
Allein das beheben des Temp-Register-Problems sollte bei nV einen ziemlichen Schub auslösen. Angenommen, CineFX läuft momentan mit einer Effizienz von ca. 60-70% und kann durch das Temp-Dingens auf 90% gesteigert werden, wäre das schon die Distanz, die zum R350 fehlt (grob gesagt). Der Rest geht über den Takt und die "Pipelines". ATi legt hier m.E. nach insgesamt 50% zu (bezogen auf R350). Bei den Pipelines wird es bei nV sicherlich auch mit 50% mehr zugehen. Beim Takt vielleicht eher Richtung 20%. Grob geschätzt sind das dann zwischen 30 und 40% Mehrleistung.

Quasar
2004-02-20, 11:30:11
Original geschrieben von Gast
Das mag sein. Vielleicht werden sie auch nur 60-70% erreichen, ich weiß es nicht.

Zwei Punkte hierzu noch:
1. Das Problem woran es bei nVs aktueller Shaderhardware krankt bekannt und AFAIK mit genügend Transistoren relativ einfach zu beheben (Temp-Register).

2. Bei ATi läuft schon "alles rund", so daß hier eine Verbesserung entweder über Takt, Parallelität oder erweiterte FP-Einheiten (was auch wieder auf Parallelität hinausläuft) erreicht werden muss.
Allein das beheben des Temp-Register-Problems sollte bei nV einen ziemlichen Schub auslösen. Angenommen, CineFX läuft momentan mit einer Effizienz von ca. 60-70% und kann durch das Temp-Dingens auf 90% gesteigert werden, wäre das schon die Distanz, die zum R350 fehlt (grob gesagt). Der Rest geht über den Takt und die "Pipelines". ATi legt hier m.E. nach insgesamt 50% zu (bezogen auf R350). Bei den Pipelines wird es bei nV sicherlich auch mit 50% mehr zugehen. Beim Takt vielleicht eher Richtung 20%. Grob geschätzt sind das dann zwischen 30 und 40% Mehrleistung.

*ARRRRGH!!!!*
Was ist nur mit meinen Keksen???

Exxtreme
2004-02-20, 12:23:52
Original geschrieben von Tyler_Durden
Für mich ist die Wahl eh einfach!
Keine von beiden Kaufen, da meine 9800pro noch sicher bis zur nächsten Generation reicht, oder zumindest bis zum Refreshchip! ;)
Full Ack! Wenn beide Kontrahenten wieder nur Multisampling favorisieren dann lohnt sich der Umstieg gar nicht. Da kann man das AA gleich weglassen. Und ohne AA bietet die jetzige Generation mehr als genug Power.

Und wegen irgendwelchen Shaderversionen habe ich noch nie 'ne GraKa gekauft.

robbitop
2004-02-20, 12:25:34
nunja ich denke dass die Perfomanceangaben für R420 in Bezug auf R350 NICHT Taktneutral sind. Sprich der höhere Takt wird einbezogen somit muss die Architektur/Takt nicht 2x R350 sein ;)

Ich gehe von 1,5 x R350 und der Rest über den Takt aus...

reunion
2004-02-20, 12:33:37
Original geschrieben von Demirug
Wenn man nach den unterstützten Shaderversionen des R420 stochert trift man immer nur auf Löcher. Wie es der Zufall so will hat mich ATI am Wochenende mit einer Entwicklernewsletter versorgt. Unter anderem werben sie dort für eine neue Version iheres Shadertools Ashli. Also habe ich mir heute mal den aktuellen Stand heruntergeladen.

Diese neue Version unterstützt nun unterschiedliche Shaderprofile. Neben Shadern für die OpenGL Fragmentshader Extension können auch 2.0 und 2.X Shader für DX9 erzeugt werden. Zusätzlich gibt es dann noch eine Auswahl für die Chipfamilie. Dort steht R300, NV30 (nennt man unterstützt die Konkurrenz) und R420.

Das ich damit dann ein bischen rumspielen musste dürfte klar sein. Es war kein Problem mit dem R420 Profil einen superlangen 2.X Shader (455 Anweisungen) zu erzeugen. Allerdings weigerte sich das System beharlich aus einem if im Sourecode eine Branchanweisung im Shadercode zu bauen. Ok das könnte ja daran liegen das man das noch nicht implementiert hat. Also habe ich mal mit dependent Reads mein glück versucht. Beim R420 Profil bricht er nach dem 4 Level ab. Versucht man das mit dem NV30 Profil gibt es einen internen Fehler und es kommt gar nichts dabei raus. Das NV30 Profil ist also anders als das R420 Profil.

Zum Swizzeln lies sich der Compiler leider auch nicht überreden. Das einzige nachweisbare 2.X Feature ist also die Programmlänge. Einen unlimitierte dependent Read wollte der Compiler für den R420 auf keinen Fall erzeugen. Ohne diesen gibt es aber auch keine PS 3.0.

Also entweder stimmt das Tool nicht oder R420 hat einen PS 2.X welcher unter dem NV30 Level liegt.

Hmm, immerhin 2.X Shader, nachdem der R400 ja eingestampft wurde und jetzt offensichtlich als R500 kommt habe ich beim R420 eigendlich nur 2.0 Shader erwartet. Die Shaderkeule wird dann wohl der R500 auspacken :)

Jetzt stellt sich nur die Frage wie schnell der R420 sein soll, ein bei heutigen Spielen im Vergleich zum NV40 schneller R420 würde (für mich) sicher mehr bringen als ein "lahmer" Chip mit PS3.0...

Gast
2004-02-20, 12:37:46
Original geschrieben von Demirug
Wenn es nicht Absolute Offtopic wäre könnte ich es ja mal vorrechnen wie nVidia den R420 bei PS 2.0 einholen und sogar schlagen kann. Wenn jemand interesse draran hat soll er hier einen neuen Thread aufmachen.
Wäre wirklich interessant darüber mehr zu wissen Demi, du könntest ja einen extra-Thread aufmachen, würde ich wirklich begrüßen.

ow
2004-02-20, 12:49:26
.

Tigerchen
2004-02-20, 15:48:47
Original geschrieben von Sir Integral Wingate Hellsing
Oh man(n), hier glorifizeren ziemlich viele die 3.0 Shader.
Der R420 soll vielleicht auch nur hohe Auflösungen im Zusammenhang mit AA/AF beschleunigen. Wenn das mit zweistelligen Prozentpunkten gelingt, dann wird das Ding sicherlich nen Knaller. Die neueren Shader werden bei ATi sicherlich für den R500 aufgespart bzw weiterentwickelt.

NV50 / R500 ist NextGen! :up:
Ihr habt ja leider Richthofen aus diesem Forum verbannt. Der hat nämlich neben einigem Spam auch immer wieder sehr interessante Informationen preisgegeben. Man mußte nur richtig lesen!

Sphinx
2004-02-20, 16:04:41
Mal angenommen der R420 kommt mit PS3.0 - wo würden die Diskussionen angesichts dahin gehen ?

Man kann sowohl in die Richtung spekulieren und in die andere solange man wirklich keine Offiziellen Specs besitzt.

Im Allerernst glaube ich das Ati alle PS Shader in ganzer Linie soweit getuned haben das aktuelle und kommende Shader davon immens profitieren die im aktuellen DirextX9.0b (c?!) zu finden sind.

Es gibt keine 100% PS3.0 Unterstützung meines erachtens im aktuellen DirectX9.0b sondern wenn überhaupt spekuliert soll es als Sommerupdate 9.0c Entwicklern möglich sein diese Shadermodelle dann zu Entwicklen...

Oder habe ich bei all den Spekulationen den Pfad verloren...

Crushinator
2004-02-20, 16:07:24
Original geschrieben von reunion
(...) Jetzt stellt sich nur die Frage wie schnell der R420 sein soll, ein bei heutigen Spielen im Vergleich zum NV40 schneller R420 würde (für mich) sicher mehr bringen als ein "lahmer" Chip mit PS3.0... Die interessantere Frage sollte eigentlich lauten, ob vollwertige und dann auch noch schnelle Implementierung von PS 3.0 z.Z. mit wirtschaftlich gesunden Mitteln überhaupt so zu realisieren sei, wie sich manch einer hier erträumt. Einige von der Branche würden dazu sagen: "Nichts genaues weiß man nicht."

reunion
2004-02-20, 16:35:15
Original geschrieben von crushinator
Die interessantere Frage sollte eigentlich lauten, ob vollwertige und dann auch noch schnelle Implementierung von PS 3.0 z.Z. mit wirtschaftlich gesunden Mitteln überhaupt so zu realisieren sei, wie sich manch einer hier erträumt. Einige von der Branche würden dazu sagen: "Nichts genaues weiß man nicht."


Sehe ich ähnlich, ATI hatte mit dem R100 und R200 jeweils die Technologisch besseren Chips (R100 hätte fast PS/VS1.0 erreicht, R200 hatte PS1.4) war aber bei zur jeweiligen Zeit aktuellen Spielen langsamer als NV. Mit dem R300 hat ATI nurnoch die Minimalvorraussetzungen erfüllt und siehe da, auf einmal war man schneller als NV die allerdings Technologisch den besseren Chip hatten. Und vermutlich wird ATI mit dem R420 den gleichen Weg gehn...

Da muss man sich wohl die berchtigte Frage stellen ob es nicht schlauer ist heutige Spiele zu beschleunigen anstatt einen hochkomplexen Chip zu entwickeln der dann bei aktuellen Spielen abkackt.

mfg
reu

Demirug
2004-02-20, 16:55:06
Original geschrieben von Sphinx
Mal angenommen der R420 kommt mit PS3.0 - wo würden die Diskussionen angesichts dahin gehen ?

Man kann sowohl in die Richtung spekulieren und in die andere solange man wirklich keine Offiziellen Specs besitzt.

Ja, es gibt eben nur derzeit IMHO mehr indizien für keine PS 3.0 beim R420. Wenn sie welche haben dann zählt nur noch die Speed und die kann man nur mit echter Hardware ermitteln.

Im Allerernst glaube ich das Ati alle PS Shader in ganzer Linie soweit getuned haben das aktuelle und kommende Shader davon immens profitieren die im aktuellen DirextX9.0b (c?!) zu finden sind.

Und wenn ich dir jetzt sage das schon aktuelle Shader welche in HLSL geschrieben wurden von PS 3.0 profitieren könnten?

Es gibt keine 100% PS3.0 Unterstützung meines erachtens im aktuellen DirectX9.0b sondern wenn überhaupt spekuliert soll es als Sommerupdate 9.0c Entwicklern möglich sein diese Shadermodelle dann zu Entwicklen...

Doch die Runtime ist PS 3.0 fähig. Die derzeitige SDK BETA mit PS 3.0 unterstützung wird immer noch mit 9.0b ausgeliefert.

Demirug
2004-02-20, 16:58:38
Original geschrieben von crushinator
Die interessantere Frage sollte eigentlich lauten, ob vollwertige und dann auch noch schnelle Implementierung von PS 3.0 z.Z. mit wirtschaftlich gesunden Mitteln überhaupt so zu realisieren sei, wie sich manch einer hier erträumt. Einige von der Branche würden dazu sagen: "Nichts genaues weiß man nicht."

Es kommt immer darauf an wenn du fragst. Ich sage das es machbar ist. Der einzige kritische Fall ist wenn Pixel im gleichen Bearbeitungsblock unterschiedliche Wege einschlagen. Ohne dynamiches Branching müsste man aber sowieso erst mal alle Möglichkeiten ausrechnen und dann mit einem MUX entscheiden welchen Wert man nimmt. Ein 3.0 Shader kann daher nicht langsamer als die Lösung als 2.0 Shader sein.

egdusp
2004-02-20, 17:08:59
Original geschrieben von Demirug
Ein 3.0 Shader kann daher nicht langsamer als die Lösung als 2.0 Shader sein.

Gibt es Untersuchung, Erfahrungwerte, etc.. wieviel Geschwindigkeitsgewinn sich durvch 3.0 Shader erreichen ließe?

Kann man nicht 10 min durch HL2 (oder Aquamark3 :))laufen und per Programm ermitteln welche Shader wie oft aufgerufen wurde, anschließend per HLSL die Shader in 3.0 remodellieren und schauen was es gebracht hätte.

M.a.W., wieviel kann ein Spiel ohne spezielle Anpassungen (außer einer Rekompilierung) durch PS 3.0 profitieren.

mfg
egdusp

Demirug
2004-02-20, 17:27:53
Original geschrieben von egdusp
Gibt es Untersuchung, Erfahrungwerte, etc.. wieviel Geschwindigkeitsgewinn sich durvch 3.0 Shader erreichen ließe?

Kann man nicht 10 min durch HL2 (oder Aquamark3 :))laufen und per Programm ermitteln welche Shader wie oft aufgerufen wurde, anschließend per HLSL die Shader in 3.0 remodellieren und schauen was es gebracht hätte.

M.a.W., wieviel kann ein Spiel ohne spezielle Anpassungen (außer einer Rekompilierung) durch PS 3.0 profitieren.

mfg
egdusp

Ohne Karte lässt sich das schlecht realisieren.

Die Aussage bezog sich darauf das eine Karte mit (vernünftiger) 3.0 Unterstützung für einen Shader mit dynamischen Sprüngen für einen Pixel höchsten so viele Anweisungen ausführen muss wie ein der gleiche Shader als 2.0 Version. Wenn jedoch alle Pixel in einem Block (z.b 2*2) die gleichen Anweisungen überspringen können spart man bei diesen Pixel. Es gibt sogar in den 1.1 Shader Anweisungen die zu einer Beschleunigung bei 3.0 Hardware genutzt werden können.

aths
2004-02-20, 17:38:50
Original geschrieben von Exxtreme
Full Ack! Wenn beide Kontrahenten wieder nur Multisampling favorisieren dann lohnt sich der Umstieg gar nicht. Da kann man das AA gleich weglassen. Du spielst genauso gerne ohne AA, wie mit 2x oder 4x RGMSAA?

Exxtreme
2004-02-20, 17:42:28
Original geschrieben von aths
Du spielst genauso gerne ohne AA, wie mit 2x oder 4x RGMSAA? Bei einigen Spielen ist der Bildqualitätsgewinn, welchen MSAA bietet so gering, daß sich das Einschalten gar nicht lohnt.

Ich hoffe, die Hersteller besinnen sich wieder zurück oder bieten MSAA + Alphatexturing-AA + Pixelshader-AA an. Dann wäre ich richtig zufrieden.

Wobei Eric Demers da schon was angedeutet hat. ;)

aths
2004-02-20, 17:55:35
Original geschrieben von Exxtreme
Bei einigen Spielen ist der Bildqualitätsgewinn, welchen MSAA bietet so gering, daß sich das Einschalten gar nicht lohnt. Welche Spiele wären das?
Original geschrieben von Exxtreme
Ich hoffe, die Hersteller besinnen sich wieder zurück oder bieten MSAA + Alphatexturing-AA + Pixelshader-AA an. Dann wäre ich richtig zufrieden. Programmierbares Supersampling, quasi "Pixelshader-AF", ist theoretisch sicher irgendwie möglich, aber leider nicht so einfach. Dank Multisampling, sowie Z+Color-Compression kannst du überhaupt erst 4x RGAA auch in modernen Spielen nutzen. Finde ich ziemlich praktisch.
Original geschrieben von Exxtreme
Wobei Eric Demers da schon was angedeutet hat. ;) Uh. Angedeutet wurde schon eine Menge.

r@e
2004-02-20, 19:00:07
Original geschrieben von robbitop
@Voodoo

Der R300 ist wie oft besprochen (auch wenns von der Leistung so aussah) kein wirklich neuer Chip.
Er basiert deutlich auf dem R200 (bereits hier war das TriSetup für 6x Sparse ausgelegt, und Multisampling hätte auch laufen sollen, wenn sich da kein Bug eingeschlichen hätte). ATi hat schlicht Bugs entfernt, auf FP umgestellt, Pipelines dupliziert und VS dupliziert. Gut ein paar neue Features wie die Colorcompression kamen hinzu.Ähm...

Zitat (Presserelease 2002):
http://www.ati.com/companyinfo/press/2002/4512.html
ATI launches RADEON™ 9700, establishing a new foundation for the future of graphics
RADEON 9700 delivers double the performance of any product currently on the market
Thursday, July 18, 2002

<...>

The RADEON 9700 is the first architecture developed by ATI's west coast development team, which includes the former ArtX team, known for developing the graphics for the NINTENDO GAMECUBE™.

<...>Reicht das ?
Dass er zum Teil auf der R200 basiert, bestreitet ja keiner, aber der Shader-Core und wohl auch das fantastische AA, kommt wohl vom ArtX-Team, welches nach ATI's eigener Aussage maßgeblich an der Entwicklung des R300 beteiligt war.

Sorry, aber irgendwie kommen immer die gleichen Argumente.
Und wenn Demirugs Beobachtungen sich als Fakt heraus stellen sollten, ist der R420 nichts anderes, als ein wiederum 'aufgewärmter' R300.

Bin ja mal gespannt, ob die XBox auch bei ATI als Entwicklungsbremse 'dient'...
:D

Mal schaun'...

Razor

reunion
2004-02-20, 19:34:46
Original geschrieben von r@e
Ähm...

Zitat (Presserelease 2002):
http://www.ati.com/companyinfo/press/2002/4512.html
Reicht das ?
Dass er zum Teil auf der R200 basiert, bestreitet ja keiner, aber der Shader-Core und wohl auch das fantastische AA, kommt wohl vom ArtX-Team, welches nach ATI's eigener Aussage maßgeblich an der Entwicklung des R300 beteiligt war.

Sorry, aber irgendwie kommen immer die gleichen Argumente.
Und wenn Demirugs Beobachtungen sich als Fakt heraus stellen sollten, ist der R420 nichts anderes, als ein wiederum 'aufgewärmter' R300.

Bin ja mal gespannt, ob die XBox auch bei ATI als Entwicklungsbremse 'dient'...
:D

Mal schaun'...

Razor

Kannst du nicht einfach irgendwann mal mit diesem Thema aufhörn? Danke.
ArtX wurde von ATI gekauft und damit ist ArtX ATI!

Und sonst, was soll dass beweisen??
Jeder Chip ist nur eine weiterentwicklung des Vorgängerchips, auch der NV40 wird nur ein "aufgewämter" NV35.

mfg
reu

r@e
2004-02-20, 19:42:51
Original geschrieben von reunion
Kannst du nicht einfach irgendwann mal mit diesem Thema aufhörn? Danke.Nö.
Solange hier immer wieder das gleiche Zeugs behauptet wird, werde ich immer wieder ATI höchstpersönlich zitieren.

Razor

r@e
2004-02-20, 19:51:04
Original geschrieben von reunion
...als ein "lahmer" Chip mit PS3.0... Warum muss ein Chip mit PS3.0 'lahm' sein ?
Wäre ein ATI-Chip mit PS3.0 auch 'lahm' ?
:???:

Razor

reunion
2004-02-20, 19:56:10
Original geschrieben von r@e
Warum muss ein Chip mit PS3.0 'lahm' sein ?

Lies mein posting bitte genau durch...

Wäre ein ATI-Chip mit PS3.0 auch 'lahm' ?
:???:

Woher soll ich dass wissen?

Exxtreme
2004-02-20, 19:56:16
Original geschrieben von aths
Welche Spiele wären das?

Farcry-Demo, die Gothic-Serie etc.
Original geschrieben von aths
Dank Multisampling, sowie Z+Color-Compression kannst du überhaupt erst 4x RGAA auch in modernen Spielen nutzen. Finde ich ziemlich praktisch.

Naja, die Voodoo5 konnte ihrer Zeit auch die meisten Spiele mit 4x AA fahren.
Original geschrieben von aths
Uh. Angedeutet wurde schon eine Menge.
E.D. labert eigentlich nie Müll. Er ist, was Glaubwürdigkeit angeht, bei mir ziemlich oben auf der Liste.

r@e
2004-02-20, 19:58:06
Original geschrieben von egdusp
...wieviel kann ein Spiel ohne spezielle Anpassungen (außer einer Rekompilierung) durch PS 3.0 profitieren.Dir Frage wäre doch, was ein in den Treiber integrierter Shader-Recompiler zu leisten in der Lage wäre, wenn er denn das Shaderset 3.0 zur Verfügung hätte... nur so ein Gedankengang.

Razor

marco42
2004-02-20, 20:01:25
Original geschrieben von Demirug
Das einzige 2.X Feature das der Compiler beim R420 Profil genutzt hat war die grössere Programmlänge. Technisch gesehen rechtfertigt diese Steigerung ja die 400er Nummer. Vorallem die FireGL Karten werden diese langen Shader brauchen.

Ich frage mich, ob das nicht gerade die FireGL Karten trifft. Gerade die neuen Features sind es doch, die die Karte fuer nicht Spiele interessant macht. Vorallem das Branching.

Wie steht es eigentlich um den Texturezugriff im Vertex Shader?

egdusp
2004-02-20, 20:06:48
Original geschrieben von r@e
Dir Frage wäre doch, was ein in den Treiber integrierter Shader-Recompiler zu leisten in der Lage wäre, wenn er denn das Shaderset 3.0 zur Verfügung hätte... nur so ein Gedankengang.

Razor

Das sollte im Optimalfall aufs Gleiche hinauslaufen, ändert aber grundsätzlich nichts an meiner Fragestellung. Ob jetzt durch nochmalige ex-ante Kompilierung oder zur Laufzeit, wieviel ist zu er(hoffen)warten?

mfg
egdusp

Demirug
2004-02-20, 20:07:06
Original geschrieben von marco42
Ich frage mich, ob das nicht gerade die FireGL Karten trifft. Gerade die neuen Features sind es doch, die die Karte fuer nicht Spiele interessant macht. Vorallem das Branching.

Ich meinte damit das lange Shader ohne Branching eher was für den Offline-Bereich sind. Branching ist für alle Interesant.

Wie steht es eigentlich um den Texturezugriff im Vertex Shader?

Dafür braucht man 3.0. Ashli erzeugt auch bei den Vertexshaderrn nur maximal 2.X.

Demirug
2004-02-20, 20:11:20
Original geschrieben von r@e
Dir Frage wäre doch, was ein in den Treiber integrierter Shader-Recompiler zu leisten in der Lage wäre, wenn er denn das Shaderset 3.0 zur Verfügung hätte... nur so ein Gedankengang.

Razor

texkill. Es gibt seit PS 1.1 diese Operation welche die Aussgabe eines Pixels unterdrückt. Bisher wird der Pixel aber trotzdem zu ende gerechnet. Eine 3.0 Hardware könnte sofort rausspringen. AFAIR hat Farcry einige Shader mit texkill.

Man könnte aber durchaus auch wieder die dynamisches Brachnes welche in einen 2.0/2.X kodiert wurden erkennen und zurückwandeln und wenn es nicht automatisch geht tauscht man eben wieder mal Shader.

marco42
2004-02-20, 20:18:06
Original geschrieben von [dzp]Viper
Mal eine ganz einfach frage an die Shader 3.0 verfechter ;)

Wollt ihr eine Grafikkarte die:

- Jetzt vielleicht doppelt so schnell ist wie einen 9800xt

oder

- jetzt eine Grafikkarte die viele neue Features hat, da für aber nicht so schnell ist wie die obere Lösung (und erst schnell ist wenn in ca. einem Jahr die ersten games für shader 3.0 rauskommen?)



Ich wuensche eindeutig letzteres. Ausserdem glaube ich nicht, dass letzteres langsamer ist, da du dir ja den Shaderswitch ersparst und der ist bestimmt nicht billig.

Ehrlich gesagt hoffe ich nur auf einen wirklich guten GLSlang support, ich mag naemlich kein Assembler.

Da bei GLSlang besser optimiert werden kann, da man sich eine Assembler Schnittstelle spart, waere es interessant, ob da ATI oder NV besser abschneidet.

r@e
2004-02-20, 20:20:11
Original geschrieben von egdusp
Das sollte im Optimalfall aufs Gleiche hinauslaufen, ändert aber grundsätzlich nichts an meiner Fragestellung. Ob jetzt durch nochmalige ex-ante Kompilierung oder zur Laufzeit, wieviel ist zu er(hoffen)warten?Nun ja, das sehe ich etwas anders...

Denn so hätte das Hardware-Feature-Set in Kombination mit einem entsprechend speizialisierten Treiber einen sofortigen Performance-Vorteil, der nicht erst über die Nutzung externer Engines zum Vorschein kommt. Dass eine Nutzung von PS3.0-Funktionalitäten innerhalb der Engine sehr viel effektiver sein könnte, ist momentan nicht das Zentrum meines Gedankenganges.

Razor

Demirug
2004-02-20, 20:23:22
Original geschrieben von egdusp
Das sollte im Optimalfall aufs Gleiche hinauslaufen, ändert aber grundsätzlich nichts an meiner Fragestellung. Ob jetzt durch nochmalige ex-ante Kompilierung oder zur Laufzeit, wieviel ist zu er(hoffen)warten?

mfg
egdusp

extrembeispiel:

ps_1_1

def c0 , 0.000000, 0.000000, 1.000000, 0.000000

def c1 , 0.330000, 0.590000, 0.110000, 0.000000

tex t0
tex t1
tex t2
texkill t3
dp3 t0.xyz , t0 , c1
dp3_sat t1.xyz , t1_bx2 , t2_bx2
+mov_x2 t0.w , t0.zzzz
mul t1.w , 1-t1.zzzz , 1-t1.zzzz
mul t0.w , t0.wwww , t1.wwww
mul r0.xyz , t0.wwww , c2
+mov r0.w , c0.zzzz

Auf einer 9700Pro kann man mit diesem Shader etwa 370 MPixel/s erzeugen. Hätte der R300 PS 3.0 könnte er in dem Fall das der texkill wirkt auf etwa 2500 MPixel/s kommen.

r@e
2004-02-20, 20:27:05
Original geschrieben von Demirug
texkill. Es gibt seit PS 1.1 diese Operation welche die Aussgabe eines Pixels unterdrückt. Bisher wird der Pixel aber trotzdem zu ende gerechnet. Eine 3.0 Hardware könnte sofort rausspringen. AFAIR hat Farcry einige Shader mit texkill.Verstehe...
Der (verworfene) Pixel müsste also nicht zuende durch die (bei nVidia sehr lange) Pipeline laufen, sondern diese wäre sofort wieder frei für die nächste Sequenz, gell ?
Original geschrieben von Demirug
Man könnte aber durchaus auch wieder die dynamisches Brachnes welche in einen 2.0/2.X kodiert wurden erkennen und zurückwandeln und wenn es nicht automatisch geht tauscht man eben wieder mal Shader. Nun ja, den 'automatischen' Vorgang stelle ich mir reichlich kompliziert vor (sind ja im Prinzip unzusammenhängende, eigenständige Shader-Programme), aber die Option mit der Shader-Lookup-Table bleibt natürlich ('dramatische' Performance-Sprünge durch neue Treiber-Releases)... und natürlich die Möglichkeit, entsprechend angepaßte Shader via Patch in die Engine zu integrieren...

Razor

Demirug
2004-02-20, 20:38:28
Original geschrieben von r@e
Verstehe...
Der (verworfene) Pixel müsste also nicht zuende durch die (bei nVidia sehr lange) Pipeline laufen, sondern diese wäre sofort wieder frei für die nächste Sequenz, gell ?

Die Pipeline muss immer komplett durchlaufen werden. Wenn der Pixel aber verworfen wird dann kann er am Ende der Pipeline diese verlassen und muss nicht noch die restlichen Runden drehen. Jeder Pixel der die Pipeline verlässt macht platz für einen neuen.

Nun ja, den 'automatischen' Vorgang stelle ich mir reichlich kompliziert vor (sind ja im Prinzip unzusammenhängende, eigenständige Shader-Programme), aber die Option mit der Shader-Lookup-Table bleibt natürlich ('dramatische' Performance-Sprünge durch neue Treiber-Releases)... und natürlich die Möglichkeit, entsprechend angepaßte Shader via Patch in die Engine zu integrieren...

Razor

Im Bezug auf statisches Branching bei dem man aus einem Shader viele macht (HL2 Prinzip) wird es schwer das automatisch zu realisieren. Es gibt aber ja noch dynamisches Branching. Kommt dieses zum Einsatz kann man es in einem 2.0 Shader erkennen und in entsprechen umstrukturieren. Ist gar nicht so schwer.

Gast
2004-02-20, 22:24:50
Original geschrieben von Demirug
Wenn man nach den unterstützten Shaderversionen des R420 stochert trift man immer nur auf Löcher. Wie es der Zufall so will hat mich ATI am Wochenende mit einer Entwicklernewsletter versorgt. Unter anderem werben sie dort für eine neue Version iheres Shadertools Ashli. Also habe ich mir heute mal den aktuellen Stand heruntergeladen.

Diese neue Version unterstützt nun unterschiedliche Shaderprofile. Neben Shadern für die OpenGL Fragmentshader Extension können auch 2.0 und 2.X Shader für DX9 erzeugt werden. Zusätzlich gibt es dann noch eine Auswahl für die Chipfamilie. Dort steht R300, NV30 (nennt man unterstützt die Konkurrenz) und R420.

Das ich damit dann ein bischen rumspielen musste dürfte klar sein. Es war kein Problem mit dem R420 Profil einen superlangen 2.X Shader (455 Anweisungen) zu erzeugen. Allerdings weigerte sich das System beharlich aus einem if im Sourecode eine Branchanweisung im Shadercode zu bauen. Ok das könnte ja daran liegen das man das noch nicht implementiert hat. Also habe ich mal mit dependent Reads mein glück versucht. Beim R420 Profil bricht er nach dem 4 Level ab. Versucht man das mit dem NV30 Profil gibt es einen internen Fehler und es kommt gar nichts dabei raus. Das NV30 Profil ist also anders als das R420 Profil.

Zum Swizzeln lies sich der Compiler leider auch nicht überreden. Das einzige nachweisbare 2.X Feature ist also die Programmlänge. Einen unlimitierte dependent Read wollte der Compiler für den R420 auf keinen Fall erzeugen. Ohne diesen gibt es aber auch keine PS 3.0.

Also entweder stimmt das Tool nicht oder R420 hat einen PS 2.X welcher unter dem NV30 Level liegt.

Warum wartet Ihr nicht bis zum Launch? nvidia kommt mit grossem Getöse und Ati bleibt gelassen! Keiner hat sie bisher gegeneinander im Vergleich gesehen, somit wird es weiterhin sehr spannend bleiben. Gott sei Dank bin ich nicht Grün!

Grüsse

aths
2004-02-20, 22:25:35
Original geschrieben von Exxtreme
Farcry-Demo, die Gothic-Serie etc. Bei Far Cry sehe ich mit der Radeon gar kein MSAA, die GeForce hingegen macht das.

Dass Gothic massiv auf Alphatesting setzt, ist nunmal Schrott. Alphatesting ist nicht nur im Zusammenspiel mit MSAA mist, sondern auch kontraproduktiv für AF.
Original geschrieben von Exxtreme
Naja, die Voodoo5 konnte ihrer Zeit auch die meisten Spiele mit 4x AA fahren.In 800x600x22, ja.
Original geschrieben von Exxtreme
E.D. labert eigentlich nie Müll. Er ist, was Glaubwürdigkeit angeht, bei mir ziemlich oben auf der Liste. Alphatesting-AA kann man nicht so einfach machen. Funktioniert beim IMR nur, wenn in der richtigen Reihenfolge gerendert wird. Dann kann man eigentlich auch gleich Alphablending machen. "Pixelshader-AF" ist automatisiert nur ansatzweise möglich. Ich habe da einige Ideen, aber die vertragen sich schlecht mit der herkömmlichen Pipeline-Architektur.

Demirug
2004-02-20, 22:34:41
Original geschrieben von aths
Alphatesting-AA kann man nicht so einfach machen. Funktioniert beim IMR nur, wenn in der richtigen Reihenfolge gerendert wird. Dann kann man eigentlich auch gleich Alphablending machen. "Pixelshader-AF" ist automatisiert nur ansatzweise möglich. Ich habe da einige Ideen, aber die vertragen sich schlecht mit der herkömmlichen Pipeline-Architektur.

Alles was man dafür braucht ist ein Suppixelshader mit Zugriff auf die TMUs.

marco42
2004-02-20, 23:01:58
Original geschrieben von aths
"Pixelshader-AF" ist automatisiert nur ansatzweise möglich. Ich habe da einige Ideen, aber die vertragen sich schlecht mit der herkömmlichen Pipeline-Architektur.

Hmm, wenn du eine smootstep() function hast, brauchst du bei procedualen Texturen doch gar kein multisampling, midmaping mehr. Du kannst doch das proceduale texture filtering im Shader machen.
Sollte eigentlich auch jedem sumpersampling ueberlegen sein. Und so teuer ist smoothstep nun auch wieder nicht. Allerdings braucht man dann noch ein Supersampling auf die Hintergrundkanten. Die Image Texturen muessten natuerlich weiterhin normal gefiltert werden.

Exxtreme
2004-02-21, 10:24:00
Original geschrieben von aths
Bei Far Cry sehe ich mit der Radeon gar kein MSAA, die GeForce hingegen macht das.

Mit dem Cat 3.7 geht's. Aber wie gesagt, der Gewinn an BQ ist IMHO ziemlich gering.
Original geschrieben von aths
Dass Gothic massiv auf Alphatesting setzt, ist nunmal Schrott. Alphatesting ist nicht nur im Zusammenspiel mit MSAA mist, sondern auch kontraproduktiv für AF.

Könnte man auch andersrum auslegen.
Original geschrieben von aths
In 800x600x22, ja.

Die meisten Spiele gingen auch mit 1024x768 bei 4xAA.
Original geschrieben von aths
Alphatesting-AA kann man nicht so einfach machen. Funktioniert beim IMR nur, wenn in der richtigen Reihenfolge gerendert wird. Dann kann man eigentlich auch gleich Alphablending machen. "Pixelshader-AF" ist automatisiert nur ansatzweise möglich. Ich habe da einige Ideen, aber die vertragen sich schlecht mit der herkömmlichen Pipeline-Architektur.
Wenn du auf massives Alphablending setzt, bleibt kaum noch Bandbreite übrig um AA einzusetzen. Trotz FB-Kompression zieht AA immer noch viel Bandbreite.

ow
2004-02-21, 10:59:06
.

Quasar
2004-02-21, 12:00:09
Original geschrieben von ow
Meinst du jetzt irgendwelche Spiele, die zu V5 Zeiten schon alt waren? Für damals aktuelle Titel (zB. Q3) hat es ganz sicher nicht gereicht.

"Die meisten" impliziert ja, daß auch ältere Spiele berücksichtigt wurden, denn diese stellen ja die deutliche Mehrheit an verfügbaren Spielen. *eg*
Und zwischen "spielbar" und "spielbar" kann ja ein ziemlicher Unterschied herrschen. ;)

Ailuros
2004-02-21, 12:39:05
Original geschrieben von ow
Meinst du jetzt irgendwelche Spiele, die zu V5 Zeiten schon alt waren? Für damals aktuelle Titel (zB. Q3) hat es ganz sicher nicht gereicht.

Zu dem Zeitpunkt gab es keine Loesung die spielbar mit 4xSSAA in 1024 in FPS Spielen war.

Bei manchen CPU limitierten flight/racing sims war mit ein bisschen Toleranz und reduzierten settings 4x dann schon moeglich, aber das waren dann schon eher Aussnahmen.

Porsche Unleashed z.B. war eher ein 800*600/2xAA Fall IMHO.

Exxtreme,

Entschuldige aber "die meisten" ist doch ein bisschen uebertrieben. Selbst bei Glide Spielen. 1024*768*16/2xAA dann eher schon. Da es auch der einzige sparsely sampled Algorithmus zu der Zeit war, war es auch durchaus genug.

aths
2004-02-21, 13:04:12
Original geschrieben von Exxtreme
Mit dem Cat 3.7 geht's. Aber wie gesagt, der Gewinn an BQ ist IMHO ziemlich gering.Fand ich nicht, als ich das mit der GF ausprobierte.
Original geschrieben von Exxtreme
Könnte man auch andersrum auslegen. Wie meinst du das?
Original geschrieben von Exxtreme
Die meisten Spiele gingen auch mit 1024x768 bei 4xAA. Nah. In 800x600 war 4x AA breit einsetzbar (und sah spitze aus) aber 1024x768 mit 4x AA war nur in anspruchsloseren Spielen (Mechwarrior 3 etc.) schnell genug.
Original geschrieben von Exxtreme
Wenn du auf massives Alphablending setzt, bleibt kaum noch Bandbreite übrig um AA einzusetzen. Trotz FB-Kompression zieht AA immer noch viel Bandbreite. Wenn du das mit Supersampling bekämpfen willst, kommt neben dem Speicherbandbreiten-Verbrauch auch noch Füllratenverbrauch dazu. Die Polygone mit Alpha-Kanal von hinten nach vorne zu rendern, verbraucht auch zusätzliche Füllrate, aber nicht um Faktor 3.

robbitop
2004-02-21, 13:21:23
Supersampling zieht nochmehr Bandbreite mangels FB Compression. Ein MSAA Algo der Alphatexturen glättet (siehe Demis Studie) wäre wirklich nett.

Leonidas
2004-02-22, 08:09:00
Original geschrieben von Demirug
Also entweder stimmt das Tool nicht oder R420 hat einen PS 2.X welcher unter dem NV30 Level liegt.



R420 ist Shader 2.0. Definitiv.
http://www.3dcenter.org/artikel/2004/02-22_a.php

Demirug
2004-02-22, 08:44:44
Original geschrieben von Leonidas
R420 ist Shader 2.0. Definitiv.
http://www.3dcenter.org/artikel/2004/02-22_a.php

2.X um genau zu sein. Aber wohl wirklich nur eine grösser Programmlänge als Zusatzoption.

LovesuckZ
2004-02-22, 08:48:50
Original geschrieben von Demirug
2.X um genau zu sein. Aber wohl wirklich nur eine grösser Programmlänge als Zusatzoption.

Da sie nur "PS2.x" unterstuetzen, wieviel Transistoren müssten sie denn dafür verwenden? Oder reicht da nur der "F-Buffer" aus, der einerseits funktioniert und andererseits auch unter DX geht?

aths
2004-02-22, 10:03:58
Weder noch. Einfach einen größeren Speicher für Shader, und ein oder zwei Bits mehr für den Instruction Pointer.

Wenn das wirklich alle Erweiterungen sind (was ich angesichts der Entwicklungszeit und der 50 Mio Transistoren noch nicht glauben will) na dann gute Nacht.

Demirug
2004-02-22, 10:08:11
Original geschrieben von aths
Weder noch. Einfach einen größeren Speicher für Shader, und ein oder zwei Bits mehr für den Instruction Pointer.

Wenn das wirklich alle Erweiterungen sind (was ich angesichts der Entwicklungszeit und der 50 Mio Transistoren noch nicht glauben will) na dann gute Nacht.

Der Rest dürfte zur Performancesteigerung benutzt worden sein.

Tyler_Durden
2004-02-22, 10:28:44
@ Leonidas

Netter Artikel und einerseits kann man ATi wirklich verstehen!
Shader 3.0 wird wohl erst dann genutzt werden, wenn die Nachfolgechips ala R500, NV50 auf den Markt kommen!
Klar, es wird Ausnahmen geben, die schon vorher Shader 3.0 Optionen haben werden, aber das wird wohl die Minderheit sein!
ATi setzt also Klar auf Performance und nicht auf Features!
Bin da mal gespannt, wo die Käufer mehr drauf anspringen!
Sollte der R420 und normalen DX9 + Shader 2.0 wesentlich schneller sein als der NV40, glaube ich sogar das ATi die Nase vorn haben wird, was die Gunst der Käufer angeht!

ironMonkey
2004-02-22, 12:15:23
Original geschrieben von aths
Wenn das wirklich alle Erweiterungen sind (was ich angesichts der Entwicklungszeit und der 50 Mio Transistoren noch nicht glauben will) na dann gute Nacht.

Wieso gute nacht??????Die werden sich halt eher um die Leistung gekümmert haben, was ja uns nur recht sein kann...bringt mir ja nix wenn die Karte etwas unterstüzt wo noch kein Land in sicht ist, man braucht Leistung und zwar jetzt...von daher würde ich ATI voll und ganz verstehen wenn die Karte einfach nur um einiges mehr leistung hat....man kann es allerdings nicht jedem recht machen.



Gruß

Winter[Raven]
2004-02-22, 12:26:19
Original geschrieben von ironMonkey
Wieso gute nacht??????Die werden sich halt eher um die Leistung gekümmert haben, was ja uns nur recht sein kann...bringt mir ja nix wenn die Karte etwas unterstüzt wo noch kein Land in sicht ist, man braucht Leistung und zwar jetzt...von daher würde ich ATI voll und ganz verstehen wenn die Karte einfach nur um einiges mehr leistung hat....man kann es allerdings nicht jedem recht machen
Gruß

- Ohne Unterstützung der 3.0 Shader könnte Ati ihren Ruf bei den Dev's zerstören.

- Es ist Ansichtssache, ich nehme lieber eine Karte die vielleicht etwas langsammer ist, ich kauf mir doch nicht jede Generation neu, dafür kann ich dann wenigstens Shader 3.0 bewudern. Die R420 user werden dann aber ins Roh gucken ... was nützt mir die suppa dollste und schnellste Grafikkarte wenn ich nicht alles nützen kann ?

Gast
2004-02-22, 12:59:30
der vergleich hinkt vieleicht, aber 3dfx hat ja auch 32bit farbtiefe ne absage erteil, damals, und haben ihre voodoos auf speed gepusht (sollte ich irren, berichtigt mich).
32bit war damals auch n feature das erstmal keiner gebraucht hat, so isses ja immer ;)
die situation imo is dem also nicht unähnlich, wobei ich deren damaligen ausgang nicht auf heute übertragen will, da liegen die dinge schon anders

reunion
2004-02-22, 13:02:00
Original geschrieben von Winter[Raven]
- Es ist Ansichtssache, ich nehme lieber eine Karte die vielleicht etwas langsammer ist, ich kauf mir doch nicht jede Generation neu, dafür kann ich dann wenigstens Shader 3.0 bewudern. Die R420 user werden dann aber ins Roh gucken ... was nützt mir die suppa dollste und schnellste Grafikkarte wenn ich nicht alles nützen kann ?

Die Frage wird nur sein ob PS3.0 auch kommen werden wenn ATI diese nicht unterstützt...

ironMonkey
2004-02-22, 13:07:27
Naja...man kann es auch so sehen das R420/NV40 rauskommen um die Zeitlücke bis NV50/R500 zu füllen, von daher genügt es locker der aktuellen Serie einfach nur mehr Speed zu verpassen und fertig.

Falls die NV40 schneller wie die R420 wird bei aktuellen Spielen, dann hol ich mir Nvidia...ansonsten ATI.....



Gruß

Demirug
2004-02-22, 13:13:02
Original geschrieben von reunion
Die Frage wird nur sein ob PS3.0 auch kommen werden wenn ATI diese nicht unterstützt...

Ich gehe fest davon aus weil das Kosten/Nutzen Verhältniss noch nie so gut war bei einer neuen Shaderversion.

EDIT: PS: bei nVidia kommt es bestimmt auch in Form von Shaderersetzungen im Treiber.

Winter[Raven]
2004-02-22, 13:15:14
Die Frage wird nur sein ob PS3.0 auch kommen werden wenn ATI diese nicht unterstützt...

Klar, ist eine Berechtigte Frage ... NUR da Ati diese Shader nicht supporten wird, ist es jetzt schon abzusehn das Nvidia diesen Umstand schamlos ausnützen wird und wohl ihrer Support so einigen Entwickler dazu bewegen ab und zu da und hier die Shader einzubauen. Und wie Demirug (GOTT) in anderem Tread schon angedeutet hat:

Potenziell jede Anwendung welche Texkill Shaderanweisung nutzt. Die gibt es seit PS 1.1. Solche Shader können im "Kill-Ffall" auf einem PS 3.0 fähigen Chip viel schneller laufen. Farcry nutzt Texkill recht häufig.

Desweiteren kann jede Anwendung profitieren welche HLSL Shader einsetzt welche IF Anweisungen enthalten. In diesem Fall mus lediglich auf das neue DX SDK hochgepatcht werden. Aufwand minimal.

Muss man davon fest ausgehen.

Sphinx
2004-02-22, 13:21:19
Schade ums Feature wenn es sich offiziell bestätigt. Andere Sache ist fast wie ~ PS1.4 ,) Ein anderer IHV halt. Und wenn ich mich recht entsinnen kann gibt es auch nur wenn eine Handvoll PS1.4 Spiele z.Zt.

Demirug
2004-02-22, 13:28:29
Original geschrieben von Sphinx
Schade ums Feature wenn es sich offiziell bestätigt. Andere Sache ist fast wie ~ PS1.4 ,) Ein anderer IHV halt. Und wenn ich mich recht entsinnen kann gibt es auch nur wenn eine Handvoll PS1.4 Spiele z.Zt.

PS 1.4 war damals auch irgendwie eine blöde Sache. Der Syntax war nicht so ganz kompatibel zu 1.1. Sie waren zwar mächtiger als 1.1 aber wiederum nicht so mächtig das man immer problemloss zwei 1.1 Shader in einen 1.4 hätte packen können. Hätte es damals schon HLSL gegeben hättes es durchaus besser für 1.4 aussehen können. So war aber einfach der Aufwand zu gross.

Tyler_Durden
2004-02-22, 13:38:03
Original geschrieben von Gast
der vergleich hinkt vieleicht, aber 3dfx hat ja auch 32bit farbtiefe ne absage erteil, damals, und haben ihre voodoos auf speed gepusht (sollte ich irren, berichtigt mich).
32bit war damals auch n feature das erstmal keiner gebraucht hat, so isses ja immer ;)
die situation imo is dem also nicht unähnlich, wobei ich deren damaligen ausgang nicht auf heute übertragen will, da liegen die dinge schon anders

Nun, 32Bit konnte damals ja auch ohne großen Aufwand jedes Game bieten!
Bei PS3.0 is das ja was anderes, von daher mach ich mir keine sorgen um ATi!

reunion
2004-02-22, 13:58:08
Original geschrieben von Winter[Raven]
Klar, ist eine Berechtigte Frage ... NUR da Ati diese Shader nicht supporten wird, ist es jetzt schon abzusehn das Nvidia diesen Umstand schamlos ausnützen wird und wohl ihrer Support so einigen Entwickler dazu bewegen ab und zu da und hier die Shader einzubauen. Und wie Demirug (GOTT) in anderem Tread schon angedeutet hat:

Muss man davon fest ausgehen.

Schon klar, trozdem sehe ich da kein großes Problem für ATI, immerhin hat NV auch schon jetzt die technologisch klar besseren Shader. Trozdem zählt in Endeffekt nur die Leistung bei aktuellen Spielen und da hatte ATI eben die Nase vorn.

reunion
2004-02-22, 14:00:44
Original geschrieben von Demirug
Ich gehe fest davon aus weil das Kosten/Nutzen Verhältniss noch nie so gut war bei einer neuen Shaderversion.

EDIT: PS: bei nVidia kommt es bestimmt auch in Form von Shaderersetzungen im Treiber.

Natürlich ist es leicht zu integrieren, nur man sieht ja z.B. sehrschön bei PS2.X dass sie(mangels unterstützung von ATI) zurzeit praktisch nicht benutzt werden (Und die bräucht man ja auch nur durch den M$-Compiler zu jagen)...

LovesuckZ
2004-02-22, 14:03:52
Original geschrieben von reunion
Natürlich ist es leicht zu integrieren, nur man sieht ja z.B. sehrschön bei PS2.X dass sie(mangels unterstützung von ATI) zurzeit praktisch nicht benutzt werden (Und die bräucht man ja auch nur durch den M$-Compiler zu jagen)...

Wieviele DX9 Spiele gibt es denn? 2. Und diese sind noch vor dem Summerupdate erschienen. FarCry wird wohl als erstes Spiel ganz offiziell PS2.x verwenden.
Ansonsten setzt sich PS2.x in Anwendungen imemr mehr durch. Rightmark3d hat sie optional, sowie Shadermark2.0 .

reunion
2004-02-22, 14:08:47
Original geschrieben von LovesuckZ
Wieviele DX9 Spiele gibt es denn? 2. Und diese sind noch vor dem Summerupdate erschienen. FarCry wird wohl als erstes Spiel ganz offiziell PS2.x verwenden.
Ansonsten setzt sich PS2.x in Anwendungen imemr mehr durch. Rightmark3d hat sie optional, sowie Shadermark2.0 .

Ja, nur kann NV daraus offensichtlich keine Vorteile ziehn, da ATI selbst mit 2.0 Shadern schneller ist als NV mit 2.X Shadern (zumindest im Demo).

Und genau darum gehts, wenn ATI in der Lage ist weiterhin extrem schneller PS2.0/2.X Support zu bieten dann wird man auch keine Problemen haben.

Demirug
2004-02-22, 14:13:38
Original geschrieben von reunion
Ja, nur kann NV daraus offensichtlich keine Vorteile ziehn, da ATI selbst mit 2.0 Shadern schneller ist als NV mit 2.X Shadern (zumindest im Demo).

Und genau darum gehts, wenn ATI in der Lage ist weiterhin extrem schneller PS2.0/2.X Support zu bieten dann wird man auch keine Problemen haben.

Die 2.X Version des NV30 hat auch nicht sonderlich viel Sparmöglichkeiten.

Sphinx
2004-02-22, 14:18:41
Könnte man sagen das Nvidia ihre PS2.x Performance nur aus dem Grund "steigern" werden das sie PS3.0 verwenden und alle PS2.x Shader (Durch Forceware Treiber) die PS3.0 Shader Einheit Durchlaufen werden ?

Demirug
2004-02-22, 14:24:02
Original geschrieben von Sphinx
Könnte man sagen das Nvidia ihre PS2.x Performance nur aus dem Grund "steigern" werden das sie PS3.0 verwenden und alle PS2.x Shader (Durch Forceware Treiber) die PS3.0 Shader Einheit Durchlaufen werden ?

Es gibt im NV40 keine unterschiedlichen Einheiten für unterschiedliche Shaderversionen. Es ist natürlich nicht auszuschliessen das in den hohen Faktoren die bezüglich der Steigerung der Shadergeschwindigkeit im Umlauf sind auch schon Vorteile welche durch die 3.0 fähige Hardware entstehen eingerechnet sind. Der Faktor ist aber zu gross als das er nur durch diese Sache erreicht werden kann. Man wird untersuchen müssen welche Shader um welchen faktor schneller werden.

Gast
2004-02-22, 14:48:05
Doch weit gefehlt - die ursprüngliche theoretische Überlegung war doch richtig, denn: Wir können zweifelsfrei bestätigen, daß der ATi R420-Chip keinen Shader 3.0 Support bieten wird.

ich frage mich wie ihr das zweifelsfrei bestätigen könnt......falls der einzige proof das ashli tool ist halte ich die aussage doch für mehr als etwas gewagt. es ist nicht ungewöhnlich das tools zu diesem zeitpunkt noch nicht die volle funktionalität unterstützen, oder? also, quelle?

Demirug
2004-02-22, 14:52:23
Original geschrieben von Gast
ich frage mich wie ihr das zweifelsfrei bestätigen könnt......falls der einzige proof das ashli tool ist halte ich die aussage doch für mehr als etwas gewagt. es ist nicht ungewöhnlich das tools zu diesem zeitpunkt noch nicht die volle funktionalität unterstützen, oder? also, quelle?

Ich zitire mal Leo:

Die Quelle ist mehr als direkt, direkter geht es gar nicht mehr. Nicht nur die Position der Quelle ist direkt, sondern auch die Art, wie sie selber zu den Informationen gekommen, ist ultimativ direkt. Eingeweihte ahnen womöglich, was ich meine :-).

Sphinx
2004-02-22, 14:52:45
Original geschrieben von Gast
ich frage mich wie ihr das zweifelsfrei bestätigen könnt......falls der einzige proof das ashli tool ist halte ich die aussage doch für mehr als etwas gewagt. es ist nicht ungewöhnlich das tools zu diesem zeitpunkt noch nicht die volle funktionalität unterstützen, oder? also, quelle?

Quelle : Nvidia ,)

ironMonkey
2004-02-22, 15:04:11
ATI baut die Karten und nicht wir, wenn die wissen das sie kein PS 3.0 brauchen, dann brauchen sie es nicht und fertig.

Nvidia wirds halt brauchen, weil sie wohl wissen werden das sie nicht an die Leistung des R420 rankommen können und somit braucht man das um besser da zu stehen wie ATI, egal obs was bringt oder nicht Hauptsache PS 3.0;D



Gruß

Demirug
2004-02-22, 15:09:27
Ich hoffe derjenige der mich auf diesen Text (http://gutenberg.spiegel.de/aesop/fuchtrau.htm) gebracht hat verzeiht mir meinen kleinen Ideenklau.

deekey777
2004-02-22, 15:12:41
Nur so zum Spass (http://www.theinq.net/?article=11300)

Eigentlich könnte dieser Thread geschlossen werden.

seahawk
2004-02-22, 17:49:19
Original geschrieben von reunion
Ja, nur kann NV daraus offensichtlich keine Vorteile ziehn, da ATI selbst mit 2.0 Shadern schneller ist als NV mit 2.X Shadern (zumindest im Demo).

Und genau darum gehts, wenn ATI in der Lage ist weiterhin extrem schneller PS2.0/2.X Support zu bieten dann wird man auch keine Problemen haben.

Außer NV hat die Probleme der NV3X Reihe gelöst und bietet nun auch sehr gute Shaderperformance.

tokugawa
2004-02-22, 18:20:19
Original geschrieben von ironMonkey
ATI baut die Karten und nicht wir, wenn die wissen das sie kein PS 3.0 brauchen, dann brauchen sie es nicht und fertig.

Nvidia wirds halt brauchen, weil sie wohl wissen werden das sie nicht an die Leistung des R420 rankommen können und somit braucht man das um besser da zu stehen wie ATI, egal obs was bringt oder nicht Hauptsache PS 3.0;D



Gruß


Eher so: ATI "weiss" (bzw meint zu wissen), dass WIR kein Shader 3.0 brauchen.

Shader 3.0 kommt ja den Spielen und damit uns zugute (und natürlich den Entwicklern).

Außerdem versteh ich nicht ganz, wieso jeder behauptet, Shader 3.0 wird nicht unterstützt werden.

So wie ich das sehe, wird Shader 3.0 Support sogar relativ einfach supportet werden... ein Rekompilieren des HLSL Codes mit Shader 3.0 Target reicht ja.

Natürlich bringen nicht alle Shader die's heute schon gibt, automatisch Vorteile durch Shader 3.0 (oder gar neuartige Effekte), aber ich denke es wird zumindest nicht langsamer, sondern eher schneller (durch branching usw.).

Ich denke dass Shader 3.0 Unterstützung in Spielen dadurch, dass einfaches Rekompilieren (für's erste) mal reicht, viel schneller von statten gehen wird als die meisten DirectX Features der Vergangenheit.

Natürlich wartet dann jeder auf Shader 3.0 Unterstützung, die direkt FÜR Shader 3.0 konzipiert und programmiert wurde und es ausreizt. Das wird wohl eher dauern. Aber wie gesagt, es kann ja schon dadurch Vorteile (oder zumindest keine Nachteile geben), einfach die alten HLSL-Shader auf Shader 3.0 zu kompilieren.

marco42
2004-02-22, 18:30:45
Original geschrieben von Tyler_Durden
Nun, 32Bit konnte damals ja auch ohne großen Aufwand jedes Game bieten!
Bei PS3.0 is das ja was anderes, von daher mach ich mir keine sorgen um ATi!

Na, wenn du eine HLSL benutzt dann ist dass kein so grosses Problem. Bei der OpenGL Shading Language ist das sogar automatisch so, da der Compiler im Treiber ist. Es gibt also kein VS/PS sonstwas.nocheinbisschen als Assemblerzwischenstufe. Da hat so seine Nach- als auch Vorteile. Du kannst damit beim Treiber aber mehr aus der Karte herausholen auch fuer aeltere Sachen(wenn sie mal aelter sind :-). Ich habe gehoert, dass das aber auch mit der HLSL von DX gehen soll. Bloss dass Microsoft die Finger auf dem Compiler hat.

AlfredENeumann
2004-02-22, 18:54:57
Original geschrieben von tokugawa
Eher so: ATI "weiss" (bzw meint zu wissen), dass WIR kein Shader 3.0 brauchen.

Shader 3.0 kommt ja den Spielen und damit uns zugute (und natürlich den Entwicklern).

Außerdem versteh ich nicht ganz, wieso jeder behauptet, Shader 3.0 wird nicht unterstützt werden.

So wie ich das sehe, wird Shader 3.0 Support sogar relativ einfach supportet werden... ein Rekompilieren des HLSL Codes mit Shader 3.0 Target reicht ja.

Natürlich bringen nicht alle Shader die's heute schon gibt, automatisch Vorteile durch Shader 3.0 (oder gar neuartige Effekte), aber ich denke es wird zumindest nicht langsamer, sondern eher schneller (durch branching usw.).

Ich denke dass Shader 3.0 Unterstützung in Spielen dadurch, dass einfaches Rekompilieren (für's erste) mal reicht, viel schneller von statten gehen wird als die meisten DirectX Features der Vergangenheit.

Natürlich wartet dann jeder auf Shader 3.0 Unterstützung, die direkt FÜR Shader 3.0 konzipiert und programmiert wurde und es ausreizt. Das wird wohl eher dauern. Aber wie gesagt, es kann ja schon dadurch Vorteile (oder zumindest keine Nachteile geben), einfach die alten HLSL-Shader auf Shader 3.0 zu kompilieren.

Man kanns auch so rum sehen.
Angenommen ATI hat einen PS2.0 Support der so schnell ist wie ein entsprechnder PS3.0 Shader auf anderer Hardware, warum dafür dann Tranistoren verschwenden?

seahawk
2004-02-22, 18:58:45
Original geschrieben von AlfredENeumann
Man kanns auch so rum sehen.
Angenommen ATI hat einen PS2.0 Support der so schnell ist wie ein entsprechnder PS3.0 Shader auf anderer Hardware, warum dafür dann Tranistoren verschwenden?

Nur leider kann man nicht jeden 3.0 Shader als 2.0 Shader darstellen. :D

Gast
2004-02-22, 19:01:36
Original geschrieben von AlfredENeumann
Man kanns auch so rum sehen.
Angenommen ATI hat einen PS2.0 Support der so schnell ist wie ein entsprechnder PS3.0 Shader auf anderer Hardware, warum dafür dann Tranistoren verschwenden?

Gerüchteweise habe ich selbiges auch von einer nichtoffiziellen Quelle als Spekulation gehört...

Da PS3.0 Nix anderes bietet wie Demi schon sagte als Ressourcen sparende Variante...

Ich glaub es vernarren sich zu viele daran PS3.0 = NEUE EFFEKTE.

Ich würde mal vorsichtig behaupten wenn Funktioniell : PS3.0 = Mehr Shader in einem Durchgang die Effizienter berechnet werden... Ob es reicht schnell zu sein ?

seahawk
2004-02-22, 20:45:14
Original geschrieben von Gast
Gerüchteweise habe ich selbiges auch von einer nichtoffiziellen Quelle als Spekulation gehört...

Da PS3.0 Nix anderes bietet wie Demi schon sagte als Ressourcen sparende Variante...

Ich glaub es vernarren sich zu viele daran PS3.0 = NEUE EFFEKTE.

Ich würde mal vorsichtig behaupten wenn Funktioniell : PS3.0 = Mehr Shader in einem Durchgang die Effizienter berechnet werden... Ob es reicht schnell zu sein ?

Das ist einfach falsch. Ein 2.0 Shader kann durch einen 3.0 Shader ersetzt werden. Bzw mehrere 2.0 Shader können durch einen 3.0 Shader ersetzt werden der durch Variabelen flexibeler ist. Will sagen statt 10 Shader für 10 verschieden Flüssigkeiten hat man nur noch einen, der alle abdecken kann.
Darüberhinaus ermöglicht der 3.0 Standard wesentlich länfere und komplexere Sahder und damit im Endeffekt auch mehr Eyecandy.

Übrigens kann man viele PS2.0 Effekte auch mit 1.X erzeugen. Trotzdem wurde der NV3X eben gerade dafür kritsiert. :motz:

StefanV
2004-02-22, 21:12:58
Original geschrieben von seahawk
Übrigens kann man viele PS2.0 Effekte auch mit 1.X erzeugen. Trotzdem wurde der NV3X eben gerade dafür kritsiert.

Ja, aber auch, weil der NV3x selbst bei dem 'nicht nV Shader' 1.4 nicht wirklich schnell war, im Vergleich zu PS<=1.3

Quasar
2004-02-22, 21:33:43
Original geschrieben von Stefan Payne
Ja, aber auch, weil der NV3x selbst bei dem 'nicht nV Shader' 1.4 nicht wirklich schnell war, im Vergleich zu PS<=1.3

Meine FX5200 zeigt da keine Einbußen ggü. PS1.1-1.3 mehr. Ich denke, bei den großen Geschwistern sollte das Mittlerweile ähnlich sein.


Original geschrieben von Demirug
Ich hoffe derjenige der mich auf diesen Text (http://gutenberg.spiegel.de/aesop/fuchtrau.htm) gebracht hat verzeiht mir meinen kleinen Ideenklau.

Der ist 'köstlich'. Aesop ist doch immer wieder zu was zu gebrauchen, auch nach mehreren tausend Jahren. :up:

Original geschrieben von Demirug
Ich zitire mal Leo:
quote:
Die Quelle ist mehr als direkt, direkter geht es gar nicht mehr. Nicht nur die Position der Quelle ist direkt, sondern auch die Art, wie sie selber zu den Informationen gekommen, ist ultimativ direkt. Eingeweihte ahnen womöglich, was ich meine :-).


Damit scheidet als Quelle schonmal jemand aus, der einfach nur an eine R420-Karte gekommen ist. :D
Wobei "ultimativ" direkt zwar darauf hindeutet, aber hinsichtlich der Treiber, die gewisse DX-Caps womöglich noch verstecken könnten (theoretisch), doch größte Vorsicht mit solchen endgültigen Schlüssen geboten wäre....

Somit muss die Quelle eigentlich direkt bei ATi zu suchen sein, denn auch Leute bei nV dürften sich dieser Sache nicht so sicher sein können, z.Zt.

Leonidas
2004-02-22, 23:10:53
Original geschrieben von Gast
ich frage mich wie ihr das zweifelsfrei bestätigen könnt......falls der einzige proof das ashli tool ist halte ich die aussage doch für mehr als etwas gewagt. es ist nicht ungewöhnlich das tools zu diesem zeitpunkt noch nicht die volle funktionalität unterstützen, oder? also, quelle?



Auf keinen Fall ist dies unsere Quelle. Wir haben die Sache uns nicht irgendwie aus ein paar Halb-Infos erdacht, sondern wir haben eine definitive und glasklare Aussage von jemanden, der es gemäß Amt wissen *muß* - und nebenbei mit dieser Info von ATi höchstselbst ganz offiziell gefüttert wurde. Alles koscher also.


Aber zur Quelle selber: Sorry, kein Kommentar.

mapel110
2004-02-22, 23:49:21
Original geschrieben von Leonidas
Auf keinen Fall ist dies unsere Quelle. Wir haben die Sache uns nicht irgendwie aus ein paar Halb-Infos erdacht, sondern wir haben eine definitive und glasklare Aussage von jemanden, der es gemäß Amt wissen *muß* - und nebenbei mit dieser Info von ATi höchstselbst ganz offiziell gefüttert wurde. Alles koscher also.


Aber zur Quelle selber: Sorry, kein Kommentar.

Also doch nur eine indirekte Quelle. Hat derjenige den auch genügend Hintergrundwissen, dass er die Infos, die er bekommen hat, nicht falsch interpretieren kann?

Aquaschaf
2004-02-22, 23:54:03
Wenn die Aussage definitiv und klar ist, was soll da falsch interpretiert werden?

AlfredENeumann
2004-02-23, 01:06:05
Original geschrieben von Leonidas
Auf keinen Fall ist dies unsere Quelle. Wir haben die Sache uns nicht irgendwie aus ein paar Halb-Infos erdacht, sondern wir haben eine definitive und glasklare Aussage von jemanden, der es gemäß Amt wissen *muß* - und nebenbei mit dieser Info von ATi höchstselbst ganz offiziell gefüttert wurde. Alles koscher also.


Aber zur Quelle selber: Sorry, kein Kommentar.

Kann ja dann nur ein AIB sein.

Doc PeWe
2004-02-23, 08:49:59
Original geschrieben von AlfredENeumann
Kann ja dann nur ein AIB sein.

Die AIB's wissen noch gar nix! Wenn dem so wäre, nur mal angenommen - wüßte der Wettbewerb bescheid, den wie wir alle wissen hat ATI bei Ihrer AIB-Politik nicht die Scheuklappen auf und schreibt Ihren Boardpartnern nicht vor nur ATi-Basierende Grafikkarten herzustellen.

Siehe Terratec, Gigabyte, ASUS, CP, Club3D, Creative Labs etc. pepe alles Zwitter im Bezug auf Chip-Auswahl!

MSI, Gigabyte sind zudem Mainboard IGP Partner !

Diese ganze Diskussion bezüglich PS3.0 scheint mir eh von einem grünen Jung entfacht zu sein. ;-)

Zeig mir ein Game 2004 das PS.30 "zwingend" verlangt und überhaupt besteht das Jahr 2004 aus noch 10 ganzen Monaten, wenn wir uns erinnern mit welcher Performance 2003 NEUE Chips gelauncht wurden ist es dann nur einen Frage von Monaten bis ATi mit PS3.0 nachziehen könnte, wenn es nicht bereits vorhanden ist ;-) ABGESCHALTET!!!

Zu beginn wird die Presse und die Mehrheit der User nur auf die ersten Vergleichs-Werte, basierend auf heutigen Anwendungen/Benchmarks, schauen!

Grüsse

Exxtreme
2004-02-23, 10:21:15
Original geschrieben von AlfredENeumann
Kann ja dann nur ein AIB sein.
Jepp, XXX_XXXXXXX treibt sich öfter in den Foren hier rum. ;)

Sphinx
2004-02-23, 10:33:42
Ich glaube man verspricht zu viel mit der Einführung der PS3.0 Shadertechnik.

Wenn ich es richtig verstehe wird dieselbe Situation Shader 2.0 vs Shader 2.x wiederholt.

Nvidia führt Shader 3.0 ein welches nur ein geringeres Update ihrer jetzt vorhanden Shadertechnologie ist - da PS 2.x schon fast 3.0 Shadern entspricht nur das die Shaderlänge mit 512 Anweisungen festgelegt ist - welches wiederum heist das PS3.0 Technologie auch wenn sie für diese Größenordnung schonendere Verfahren|techniken inne hat - Heist es hier das der Chip 24 (PS2.0)Anweisungen vs 512 Anweisungen (PS3.0only) einen 20x Facheren Mehraufwand an Berechnungen durchführen müste...(Theoretisch) Welches durch optimierungen mal Spekuliert auf 10xFache heruntergedrückt wird. Ist es doch ein ganzes Stück weswegen ich nicht glaube das die PS3.0 Performance des NV4x Der Hypersprung sein wird.

Die Frage ist dann ob es theoretisch Möglich währe wenn 20 "theoretische" PS2.0 Anweisungen zu 1 nem ganzen PS3.0 Shader zusammengefasst werden kann und dadurch in einem PASS 20 PS2.0 Anweisungen abgearbeitet werden kann...

Weil dann kann ich mir gut vorstellen das Nvidia hier ebenfalls ein Hypergeschoss besitzt welches um einen Faktor 10x schnellere PS2.0 als jetzige Karten besitzt.

Exxtreme
2004-02-23, 10:43:23
Original geschrieben von Sphinx
Ich glaube man verspricht zu viel mit der Einführung der PS3.0 Shadertechnik.

Wenn ich es richtig verstehe wird dieselbe Situation Shader 2.0 vs Shader 2.x wiederholt.

Nvidia führt Shader 3.0 ein welches nur ein geringeres Update ihrer jetzt vorhanden Shadertechnologie ist - da PS 2.x schon fast 3.0 Shadern entspricht nur das die Shaderlänge mit 512 Anweisungen festgelegt ist - welches wiederum heist das PS3.0 Technologie auch wenn sie für diese Größenordnung schonendere Verfahren|techniken inne hat - Heist es hier das der Chip 24 (PS2.0)Anweisungen vs 512 Anweisungen (PS3.0only) einen 20x Facheren Mehraufwand an Berechnungen durchführen müste...(Theoretisch)

Ein PS3.0-Shader muss keine 512 Anweisungen enthalten. Aber die Hardware muss u. A. 512 Anweisungen ausführen können.

Demirug
2004-02-23, 10:46:20
Original geschrieben von Sphinx
Ich glaube man verspricht zu viel mit der Einführung der PS3.0 Shadertechnik.

Wenn ich es richtig verstehe wird dieselbe Situation Shader 2.0 vs Shader 2.x wiederholt.

Nvidia führt Shader 3.0 ein welches nur ein geringeres Update ihrer jetzt vorhanden Shadertechnologie ist - da PS 2.x schon fast 3.0 Shadern entspricht nur das die Shaderlänge mit 512 Anweisungen festgelegt ist - welches wiederum heist das PS3.0 Technologie auch wenn sie für diese Größenordnung schonendere Verfahren|techniken inne hat - Heist es hier das der Chip 24 (PS2.0)Anweisungen vs 512 Anweisungen (PS3.0only) einen 20x Facheren Mehraufwand an Berechnungen durchführen müste...(Theoretisch) Welches durch optimierungen mal Spekuliert auf 10xFache heruntergedrückt wird. Ist es doch ein ganzes Stück weswegen ich nicht glaube das die PS3.0 Performance des NV4x Der Hypersprung sein wird.

Die Frage ist dann ob es theoretisch Möglich währe wenn 20 "theoretische" PS2.0 Anweisungen zu 1 nem ganzen PS3.0 Shader zusammengefasst werden kann und dadurch in einem PASS 20 PS2.0 Anweisungen abgearbeitet werden kann...

Weil dann kann ich mir gut vorstellen das Nvidia hier ebenfalls ein Hypergeschoss besitzt welches um einen Faktor 10x schnellere PS2.0 als jetzige Karten besitzt.

Bei den 2.X Shaderversionen können die IHVs durch Caps angeben was sie unterstützen. nVidia ist mit dem NV3X zwar näher dran an den 3.0 als ATIs R300 aber gerade die wirklich interesanten 3.0 Features fehlen beim NV3X.

Ein Shader führt immer nur so viele Anweisungen wie nötigt durch. Ein PS mit 20 Anweisungen wird eben diese 20 Anweisungen durchführen und einer mit 50 eben 50. Die Längenangaben bei den Shadern heisen nur das die Hardware in der Lage sein muss Shader dieser Länge zu verarbeiten. Es sagt aber niemand das man derart lange Shader schreiben muss.

Das schöne bei 3.0 ist jetzt die möglichkeit einen Shader zu schreiben und dort zu hinterlegen das bestimmte Berechnungen überflüssig sind wenn bestimmte Situationen eintreten. Das übliche Beispiel hier ist das sobald die Shaderhardware erkennt das der Pixel sowieso verworfen wird den Pixel auch nicht mehr zu Ende rechnet. Typische 2.0 Hardware nimmt auf sowas keine Rücksicht und rechnet erst mal zu Ende und verwirft den Pixel dann. Ein anderes Beispiel ist das dynamische An und Abschalten von Details. So kann man mit 3.0 Shader programmieren die bei einem Pixel der weit entfernt ist das Bumpmapping abschaltet weil man es sowieso nicht mehr erkennt. Sowas spart dann natürlich Leistung die man für die Pixel welche näher liegen wieder verbraten kann. Die mögliche Einsparrung ist aber Shaderabhängig. So gibt es auch 2.0 Shader die von einer neucompilierung für 3.0 Hardware nicht profitieren können.

ow
2004-02-23, 11:01:09
.

Sphinx
2004-02-23, 11:16:40
Original geschrieben von Exxtreme
Ein PS3.0-Shader muss keine 512 Anweisungen enthalten. Aber die Hardware muss u. A. 512 Anweisungen ausführen können.

Quelle : Microsoft http://msdn.microsoft.com/library/en-us/directx9_c/directx/graphics/reference/assemblylanguageshaders/pixelshaders/pixelshaderdifferences.asp

Pixel Shader Differences

--------------------------------------------------------------------------------

Instruction Slots
Each version supports a differing number of maximum instruction slots.

Version Maximum number of instruction slots
ps_1_1 4 texture + 8 arithmetic
ps_1_2 4 texture + 8 arithmetic
ps_1_3 4 texture + 8 arithmetic
ps_1_4 6 texture + 8 arithmetic per phase
ps_2_0 32 texture + 64 arithmetic
ps_2_x 96 minimum, and up to the number of slots in D3DCAPS9.PS20Caps.NumInstructionSlots
ps_3_0 512 minimum, and up to the number of slots in D3DCAPS9.MaxPixelShader30InstructionSlots

Flow Control Nesting Limits
See Flow Control Nesting Limits.
ps_1_x Features
New instructions:

See ps_1_1, ps_1_2, ps_1_3, ps_1_4 Instructions.

New registers:

See ps_1_X Registers.

ps_2_0 Features
New features:

Three new swizzles - .yzxw, .zxyw, .wzyx
Number of Temporary Registers (r#) increased to 12
Number of Constant Float Registers (c#) increased to 32
Number of Texture Coordinate Registers (t#) increased to 8
New instructions:

Setup instructions - dcl, dcl_samplerType
Arithmetic instructions - abs, crs, dp2add, exp, frc, log, m3x2, m3x3, m3x4, m4x3, m4x4, max, min, nrm, pow, rcp, rsq, sincos
Texture instructions - texld (different syntax), texldb, texldp
New registers:

Sampler (s#)
ps_2_x Features
New features (D3DCAPS9.PS20Caps):

Dynamic flow control
Static flow control
Nesting for dynamic and static flow control instructions
Number of Temporary Registers (r#) increased
Arbitrary source swizzle
Gradient instructions
Predication
No dependent texture read limit
No texture instruction limit
New instructions:

Static flow control instructions - if bool, call, callnz bool, else, endif, rep, endrep, label, ret
Dynamic flow control instructions - break, break_comp, breakp, callnz pred, if_comp, if pred, setp_comp - ps
Arithmetic instructions - dsx, dsy
Texture instruction - texldd
New registers:

Predicate Register (p0)
ps_3_0 Features
New features:

Consolidated 10 Input Registers (v#)
Indexable Constant Float Register (c#) with Loop Counter Register (aL)
Number of Temporary Registers (r#) increased to 32
Number of Constant Float Registers (c#) increased to 224
New instructions:

Setup instruction - dcl_usage
Static flow instructions - loop, endloop
Arithmetic instruction - sincos (new syntax)
Texture instruction - texldl
New registers:

Input Register (v#)
Position Register (vPos)
Face Register (vFace)



Edit : Quelle...

Exxtreme
2004-02-23, 11:25:37
Original geschrieben von Sphinx
Quelle : Microsoft http://msdn.microsoft.com/library/en-us/directx9_c/directx/graphics/reference/assemblylanguageshaders/pixelshaders/pixelshaderdifferences.asp

Pixel Shader Differences

.
.
.




Edit : Quelle...
Nochmal, die Hardware MUSS in der Lage sein mindestens 512 Anweisungen ausführen zu können. Die Shader selber (also das, was das Spiel an die GraKa übergibt) müssen keine 512 Instruktionen enthalten. Alles andere wäre kontraproduktiver Blödsinn.

Sphinx
2004-02-23, 11:33:50
Original geschrieben von Exxtreme
Nochmal, die Hardware MUSS in der Lage sein mindestens 512 Anweisungen ausführen zu können. Die Shader selber (also das, was das Spiel an die GraKa übergibt) müssen keine 512 Instruktionen enthalten. Alles andere wäre kontraproduktiver Blödsinn.

Also wenn ich es richtig lese zum PS3.0 :

Instruction Count
Each pixel shader is allowed anywhere from 512 up to the number of slots in the MaxPixelShader30InstructionSlots member of D3DCAPS9 (not more than 32768). The number of instructions run can be much higher because of the looping support. The MaxPShaderInstructionsExecuted cap in D3DCAPS9 should be at least 2^16.

^^ Quelle : http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/reference/AssemblyLanguageShaders/PixelShaders/ps_3_0.asp


WAS ist PS3.0 HARDWARE MINDESTENS : http://msdn.microsoft.com/library/en-us/graphics/hh/graphics/d3d_4ahz.asp?frame=true

Exxtreme
2004-02-23, 11:36:10
Original geschrieben von Sphinx
Also wenn ich es richtig lese zum PS3.0 :

Instruction Count
Each pixel shader is allowed anywhere from 512 up to the number of slots in the MaxPixelShader30InstructionSlots member of D3DCAPS9 (not more than 32768). The number of instructions run can be much higher because of the looping support. The MaxPShaderInstructionsExecuted cap in D3DCAPS9 should be at least 2^16.

^^ Quelle : http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/reference/AssemblyLanguageShaders/PixelShaders/ps_3_0.asp
Ich geb's auf. Demirug, übernehmen Sie. :D

Ailuros
2004-02-23, 11:41:34
Exxtreme,

Ich glaube er meint die Anzahl von instruction slots in Hardware. Da sind es tatsaechlich minimal 512 slots fuer jeweils PS oder VS3.0 Komplianz, ausser ich hab die MS-library Dokumente selber falsch verstanden.

***edit:

PS2.0 = 96
PS2.0ext= 96-512
PS3.0 = 512-32768

Er hat auch den falschen Satz fettgedruckt:

The number of instructions run can be much higher because of the looping support.

512 minimal und dann zaehlt man erst looping und die dadurch resultierenden extra Anweisungen dazu.

Demirug
2004-02-23, 11:47:49
Ich glaube hier herscht mal wieder Begriffsverwirung.

- Ein Shader ist die Einheit welche die Berechungen durchführt.
- Ein Shader ist das Programm welches auf vorgenannter Einheit ausgeführt wird.

Die DX Spec definiert nun welche Programme die Einheit ausführen können muss. Wenn dort nun steht das ein 3.0 Shader mindestens 512 Anweisungen haben muss. Dann bezieht sich das auf die Einheit. Diese muss Programme mit 512 Anweisungen verarbeiten können. Ein Programm (das auch Shader heisst) muss nun aber nicht aus 512 Anweisungen bestehen sonder darf bis zu 512 Anweisungen haben. Jede kleinere Zahl ist ebenfalls genehm.

Ailuros
2004-02-23, 11:50:32
Original geschrieben von Demirug
Ich glaube hier herscht mal wieder Begriffsverwirung.

- Ein Shader ist die Einheit welche die Berechungen durchführt.
- Ein Shader ist das Programm welches auf vorgenannter Einheit ausgeführt wird.

Die DX Spec definiert nun welche Programme die Einheit ausführen können muss. Wenn dort nun steht das ein 3.0 Shader mindestens 512 Anweisungen haben muss. Dann bezieht sich das auf die Einheit. Diese muss Programme mit 512 Anweisungen verarbeiten können. Ein Programm (das auch Shader heisst) muss nun aber nicht aus 512 Anweisungen bestehen sonder darf bis zu 512 Anweisungen haben. Jede kleinere Zahl ist ebenfalls genehm.

Das hilft zu meiner eigenen Verwirrung jetzt aber auch nicht wieder. Vielleicht sollte ich zuerst fragen was man unter "instruction slots" erstmal genau versteht?

Sphinx
2004-02-23, 11:50:33
Exact der Chip muss und rechnet mit 512 Instruktionen und kein stück weniger aber mehr als vollwertiger PS3.0 Chip...

So verstehe ich es.

Demirug
2004-02-23, 11:52:24
Original geschrieben von Ailuros
Das hilft zu meiner eigenen Verwirrung jetzt aber auch nicht wieder. Vielleicht sollte ich zuerst fragen was man unter "instruction slots" erstmal genau versteht?

Ein "instruction slot" ist eine Speicherzelle für eine Programmanweisung. Machen Anweisungen belegen aber mehr als einen Slot. Deswegen zählt man eben Slots und keine Anweisungen.

Demirug
2004-02-23, 11:56:02
Original geschrieben von Sphinx
Exact der Chip muss und rechnet mit 512 Instruktionen und kein stück weniger aber mehr als vollwertiger PS3.0 Chip...

So verstehe ich es.

Der Chip rechnet pro Pixel genau so viele Instruktionen wie zur Ausführung des Programms notwendig sind. Wenn das Programm 20 Anweisungen (ohne Loops und Branching) hat dann rechnet er diese 20 Anweisungen und keine mehr. Durch Loops kann es aber passieren das obwohl ein Programm nur 20 Anweisungen hat einige davon mehrfach ausgeführt werden müssen. Durch Branching können aber Anweisungen übersprungen werden.

Ailuros
2004-02-23, 11:57:11
Original geschrieben von Demirug
Ein "instruction slot" ist eine Speicherzelle für eine Programmanweisung. Machen Anweisungen belegen aber mehr als einen Slot. Deswegen zählt man eben Slots und keine Anweisungen.

Also hab ich das Ganze wohl doch nicht so falsch verstanden. Bloede Frage um auf Nummer sicher zu gehen:

PS3.0 = minimal 512 instruction slots?

Gast
2004-02-23, 12:04:17
Iiih, das ist aber fies.

Wenn Bump Mapping in der Ferne abgeschaltet werden kann und werden wird, kommen bestimmt wieder die ganzen Pickelfettgesichter... err Pixelfetischisten aus ihren Löchern und schreien laut "CHEAT". Daß das dann so gewollt ist und Hardware X das so macht, Hardware Y aber nicht kann und deswegen einfach "Pech gehabt hat" (analog zur jetzigen AA-Diskussion: "Wenn XY eben nur OG hat, ham'se Pech und müssen eben ihr 12xAA mit dem 4xAA der Konkurrenz vergleichen lassen") wird dann sicherlich ganz schnell wieder zerredet. :eyes:

;Q

AlfredENeumann
2004-02-23, 12:13:17
Original geschrieben von Exxtreme
Jepp, XXX_XXXXXXX treibt sich öfter in den Foren hier rum. ;)

Genau an den habe ich nämlich gedacht.

aths
2004-02-23, 12:14:21
Original geschrieben von AlfredENeumann
Man kanns auch so rum sehen.
Angenommen ATI hat einen PS2.0 Support der so schnell ist wie ein entsprechnder PS3.0 Shader auf anderer Hardware, warum dafür dann Tranistoren verschwenden? Wenn ATIs Ressourcen zu begrenzt sind, 3.0-HW zu entwickeln, die letztlich gleichen Speed böte, sehe ich die Zukunft nicht besonders rosig.

Exxtreme
2004-02-23, 12:15:04
Original geschrieben von Gast
Iiih, das ist aber fies.

Wenn Bump Mapping in der Ferne abgeschaltet werden kann und werden wird, kommen bestimmt wieder die ganzen Pickelfettgesichter... err Pixelfetischisten aus ihren Löchern und schreien laut "CHEAT". Daß das dann so gewollt ist und Hardware X das so macht, Hardware Y aber nicht kann und deswegen einfach "Pech gehabt hat" (analog zur jetzigen AA-Diskussion: "Wenn XY eben nur OG hat, ham'se Pech und müssen eben ihr 12xAA mit dem 4xAA der Konkurrenz vergleichen lassen") wird dann sicherlich ganz schnell wieder zerredet. :eyes:

;Q
Nein, es ist ein Unterschied ob die Spiele-Programmierer/Designer Bumpmapping in der Ferne abschalten oder es der IHV per Treiber tut. :)

aths
2004-02-23, 12:19:47
Original geschrieben von Sphinx
Ich glaube man verspricht zu viel mit der Einführung der PS3.0 Shadertechnik.

Wenn ich es richtig verstehe wird dieselbe Situation Shader 2.0 vs Shader 2.x wiederholt.Wenn ich das richtig interpretiert habe, war ATIs 2.0-Erfolg nur möglich, weil sie vorher den fortschrittlichen 1.4-er programmiert haben. Wenn die sich jetzt "abseilen", besteht die Gefahr, technologisch ins Hintertreffen zu geraten.

Mit der Erfahrung von 3.0-HW kann man sicherlich leichter 4.0-HW entwickeln, als wenn man sich nur mit 2.0 auskennt.

Demirug
2004-02-23, 12:38:22
Original geschrieben von Ailuros
Also hab ich das Ganze wohl doch nicht so falsch verstanden. Bloede Frage um auf Nummer sicher zu gehen:

PS3.0 = minimal 512 instruction slots?

Ja, Eine 3.0 Shaderhardware muss mit Programmen umgehen können die 512 instruction slots belegen.

Demirug
2004-02-23, 12:39:58
Original geschrieben von aths
Wenn ich das richtig interpretiert habe, war ATIs 2.0-Erfolg nur möglich, weil sie vorher den fortschrittlichen 1.4-er programmiert haben. Wenn die sich jetzt "abseilen", besteht die Gefahr, technologisch ins Hintertreffen zu geraten.

Mit der Erfahrung von 3.0-HW kann man sicherlich leichter 4.0-HW entwickeln, als wenn man sich nur mit 2.0 auskennt.

4.0 dürfte so wie es im Moment aussieht im wesentlichen eine 3.0 Hardware ohne die ganzen Limits werden.

Gast
2004-02-23, 12:40:33
Original geschrieben von Exxtreme
Nein, es ist ein Unterschied ob die Spiele-Programmierer/Designer Bumpmapping in der Ferne abschalten oder es der IHV per Treiber tut. :)

Objektiv gesehen ja, aber es stellt sich die Frage, wie objektiv "man" hier so ist...

Gast
2004-02-23, 12:42:32
Original geschrieben von aths
Mit der Erfahrung von 3.0-HW kann man sicherlich leichter 4.0-HW entwickeln, als wenn man sich nur mit 2.0 auskennt.
Oder man nimmt sich richtig viel Zeit dafür. 3 Jahre sollten IMO durchaus reichen, denn solange hätte das ArtX-Team seit der Vorstellung des R300 im Sommer 2002 bis zu DX-Next ja Zeit gehabt. *eg*

Ailuros
2004-02-23, 12:44:56
Original geschrieben von Demirug
4.0 dürfte so wie es im Moment aussieht im wesentlichen eine 3.0 Hardware ohne die ganzen Limits werden.

Limited unlimited resources hrhrhr ;D

seahawk
2004-02-23, 14:39:33
Original geschrieben von Sphinx
Exact der Chip muss und rechnet mit 512 Instruktionen und kein stück weniger aber mehr als vollwertiger PS3.0 Chip...

So verstehe ich es.

Der Chip muss Programme mit 512 instruction slots ausführen können, dann darf sich die Hardware 3.0 kompatibel nennen.

Ein Shaderprogramm kann 3.0 sein, aber nur 20 instruction slots belegen.

seahawk
2004-02-23, 14:41:37
Original geschrieben von Doc PeWe

Zeig mir ein Game 2004 das PS.30 "zwingend" verlangt und überhaupt besteht das Jahr 2004 aus noch 10 ganzen Monaten, wenn wir uns erinnern mit welcher Performance 2003 NEUE Chips gelauncht wurden ist es dann nur einen Frage von Monaten bis ATi mit PS3.0 nachziehen könnte, wenn es nicht bereits vorhanden ist ;-) ABGESCHALTET!!!

Zeig mir ein Programm, dass bis heute dringend einen PS 2.0 brauchte. Trotzdem wurde die R300 Serie wegen ihrer tollen PS 2.0 Shaderfähigkeiten immer gelobt.

Godmode
2004-02-23, 15:17:42
Original geschrieben von seahawk
Zeig mir ein Programm, dass bis heute dringend einen PS 2.0 brauchte. Trotzdem wurde die R300 Serie wegen ihrer tollen PS 2.0 Shaderfähigkeiten immer gelobt.

Also ich programmiere selber VS und PS und freue mich schon sehr auf die Version 3.0, weil man damit einfach viel mehr Möglichkeiten hat als mit < 3.0 Shader. Wenn ich jetz endlich Entscheidungen treffen kann wie if else....
Du kannst hast ja damit ganz andere Möglichkeiten und außerdem wird man mit VS3.0 endlich Lesezugriff auf Texturdaten haben, dadurch kann man dann ein Objekt mit der Hilfe von zb Höhen Texturen die Geometrie verändern.

seahawk
2004-02-23, 16:37:46
Original geschrieben von bans3i
Also ich programmiere selber VS und PS und freue mich schon sehr auf die Version 3.0, weil man damit einfach viel mehr Möglichkeiten hat als mit < 3.0 Shader. Wenn ich jetz endlich Entscheidungen treffen kann wie if else....
Du kannst hast ja damit ganz andere Möglichkeiten und außerdem wird man mit VS3.0 endlich Lesezugriff auf Texturdaten haben, dadurch kann man dann ein Objekt mit der Hilfe von zb Höhen Texturen die Geometrie verändern.

So habe ich das nicht gemeint. Mir sind die Vorteile von PS 3.0 Shadern bewußt. Ich bezog mich nur auf die Versuche die fehlende 3.0 Funktionalität beim R420 klein zu reden.

Gast
2004-02-23, 16:46:24
Original geschrieben von seahawk
So habe ich das nicht gemeint. Mir sind die Vorteile von PS 3.0 Shadern bewußt. Ich bezog mich nur auf die Versuche die fehlende 3.0 Funktionalität beim R420 klein zu reden.

Genau,ATI würde den Shader 3.0 auch einbauen, wenns sich wirklich lohnen würde.

ShadowXX
2004-02-23, 16:51:23
IMHO ist es unsinnig die Fehlenden PS3.0 bei ATI schön zu reden...

Dabei ist die PS3.0 Geschwindigkeit des nv40 sogar ziemlich egal, denn interessant wird die PS2.0 Geschwindigkeit des nv40.

Wenn der nv40 "nur" 10% langsamer bei PS2.0 sein sollte, dann reicht das für ATI definitiv nicht...

Ich sage mal klipp und klar: ATI muss jeden Benchmark mit mindestens 20%, besser sogar mit 30% Vorsprung gewinnen, damit nicht eine grosse Masse von jetigen ATI-Besitzern (mich eingerechnet) wieder auf nV umschwenkt...

Allerdings könnte sich das Blatt noch wenden, wenn wir mal erfahren sollten, wofür die restlichen 30 bis 40 Mio. Transitoren draufgegeangen sind...

Interesant wären doch auch mehr AA Sampler pro Pipeline....das zusammen mit TriTMUs und einem nicht Winkeladaptiven AF...hmmm...mal sehen....

J.S.Shadow

Gast
2004-02-23, 17:22:55
Das ist kein Schönreden,Shader 3.0 wird in 2004 nicht wichtig sein.

Bei ATI arbeitet übrigens die besten Leute aber manche NV Fans scheinen wohl zu denken,das sie mehr drauf haben als eine so große Firma wie ATI....okay

Gast
2004-02-23, 17:29:26
Wayne interessiert Marketing,ist völlig Wurst was NV für Werbetexte hat.

Die Spieler kaufen die Karte ,die mit AA und AF am besten abgeht und ATI hat dazu noch das bessere AA.

NV ist stark im Rückstand nicht ATI !

deekey777
2004-02-23, 17:39:46
Original geschrieben von Demirug
4.0 dürfte so wie es im Moment aussieht im wesentlichen eine 3.0 Hardware ohne die ganzen Limits werden.

FP64? (64 bit Farbtiefe?) ;D

LovesuckZ
2004-02-23, 17:52:55
Original geschrieben von Gast
Bei ATI arbeitet übrigens die besten Leute aber manche NV Fans scheinen wohl zu denken,das sie mehr drauf haben als eine so große Firma wie ATI....okay

Nunja, wenn diese "besten Leute" nichtmal in der Lage sind PS3.0/VS3.0 zu implantieren (?), dann muessen die Leute bei Nvidia voll die Nubs sein...
Ich hoffe du bist nicht der FarCry Gast...

ironMonkey
2004-02-23, 18:17:12
Wie ich schonmal schrieb baut ATI die Karten und das die nichts drauf haben glaube ich wohl eher nicht, wie schon der Gast schrieb MUSS Nvidia aufholen und nicht ATI zumal die auch sicher getestet haben wie was wann wo warum mehr Leistung bringt und was im Endeffekt lohnt zu verbauen für die Serienversion, wenn ATI in PS 3.0 derzeit keinen Vorteil sieht, warum soll man es dann verbauen????nur weils die Konkurrenz hat????



Gruß

DeadMeat
2004-02-23, 18:17:27
Original geschrieben von Gast
Wayne interessiert Marketing,ist völlig Wurst was NV für Werbetexte hat.

Die Spieler kaufen die Karte ,die mit AA und AF am besten abgeht und ATI hat dazu noch das bessere AA.

NV ist stark im Rückstand nicht ATI !

Die Informierten Spieler... und das sind verdammt wenige
die meisten Gamer und Anwender wissen nichtmal was AA und AF sind.
Beispiel nen Bekannter hat sich eine 9800XT für weit über 500€ gekauft, benutzt aber weder AF noch AA, weiss nicht mal was das ist.
Warum macht man sowas? Ganz einfach Gamestar hat geschrieben es ist eine der schnellstens Karten also wird gekauft.

StefanV
2004-02-23, 18:27:30
Original geschrieben von LovesuckZ
Nunja, wenn diese "besten Leute" nichtmal in der Lage sind PS3.0/VS3.0 zu implantieren (?), dann muessen die Leute bei Nvidia voll die Nubs sein...


Hm, vielleicht ist ATi auch besser als nV und möchte sowas wie 'nen 2. nV30 garnicht erst haben *eg*

Demi sagte ja, daß dem 'ATI Design' einige Dinge nicht soo sehr schmecken könnten...

Godmode
2004-02-23, 18:59:22
Ich möchte mal wissen wer die ganzen Gäste sind, immer diese Fanboy scheisse, ist ja fast schon wie OPEL vs VW. Und jetz zum Thema Herr Gast woher weisst du das VS/PS 3.0 2004 nicht wichtig sein wird? Du kannst das glauben aber nicht wissen! Du kannst nicht sagen das etwas eintreten "wird". Und woher sollte ATI oder NVIDIA wissen was wichtig sein wird und was nicht, sie können auch nur die Marktsituation überprüfen und dann ihr Portfolio dementsprechend anpassen. Und ich gehe sehr davon aus das NVIDIA sicher zu den Entwicklern gehen wird und sie vielleicht überreden wird, vielleicht sogar mit einem kleinem Sponsoring, die Games Shader 3.0 fähig zu machen. Wenn dann Effekte mit Shader 3.0 einfach viel schneller sind als mit Shader 2.0, wird ATI in dem Fall nicht so gut da stehen als Nvidia und da das Nvidia Marketing dementsprechend heftig ist werden sie sicherlich ihren Konkurenten nachsagen das deren Produkt technologisch nicht ArtofState ist. Ich bin mir jetzt nicht im klaren, wie es um FarCry steht, ob dieses Game schon Shader 3.0 ünterstützt, aber ich denke Crytek wird sicher davon gebrauch machen, vielleicht noch nicht jetz aber sie werden die Cry-Engine sicher Shader 3.0 fähig machen, da es sich ja um eine Next-Gen-Engine handelt. Cryengine unterstützt auch schon die 64-Bit Technologie und sie werden sicher nicht bis nächstes Jahr warten um Shader 3.0 in ihren Source-Code zu implementieren. Und zu den Leuten die in den beiden Unternehmen arbeiten, ich gehe davon aus das die Techniker in diesen Unternehmen zu den besten Grafikchip Technikern gehören die es auf dieser Welt gibt und wenn aber jetzt das Management sagt wir machen das so und so dann können diese Techniker auch nichts dagegen machen. Und wenn Nvidia ein halbwegs fähiges Management hat, dann werden die meisten Fehler des NV30-NV38 behoben sein. Natürlich wird ATI mit brachialer Roh-Power versuchen in den 2.0 Shader Games besser dazustehen als Nvidia, aber eben durch das fehlen der Shader 3.0 müssten sie schon um einiges schneller sein als Nvidia. Von den restlichen Transistoren würde ich auch gerne wissen wofür diese gut sind, wenn sie für qualitätsverbessernde Maßnahmen genützt werden würden, würde ich das sehr begrüßen. Vielleicht hat ja ATI auch Hidden Surface Removal in ihren R420 implementiert, ich habe ehrlich gesagt keine Ahnung was sie uns bringen werden, aber sicherlich wird es nichts schlechtes sein. Laut in Inquier Meldung ist ATI etwas weiter als Nvidia und dann werden wir ja bald wissen was sie und bringen werden.

Gast
2004-02-23, 20:28:24
PS3.0 vom optischen nichts besonderes. Viel wichtiger ist die Tatsache, dass sie viel flexibler und effizienter ist, als PS2.0.

AlfredENeumann
2004-02-23, 20:52:56
Zerfleischt euch doch.

Meine Fresse hier wird wieder voll der Herman gemacht über ungelegte Eier.
ATI wird sich schon was dabei gedacht haben Shader <3.0 in den R420 gepackt zu haben.
Hier reden so viele davon das man einen 3.0 Shader unbedingt haben muß, aber keiner kann sagen wofür.
Wenn ATI meint mit 2.X schnell genug zu sein um gegen die 3.0er vom NV40 zu bestehen, Bitte schön.

Die gleiche Diskusion gab es doch schonmal beim NV30.
Was haben die höheren Shader des NV30/NV35 bisher gebracht? Nix. Und jetzt steht ne neue Kartengeneration ins Haus.
Es wird mit Sicherheit 2004 kein Spiel rauskommen was zwingend einen PS3.0 vorraussetzt um einen bestimmten Effekt zu zeigen.

Sphinx
2004-02-23, 21:37:39
Original geschrieben von AlfredENeumann
Zerfleischt euch doch.

Meine Fresse hier wird wieder voll der Herman gemacht über ungelegte Eier.
ATI wird sich schon was dabei gedacht haben Shader <3.0 in den R420 gepackt zu haben.
Hier reden so viele davon das man einen 3.0 Shader unbedingt haben muß, aber keiner kann sagen wofür.
Wenn ATI meint mit 2.X schnell genug zu sein um gegen die 3.0er vom NV40 zu bestehen, Bitte schön.

Die gleiche Diskusion gab es doch schonmal beim NV30.
Was haben die höheren Shader des NV30/NV35 bisher gebracht? Nix. Und jetzt steht ne neue Kartengeneration ins Haus.
Es wird mit Sicherheit 2004 kein Spiel rauskommen was zwingend einen PS3.0 vorraussetzt um einen bestimmten Effekt zu zeigen.

Kann dem nur beisteuern... ^^

Quasar
2004-02-23, 22:00:35
Original geschrieben von AlfredENeumann
Die gleiche Diskusion gab es doch schonmal beim NV30.
Was haben die höheren Shader des NV30/NV35 bisher gebracht? Nix.

Korrekt, aber es gibt einen wichtigen Unterschied zur damaligen Situation: (eigentlich sogar mehrere)

- ATi wird (aller Voraussicht nach) nicht ein dreiviertel Jahr früher am Markt sein (Developer richten sich nicht einseitig nach ATi)

- 3.0 Shader sind im Vergleich zu 2.X Shadern eher für eine Beschleunigung als eine Feature-Ausweitung zuständig

- nV hatte diesmal Zeit und Muße, die vorher feststehende Spec umzusetzen, was letztes Mal eben nicht möglich war, da M$ sich in allen wesentlichen Punkten nach ATi gerichtet hat (Wer im Ernst glaubt, daß die sich mit nV wirklich gütlich über den XBox-Streit geeinigt haben, der spinnt - ATi wird das zur Laufzeit der XBox2 auch noch zu spüren kriegen, wenn M$ sagt: "Denkt dran, was mit DX9 war...")

Quasar
2004-02-23, 22:02:25
Original geschrieben von ironMonkey
[...]wenn ATI in PS 3.0 derzeit keinen Vorteil sieht, warum soll man es dann verbauen????nur weils die Konkurrenz hat????

Nun ja, z.B. weil man sieht, daß die eigene R9200-Reihe keinen Stich in Sachen Absatz gegen die FX5200 sieht und man deshalb die R9600 mit allen Mitteln runterdumpen muss, um im Sub-100$-Segment auch was zu haben, wo man DX9 draufschreiben kann.

AlfredENeumann
2004-02-23, 22:05:52
Original geschrieben von Quasar
Korrekt, aber es gibt einen wichtigen Unterschied zur damaligen Situation: (eigentlich sogar mehrere)

- ATi wird (aller Voraussicht nach) nicht ein dreiviertel Jahr früher am Markt sein (Developer richten sich nicht einseitig nach ATi)

- 3.0 Shader sind im Vergleich zu 2.X Shadern eher für eine Beschleunigung als eine Feature-Ausweitung zuständig

- nV hatte diesmal Zeit und Muße, die vorher feststehende Spec umzusetzen, was letztes Mal eben nicht möglich war, da M$ sich in allen wesentlichen Punkten nach ATi gerichtet hat (Wer im Ernst glaubt, daß die sich mit nV wirklich gütlich über den XBox-Streit geeinigt haben, der spinnt - ATi wird das zur Laufzeit der XBox2 auch noch zu spüren kriegen, wenn M$ sagt: "Denkt dran, was mit DX9 war...")


1) Yup

2) sagte ich ja (mehr oder weniger), und andere auch, aber hier reden einige als wenn wesentlich mehr von PS3.0 zu erwarten wäre

3)a) will ich auch hoffen, echte konkurenz belebt das geschäft
3)b) glaubenicht das es bei der XBOX2 so heftig sein wird, da ATI ein Lizenzmodell mit M$ hat (soweit ich weis), und da gibts nix im Preis zu feilschen.

AlfredENeumann
2004-02-23, 22:08:24
Original geschrieben von Quasar
Nun ja, z.B. weil man sieht, daß die eigene R9200-Reihe keinen Stich in Sachen Absatz gegen die FX5200 sieht und man deshalb die R9600 mit allen Mitteln runterdumpen muss, um im Sub-100$-Segment auch was zu haben, wo man DX9 draufschreiben kann.


Yo. Das DX9 hat in der LowCost-Schublade gut was gebracht, aber auch viel verärgerte User, die im nachhinein sich verarscht gefühlt haben. Auch wenn sie es selber Schuld sind, werden die sich keine NV mehr holen.
Das gleiche gilt natürlich auf für Käufer einer 9200, die meinen ein schnäpchen gemacht zu haben.

Godmode
2004-02-23, 23:36:57
Original geschrieben von AlfredENeumann
Yo. Das DX9 hat in der LowCost-Schublade gut was gebracht, aber auch viel verärgerte User, die im nachhinein sich verarscht gefühlt haben. Auch wenn sie es selber Schuld sind, werden die sich keine NV mehr holen.
Das gleiche gilt natürlich auf für Käufer einer 9200, die meinen ein schnäpchen gemacht zu haben.

Ich hab meinem Nachbar einen neuen PC zusammengstellt und hab ihm auch eine FX5200U reingepflanzt. Ich bin zwar auch nicht der Fan dieser Karte aber für den Otto-Normal-Verbraucher reicht sie bestens aus. Sein Sohn spielt manchmal 3D-Games und für so manchmal Spieler reicht dieses Teil vollkommen.

ironMonkey
2004-02-23, 23:54:40
Original geschrieben von Quasar
Korrekt, aber es gibt einen wichtigen Unterschied zur damaligen Situation: (eigentlich sogar mehrere)

- ATi wird (aller Voraussicht nach) nicht ein dreiviertel Jahr früher am Markt sein (Developer richten sich nicht einseitig nach ATi)

- 3.0 Shader sind im Vergleich zu 2.X Shadern eher für eine Beschleunigung als eine Feature-Ausweitung zuständig

- nV hatte diesmal Zeit und Muße, die vorher feststehende Spec umzusetzen, was letztes Mal eben nicht möglich war, da M$ sich in allen wesentlichen Punkten nach ATi gerichtet hat (Wer im Ernst glaubt, daß die sich mit nV wirklich gütlich über den XBox-Streit geeinigt haben, der spinnt - ATi wird das zur Laufzeit der XBox2 auch noch zu spüren kriegen, wenn M$ sagt: "Denkt dran, was mit DX9 war...")


1. Wenn ich richtig gelesen hab ist der R420 fertig für die Produktion!!!!!!

2u.3 wie ich schon schrieb ist sich ATI sicher im klaren darüber das die Vorteile die sie beim R300 hatten diesmal nicht da sind und auf dem Papier sieht alles besser aus!!!!!!!


Gruß

tb
2004-02-24, 00:22:14
Meine Meinung zum Thema Shader 3.0:

- 2004 -> gut und schön für Entwickler, wenig Nutzen für Endanwender, da höchstens 2.0 Shader in Spielen zum Einsatz kommen werden, ganz selten vielleicht noch 2.x Shader

- neben Shaderversionen find ich den Bereich float Texturen noch recht wichtig, hoffentlich passen die IHV die Fähigkeiten der float Texturen an die der integer Texturen an, dies würde deren Nutzen deutlich verbessern

- 2.x kann viel bedeuten, da ein voll ausgebauter 2.x Shader einem 3.0 Shader kaum nachsteht, wichtigste Unterschiede(gegenüber voll ausgebauten 2.x):

vs_3_0
- Texture lookup
- Vertex Stream Frequency in vs_3_0
In the older shader models, including the fixed function, the vertex shader was invoked once per vertex. With every invocation, the input registers were initialized with unique vertex elements from the vertex streams.
This feature allows a subset of the input registers to be initialized at a less frequent rate. This feature is supported by all devices that support vs_3_0.


ps_3_0
- The Position Register (vPos) is new for this model. It contains the current pixels (x, y) in the corresponding channels.
- The face register (vFace) is new for this model. This is a floating point scalar register that will eventually contain the primitive area. In ps_3_0, however, only the sign of this register is valid. Hence, if the value is less than zero (the sign bit is set negative) the primitive is the back face (the area is negative, counterclockwise).
- Static flow instructions - loop, endloop

Wie gesagt, schön wäre es schon, ob es dem Normalgamer was bringt, da hab ich so meine Zweifel, aber die Hoffnung stirbt ja bekanntlich zuletzt.

Hier könnte sich die Geschichte (R3xx vs. NV3x) wiederholen. Letztlich hängt der Nutzen der Shader von ihrer Ausführungsgeschwindigkeit ab und da haben wir ja die erste Runde (ATi vs. NVIDIA) bereits gesehen...

Thomas

Ailuros
2004-02-24, 01:38:29
Nicht schlecht....aber:

Hier könnte sich die Geschichte (R3xx vs. NV3x) wiederholen. Letztlich hängt der Nutzen der Shader von ihrer Ausführungsgeschwindigkeit ab und da haben wir ja die erste Runde (ATi vs. NVIDIA) bereits gesehen...

Wo und warum hat NVIDIA in 2003 am meisten verkauft? Und die Antwort auf diese Frage hat bei bestem Willen ueberhaupt nichts mit der Shader/Leistung Relation zu tun.

Odal
2004-02-24, 02:19:39
Original geschrieben von tb
- 2.x kann viel bedeuten, da ein voll ausgebauter 2.x Shader einem 3.0 Shader kaum nachsteht, wichtigste Unterschiede(gegenüber voll ausgebauten 2.x):


ja 2.x bedeutet lediglich das mehr unterstuetzt wird als in 2.0 shadern....

nur was sind bei dir Vollausgebaute 2.x shader? ich mein 2.x ist doch kein standart also kann da nix vollausgebaut sein...
oder meinst du wenn noch ein feature zu 3.0 fehlt is das dann vollausgebaut?

Xmas
2004-02-24, 02:43:01
2.X ist schon ein Standard, es ist genau festgelegt welche zusätzlichen Features ein Treiber unterstützen darf (aber nicht muss). Schließlich ist nur so garantiert dass 2.X < 3.0 ist.

"Voll ausgebaut" heißt dann eben, dass alle optionalen Features maximal unterstützt werden.

tb
2004-02-24, 03:23:22
Mir ging es bei meinen Ausführungen eigentlich nicht um Marktanteile ( http://www.xbitlabs.com/news/video/display/20040203044519.html ) im DirectX 9.0 Segment(75% NVIDIA, 25 % ATi). Da hat NVIDIA durch die 5200'er Karten großen Erfolg, wie sinnvoll eine solch schwache(im Bezug auf Shader) DirectX 9.0 Karte für Spieler ist, steht auf einem anderem Blatt.

Es ging mir um die Verbreitung bestimmter Shader. Da machen heute 2.0'er schon einen kleinen Teil aus, 2.x hingegen überhaupt keinen(mir ist jedenfalls nichts bekannt). Oft verwendet man noch 1.1'er oder 1.4'er...

Deshalb stell ich mir die Frage, werden 3.0'er Shader überhaupt(2004/2005) zum Einsatz kommen, falls nur ein Hersteller(PowerVR, Xabre und S3 lass ich hier erstmal weg) entsprechende Karten herstellt, die diese auch hoffentlich in nutzbarer Geschwindigkeit ausführen können?

Sollte es so wie mit den 2.x Shadern vom NV3x laufen, dann sicher nicht. Selbst wenn sie schnell genug sind, ATi's 1.4'er Shader in der Radeon 8500 waren auch nicht langsam...
Aber okay, aus Marketinggründen das HLSL-Target von 2_0 oder/und 2_a auf 3_0 zu ändern traue ich auch einigen ISV zu...

Das ist die ewige Huhn/Ei Geschichte zwischen IHV's und ISV's - beide wollen Geld verdienen, also trifft man sich meistens in der Mitte und seltem beim High-End.

Thomas

Ailuros
2004-02-24, 04:34:58
Mir ging es bei meinen Ausführungen eigentlich nicht um Marktanteile ( http://www.xbitlabs.com/news/video/...0203044519.html ) im DirectX 9.0 Segment(75% NVIDIA, 25 % ATi). Da hat NVIDIA durch die 5200'er Karten großen Erfolg, wie sinnvoll eine solch schwache(im Bezug auf Shader) DirectX 9.0 Karte für Spieler ist, steht auf einem anderem Blatt.

Auf dem Deinem eigenen Blatt vielleicht?

Letztlich hängt der Nutzen der Shader von ihrer Ausführungsgeschwindigkeit ab und da haben wir ja die erste Runde (ATi vs. NVIDIA) bereits gesehen...

Genau den Widerspruch wollte ich lesen.

Es ging mir um die Verbreitung bestimmter Shader. Da machen heute 2.0'er schon einen kleinen Teil aus, 2.x hingegen überhaupt keinen(mir ist jedenfalls nichts bekannt). Oft verwendet man noch 1.1'er oder 1.4'er...

Traditionell und das schon seit dem Advent von 3D ist die Hardware der Software stets voraus. Ja wir haben immer noch dx7 basierende Spiele (rechne mal aus wann die erste T&L ausgestattete Karte erschien) mit ein paar verstraeuten dx8.1 oder dx9.0 Effekten.

Deshalb stell ich mir die Frage, werden 3.0'er Shader überhaupt(2004/2005) zum Einsatz kommen, falls nur ein Hersteller(PowerVR, Xabre und S3 lass ich hier erstmal weg) entsprechende Karten herstellt, die diese auch hoffentlich in nutzbarer Geschwindigkeit ausführen können?

Wie schnell waere heute eine R3xx Karte mit einem Spiel dass zur Mehrzahl auf PS/VS2.0 basieren wuerde?

Von der Vorstellung der HW (damit auch die Entwickler eine demensprechende Platform haben koennen) bis zur Veroeffentlichung eines Spiels der die features dieser HW ausnuetzt dauert es minimal 18-24 Monate im Idealfall. Je spaeter ein feature in Hardware erscheint, desto mehr wird dieses dann auch in Spielen unterstuetzt.

Wer sagt Dir uberhaupt dass man PS/VS3.0 theoretisch bei limitiertem Gebrauch in Spielen nicht unmittelbar einsetzen koennte? Angenommen man bekommt heute sehr gute Leistung mit einem 20 Anweisungen langen Shader; wer sagt Dir dass man theoretisch dann mit 200 Anweisungen durch looping/branching nicht gleiche zumindest Leistung erreichen kann?

Die einzige Frage ist hier nur was sich genau ATI fuer sehr lange Shader ausgedacht hat, um diese den Entwicklern auch bereitstellen zu koennen.

Sollte es so wie mit den 2.x Shadern vom NV3x laufen, dann sicher nicht. Selbst wenn sie schnell genug sind, ATi's 1.4'er Shader in der Radeon 8500 waren auch nicht langsam...
Aber okay, aus Marketinggründen das HLSL-Target von 2_0 oder/und 2_a auf 3_0 zu ändern traue ich auch einigen ISV zu...

2.0 und 2.0 extended unterstuetzen kein looping/branching.

Das ist die ewige Huhn/Ei Geschichte zwischen IHV's und ISV's - beide wollen Geld verdienen, also trifft man sich meistens in der Mitte und seltem beim High-End.

Schoen und was wenn NVIDIA brauchbares PS/VS3.0 H1 2004 im mainstream, und H2 2004 im Value segment vorstellt?

Natuerlich wollen alle Geld verdienen und es handelt sich auch um Sachen die dem Normalverbraucher eigentlich egal sein koennten. Das Problem ist hier nur dass man den Verbraucher leider mit solchen Zeug leichter ueberreden kann (siehe erster Paragraph oben).

Wie dem auch sei ist es IMHO unmoeglich dass NV mit PS/VS3.0 langsamer sein koennte in Shader-lastigen Applikationen, selbst wenn diese nur auf PS/VS2.0 limitiert sind. In dem Fall hat aber NV vom Market-technischen Standpunkt her wohl den Vorteil; Vorraussetzung natuerlich dass sie auch gleichwertiges und gleichschnelles Anti-aliasing diesmal liefern.

ATI wird sicher versuchen ueberhaupt im Vertex Bereich zu kompensieren, aber einen so grossen Erfolg wie bei R3xx sehe ich nicht.

tb
2004-02-24, 06:07:00
Original geschrieben von Ailuros
Auf dem Deinem eigenen Blatt vielleicht?


NVIDIA hat schon mit den 5600 Karten Probleme, 2.0'er Shader mit brauchbarer Geschwindigkeit auszuführen. Wie soll da eine 5200 in der Lage sein, spielbare Leistungen zu erzielen? Was nützt ein Feature, was man kaum verwenden kann? Ich sag nur FSAA bei der Radeon 8500 - schön wars, lief aber leider nur vernünftig mit älteren Spielen, die die Grafikkarte sonst kaum forderten.

Das meine ich mit sinnvoll, weil es dies eben nicht unbedingt ist.
http://www.hardocp.com/article.html?art=NDQ0LDQ=
http://www.firingsquad.com/print_article.asp?current_section=Hardware&fs_article_id=1373

Original geschrieben von Ailuros
Genau den Widerspruch wollte ich lesen.


Ich seh da keinen Widerspruch. Die schönsten Shader bringen nichts, wenn man sie nicht vernünftig einsetzen kann. Ich mein jetzt nicht 3DSMAX o.ä.


Original geschrieben von Ailuros
Wie schnell waere heute eine R3xx Karte mit einem Spiel dass zur Mehrzahl auf PS/VS2.0 basieren wuerde?


Das hängt einzig von der Menge der Pixel ab, welche mit bestimmten Shadern berechnet werden. Je länger der Shader, umso weniger Pixel sind möglich. Selbst wenn ein Spiel dann auf der R3xx mit 30 FPS läuft, was sollen die NV3x Besitzer machen? Das kann und will sich kein ISV leisten...


Original geschrieben von Ailuros
Von der Vorstellung der HW (damit auch die Entwickler eine demensprechende Platform haben koennen) bis zur Veroeffentlichung eines Spiels der die features dieser HW ausnuetzt dauert es minimal 18-24 Monate im Idealfall.


Ebend. Deshalb kann es dem normalen Endkunden eigentlich egal sein, ob seine Karte PS2.0 oder PS3.0 fähig ist, wenn das Game fertig ist, braucht er meist doch ne schnellere Karten, da die ISV die damalige High-End Karte als min. Spec. verwendet haben. Hier geht der praktische Nutzen von Entwicklern und Endkunden deutlich auseinander

Original geschrieben von Ailuros
Je spaeter ein feature in Hardware erscheint, desto mehr wird dieses dann auch in Spielen unterstuetzt.


Das kann ich jetzt nicht ganz nachvollziehen. Je später ein Feature in HW verfügbar ist, desto weniger ist es beim Käufer verfügbar. Es könnte durchaus passieren(worst case), dass die PS3.0 erst mit DirectX 10 breite Verwendung finden, wenn einige Karten bereits PS4.0 fähig sind. Wenn man sich das Leben als Entwickler leicht machen möchte(und keine Verträge mit IHV hat), dann verwendet man "nicht massentaugliche" Features einfach nicht. Das spart Geld und Zeit.

Original geschrieben von Ailuros
Wer sagt Dir uberhaupt dass man PS/VS3.0 theoretisch bei limitiertem Gebrauch in Spielen nicht unmittelbar einsetzen koennte?


Können und Wollen sind zwei paar Schuhe. Werden heut limitiert 2.x Shader eingesetzt?
Wenn NVIDIA und ATi 2.x Shader unterstützen, NVIDIA jedoch noch 3.0 dazu, hätte man mit 2.x einen breiteren Kundekreis... und mit 3.0 nur mehr Arbeit.
Wenn ein Spiel mal irgendwo einen 3.0'er Shader einsetzt, dann würd ich nicht von sinnvollem Nutzen für den Endkunden sprechen.

Original geschrieben von Ailuros
Angenommen man bekommt heute sehr gute Leistung mit einem 20 Anweisungen langen Shader; wer sagt Dir dass man theoretisch dann mit 200 Anweisungen durch looping/branching nicht gleiche zumindest Leistung erreichen kann?


Das ginge auch mit einem voll ausgebautem 2.x Shader...(außer "loop", aber es gibt ja noch "rep")

Original geschrieben von Ailuros
Die einzige Frage ist hier nur was sich genau ATI fuer sehr lange Shader ausgedacht hat, um diese den Entwicklern auch bereitstellen zu koennen.


Warten wir die Techdemos ab...

Original geschrieben von Ailuros
2.0 und 2.0 extended unterstuetzen kein looping/branching.


branching == if... - mit 2.x Shader möglich
looping == per loop - nur mit 3.0 Shader möglich
looping == per rep - mit 2.x Shader möglich
Vorteil loop: Man kann die Schrittweite selbst festlegen.

Original geschrieben von Ailuros
Schoen und was wenn NVIDIA brauchbares PS/VS3.0 H1 2004 im mainstream, und H2 2004 im Value segment vorstellt?


Warten wir's ab.

Original geschrieben von Ailuros
Wie dem auch sei ist es IMHO unmoeglich dass NV mit PS/VS3.0 langsamer sein koennte in Shader-lastigen Applikationen, selbst wenn diese nur auf PS/VS2.0 limitiert sind.

Nichts ist unmöglich, aber hast schon recht, die Wahrscheinlichkeit ist recht gering.

Original geschrieben von Ailuros
ATI wird sicher versuchen ueberhaupt im Vertex Bereich zu kompensieren, aber einen so grossen Erfolg wie bei R3xx sehe ich nicht.

Ich denk, Vertex Shader Leistung habe NV3x und R3xx eigentlich genug, 1-2 Pipelines mehr sind dann wohl eher was für's Marketing...

P.S. Ich bin ja immernoch in dem Glauben, dass ATi, NVIDIA und PowerVR 2004 PS/VS 3.0 HW vorstellen werden. Das gequote macht einen ja völlig fertig, ich geh erstmal in Bett.

Thomas

betasilie
2004-02-24, 07:29:59
Original geschrieben von tb
Ebend. Deshalb kann es dem normalen Endkunden eigentlich egal sein, ob seine Karte PS2.0 oder PS3.0 fähig ist, wenn das Game fertig ist, braucht er meist doch ne schnellere Karten, da die ISV die damalige High-End Karte als min. Spec. verwendet haben. Hier geht der praktische Nutzen von Entwicklern und Endkunden deutlich auseinander

Das ist imo der wichtigste Punkt weswegen NV 2004 ATI unterliegen wird, falls sie bei den 2.0Shadern viel langsamer sein sollten.

seahawk
2004-02-24, 07:53:51
Eins wird hier aber gerne vergessen. Die meisten Shader werden heute in in HLSL geschrieben. Es ist also praktisch kaum ein Aufwand aus diesem Code einen PS3.0 Pfad zu compilieren.

Oder anders gesagt. Der Schritt vom PS 1.X zu 2.0 ist westnlich größer als der Schritt von 2.0 zu 3.0, wenn es nur um die Umsetzung des Wechsels geht.

Es wird einfach davon abhängen wie der Vergleich zwischen NV40 und R420 in heutigen Anwendungen ausgeht. Kann der NV40 mit dem R420 mithalten (sei er auch geringfügig langsamer) und bietet 3.0 Shader, dann hat NV einen Gewinner. Vernichtet der R420 den NV40 mit 20-30% Unterschied in heutigen Anwendungen, dann hat ATI einen Gewinner.

Wobei es sich dann mit den Refreshchips wieder drehen kann. Es ist ja wohl ziemlich sicher, dass erst der R500 bei ATI 3.0 Shader haben wird.

ShadowXX
2004-02-24, 08:15:34
Original geschrieben von seahawk
Eins wird hier aber gerne vergessen. Die meisten Shader werden heute in in HLSL geschrieben. Es ist also praktisch kaum ein Aufwand aus diesem Code einen PS3.0 Pfad zu compilieren.

Oder anders gesagt. Der Schritt vom PS 1.X zu 2.0 ist westnlich größer als der Schritt von 2.0 zu 3.0, wenn es nur um die Umsetzung des Wechsels geht.

Es wird einfach davon abhängen wie der Vergleich zwischen NV40 und R420 in heutigen Anwendungen ausgeht. Kann der NV40 mit dem R420 mithalten (sei er auch geringfügig langsamer) und bietet 3.0 Shader, dann hat NV einen Gewinner. Vernichtet der R420 den NV40 mit 20-30% Unterschied in heutigen Anwendungen, dann hat ATI einen Gewinner.

Wobei es sich dann mit den Refreshchips wieder drehen kann. Es ist ja wohl ziemlich sicher, dass erst der R500 bei ATI 3.0 Shader haben wird.

Full ack....

Wir sollten allerdings alle nicht vergessen, das es noch mehr als nur die PS3.0 Shader gibt.

Eine sehr wichtige Frage im r420 vs. nv40 vergleich wird IMHO sein, inwiefern nV ihr AA verbessert habt...und ATI ihr AF...

Wobei ich zugebe, das sehr wahrscheinlich ein 4xRGMSAA bei nV + "nur" 10% weniger Speed reichen würde....

Doch noch was zu PS3.0 und deren Verwendung:
In wie vielen aktuellen Games/Demos ist ein grünes Logo zu sehen (meistens sehr sehr gross) und in wie vielen ist ein rotes Logo zu sehen (und wenn meist sehr klein)....

Sagen wir mal 10:1 für Grün?? (und das ist noch nett zu Rot)...
Da können sich selbst Pessimissten ausmalen, das mehrere SW-Schmieden, mal zumindest den PS2.0 nochmals durch den Compiler jagen und einen extra 3.0 Codepath mit ausliefern...

J.S.Shadow

betasilie
2004-02-24, 08:23:45
Original geschrieben von ShadowXX
Doch noch was zu PS3.0 und deren Verwendung:
In wie vielen aktuellen Games/Demos ist ein grünes Logo zu sehen (meistens sehr sehr gross) und in wie vielen ist ein rotes Logo zu sehen (und wenn meist sehr klein)....

Sagen wir mal 10:1 für Grün?? (und das ist noch nett zu Rot)...
Da können sich selbst Pessimissten ausmalen, das mehrere SW-Schmieden, mal zumindest den PS2.0 nochmals durch den Compiler jagen und einen extra 3.0 Codepath mit ausliefern...
Quatsch! Das "meant to be played"-Projekt von NV sagt rein garnix darüber aus, ob das Game auf NV-Karten schneller läuft oder optimiert wurde. ... Da sieht man allerdings mal wieder schön, wie diese Marketingaktion funktioniert; einfach den Platz für´s Logo kaufen und die Kunden denken das Game würde auf NV-Karten optimiert sein und dementsprechend auf diesen besser laufen.

Projekte, die richtig intensiv on NV und ATI unterstützt werden, gibt es nur einige Wenige.

Gast
2004-02-24, 08:49:09
Original geschrieben von seahawk
Eins wird hier aber gerne vergessen. Die meisten Shader werden heute in in HLSL geschrieben. Es ist also praktisch kaum ein Aufwand aus diesem Code einen PS3.0 Pfad zu compilieren.

Oder anders gesagt. Der Schritt vom PS 1.X zu 2.0 ist westnlich größer als der Schritt von 2.0 zu 3.0, wenn es nur um die Umsetzung des Wechsels geht.

Es wird einfach davon abhängen wie der Vergleich zwischen NV40 und R420 in heutigen Anwendungen ausgeht. Kann der NV40 mit dem R420 mithalten (sei er auch geringfügig langsamer) und bietet 3.0 Shader, dann hat NV einen Gewinner. Vernichtet der R420 den NV40 mit 20-30% Unterschied in heutigen Anwendungen, dann hat ATI einen Gewinner.

Wobei es sich dann mit den Refreshchips wieder drehen kann. Es ist ja wohl ziemlich sicher, dass erst der R500 bei ATI 3.0 Shader haben wird.

Sicherlich theoretisch richitg, aber warum sollten sie das tun. Die aktuelle Shader-Sprache ist doch perfekt!

Ich denke das PS3.0 frühestens 2005 von bedeutung wird.

Grüsse

ShadowXX
2004-02-24, 09:05:46
Original geschrieben von betareverse
Quatsch! Das "meant to be played"-Projekt von NV sagt rein garnix darüber aus, ob das Game auf NV-Karten schneller läuft oder optimiert wurde. ... Da sieht man allerdings mal wieder schön, wie diese Marketingaktion funktioniert; einfach den Platz für´s Logo kaufen und die Kunden denken das Game würde auf NV-Karten optimiert sein und dementsprechend auf diesen besser laufen.

Projekte, die richtig intensiv on NV und ATI unterstützt werden, gibt es nur einige Wenige.

Ich weiss sehr genau wie TWIMTBP funktioniert...ich wollte damit nur ausdrücken, das nV mit ein paar Euro mehr, sicherlich viele Entwickler überreden kann, das ganze auch mal kurz als PS3.0 compilieren zu lassen...

Das kann man dann sehr gut auf die Kartons drucken und das bedeutet mehr Marketing für nV und daraus resultieren dann stärke verkäufe...

Das die nV dadurch keine Stück schneller wird (nur weil es dann PS3.0 Shader sind) ist klar...das weiss ich, das weisst du...aber nicht der (entschuldigung) FX5200 Käufer...

Es ging mir nie um irgendwelche imaginären Geschwindigkeitsvorteile durch PS3.0 oder neue bombastische Effekte.....sondern einzig und allein um den Marketingvorteil, den nV durch die PS3.0 hat und den Sie definitiv ausnutzen werden.....

Ich sehe schon die neuen "BruteForceware (TM)"-Treiber...mit eingebauten PS3.0 Recompiler, der 150% Geschwindigkeitszuwachs beschert....;D ;D ;D ;D
Und dazu noch die obligatorische Schlagzeile der GS.....

J.S.Shadow

seahawk
2004-02-24, 09:17:49
Wobei es auch für das Spiel bestimmt nicht von Nachteil ist, wenn auf der Packung steht. "Supports PS 3.0 Effekts"

Sicherlich theoretisch richitg, aber warum sollten sie das tun. Die aktuelle Shader-Sprache ist doch perfekt!


Eben nicht. PS 2.0 sind unfelxibel. Keine Loops, kein If-Then. HL2 benutzt z.B. afaik mehrere sehr ähnliche Shader. Bei 3.0 könnte man das mit einem einzigen machen.

Und der Aufwand für die Programmierer ist sehr gering. Ich denke Demirug kann das aber besser erklären.

betasilie
2004-02-24, 09:38:23
Original geschrieben von ShadowXX
Ich weiss sehr genau wie TWIMTBP funktioniert...ich wollte damit nur ausdrücken, das nV mit ein paar Euro mehr, sicherlich viele Entwickler überreden kann, das ganze auch mal kurz als PS3.0 compilieren zu lassen...

Das kann man dann sehr gut auf die Kartons drucken und das bedeutet mehr Marketing für nV und daraus resultieren dann stärke verkäufe...

Das die nV dadurch keine Stück schneller wird (nur weil es dann PS3.0 Shader sind) ist klar...das weiss ich, das weisst du...aber nicht der (entschuldigung) FX5200 Käufer...

Es ging mir nie um irgendwelche imaginären Geschwindigkeitsvorteile durch PS3.0 oder neue bombastische Effekte.....sondern einzig und allein um den Marketingvorteil, den nV durch die PS3.0 hat und den Sie definitiv ausnutzen werden.....

Ich sehe schon die neuen "BruteForceware (TM)"-Treiber...mit eingebauten PS3.0 Recompiler, der 150% Geschwindigkeitszuwachs beschert....
Und dazu noch die obligatorische Schlagzeile der GS.....

J.S.Shadow
Klar wird nV Geld bei eingen Entwicklern reinpumpen, um mit der Shader3.0Technolgie zu werben, da hast schon recht, aber das steht nicht im direkten Zusammenhang mit TWIMTBP. HL2 wird scheinbar am Ende mit einem ATI-Logo vermarktet, aber trotzdem wird Valve auch extra Renderpathes für nV bereit stellen (vielleicht sogar eine für 3.0Shader?).

Ich sehe übrigens, im Gegenteil zu dir, eher den Geschwindigkeitsvorteil für nV durch Shader3.0-Renderpfade. Marketingtechnisch wird nV die 3.0-Technolgie natürlich auch versuchen in Bezug auf tolle Effekte auszuschlachten, aber das wird nicht gelingen, solange keine Software auf dem Markt ist, die optische Unterschiede aufzeigt, und das wird frühestens Ende 2004 der Fall sein. ... DX10 wäre ein gutes Marketingintrument, aber Shader3.0 ist nur begrenzt wirksam für den Massenmarkt. CineFX hat bewiesen, dass sowas nur begrenzt funktioniert.

2004 wird über Leistung entschieden und wenn nV da mit einem 3.0-Treibercompiler oder Fakecompiler ATI überholen kann, dann wäre das das einizg wahre Marketinginstrument für 2004. ... Oder halt eine ganze Reihe von Games, die sich durch Nutzung von PS3.0 optisch deutlich von der PS2.0-Version unterscheiden. Aber das wird sicherlich nicht so kommen.


Und wenn nV massiv auf 3.0-Marketing setzt, dann ATI auch. Wer kennt schon den Unterschied zwischen Smartshader 3.0 und Shader 3.0? :naughty: ... Kaum einer der GS oder CB liest. ;)

deekey777
2004-02-24, 09:50:54
Vielleicht kommen die ersten richtigen TWIMTBP-Spiele in diesem Jahr mit richtigen FX-Optimierungen (siehe EA-Deal)... Bis jetzt gab es doch nur dieses hässliche Logo (in ETM sogar an fast jeder Werbetaffel). Selbst auf der Verpackung von TR:AoD, was mit der 9600XT mitgeliefert wurde, stand es - und TR:AoD war Waterloo für die FX-Serie mit seinem massiven Einsatz der PS 2.0-Shadereffekten à la Heat Haze.

betasilie
2004-02-24, 09:56:25
Original geschrieben von deekey777
Vielleicht kommen die ersten richtigen TWIMTBP-Spiele in diesem Jahr mit richtigen FX-Optimierungen
Ich würde das nicht von TWIMTBP abhängig machen, da das nur Marketing ist. Es werden auch Games mit FX-Optimierungen kommen, die nicht Bestandteil von TWIMTBP sind, und es werden noch viel TWIMTBP-Games kommen, dei auf ATI-Karten besser laufen werden.

TWIMTBP ist eine reines Marketing und nichts deutet darauf hin, dass sich das ändert.

Exxtreme
2004-02-24, 10:01:51
Original geschrieben von ShadowXX
Ich weiss sehr genau wie TWIMTBP funktioniert...ich wollte damit nur ausdrücken, das nV mit ein paar Euro mehr, sicherlich viele Entwickler überreden kann, das ganze auch mal kurz als PS3.0 compilieren zu lassen...

Naja, erstmal müssen sich Situationen finden in denen PS3.0 auch Vorteile bietet. Bei den z.Zt. verwendeten Shadern dürfte es kaum Vorteile geben. Wenn ATi massiv schneller ist dann können sie dieses Handicap mehr als ausgleichen.
Original geschrieben von ShadowXX
Es ging mir nie um irgendwelche imaginären Geschwindigkeitsvorteile durch PS3.0 oder neue bombastische Effekte.....sondern einzig und allein um den Marketingvorteil, den nV durch die PS3.0 hat und den Sie definitiv ausnutzen werden.....

J.S.Shadow
Pixelshader-Versionen interessieren die meisten Kunden nicht. Die Angabe "DX9" reicht schon aus. Und wenn NV mit DX9.1 anfängt dann kann ich mir vorstellen, daß ATi entweder mitmacht oder eine Gegenkampagne startet.

Quasar
2004-02-24, 10:13:27
Original geschrieben von Exxtreme
Pixelshader-Versionen interessieren die meisten Kunden nicht.

Marketing operiert nach dem Prinzip: "Bedarf ist da, wo wir ihn wecken können"
Insofern sehe ich das weniger als Problem an.

ShadowXX
2004-02-24, 10:24:58
Damit keine missverständnisse aufkommen:

Ich wollte die nV jetzt nicht in den Himmel loben, da auch ich mit der Meinung konform gehe, das zumindest bis Ende 2004 PS2.0 reichen werden....

Es hängt sehr viel davon ab, wie schnell nV bei PS2.0 sein wird...wenn Sie es schaffen bis auf ca. 10% an ATI ran zu kommen, ist der PS3.0 Shader der nV40 fast schon ein Totschlagargument...

Allerdings darf nV dann nicht beim AA gepennt haben....

Die Shader3.0 wichtig/unwichtig Diskusion wird ihren Höhepunkt wohl erst mit den Refresh-Chips erreichen...weil dann ungefähr die ersten Games rauskommen könnten, die tatsächlich auch Vorteile aus PS3.0 ziehen können...(Rein Entwicklungszeit-Technisch)

Ich für meinen Teil, werde wohl erstmal eine r420 Kaufen und dann bei den Refreshes nochmals den Markt sondieren....
Bis Herbst kann man bestimmt genaueres über PS3.0, deren Nutzung und deren Vorteile sagen...

J.S.Shadow

Exxtreme
2004-02-24, 10:31:42
Original geschrieben von Quasar
Marketing operiert nach dem Prinzip: "Bedarf ist da, wo wir ihn wecken können"
Insofern sehe ich das weniger als Problem an.
Definitiv. Nur wird es wohl diesmal deutlich schwieriger werden diesen Bedarf zu wecken. Beim T&L-Hype hat das gut funktioniert da fast alle mitgemacht haben und es keine Firma gab, die sich dagegen stemmte.

betasilie
2004-02-24, 10:37:36
Original geschrieben von Quasar
Marketing operiert nach dem Prinzip: "Bedarf ist da, wo wir ihn wecken können"
Insofern sehe ich das weniger als Problem an.
Und wie sollen die DAUs NVs Shader3.0 von ATIs Smartshader3.0 unterscheiden? ... Garnicht! nV wird 3.0Shader nur mit entsprechenden Anwendungen vermarkten können. Selbst eine neue Version von unserem heißgeliebten 3dMark wäre da ein Weg die Vorzüge von 3.0Shadern zu verdeutlichen.

Original geschrieben von Exxtreme
Definitiv. Nur wird es wohl diesmal deutlich schwieriger werden diesen Bedarf zu wecken. Beim T&L-Hype hat das gut funktioniert da fast alle mitgemacht haben und es keine Firma gab, die sich dagegen stemmte.
Full Ack. ... Bei CineFX wollte nV auch den Bedarf nach 2.1Shadern wecken, aber niemand wollte davon was wissen, weil es keine Spiele gab (gibt), die den Bedarf wecken könnten.

... und CineFX hört sich von Namen besser an, als Shader3.0. Daher behaupte ich, dass der Name "PS3.0" oder "Shader3.0" weniger zieht, als CineFX. und wenn NV sich einen neuen Namen einfallen lassen wird, dann wird ATI sich auch einen neunen namen einfallen lassen.

Entweder Speed oder ein neuer API-Level, also "DX-Next". Alles andere wird sich nur begrenzt vermarkten lassen.

Demirug
2004-02-24, 10:50:31
Original geschrieben von Exxtreme
Definitiv. Nur wird es wohl diesmal deutlich schwieriger werden diesen Bedarf zu wecken. Beim T&L-Hype hat das gut funktioniert da fast alle mitgemacht haben und es keine Firma gab, die sich dagegen stemmte.

Wobei es natürlich vom Marketing her einfacher ist Bedarf für ein Feature zu wecken als dem unbedarften Kunden klar zu machen das er etwas nicht braucht.

ATI hat nun eben das gute alte Problem das man einem Argument nur noch bestenfalls zur hälfte glaubt wenn der von dem es kommt aufgrund seiner Situation gar nicht anders argumentieren kann.


Kein Mensch braucht derzeit PS 3.0 ,weil wir es nicht haben

Exxtreme
2004-02-24, 11:04:10
Original geschrieben von Demirug
Wobei es natürlich vom Marketing her einfacher ist Bedarf für ein Feature zu wecken als dem unbedarften Kunden klar zu machen das er etwas nicht braucht.

ATI hat nun eben das gute alte Problem das man einem Argument nur noch bestenfalls zur hälfte glaubt wenn der von dem es kommt aufgrund seiner Situation gar nicht anders argumentieren kann.
Klar, ATi kann aber "Smartshader 3.0" ganz legal definieren. Und das wird der 08/15-Kunde nicht mehr blicken denn dann braucht er etwas Knowhow um es zu durchschauen.

Quasar
2004-02-24, 11:32:06
Liebe Leute, auch wenn bis auf BK und MCDoof bisher kaum jemand davon Gebrauch gemacht hat: Vergleichende Werbung ist mittlerweile auch in D erlaubt (in den US of A sowieso).
Um ihre 3.0-Shader in ein gutes Licht zu stellen, braucht es bloß eine klitzekleine Tabelle, was man mit 3.0 kann, aber nicht mit 2.0. Ob die Kunden etwas damit anfangen können, sei mal dahingestellt, aber "höhere Zahlen" sind schon was Tolles.
Dazu noch den kleinen Trick, den ATi mit ihrem Teekessel abgezogen hat: Ein Bild mit 3.0 (und wenn es sinnloses Zeug ist, völlig egal) und eines ohne. Da gibt es genug Möglichkeiten, im 2.0-Shader-Bild ein ziemlich mieses Image zu erzeugen.
Und letztlich noch ein neuer 3Dumm-Mark2004 und die Sache ist (marketingtechnisch) gegessen.

seahawk
2004-02-24, 11:32:30
Original geschrieben von Exxtreme
Klar, ATi kann aber "Smartshader 3.0" ganz legal definieren. Und das wird der 08/15-Kunde nicht mehr blicken denn dann braucht er etwas Knowhow um es zu durchschauen.

Das wäre dann aber böse Kundentäuschung :D

Außerdem werden sie es so formulieren :

"The New ATI XXXXXX XXXXX with next generation Shadertechnology"

betasilie
2004-02-24, 11:43:31
Original geschrieben von Demirug
Wobei es natürlich vom Marketing her einfacher ist Bedarf für ein Feature zu wecken als dem unbedarften Kunden klar zu machen das er etwas nicht braucht.
Nur weiß der Kunde dann garnicht was er braucht sondern nur was draufstehen muss. ... Irgendwas mit 3.0 und Shader halt. Z.B. Smartshader 3.0

Außerdem hat ATI es scheinbar geschafft den Kunden klar zu machen, dass er CineFX nicht braucht. , und nicht nur weil sie es nicht haben.

Original geschrieben von Quasar
Liebe Leute, auch wenn bis auf BK und MCDoof bisher kaum jemand davon Gebrauch gemacht hat: Vergleichende Werbung ist mittlerweile auch in D erlaubt (in den US of A sowieso).
Um ihre 3.0-Shader in ein gutes Licht zu stellen, braucht es bloß eine klitzekleine Tabelle, was man mit 3.0 kann, aber nicht mit 2.0. Ob die Kunden etwas damit anfangen können, sei mal dahingestellt, aber "höhere Zahlen" sind schon was Tolles.

Ja? Diese Tabelle (CineFX vs. DX9) war auf vielen GFFX-Kartons drauf und gab es in zig Zeitschriften zu lesen. Hat es was gebracht? :dozey:

Ailuros
2004-02-24, 11:46:09
Diese pro/contra Argumente ueber PS/VS3.0 werden immer sinnloser, wenn man nicht einsehen kann dass NVIDIA dieses Marketing-technisch voll ausnutzen wird, falls ATI tatsaechlich mit PS3.0 hinterherhinkt.

-----------------------

tb,

Mal eine andere Frage: wie haetten NV's Value segment Verkaufszahlen ausgesehen, haette auch ATI 2.0 Shader fuer das Value-segment gehabt?

-----------------------

Uebrigens muFu bei rage3D:

I don't think NV40 is launching at CeBIT now either.

Pinch, salt of (aber nicht unmoeglich). Wer aber trotzdem vorsichtig alte Kommentare gelesen hat, wurde CeBIT als das Ziel und nicht als definitive Fakte erwaehnt.

------------------------

Kann mir jemand mal genau erklaeren was ausser der Vereinigung der Einheiten und den theoretischen "unlimited resources" der wahre Unterschied zwischen PS/VS3.0 und Shaders4.0 ist?

Die maximal moeglichen instruction slots bei 3.0 liegen bei 32768. Wenn mir jetzt jemand weiss machen will dass selbst R5xx oder sogar R6xx (oder NV5x/6x) mit so vielen slots ankommen na dann guten Morgen.

Bei DX-Next gibt es zwar Topology/Tesselation aber diese nicht durch eine getrennte Einheit wie z.B. einen PPP zu loesen, wuerde IMHO nur Komplianz auf Papier bedeuten (sollte man versuchen das Ganze durch die Shader auf irgendeine Art zu schleusen).

Ein Vorschlag von DX-Next fuer die unlimited resources ist Virtual Memory. Ob jetzt ATI eine solche oder Weiterentwicklungen ihres F- und V-buffer benutzt, ist wohl nicht so wichtig. Dieser "unlimited resources" Quatsch ist sowieso fuer die Katze ( *ahem* :D ), eher im Sinn dass man soviel implementieren kann wie man will.

Aber....die Veroeffentlichung von DX-Next (ausser Microsoft entscheidet sich dann doch noch fuer einen "intermediate" update) wenn tatsaechlich zur gleichen Zeit mit Longhorn, scheint weit in die Zukunft zu reichen. Von R5xx(DX-Next nach Schaetzung von ATI) kann vor 2005 auch durch die notwendige Verbreitung von 90nm im PC desktop Markt vor 2005 wohl schlecht die Rede sein.

Fazit: ja dem Normal-verbraucher kann PS/VS3.0 total egal sein fuer's ganze 2004, aber nicht fuer den Entwickler der laengere Shader fuer sein Projekt brauchen sollte, egal ob dieses dann in 2005/2006 oder spaeter dann veroeffentlicht wird.

Alles IMHO.

Ailuros
2004-02-24, 11:51:19
Original geschrieben von seahawk
Wobei es sich dann mit den Refreshchips wieder drehen kann. Es ist ja wohl ziemlich sicher, dass erst der R500 bei ATI 3.0 Shader haben wird.

Wenn ATI tatsaechlich bei R420 nur auf PS2.0 extended begrenzt sein sollte, dann sieht es eher gleich nach einem Sprung auf Shader4.0 mit R5xx aus.

Was die Relation zwischen PS/VS3.0 und Shader4.0 und auch die erwarteten Zeitspannen fuer R500, siehe vorigen Post.

Gast
2004-02-24, 11:51:43
Original geschrieben von betareverse
Und wie sollen die DAUs NVs Shader3.0 von ATIs Smartshader3.0 unterscheiden? ... Garnicht! nV wird 3.0Shader nur mit entsprechenden Anwendungen vermarkten können. Selbst eine neue Version von unserem heißgeliebten 3dMark wäre da ein Weg die Vorzüge von 3.0Shadern zu verdeutlichen.


Coole Idee "Smartshader 3.0"

Mann das gibt Flamewars ohne Ende! Da dürfen sich die Moderatoren im Forum schon einmal ihre Asbestanzüge rausholen. Seufz.... :(

Zum 3DMark03 : laut DaveBaumann von Beyond3D wird es keine neue 3DMark03-Version incl. PS3.0 Support geben. Da Beyond3D im Beta-Programm ist sollte er wissen von was er redet. Also hat ATi auch von dieser Seite nichts zu befürchten, soweit man das jetzt sagen kann.

Ailuros
2004-02-24, 11:53:43
Original geschrieben von Gast
Coole Idee "Smartshader 3.0"

Mann das gibt Flamewars ohne Ende! Da dürfen sich die Moderatoren im Forum schon einmal ihre Asbestanzüge rausholen. Seufz.... :(

Zum 3DMark03 : laut DaveBaumann von Beyond3D wird es keine neue 3DMark03-Version incl. PS3.0 Support geben. Da Beyond3D im Beta-Programm ist sollte er wissen von was er redet. Also hat ATi auch von dieser Seite nichts zu befürchten, soweit man das jetzt sagen kann.

Das aber nur einen update betreffend. Futuremark wird keinen Benchmark fuer 2004 veroeffentlichen?

Sphinx
2004-02-24, 11:58:16
Ich denke mal wir reden uns hier zu heiß und feucht.

PS3.0/VS3.0 bietet Vorteile in der Flexibilität der Shadertechnologie aber nichts ist bekannt über Vorteile und Nachteile einer GPU die PS3.0/VS3.0 umsetzt...

a) Wird sie schnellgenug sein ?
b) Was werden wir für Vorteile als Ottonormal Verbraucher haben... (Mal ganz böse gesagt was für Vorteile hat uns PS2.x beschert als Kunden ?)
c) Denke ich arg das Ati sich etwas dabei gedacht hat keine PS3.0/VS3.0 einzuführen...(Bestimmt nicht das sie es nicht könnten - Wer sowas behauptet sollte sich seine eigenen GPU´s entwickeln und gebrauch von diesen Machen...)
d) Wie schon einer behauptet hat : Ati wird sich bei MS schon den Rat einer Nichtveröffentlichung eines DX9.1 eingeholt haben ~ weswegen auch immer...
d1) Werden sie wohl oder übel auch Meinungen von Entwicklern eingeholt haben und nicht den Rat kleinerer Softwareschmieden...

Und nochwas ich denke mal das wir es bald wissen werden wer das bessere Produkt besitzen wird - mit den richtigen Features und der angemessenen Mehrleistung gegenüber heutiger Technologien (AGP)...

seahawk
2004-02-24, 12:00:31
Original geschrieben von Ailuros
Wenn ATI tatsaechlich bei R420 nur auf PS2.0 extended begrenzt sein sollte, dann sieht es eher gleich nach einem Sprung auf Shader4.0 mit R5xx aus.

Was die Relation zwischen PS/VS3.0 und Shader4.0 und auch die erwarteten Zeitspannen fuer R500, siehe vorigen Post.

Bertrachte meine Aussage zu : "mindestens 3.0 Shadern" hin korregiert.

seahawk
2004-02-24, 12:03:55
Original geschrieben von Sphinx
Ich denke mal wir reden uns hier zu heiß und feucht.

PS3.0/VS3.0 bietet Vorteile in der Flexibilität der Shadertechnologie aber nichts ist bekannt über Vorteile und Nachteile einer GPU die PS3.0/VS3.0 umsetzt...

a) Wird sie schnellgenug sein ?
b) Was werden wir für Vorteile als Ottonormal Verbraucher haben... (Mal ganz böse gesagt was für Vorteile hat uns PS2.x beschert als Kunden ?)
c) Denke ich arg das Ati sich etwas dabei gedacht hat keine PS3.0/VS3.0 einzuführen...(Bestimmt nicht das sie es nicht könnten - Wer sowas behauptet sollte sich seine eigenen GPU´s entwickeln und gebrauch von diesen Machen...)
d) Wie schon einer behauptet hat : Ati wird sich bei MS schon den Rat einer Nichtveröffentlichung eines DX9.1 eingeholt haben ~ weswegen auch immer...
d1) Werden sie wohl oder übel auch Meinungen von Entwicklern eingeholt haben und nicht den Rat kleinerer Softwareschmieden...

Und nochwas ich denke mal das wir es bald wissen werden wer das bessere Produkt besitzen wird - mit den richtigen Features und der angemessenen Mehrleistung gegenüber heutiger Technologien (AGP)...

Eher wahrscheinlich ist, dass der originale R400 zu ambitioniert war. Dieser mußte eingestampft bzw. in den R500 transformiert werden. Die entstehende Lücke lies sich nur durch eine Weiterentwicklung der R300 Serie zeitgemäß füllen. Die R300 Serie ist nicht sehr geeignet für die Realisierung von 3.0.

Also mußte ATI zwangsweise auf 3.0 Shader Support für ihre 2004 Chips verzichten.

Für ATI hat es nur Nachteile. Die Entwickler werden anfangen an PS 3.0 zu arbieten und sie werden NV Hardware nutzen. Damit definiert NV die Optimierungsrichtlinen für 3.0 Shader.
Ähnlich wie es ATI bei den 2.0 Shadern gemacht hat. Und man sieht welche Probleme für NV daraus resultierten.

betasilie
2004-02-24, 12:05:14
Original geschrieben von Ailuros
Wenn ATI tatsaechlich bei R420 nur auf PS2.0 extended begrenzt sein sollte, dann sieht es eher gleich nach einem Sprung auf Shader4.0 mit R5xx aus.

Was die Relation zwischen PS/VS3.0 und Shader4.0 und auch die erwarteten Zeitspannen fuer R500, siehe vorigen Post.
Full Ack.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1588980#post1588980 ;)

Quasar
2004-02-24, 12:17:19
Original geschrieben von betareverse
Ja? Diese Tabelle (CineFX vs. DX9) war auf vielen GFFX-Kartons drauf und gab es in zig Zeitschriften zu lesen. Hat es was gebracht? :dozey:
Offenbar schon. :)

betasilie
2004-02-24, 12:18:45
Original geschrieben von Quasar
Offenbar schon. :)
Wie meinst Du das? :kratz2:

Quasar
2004-02-24, 12:20:37
Original geschrieben von Ailuros
Ein Vorschlag von DX-Next fuer die unlimited resources ist Virtual Memory. Ob jetzt ATI eine solche oder Weiterentwicklungen ihres F- und V-buffer benutzt, ist wohl nicht so wichtig. Dieser "unlimited resources" Quatsch ist sowieso fuer die Katze ( *ahem* :D ), eher im Sinn dass man soviel implementieren kann wie man will.
Virtual Memory kann, wenn ich es richtig verstanden habe, schon nützlich sein. AFAIK versteckt sich dahinter die Möglichkeit, benötigte Teile von Texturen, die im "AGP"-Mem sind, direkt zu addressieren, ohne die komplette Textur samt Mipmaps in den lokalen RAM laden zu müssen.

Quasar
2004-02-24, 12:21:43
Original geschrieben von betareverse
Wie meinst Du das? :kratz2:

So, wie ich es sagte. CineFX wird gegenüber Smartshader 2.0 im allgemeinen als technisch überlegen angesehen.

Gast
2004-02-24, 12:22:03
Original geschrieben von Ailuros
Das aber nur einen update betreffend. Futuremark wird keinen Benchmark fuer 2004 veroeffentlichen?

Nun ja, was war der Vorläufer von 3DMark03, 3DMark01. Die Veröffentlichung eines Benchmarks im 2 Jahres-Rhythmus ist also nichts neues. Neu wäre nur, das der Banchmark nicht upgedated wird, wie beim 3DMark01.
Aber, da Nvidia im letzten Jahr so lieb zu Futuremark war werden die sich bestimmt nicht lange bitten lassen und kein Update veröffentlichen.

Ailuros
2004-02-24, 12:25:18
Sphinx,

a) Wird sie schnellgenug sein ?

Bei kleinen render targets warum nicht? Wo immer mal PS/VS2.0 Effekte heutzutage benutzt werden und auch in der absehbaren Zukunft, betreffen diese nur sehr kleine Anteile einer Szene.

b) Was werden wir für Vorteile als Ottonormal Verbraucher haben... (Mal ganz böse gesagt was für Vorteile hat uns PS2.x beschert als Kunden ?)

Langweilige PS2.0 Effekte wie z.B. in TR:AoD, wobei ATI dann mit ihrer arithmetischen Effizienz gerechtfertigt auf die eine oder andere Art und Weise stark geworben hat. Siehe oben nochmal Marketing-technische Ausnutzung von Feature-sets.

c) Denke ich arg das Ati sich etwas dabei gedacht hat keine PS3.0/VS3.0 einzuführen...(Bestimmt nicht das sie es nicht könnten - Wer sowas behauptet sollte sich seine eigenen GPU´s entwickeln und gebrauch von diesen Machen...)

Fuer VS3.0 bin ich mir nicht so sicher. Kommt ganz drauf an was man mit "wollen" versteht.

John Reynolds postete eine sehr interessante Meinung darueber, wobei ATI (und es ist auch eine sehr weise Entscheidung IMHO) lieber frueher als spaeter die Disorientierung ihrer roadmap durch den XBox2 Vertrag hoechstwahrscheinlich einbussen will.

Kein einziger IHV bis heute, egal wie gross oder wie klein, wurde NICHT von einem Consolen-Projekt beinflusst. Es kann sein dass es bei ATI einen konservativen Unterschied machen wird da es sich nur um eine Lizenz handelt, aber ein "shift" in der roadmap die etwa ein Jahr betrifft ist normal.

NVIDIA lernte dieses auch durch den XBox chip, denn Ti200/Ti500 waren frueher eigentlich nie geplant und NV30 war tatsaechlich ihr geplantes Q1 2002 Produkt. Ich persoenlich finde - falls es auch so sein sollte - die Entscheidung von ATI genial, weil man ganz einfach von den Fehlern der Konkurrenz gelernt hat.

d) Wie schon einer behauptet hat : Ati wird sich bei MS schon den Rat einer Nichtveröffentlichung eines DX9.1 eingeholt haben ~ weswegen auch immer...

Es gibt und gab keinen einzigen Grund fuer ein "dx9.1" update, da PS/VS3.0 schon seit der Veroeffentlichung von dx9.0 mitinbegriffen wurde. Der Marketing-Firlefanz von anderen IHVs ist wohl Microsoft (und auch gerechtfertigt) egal.

d1) Werden sie wohl oder übel auch Meinungen von Entwicklern eingeholt haben und nicht den Rat kleinerer Softwareschmieden...

Ohne jegliche Zweifel. Das aendert aber nicht sehr viel daran wenn das obrige doch irgendwie stimmen sollte. Ob es so ist, werden wir sowieso vor 2005 oder spaeter nicht herausfinden. Auf jeden Fall bezweifle ich dass ATI groessere Probleme haben wird in 2004; nur eben nicht den gleichen grossen Erfolg wie bei R3xx; in dem Fall hat sich ATI wohl einen neuen grossen Schwung fuer R5xx vorbehalten.

Und nochwas ich denke mal das wir es bald wissen werden wer das bessere Produkt besitzen wird - mit den richtigen Features und der angemessenen Mehrleistung gegenüber heutiger Technologien (AGP)...

Na selbstverstaendlich und ohne jeglichen Zweifel. Ohne unabhaengige Tests/Analysen beider Loesungen ueber Leistung, Effizienz, AA/AF Implementationen und dessen Leistung bzw. IQ usw usw. kann man keine Schlussvolgerungen treffen.

betasilie
2004-02-24, 12:25:55
Original geschrieben von Quasar
So, wie ich es sagte. CineFX wird gegenüber Smartshader 2.0 im allgemeinen als technisch überlegen angesehen.
Bitte auf den Kontext achten. Du hast behauptet, dass NV die Shader3.0 ganz toll vermarkten werden kann, weil sie irgendwelche Vergleichstabellen bringen werden. Ich habe dich drauf aufmerksam gemacht, dass es diese Tabellen schon für CineFX gab, aber die Kunden hat das beim Kauf nicht tangiert. ... Dann widersprichst Du mir mit der Begründung, dass CineFX technsich überlegen sei, aber es ging nicht um Technik, sondern darum, ob man es vermarkten kann und CineFX konnte man nicht vermarkten, trotz toller Tabellen.

Und natürlich wird CineFX als technisch überlegen angesehen, weil es technisch überlegen ist, aber es ist nicht verkaufsfördernd, weil sich die Kunden nicht für CineFX interessieren, und davon war die Rede. Und das verwundert auch nicht, denn CineFX wird für den Käufer (Gamer) einer GFFX niemals eine Bedeutung haben.

Quasar
2004-02-24, 12:32:23
Original geschrieben von betareverse
Bitte auf den Kontext achten. Du hast behauptet, dass NV die Shader3.0 ganz toll vermarkten werden kann, weil sie irgendwelche Vergleichstabellen bringen werden. Ich habe dich drauf aufmerksam gemacht, dass es diese Tabellen schon für CineFX gab, aber die Kunden hat das beim Kauf nicht tangiert.

Und natürlich wird CineFX als technisch überlegen angesehen, weil es technisch überlegen ist, aber es ist nicht verkaufsfördernd, weil sich die Kunden nicht für CineFX interessieren, und davon war die Rede. Und das verwundert auch nicht, denn CineFX wird für den Käufer (Gamer) einer GFFX niemals eine Bedeutung haben.

Möglicherweise gibt es aber einen klitzekleinen Unterschied (darauf beruht das meiste an Spekulation hier ja): Nämlich daß die Leistung deutlich dichter beeinander liegt. So kann man die eine Art von Zahlen durch die andere Art von Zahlen stützen und gleichzeitig weg von der DX9-Zahl kommen, hin zu Shader3.0.

Es ist jedoch müßig jetzt darüber zu streiten: Du weißt nicht, was passieren wird und ich weiß es auch nicht.

edit:
Uiha, da haste aber noch viel reineditiert... der Kontext passt, siehe dieses Posting. =)

Ailuros
2004-02-24, 12:32:38
Original geschrieben von Quasar
Virtual Memory kann, wenn ich es richtig verstanden habe, schon nützlich sein. AFAIK versteckt sich dahinter die Möglichkeit, benötigte Teile von Texturen, die im "AGP"-Mem sind, direkt zu addressieren, ohne die komplette Textur samt Mipmaps in den lokalen RAM laden zu müssen.

Quasar,

Es ging mir nicht ueber die Nutzbarkeit von VM, sondern darum dass bei unlimited resources es egal ist wie man das Problem loest. Kann VM oder F-/V-buffer sein, macht keinen Unterschied, da die Leistung sowieso bekloppt langsam sein wird.

Uebrigens sollte es nicht eher PCI-E fuer die Zukunft heissen?

Quasar
2004-02-24, 12:36:57
Original geschrieben von Ailuros
Quasar,

Es ging mir nicht ueber die Nutzbarkeit von VM, sondern darum dass bei unlimited resources es egal ist wie man das Problem loest. Kann VM oder F-/V-buffer sein, macht keinen Unterschied, da die Leistung sowieso bekloppt langsam sein wird.

Uebrigens sollte es nicht eher PCI-E fuer die Zukunft heissen?

Schauen wir mal... :)
PCI-E... ja, da muss ich mich wohl noch dran gewöhnen.

betasilie
2004-02-24, 12:39:55
Original geschrieben von Quasar
Möglicherweise gibt es aber einen klitzekleinen Unterschied (darauf beruht das meiste an Spekulation hier ja): Nämlich daß die Leistung deutlich dichter beeinander liegt. So kann man die eine Art von Zahlen durch die andere Art von Zahlen stützen und gleichzeitig weg von der DX9-Zahl kommen, hin zu Shader3.0.
Keine Frage, wenn NV40 und R420 von der Leistung eng beinander liegen, kann eine Shader3.0-Marketingkampagne sehr wohl was bringen, aber auch nur dann. Und wenn der NV40 auf einer Höhe mit dem R420 ist, sieht es schlecht für ATI ohne Shader3.0 aus. Ob NV das dann dem markt vermitteln kann, steht auf einem anderen Blatt, denn ATI wird die Wahrheit dann ordentlich verbiegen; Stichwort: Smartshader3.0 etc.

Ailuros
2004-02-24, 12:39:59
Original geschrieben von betareverse
Bitte auf den Kontext achten. Du hast behauptet, dass NV die Shader3.0 ganz toll vermarkten werden kann, weil sie irgendwelche Vergleichstabellen bringen werden. Ich habe dich drauf aufmerksam gemacht, dass es diese Tabellen schon für CineFX gab, aber die Kunden hat das beim Kauf nicht tangiert. ... Dann widersprichst Du mir mit der Begründung, dass CineFX technsich überlegen sei, aber es ging nicht um Technik, sondern darum, ob man es vermarkten kann und CineFX konnte man nicht vermarkten, trotz toller Tabellen.

Und natürlich wird CineFX als technisch überlegen angesehen, weil es technisch überlegen ist, aber es ist nicht verkaufsfördernd, weil sich die Kunden nicht für CineFX interessieren, und davon war die Rede. Und das verwundert auch nicht, denn CineFX wird für den Käufer (Gamer) einer GFFX niemals eine Bedeutung haben.

betareverse,

Haette ATI schon bei R3xx eine andere Architektur gewaehlt, dann wuerden wir derartige Diskussionen gar nicht fuehren und es waere auch um vieles leichter gewesen PS/VS3.0 voll zu unterstuetzen.

Und das ist IMHO total irrelevant zur arithmetischen Effizienz zwischen R3xx und NV3x. NVIDIA hat CineFX einfach zu viel verpatzt und da macht es keinen Unterschied wie die Architektur ausgelegt wurde oder wieviele Anweisungen dieser in Theorie anlegen koennte.

Du kriegst es mir nicht aus den Kopf dass ein PS/VS2.0+ chip mit einem virtuellen 4*2 setup mit der gleichen Effizienz wie R3xx nicht moeglich war.

Gast
2004-02-24, 12:46:37
Original geschrieben von Sphinx
c) Denke ich arg das Ati sich etwas dabei gedacht hat keine PS3.0/VS3.0 einzuführen...(Bestimmt nicht das sie es nicht könnten - Wer sowas behauptet sollte sich seine eigenen GPU´s entwickeln und gebrauch von diesen Machen...)


VS3.0 ??

Ich dachte wir reden hier nur über PS3.0. Die VS3.0 - Spezifikation soll doch durch die vom R400 übernommenen Vertexshader leicht zu erfüllen sein.

Außerdem, wenn beim R420 wirklich keine VS3.0 - Einheiten verbaut wurden, dann kann sich ATi eingraben. So schöne Displacement-Mapping Demos wie die die Nvidia dann aus dem Hut zaubert hat die Welt noch nicht gesehen.

_Der_ große Fortschritt bei den VS/PS Ver.3.0 sind ja die VS3.0 und nicht die PS3.0, die bringen nur eine höhere Effizienz mit sich. Die VS3.0 ermöglichen aber komplett neue Effekte. Wenn ATi auch die VS3.0 weggelassen haben sollte, was ich für unmöglich halte da sie nicht so Dumm sein können, dann wird der R420 ein Flop.

betasilie
2004-02-24, 12:49:25
Original geschrieben von Ailuros
betareverse,

Haette ATI schon bei R3xx eine andere Architektur gewaehlt, dann wuerden wir derartige Diskussionen gar nicht fuehren und es waere auch um vieles leichter gewesen PS/VS3.0 voll zu unterstuetzen.

Klar, aber nach PS1.4 war PS2.0 die logische Folge.

Original geschrieben von Ailuros
Und das ist IMHO total irrelevant zur arithmetischen Effizienz zwischen R3xx und NV3x. NVIDIA hat CineFX einfach zu viel verpatzt und da macht es keinen Unterschied wie die Architektur ausgelegt wurde oder wieviele Anweisungen dieser in Theorie anlegen koennte.
Klar, schöner wäre es gewesen, wenn beide Firmen ihre Entwicklung auf eine Shader3.0-GPU ausgerichtet hätten. So war es lediglich NV, nur dass sie es nicht rechtzeitg geschafft haben und somit nur CineFX bringen konnten, statt direkt einen echten 3.0-Chip. Dass der NV30 zudem noch arithmetisch sehr Ineffizient war, ist doppelt traurig.

Original geschrieben von Ailuros
Du kriegst es mir nicht aus den Kopf dass ein PS/VS2.0+ chip mit einem virtuellen 4*2 setup mit der gleichen Effizienz wie R3xx nicht moeglich war.
Habe ich das versucht?

Tyler_Durden
2004-02-24, 12:50:21
Original geschrieben von Ailuros
Du kriegst es mir nicht aus den Kopf dass ein PS/VS2.0+ chip mit einem virtuellen 4*2 setup mit der gleichen Effizienz wie R3xx nicht moeglich war.

Wie meinst du das genau? Etwa das die 4*2 Archtiektur rein von der Pro Mhz Leistung nicht an die 8*1 vom R3xx rannkommt?

Godmode
2004-02-24, 13:04:44
Original geschrieben von tb
Meine Meinung zum Thema Shader 3.0:

- 2004 -> gut und schön für Entwickler, wenig Nutzen für Endanwender, da höchstens 2.0 Shader in Spielen zum Einsatz kommen werden, ganz selten vielleicht noch 2.x Shader


Thomas

Ich frage mich oft wozu Demirug was erklärt, mit den Shadern der Version 3.0 wird es einfach möglich sein die PS 2.0 Shader schneller und effizienter auszuführen!! Und woher weist du sogenau das höchstens 2.0 Shader in Spielen zum Einsatz kommen? Mit dem HLSL Compiler ist es nur ein klick und schon hab ich einen Shader für die 3.0 Version, und wenn man dadurch 2.0 Shader schneller, effizienter ausfürhen kann warum sollten die Entwickler auf so etwas verzichten, wenn der Arbeitsaufwand gleich NULL ist?? Man erstellt dann ein Profil für den R420 die mit sehr schnellen 2.x Shadern arbeiten, und das andere für den NV40 der dann mit den 3.0 Shadern arbeiten können. Und dass kann wirklich kein Problem sein so etwas zu implementieren, ich brauche nur in den Device Caps überprüfen ob Shader in der Version 3.0 unterstützt werden!! Stell dir das mal so vor: ATI ist mit ihrem Chip in 2.0 Shadern schneller als Nvidia und um den etwas langsameren Shader 2.0 Nachteil vom NV40 auszugleichen, verwenden sie dann 3.0 Shader, somit kann man dann die eher langsameren 2.0 Shader einfach effizienter, schneller machen. Ok ob jetz jeder Entwickler gleich mit Texture Reads in VS 3.0 arbeiten wird ist dann ein anderes Thema, da man dadurch wieder Fallbacks programmieren müsste für GPUs die das nicht unterstützen würden und wenn dann diese Technologie nur für einen Chip verfügbar wäre und die Entwickler für alle anderen Chips Fallbacks implementieren müssten wär das sicher ein großer Mehraufwand. Aber wie oben schon gesagt, durch die effizientere Ausführung der 3.0 Shader als der 2.0 Shader glaube ich fest das die Entwickler schnell zu den Geschindigkeitsvorteilen von Shader 3.0 wechseln werden. Ist doch wirklich kein Problem den Code durch den HLSL Compiler zu jagen und das erste mal mit Shader 2.0 Output und das zweite mal mit Shader 3.0 Output.

Ailuros
2004-02-24, 13:08:02
beta,

Klar, aber nach PS1.4 war PS2.0 die logische Folge.

Das aendert nichts an meiner Aussage. Bitte nochmal durchlesen.

Habe ich das versucht?

Nope. Hab ich auch nicht so gemeint.

Tyler,

Wie meinst du das genau? Etwa das die 4*2 Archtiektur rein von der Pro Mhz Leistung nicht an die 8*1 vom R3xx rannkommt?

Nein eher das Gegenteil. Gleiche Effizienz waere moeglich gewesen - egal ob 4*2 oder 8*1 - wenn NV die CineFX nicht so grandios verpatzt haette.

----------------------------------

Uebrigens viele gehen davon aus dass NV alle Schwaechen der CineFX-Architektur beseitigt haben. Falls dieses aber dann nicht moeglich war und die neue Architektur auch wieder (sicher zu kleinerem Grad) kraenkelt, dann ist der Marketing-Vorteil von PS3.0 wohl tatsaechlich gering. Mit dieser Moeglichkeit wird ATI wohl auch gerechnet haben. Wie man aber verstehen kann, sind solche Spekulationen momentan noch viel zu viel gewagt.....

ShadowXX
2004-02-24, 13:14:51
Original geschrieben von Gast
VS3.0 ??

Ich dachte wir reden hier nur über PS3.0. Die VS3.0 - Spezifikation soll doch durch die vom R400 übernommenen Vertexshader leicht zu erfüllen sein.

Außerdem, wenn beim R420 wirklich keine VS3.0 - Einheiten verbaut wurden, dann kann sich ATi eingraben. So schöne Displacement-Mapping Demos wie die die Nvidia dann aus dem Hut zaubert hat die Welt noch nicht gesehen.

_Der_ große Fortschritt bei den VS/PS Ver.3.0 sind ja die VS3.0 und nicht die PS3.0, die bringen nur eine höhere Effizienz mit sich. Die VS3.0 ermöglichen aber komplett neue Effekte. Wenn ATi auch die VS3.0 weggelassen haben sollte, was ich für unmöglich halte da sie nicht so Dumm sein können, dann wird der R420 ein Flop.

AFAIK hat der r420 auch keine VS3.0....nur 2 VS2.0 Shader mehr...

Aber ich werde gerne Korrigiert...und wenn wir schon dabei sind:
Sind vollständige PS3.0 notwendig um die Vorteile der VS3.0 vollständig nutzen zu können??

J.S.Shadow

betasilie
2004-02-24, 13:18:20
Original geschrieben von Ailuros
Das aendert nichts an meiner Aussage. Bitte nochmal durchlesen.
Ich finde diese Passage in deinem Posting kann man in mehrere Richtungen deuten. ;)

Xmas
2004-02-24, 13:21:11
Original geschrieben von Ailuros
Die maximal moeglichen instruction slots bei 3.0 liegen bei 32768. Wenn mir jetzt jemand weiss machen will dass selbst R5xx oder sogar R6xx (oder NV5x/6x) mit so vielen slots ankommen na dann guten Morgen.
Verstehe ich jetzt nicht ganz. Das ist doch kein größeres Problem, man muss nur den Instruction Pointer auf die entsprechende Breite bringen (wahrscheinlich gleich 16 Bit) und den Shadercode aus dem lokalen Speicher (mit Cache dazwischen) ziehen, was NV3x sowieso schon macht. Passt der Shader nicht in den Cache, ist man zwar möglicherweise wieder bandbreitenlimitiert (Shader-Instruktionen sind verdammt lang), aber 3-4 verschiedene Ops pro Takt sollten drin sein.

Xmas
2004-02-24, 13:24:07
Original geschrieben von ShadowXX
Aber ich werde gerne Korrigiert...und wenn wir schon dabei sind:
Sind vollständige PS3.0 notwendig um die Vorteile der VS3.0 vollständig nutzen zu können??
Nein, PS2.0/VS3.0 ist auch eine sinnvolle Kombination.

Godmode
2004-02-24, 13:24:32
Original geschrieben von ShadowXX

Sind vollständige PS3.0 notwendig um die Vorteile der VS3.0 vollständig nutzen zu können??

J.S.Shadow

Ist denke ich egal, da ja die die PS nach den VS ausgeführt werden. Die PS bekommen als Input die Vertices und der VS verändert ja nur die Vertices. Der PS braucht einfach nur Vertices und die nötigen Constanten