Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : R420 lediglich mit 2.X Shadern?


Seiten : 1 [2]

Godmode
2004-02-24, 13:26:10
Original geschrieben von Xmas
Nein, PS2.0/VS3.0 ist auch eine sinnvolle Kombination.

sry Posting falsch gelesen und dann geändert, löscht es einfach raus wenn jemand Zeit hat, thx

ShadowXX
2004-02-24, 13:31:50
Original geschrieben von Xmas
Nein, PS2.0/VS3.0 ist auch eine sinnvolle Kombination.

Danke...(auch an bans3i)...

Dann nochmals zu der Frage des Gastes:

Hat der r420 nun VS2.0 oder VS3.0??

Oder wissen wir da noch nix genaueres...(wenn man spekulationen überhaupt genau nennen kann...)

J.S.Shadow

Ailuros
2004-02-24, 13:36:25
Original geschrieben von Xmas
Verstehe ich jetzt nicht ganz. Das ist doch kein größeres Problem, man muss nur den Instruction Pointer auf die entsprechende Breite bringen (wahrscheinlich gleich 16 Bit) und den Shadercode aus dem lokalen Speicher (mit Cache dazwischen) ziehen, was NV3x sowieso schon macht. Passt der Shader nicht in den Cache, ist man zwar möglicherweise wieder bandbreitenlimitiert (Shader-Instruktionen sind verdammt lang), aber 3-4 verschiedene Ops pro Takt sollten drin sein.

32x mal so viele slots ueber eine oder zwei Generationen von heute? Ich muss hier was sehr wesentliches verpassen....

Ailuros
2004-02-24, 13:38:30
Original geschrieben von ShadowXX
Danke...(auch an bans3i)...

Dann nochmals zu der Frage des Gastes:

Hat der r420 nun VS2.0 oder VS3.0??

Oder wissen wir da noch nix genaueres...(wenn man spekulationen überhaupt genau nennen kann...)

J.S.Shadow

Mit aller hoechster Wahrscheinlichkeit nach neuestem Standpunkt PS2.0ext/VS3.0.

***edit:
(sicher ist natuerlich nichts; man bekommt ja auch keine handhafte Informationen von ATI, ausser man steht unter NDA)

Demirug
2004-02-24, 13:39:38
Original geschrieben von bans3i
Ich frage mich oft wozu Demirug was erklärt, mit den Shadern der Version 3.0 wird es einfach möglich sein die PS 2.0 Shader schneller und effizienter auszuführen!! Und woher weist du sogenau das höchstens 2.0 Shader in Spielen zum Einsatz kommen? Mit dem HLSL Compiler ist es nur ein klick und schon hab ich einen Shader für die 3.0 Version, und wenn man dadurch 2.0 Shader schneller, effizienter ausfürhen kann warum sollten die Entwickler auf so etwas verzichten, wenn der Arbeitsaufwand gleich NULL ist?? Man erstellt dann ein Profil für den R420 die mit sehr schnellen 2.x Shadern arbeiten, und das andere für den NV40 der dann mit den 3.0 Shadern arbeiten können. Und dass kann wirklich kein Problem sein so etwas zu implementieren, ich brauche nur in den Device Caps überprüfen ob Shader in der Version 3.0 unterstützt werden!! Stell dir das mal so vor: ATI ist mit ihrem Chip in 2.0 Shadern schneller als Nvidia und um den etwas langsameren Shader 2.0 Nachteil vom NV40 auszugleichen, verwenden sie dann 3.0 Shader, somit kann man dann die eher langsameren 2.0 Shader einfach effizienter, schneller machen. Ok ob jetz jeder Entwickler gleich mit Texture Reads in VS 3.0 arbeiten wird ist dann ein anderes Thema, da man dadurch wieder Fallbacks programmieren müsste für GPUs die das nicht unterstützen würden und wenn dann diese Technologie nur für einen Chip verfügbar wäre und die Entwickler für alle anderen Chips Fallbacks implementieren müssten wär das sicher ein großer Mehraufwand. Aber wie oben schon gesagt, durch die effizientere Ausführung der 3.0 Shader als der 2.0 Shader glaube ich fest das die Entwickler schnell zu den Geschindigkeitsvorteilen von Shader 3.0 wechseln werden. Ist doch wirklich kein Problem den Code durch den HLSL Compiler zu jagen und das erste mal mit Shader 2.0 Output und das zweite mal mit Shader 3.0 Output.

Mach mir mal den guten Thomas nicht so an. Als Programmierer (von ihm ist der Shadermark) kennt er sich mit dem ganze Zeug auch sehr gut aus.

Was ich die ganze Zeit sagte war das es einfach ist aus einer HLSL Source entweder einen 2.0 oder einen 3.0 Shader zu erzeugen. Ich sagte auch das ein 3.0 Shader beim gleichen Problem schneller sein kann. Das ist aber keine zwangsläufige Folge. Im falle des Shadermarks kann ich mir sogar gut vorstellen das es nur sehr wenig bis überhaupt nichts bringt.

Was Thomas IMHO woll primär meinte ist das in diesem Jahr keine Spiele herauskommen für die extra spezielle 3.0 Shader programmiert werden. Es gibt ja bestimmte Shadertricks die nur Sinn machen wenn sie auf einer 3.0 Hardware einsetzt. Bei einer 2.0 Hardware würden solche Tricks die Sache langsamer machen ohne etwas zu bringen.

Demirug
2004-02-24, 13:43:14
Original geschrieben von Ailuros
32x mal so viele slots ueber eine oder zwei Generationen von heute? Ich muss hier was sehr wesentliches verpassen....

Pixelshader 1.0 hatte 8 Slots. PS 3.0 haben mindestens 512. Das gibt bei mir faktor 64.

Die Restlichen Faktoren kannst du dir selbst ausrechnen:

Slots:

1.0: 8
1.1: 12
1.2: 12
1.3: 12
1.4: 2*14
2.0: 64+32
3.0: 512

Ailuros
2004-02-24, 13:44:39
*ouch* :O tatsaechlich....

Godmode
2004-02-24, 13:45:19
Oh, sorry wusste ich nicht!! Lieber Thomas es tut mir sehr leid das ich dich vielleicht etwas zu frech angeredet habe. Ich bin vielleicht etwas überreagiert weil immer manche Leute meinen das Shader 3.0 nicht so wichtig sind, ich persönlich freue mich als Hobbyentwickler einfach auf die Shader 3.0 (endlich wieder mal was zum rumspielen ;D) Ich will hier niemand blöd oder frech anmachen aber ich glaube das man einfach nicht so sicher sagen kann das es 2K4 keine Shader 3.0 Untestützung in Games geben wird. Also sry nochmal wenn es zu stark war!!

Godmode
2004-02-24, 13:50:30
Original geschrieben von Demirug

Was Thomas IMHO woll primär meinte ist das in diesem Jahr keine Spiele herauskommen für die extra spezielle 3.0 Shader programmiert werden. Es gibt ja bestimmte Shadertricks die nur Sinn machen wenn sie auf einer 3.0 Hardware einsetzt. Bei einer 2.0 Hardware würden solche Tricks die Sache langsamer machen ohne etwas zu bringen.


Ich nehme mal die Firma CryTek, die haben ja zb für AMD extra eine 64bit Version ihres Games gemacht und von denen erwarte ich das sie sich den Shadern der Version 3.0 annehmen, vielleicht schaffen sie es mit dem Release nicht mehr aber es kann ja sein dass sie ein Patch nachreichen oder? Und von Carmack und Newell könnte ich mir auch gut vorstellen das sie sich diesem Thema annehmen. Ok bei HL2 könnte es vielleicht schwierig werden da Valve ja mit ATI im Boot sitzt!!

zeckensack
2004-02-24, 13:50:51
Original geschrieben von bans3i
Ich frage mich oft wozu Demirug was erklärt, mit den Shadern der Version 3.0 wird es einfach möglich sein die PS 2.0 Shader schneller und effizienter auszuführen!!Demirug ist sehr intelligent und ich habe grossen Respekt vor ihm (wie die meisten anderen hier wahrscheinlich auch). Aber er kann deswegen auch nicht alles wissen, und er muss auch nicht immer Recht haben.

Die Annahme, dass PS3.0-Architekturen "alte" Shader schneller ausführen können setzt voraus, dass diese Chips "echtes" Branching auch beherrschen. Das kann man im Moment leider noch nicht wirklich sicher sagen. Branching kann auch in Hardware ganz anders realisiert sein, als durch echte Sprünge im Code, und solche "Emulationen" sind zT auch sinnvoll, um die Komplexität der Chips gering zu halten.

Zum Vergleich: auch "alte" Pixelshader beherrschen schon einen Spezialfall von Branching: KIL. Würde die Hardware hier einen echten Sprung durchführen, dann müssten der Rest des Shaders nicht mehr ausgeführt werden. Wenn es einfach und ohne Problem implementierbar wäre, dann müsste jeder Grafikchip das eigentlich können, denn es spart Rechenleistung, und davon hat man nie genug.

Das ist auf aktueller Hardware allerdings nicht der Fall:
http://www.cgshaders.org/forums/viewtopic.php?t=901

Dafür muss es Gründe geben. Wenn diese auch in der nächsten Generation noch Bestand haben, dann wird das nichts mit den schnelleren "alten" Shadern dank PS3.0.

Abwarten, würde ich sagen. Wir kriegen es noch früh genug heraus.

betasilie
2004-02-24, 13:57:01
Original geschrieben von bans3i
... ich glaube das man einfach nicht so sicher sagen kann das es 2K4 keine Shader 3.0 Untestützung in Games geben wird.
Ich glaube das kann man sehr wohl behaupten. STALKER ist das einizge Game, welches evtl. 2004 erscheint, welches ein Shader3.0 Kandidat ist. Und selbst bei STALKER bin ich skeptisch. Was man bis jetzt zu sehen bekommt, sieht gerade so nach DX8 compliance aus.

Wenn Du andere Meinung bist, dann bring doch bitte mal Spiele, die 2004 erscheinen und deines Erachtens nach echten Shader3.0-Support bringen könnten. Es kommen kaum Spiele, die 2.0Shader richtig nutzen und Du hältst die These für Abwegig, dass 2004 keine 3.0Shader-Spiele kommen. :|

Godmode
2004-02-24, 13:58:34
Original geschrieben von zeckensack

Die Annahme, dass PS3.0-Architekturen "alte" Shader schneller ausführen können setzt voraus, dass diese Chips "echtes" Branching auch beherrschen. Das kann man im Moment leider noch nicht wirklich sicher sagen. Branching kann auch in Hardware ganz anders realisiert sein, als durch echte Sprünge im Code, und solche "Emulationen" sind zT auch sinnvoll, um die Komplexität der Chips gering zu halten.

Dafür muss es Gründe geben. Wenn diese auch in der nächsten Generation noch Bestand haben, dann wird das nichts mit den schnelleren "alten" Shadern dank PS3.0.

Abwarten, würde ich sagen. Wir kriegen es noch früh genug heraus.

Also diesen Aspekt habe ich noch gar nicht wirklich betrachtet, mein Fehler ich weiss. Ich bin einfach sehr davon überzeugt das Nvidia wieder eine tolle GPU liefern wird und ich freue mich auch schon sehr darauf und einfach weil die NV30 Architektur so gekränkelt hat, erwarte ich vielleicht jetz viel zu viel vom NV40. Also wenn sie das Branching wirklich nicht so gut implementiert hätten was ja sein kann, dann würde die ganze 3.0 Blase platzen :)

betasilie
2004-02-24, 13:59:16
Original geschrieben von zeckensack
Abwarten, würde ich sagen. Wir kriegen es noch früh genug heraus.
Das ist zwar weise, aber auch soo langweilig. ;)

Demirug
2004-02-24, 14:02:52
Original geschrieben von zeckensack
Demirug ist sehr intelligent und ich habe grossen Respekt vor ihm (wie die meisten anderen hier wahrscheinlich auch).

Stell mich bitte nicht auf einen Sockel auf den ich nicht gehöre.

zeckensack
2004-02-24, 14:07:25
Original geschrieben von betareverse
Das ist zwar weise, aber auch soo langweilig. ;) Langweilig ist mein zweiter Vorname :naughty:
Original geschrieben von Demirug
Stell mich bitte nicht auf einen Sockel auf den ich nicht gehöre.Ehre wem Ehre gebührt. Ich verspreche dir aber, dieses Jahr nicht mehr zu schleimen. Das nutzt sich sonst ab :)
Komisches Gefühl, (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=993943#post993943) gell? :D

Exxtreme
2004-02-24, 14:10:08
Original geschrieben von zeckensack
Die Annahme, dass PS3.0-Architekturen "alte" Shader schneller ausführen können setzt voraus, dass diese Chips "echtes" Branching auch beherrschen. Das kann man im Moment leider noch nicht wirklich sicher sagen. Branching kann auch in Hardware ganz anders realisiert sein, als durch echte Sprünge im Code, und solche "Emulationen" sind zT auch sinnvoll, um die Komplexität der Chips gering zu halten.

Hehe, ein guter Punkt. Blos weil ein Chip Branching virtuell ausführen kann, heisst's noch lange nicht, daß er es auch physikalisch tut. Und da weder DirectX noch OpenGL vorgeben wie ein Chip bestimmte Dinge tatsächlich ausführen muss, kann es durchaus sein, daß Branching erstmal nichts bringt. Frühere CPUs konnten physikalisch auch keine Multiplikation. Sie konnten es aber virtuell da man Multiplikationen mit Hilfe vieler Additionen simulierte.

Demirug
2004-02-24, 14:12:19
Original geschrieben von betareverse
Ich glaube das kann man sehr wohl behaupten. STALKER ist das einizge Game, welches evtl. 2004 erscheint, welches ein Shader3.0 Kandidat ist. Und selbst bei STALKER bin ich skeptisch. Was man bis jetzt zu sehen bekommt, sieht gerade so nach DX8 compliance aus.

Wenn Du andere Meinung bist, dann bring doch bitte mal Spiele, die 2004 erscheinen und deines Erachtens nach echten Shader3.0-Support bringen könnten. Es kommen kaum Spiele, die 2.0Shader richtig nutzen und Du hältst die These für Abwegig, dass 2004 keine 3.0Shader-Spiele kommen. :|

Spiele die 3.0 Shader an die Grafikkarte übergeben wird es möglicherweise doch einige mehr geben. Spiele die Speziel für 3.0 angepasste Shader enthalten allerdings eher wenige. STALKER ist allerdings durchaus ein Kanidat dafür da sich die Entwickler mehr als einmal über die begrentzen Möglichkeiten von PS 2.0 beschwert haben.

Um noch meine erste Aussage zu begründen. Bekanntermassen soll man ja für für die NV3X Chips das 2.A Profile des Shadercompilers nutzen. R3XX wollen aber 2.0 weil einige 2.A Shader dort ja nicht laufen. Um den Entwicklern das Leben einfacher zu machen gibt es bei DX einen Shadercompiler den man in sein Programm einbinden kann und dann beim Start oder wann auch immer das Compileren erst beim Endkunden vornimmt. Damit man dort aber nun für die richtige Version compiliert gibt es eine Funktion welche ermittelt welches Profil am besten zum aktiven Grafikchip passt. Beim NV40 wird hier wohl PS 3.0 gemeldet. Diese Angabe wird dann in der Regel benutzt um den Compiler zu sagen was das Zielprofil ist. Ein Spiel das mit diesem Verfahren arbeitet und das neuste SDK (derzeit noch BETA) benutzt wird also mehr oder minder automatsich 3.0 Shader erzeugen.

Demirug
2004-02-24, 14:20:24
Original geschrieben von Exxtreme
Hehe, ein guter Punkt. Blos weil ein Chip Branching virtuell ausführen kann, heisst's noch lange nicht, daß er es auch physikalisch tut. Und da weder DirectX noch OpenGL vorgeben wie ein Chip bestimmte Dinge tatsächlich ausführen muss, kann es durchaus sein, daß Branching erstmal nichts bringt. Frühere CPUs konnten physikalisch auch keine Multiplikation. Sie konnten es aber virtuell da man Multiplikationen mit Hilfe vieler Additionen simulierte.

Natürlich muss man nicht wirklich springen. Es ist allerdings verdammt schwer die notwendigen Loops ohne echte Sprünge realisiert zu bekommen wenn sich die Anzahl der Durchläufe pro Pixel unterscheiden. Wenn man also sowieso eine Sprungsteuerung braucht kann man sie auch gleich universel benutzten. Da man bei einem Grafikchip ja auch keine komplizierte Sprungvorhersage braucht ist es auch nicht sonderlich schwer zu realisieren. Für die Vertexberechung hatte nVidia schon zu T&L Zeiten eine Lösung dafür wobei ich jetzt nicht sagen kann ob sie auch wirklich eingebaut wurde.

Exxtreme
2004-02-24, 14:27:35
Original geschrieben von Demirug
Natürlich muss man nicht wirklich springen. Es ist allerdings verdammt schwer die notwendigen Loops ohne echte Sprünge realisiert zu bekommen wenn sich die Anzahl der Durchläufe pro Pixel unterscheiden. Wenn man also sowieso eine Sprungsteuerung braucht kann man sie auch gleich universel benutzten. Da man bei einem Grafikchip ja auch keine komplizierte Sprungvorhersage braucht ist es auch nicht sonderlich schwer zu realisieren. Für die Vertexberechung hatte nVidia schon zu T&L Zeiten eine Lösung dafür wobei ich jetzt nicht sagen kann ob sie auch wirklich eingebaut wurde.
Definitiv. Ich gehe auch schwer davon aus, daß beim NV40 eine "echte" Sprungeinheit reinkommt. Alles andere macht nur begrenzt Sinn. Nur wie gesagt, viele Wege führen nach Rom. Wobei man zumindest Loops quasi "expandieren" könnte.

Demirug
2004-02-24, 14:43:38
Original geschrieben von Exxtreme
Definitiv. Ich gehe auch schwer davon aus, daß beim NV40 eine "echte" Sprungeinheit reinkommt. Alles andere macht nur begrenzt Sinn. Nur wie gesagt, viele Wege führen nach Rom. Wobei man zumindest Loops quasi "expandieren" könnte.

Sobald ein "break" im Loop ist wird das aber sehr hässlich. Zudem dürfte ein paar geschachtelte Loops ein Programm sehr stark aufpumpen wenn man das alles aufrollt.

Was allerdings noch interesant werden dürfte sind Fälle in denen die Sprünge so dicht aufeinander folgen das dazwischen gar nicht genügend Befehle für einen Pipelinedurchlauf sind.

Xmas
2004-02-24, 15:10:30
Original geschrieben von Ailuros
32x mal so viele slots ueber eine oder zwei Generationen von heute? Ich muss hier was sehr wesentliches verpassen....
Wenn man erst einmal die Unterstützung dafür hat, Shadercode direkt aus dem Speicher zu holen, statt aus einem recht kleinen internen Puffer auszuführen, ist es nur noch eine Frage der IP-Breite und evtl. der Speichersegmentierung. Deine CPU kann sicher auch fast 4 GiB an Code am Stück abarbeiten.

AFAIK unterstützen die QuadroFX-Karten bis zu 2048 Instruktionen. Das maximum für PS2.X in DX ist aber 512.

beta3
2004-02-24, 15:19:13
Demirug,

darf ich erfahren, wieso du soviel über diese dinge weisst?

Tigerchen
2004-02-24, 15:33:04
Original geschrieben von Exxtreme
Hehe, ein guter Punkt. Blos weil ein Chip Branching virtuell ausführen kann, heisst's noch lange nicht, daß er es auch physikalisch tut. Und da weder DirectX noch OpenGL vorgeben wie ein Chip bestimmte Dinge tatsächlich ausführen muss, kann es durchaus sein, daß Branching erstmal nichts bringt. Frühere CPUs konnten physikalisch auch keine Multiplikation. Sie konnten es aber virtuell da man Multiplikationen mit Hilfe vieler Additionen simulierte.

Wenn du das mit zusammen mit SHIFT gemacht hast war diese simulierte Multiplikation mitunter verdammt schnell.

Wenn ATI's 2er Shader also wirklich clever gemacht ist und diese Shadercompiler einen guten Job tun könnte der 3.0 Vorteil von nV im Nirwana verpuffen.

ATI scheint im Moment übrigens viel Zeit zu haben.....

Gast
2004-02-24, 15:49:10
Original geschrieben von beta3
Demirug,

darf ich erfahren, wieso du soviel über diese dinge weisst?

Er macht das Hauptberuflich...

deekey777
2004-02-24, 15:54:41
Original geschrieben von beta3
Demirug,

darf ich erfahren, wieso du soviel über diese dinge weisst?

OT: Wieviele Postings gibt es schon mit dieser Frage?

marco42
2004-02-24, 17:00:51
Original geschrieben von Demirug
R3XX wollen aber 2.0 weil einige 2.A Shader dort ja nicht laufen. Um den Entwicklern das Leben einfacher zu machen gibt es bei DX einen Shadercompiler den man in sein Programm einbinden kann und dann beim Start oder wann auch immer das Compileren erst beim Endkunden vornimmt.

Ich habe gehoert, dass viele Entwickler das nicht so moegen, weil sie Angst haben, dass man ihre High Level Shader klaut?!

betasilie
2004-02-24, 17:54:53
Original geschrieben von Demirug
Spiele die 3.0 Shader an die Grafikkarte übergeben wird es möglicherweise doch einige mehr geben. Spiele die Speziel für 3.0 angepasste Shader enthalten allerdings eher wenige. STALKER ist allerdings durchaus ein Kanidat dafür da sich die Entwickler mehr als einmal über die begrentzen Möglichkeiten von PS 2.0 beschwert haben.

Um noch meine erste Aussage zu begründen. Bekanntermassen soll man ja für für die NV3X Chips das 2.A Profile des Shadercompilers nutzen. R3XX wollen aber 2.0 weil einige 2.A Shader dort ja nicht laufen. Um den Entwicklern das Leben einfacher zu machen gibt es bei DX einen Shadercompiler den man in sein Programm einbinden kann und dann beim Start oder wann auch immer das Compileren erst beim Endkunden vornimmt. Damit man dort aber nun für die richtige Version compiliert gibt es eine Funktion welche ermittelt welches Profil am besten zum aktiven Grafikchip passt. Beim NV40 wird hier wohl PS 3.0 gemeldet. Diese Angabe wird dann in der Regel benutzt um den Compiler zu sagen was das Zielprofil ist. Ein Spiel das mit diesem Verfahren arbeitet und das neuste SDK (derzeit noch BETA) benutzt wird also mehr oder minder automatsich 3.0 Shader erzeugen.
Interessante Methode mit dem on-the-fly compilieren bei der Installation. :)

Leider drücke ich mich immer wieder nicht präzise aus. ...

In dem von dir geqoteten Posting bezog ich mich auf Spiele/Effekte, die extra angepasste 3.0Shader nutzen. Klar, mit Spielen, die statt mit 2.0Shader mit ersatzweise 3.0Shader arbeiten, ist auch schon 2004 schon zu rechnen und ggf. auch mit daraus resultierenden Speedvorteilen für NV im Vergleich zu 2.0Shadern, aber imho 2004 nicht mit Spielen, bis auf STALKER als Ausnahme, die extra angepasste 3.0Shader nutzen und somit als optisch wahrnehmbares Marketingwerkzeug für NV dienen könnten.

Und wie wir beiden schon angemerkt haben ist STALKER der Kandidat das erste Spiel zu werden, welches für die höchste Grafikqualität Shader3.0-compliance bei der GraKa vorraussetzt, die Entwickler habe das schon mehrfach durchhören lassen. Jetzt stellt sich die Frage, ob das mehr Marketinggerappel ist, denn kein anderes Devoloper-Team scheint momentan so enge Beziehungen zu NV zu haben, wie die Jungs aus Russland, oder resultieren diese Aussagen wirklich aus technischer Notwendigkeit. Das ganze erinnert z.Zt leider sehr stark an das Bündniss von Valve und ATI. ... Daher warte ich lieber ab und freue mich, wenn STALKER dann wirklich das NextGen-Spiel wird, welches sogar PS3.0 wirklich für aufwendigere Effekte nutzt.

Godmode
2004-02-24, 19:49:24
Also ich kann mir vorstellen das sich jedes Entwicker-Studio über Geld freut und wenn zb Nvidia oder ATI diese Entwickler tatkräftig unterstützt mit Hilfe von Geld, werden sie sicher auf die ein oder anderen Wünsche eines Herstellers eingehen. Natürlich wird es sicherlich kein Spiel geben das extrem auf 3.0 Shader setzt und 3.0 Shader GRAKA Minimum ist und was dann sowiso nur auf dem NV40 läuft, den dann würden sie ja die Kundengruppe extrem einschränken. Also wenn ein Spiel auf diese neuen Shader setzt müssen sie auch ordenlich viele Fallbacks für die anderen Grafikkarten implementieren und da kommt jetz Nvidia ins Spiel. Viellicht wären die Fallbacks zu viel Arbeitsaufwand und man würde es als ineffizient finden für nur einen Chip alles zu optimieren was es ja auch ist. Würde einfach nix bringen wenn es nur auf Nvidia Karten gut laufen würde. Aber wenn Nvidia eben den Entwicklern Geld dafür gibt extra für den NV40 3.0 Effekte zu implementieren könnte ich mir das schon vorstellen.

tb
2004-02-24, 23:01:50
Original geschrieben von Ailuros
-----------------------

tb,

Mal eine andere Frage: wie haetten NV's Value segment Verkaufszahlen ausgesehen, haette auch ATI 2.0 Shader fuer das Value-segment gehabt?

-----------------------


Sicherlich ein wenig schlechter, aber in Prozenten kann ich Dir das leider nicht sagen. ATi hätte sicher auch eine 2.0'er Shader Value-Karte hinbekommen, warum dies bisher nicht geschah, bleibt deren Geheimnis.

Thomas

Quasar
2004-02-24, 23:05:57
Ich vermute mal, weil sich der eine Pixelprozessor im RV350/360 nicht mehr so gut aufteilen läßt, ohne das Design komplett neu zu erarbeiten.

Godmode
2004-02-24, 23:10:11
Es könnte aber auch sein dass sie dachten, dass die Performance sowiso zu wenig für Shader 2.0 bei den billigeren Karten und deshalb nicht möglich ist eine echte Shader 2.0 Anwendung laufen zu lassen. Nvidia hat das ein bisschen geschickter gemacht und hat sie viele viele DAUs damit gefangen!!

tb
2004-02-24, 23:25:08
Original geschrieben von bans3i
Ich frage mich oft wozu Demirug was erklärt, mit den Shadern der Version 3.0 wird es einfach möglich sein die PS 2.0 Shader schneller und effizienter auszuführen!!

Wenn man Shader als 2.0'er Shader schreibt, und diese in 2_a(2.x) oder 3_0 compiliert, dann hat die VPU damit kaum Vorteile. Die Berechnungen werden doch leider nicht weniger. Hier nur ein Beispiel (Compiler ist noch beta, also sind Verbesserungen möglich!)

PS_2_0
//
// Generated by Microsoft (R) D3DX9 Shader Compiler 4.09.02.1169
//
// fxc /T ps_2_0 /E PS_shadowbumpmap /Fc hlsl_bumpshadow_ps.txt
// hlsl_bumpselfshadow.fx
//
//
// Parameters:
//
// sampler2D BaseMap;
// sampler2D BasisMap1;
// sampler2D BasisMap2;
// sampler2D BasisMap3;
// sampler2D BasisMap4;
// samplerCUBE DiffuseEnvironmentMap;
// float4 Dx;
// sampler2D HorizonMap1;
// sampler2D HorizonMap2;
// sampler2D HorizonMap3;
// sampler2D HorizonMap4;
// float Kd;
// float Ks;
// float N_Specular;
// sampler2D NormalMap;
// float4 Sx;
//
//
// Registers:
//
// Name Reg Size
// --------------------- ----- ----
// Dx c0 1
// Sx c1 1
// Kd c2 1
// Ks c3 1
// N_Specular c4 1
// BaseMap s0 1
// NormalMap s1 1
// DiffuseEnvironmentMap s2 1
// HorizonMap1 s3 1
// BasisMap1 s4 1
// HorizonMap2 s5 1
// BasisMap2 s6 1
// HorizonMap3 s7 1
// BasisMap3 s8 1
// HorizonMap4 s9 1
// BasisMap4 s10 1
//
//
// Default values:
//
// Dx
// c0 = { 0.5, 0.5, 0.5, 1 };
//
// Sx
// c1 = { 1, 1, 1, 1 };
//
// Kd
// c2 = { 1, 0, 0, 0 };
//
// Ks
// c3 = { 4, 0, 0, 0 };
//
// N_Specular
// c4 = { 16, 0, 0, 0 };
//

ps_2_0
def c5, 2, -1, 1, 0
def c6, 0.5, 1.5, 0, 0
dcl t0.xy
dcl t1.xyz
dcl t2.xyz
dcl t3.xyz
dcl t4.xyz
dcl t5.xyz
dcl_2d s0
dcl_2d s1
dcl_cube s2
dcl_2d s3
dcl_2d s4
dcl_2d s5
dcl_2d s6
dcl_2d s7
dcl_2d s8
dcl_2d s9
dcl_2d s10
texld r0, t0, s1
mad r6.x, c5.x, r0.w, c5.y
mad r6.y, c5.x, r0.y, c5.y
mad r0.w, r6.x, -r6.x, c5.z
mad r0.w, r6.y, -r6.y, r0.w
rsq r11.w, r0.w
mul r6.z, r11.w, r0.w
nrm r7.xyz, t4
dp3 r0.x, -r7, r6
add r0.w, r0.x, r0.x
mad r0.xyz, r6, -r0.w, -r7
mul r1.xyz, r0.y, t2
mad r1.xyz, r0.x, t1, r1
dp3 r2.x, t5, t5
mad r0.xyz, r0.z, t3, r1
rsq r6.w, r2.x
mul r1.xy, r6.w, t5
mad_sat r9.xy, r1, c6.x, c6.x
texld r5, r0, s2
texld r0, t0, s0
texld r3, t0, s3
texld r4, r9, s4
texld r2, r9, s6
texld r1, t0, s5
mul r8.xyz, r6.w, t5
dp3_sat r10.x, r6, r8
add r0.w, r10.x, r10.x
mad r8.xyz, r0.w, r6, -r8
nrm r6.xyz, r8
dp3 r7.x, r6, r7
mov r0.w, c2.x
mul r6.xyz, r0.w, c0
max r0.w, r7.x, c5.w
mad r5.xyz, r6, r10.x, r5
pow r5.w, r0.w, c4.x
dp4 r0.w, r3, r4
dp4 r1.w, r1, r2
mov r2.w, c3.x
mul r6.xyz, r2.w, c1
add r0.w, r0.w, r1.w
texld r4, r9, s8
texld r2, r9, s10
texld r3, t0, s7
texld r1, t0, s9
dp4 r3.w, r3, r4
add r0.w, r0.w, r3.w
dp4 r1.w, r1, r2
mul r1.xyz, r5.w, r6
add r0.w, r0.w, r1.w
mul r1.xyz, r10.x, r1
mad_sat r0.w, t5.z, -c6.y, r0.w
mad r0.xyz, r5, r0, r1
add r0.w, -r0.w, c5.z
mul r0.xyz, r0, r0.w
mov r0.w, c5.z
mov oC0, r0

// approximately 62 instruction slots used (11 texture, 51 arithmetic)



PS_2_a
//
// Generated by Microsoft (R) D3DX9 Shader Compiler 4.09.02.1169
//
// fxc /T ps_2_a /E PS_shadowbumpmap /Fc ps2a_hlsl_bumpshadow_ps.txt
// hlsl_bumpselfshadow.fx
//
//
// Parameters:
//
// sampler2D BaseMap;
// sampler2D BasisMap1;
// sampler2D BasisMap2;
// sampler2D BasisMap3;
// sampler2D BasisMap4;
// samplerCUBE DiffuseEnvironmentMap;
// float4 Dx;
// sampler2D HorizonMap1;
// sampler2D HorizonMap2;
// sampler2D HorizonMap3;
// sampler2D HorizonMap4;
// float Kd;
// float Ks;
// float N_Specular;
// sampler2D NormalMap;
// float4 Sx;
//
//
// Registers:
//
// Name Reg Size
// --------------------- ----- ----
// Dx c0 1
// Sx c1 1
// Kd c2 1
// Ks c3 1
// N_Specular c4 1
// BaseMap s0 1
// NormalMap s1 1
// DiffuseEnvironmentMap s2 1
// HorizonMap1 s3 1
// BasisMap1 s4 1
// HorizonMap2 s5 1
// BasisMap2 s6 1
// HorizonMap3 s7 1
// BasisMap3 s8 1
// HorizonMap4 s9 1
// BasisMap4 s10 1
//
//
// Default values:
//
// Dx
// c0 = { 0.5, 0.5, 0.5, 1 };
//
// Sx
// c1 = { 1, 1, 1, 1 };
//
// Kd
// c2 = { 1, 0, 0, 0 };
//
// Ks
// c3 = { 4, 0, 0, 0 };
//
// N_Specular
// c4 = { 16, 0, 0, 0 };
//

ps_2_x
def c5, 2, -1, 1, 0
def c6, 0.5, 1.5, 0, 0
dcl t0.xy
dcl t1.xyz
dcl t2.xyz
dcl t3.xyz
dcl t4.xyz
dcl t5.xyz
dcl_2d s0
dcl_2d s1
dcl_cube s2
dcl_2d s3
dcl_2d s4
dcl_2d s5
dcl_2d s6
dcl_2d s7
dcl_2d s8
dcl_2d s9
dcl_2d s10
texld r0, t0, s1
mad r2.xy, c5.x, r0.wyzw, c5.y
mad r1.w, r2.x, -r2.x, c5.z
mad r0.w, r2.y, -r2.y, r1.w
rsq r7.w, r0.w
mul r2.z, r7.w, r0.w
nrm r4.xyz, t4
dp3 r0.w, -r4, r2
add r1.w, r0.w, r0.w
mad r0.xyz, r2, -r1.w, -r4
mul r1.xyz, r0.y, t2
dp3 r0.w, t5, t5
mad r1.xyz, r0.x, t1, r1
rsq r2.w, r0.w
mad r0.xyz, r0.z, t3, r1
mul r6.xy, r2.w, t5
texld r1, r0, s2
texld r0, t0, s0
mul r3.xyz, r2.w, t5
dp3_sat r6.w, r2, r3
add r0.w, r6.w, r6.w
mad r2.xyz, r0.w, r2, -r3
nrm r3.xyz, r2
mov r0.w, c2.x
mul r2.xyz, r0.w, c0
dp3 r1.w, r3, r4
mad r5.xyz, r2, r6.w, r1
max r0.w, r1.w, c5.w
pow r5.w, r0.w, c4.x
mad_sat r4.xy, r6, c6.x, c6.x
texld r1, t0, s3
texld r2, r4, s4
dp4 r0.w, r1, r2
texld r1, t0, s5
texld r2, r4, s6
dp4 r1.w, r1, r2
mov r1.z, c3.x
mul r6.xyz, r1.z, c1
add r0.w, r0.w, r1.w
texld r1, t0, s9
texld r3, t0, s7
texld r2, r4, s10
texld r4, r4, s8
dp4 r3.w, r3, r4
add r0.w, r0.w, r3.w
dp4 r1.w, r1, r2
mul r1.xyz, r5.w, r6
add r0.w, r0.w, r1.w
mul r1.xyz, r6.w, r1
mad_sat r0.w, t5.z, -c6.y, r0.w
mad r0.xyz, r5, r0, r1
add r1.w, -r0.w, c5.z
mul r0.xyz, r0, r1.w
mov r0.w, c5.z
mov oC0, r0

// approximately 61 instruction slots used (11 texture, 50 arithmetic)



PS_3_0
//
// Generated by Microsoft (R) D3DX9 Shader Compiler 4.09.02.1169
//
// fxc /T ps_3_0 /E PS_shadowbumpmap /Fc ps30_hlsl_bumpshadow_ps.txt
// hlsl_bumpselfshadow.fx
//
//
// Parameters:
//
// sampler2D BaseMap;
// sampler2D BasisMap1;
// sampler2D BasisMap2;
// sampler2D BasisMap3;
// sampler2D BasisMap4;
// samplerCUBE DiffuseEnvironmentMap;
// float4 Dx;
// sampler2D HorizonMap1;
// sampler2D HorizonMap2;
// sampler2D HorizonMap3;
// sampler2D HorizonMap4;
// float Kd;
// float Ks;
// float N_Specular;
// sampler2D NormalMap;
// float4 Sx;
//
//
// Registers:
//
// Name Reg Size
// --------------------- ----- ----
// Dx c0 1
// Sx c1 1
// Kd c2 1
// Ks c3 1
// N_Specular c4 1
// BaseMap s0 1
// NormalMap s1 1
// DiffuseEnvironmentMap s2 1
// HorizonMap1 s3 1
// BasisMap1 s4 1
// HorizonMap2 s5 1
// BasisMap2 s6 1
// HorizonMap3 s7 1
// BasisMap3 s8 1
// HorizonMap4 s9 1
// BasisMap4 s10 1
//
//
// Default values:
//
// Dx
// c0 = { 0.5, 0.5, 0.5, 1 };
//
// Sx
// c1 = { 1, 1, 1, 1 };
//
// Kd
// c2 = { 1, 0, 0, 0 };
//
// Ks
// c3 = { 4, 0, 0, 0 };
//
// N_Specular
// c4 = { 16, 0, 0, 0 };
//

ps_3_0
def c5, 2, -1, 1, 0
def c6, 0.5, 1.5, 0, 0
dcl_texcoord v0.xy
dcl_texcoord1 v1.xyz
dcl_texcoord2 v2.xyz
dcl_texcoord3 v3.xyz
dcl_texcoord4 v4.xyz
dcl_texcoord5 v5.xyz
dcl_2d s0
dcl_2d s1
dcl_cube s2
dcl_2d s3
dcl_2d s4
dcl_2d s5
dcl_2d s6
dcl_2d s7
dcl_2d s8
dcl_2d s9
dcl_2d s10
texld r0, v0, s1
mad r1.xy, c5.x, r0.wyzw, c5.y
mad r0.w, r1.x, -r1.x, c5.z
mad r0.w, r1.y, -r1.y, r0.w
rsq r7.w, r0.w
mul r1.z, r7.w, r0.w
nrm r2.xyz, v4
dp3 r0.w, -r2, r1
add r0.w, r0.w, r0.w
mad r0.xyz, r1, -r0.w, -r2
mul r3.xyz, r0.y, v2
mad r3.xyz, r0.x, v1, r3
mad r0.xyz, r0.z, v3, r3
texld r0, r0, s2
dp3 r0.w, v5, v5
rsq r2.w, r0.w
mul r3.xyz, r2.w, v5
dp3_sat r0.w, r1, r3
add r1.w, r0.w, r0.w
mad r3.xyz, r1.w, r1, -r3
nrm r1.xyz, r3
dp3 r1.w, r1, r2
mov r1.z, c2.x
mul r2.xyz, r1.z, c0
max r3.w, r1.w, c5.w
pow r1.w, r3.w, c4.x
mov r1.z, c3.x
mul r1.xyz, r1.z, c1
mul r3.xy, r2.w, v5
mul r1.xyz, r1.w, r1
mad r4.xyz, r2, r0.w, r0
mul r5.xyz, r0.w, r1
texld r0, v0, s0
texld r1, v0, s3
mad_sat r6.xy, r3, c6.x, c6.x
texld r2, r6, s4
dp4 r0.w, r1, r2
texld r2, r6, s6
texld r1, v0, s5
dp4 r1.w, r1, r2
add r0.w, r0.w, r1.w
texld r3, r6, s8
texld r2, r6, s10
texld r1, v0, s7
dp4 r1.w, r1, r3
add r0.w, r0.w, r1.w
texld r1, v0, s9
dp4 r1.w, r1, r2
add r0.w, r0.w, r1.w
mad_sat r0.w, v5.z, -c6.y, r0.w
mad r0.xyz, r4, r0, r5
add r0.w, -r0.w, c5.z
mul r0.xyz, r0, r0.w
mov r0.w, c5.z
mov oC0, r0

// approximately 61 instruction slots used (11 texture, 50 arithmetic)



Original geschrieben von bans3i
Und woher weist du sogenau das höchstens 2.0 Shader in Spielen zum Einsatz kommen? Mit dem HLSL Compiler ist es nur ein klick und schon hab ich einen Shader für die 3.0 Version, und wenn man dadurch 2.0 Shader schneller, effizienter ausfürhen kann warum sollten die Entwickler auf so etwas verzichten, wenn der Arbeitsaufwand gleich NULL ist?? Man erstellt dann ein Profil für den R420 die mit sehr schnellen 2.x Shadern arbeiten, und das andere für den NV40 der dann mit den 3.0 Shadern arbeiten können. Und dass kann wirklich kein Problem sein so etwas zu implementieren, ich brauche nur in den Device Caps überprüfen ob Shader in der Version 3.0 unterstützt werden!!...

Das hab ich so nie behauptet. Ich schrieb, dass sicherlich einige ISV mal eben fix das HLSL-Target ändern werden, um "Shader 3.0 Support" auf die Packung zu kleben. Das bringt dem Endkunden, wie das obige Beispiel zeigen soll, nen psychologischen Vorteil, aber eben keinen wirklichen Nutzen, falls die Geschwindigkeit nicht deutlich schneller sein sollte, wovon ich bisher nicht unbedingt ausgehe. Schau Dir einfach mal die Benchmarkresultate mit NVIDIA's NV3x und der Performanceunterschied zwischen 2.0 und 2.x Shadern an.

Thomas

tb
2004-02-24, 23:33:02
Original geschrieben von bans3i
Oh, sorry wusste ich nicht!! Lieber Thomas es tut mir sehr leid das ich dich vielleicht etwas zu frech angeredet habe. Ich bin vielleicht etwas überreagiert weil immer manche Leute meinen das Shader 3.0 nicht so wichtig sind, ich persönlich freue mich als Hobbyentwickler einfach auf die Shader 3.0 (endlich wieder mal was zum rumspielen ;D) Ich will hier niemand blöd oder frech anmachen aber ich glaube das man einfach nicht so sicher sagen kann das es 2K4 keine Shader 3.0 Untestützung in Games geben wird. Also sry nochmal wenn es zu stark war!!

Kein Problem, so schnell bin ich nicht beleidigt. Welche Hobby/Profientwickler freut sich nicht über ein neues Spielzeug ;)
Wie Demirug schon sagte, meinte ich mir 3.0 Shadern in Spielen wirklich extra für 3.0 entwicklte, nicht simple Neukompilate alter 2.0 oder 2.x Shader.

Thomas

Godmode
2004-02-24, 23:35:59
Also meinst du jetz damit dass man wirklich schnelle 3.0 Shader nur durch Hand erzeugen kann, was dann doch in einem Mehraufwand für die Entwickler resultieren würde, weil der HLSL Compiler nicht ganz perfekt ist?? Ich müsste also herangehen und wirkliche 3.0 Shader von Hand coden? Liege ich da jetz ungefähr richtig oder meinst du was anderes?

Edit: sry noch was vergessen

Und hier denke das Nvidia die Entwickler mit Geld oder Support unterstützen wird um für den NV40 extra was zu machen, zb bestimmte Grafik-Schmankerl oder einfach das gewisse Teile schneller ausgeführt werden können!

Gast
2004-02-24, 23:50:49
Ich hab mir dieses Review von HT4U angeschaut um den aktuellen Leistungsstand von NV und ATI zu sehen.
Wollte mal von euch wissen ob diese Seite neutral ist oder ob sie NV lastig ist ?

http://www.hardtecs4u.com/reviews/2003/geforcefx_5900_roundup/

Dort schauts ja so aus als ob zwischen ATI und NV,ziehmlicher gleichstand herscht,hm NV hat per Treiber kanns schön aufgeholt.

Xmas
2004-02-25, 00:04:57
Original geschrieben von bans3i
Also meinst du jetz damit dass man wirklich schnelle 3.0 Shader nur durch Hand erzeugen kann, was dann doch in einem Mehraufwand für die Entwickler resultieren würde, weil der HLSL Compiler nicht ganz perfekt ist?? Ich müsste also herangehen und wirkliche 3.0 Shader von Hand coden? Liege ich da jetz ungefähr richtig oder meinst du was anderes?
Nicht nur per Hand. Mit dem Wissen dass die Hardware kein Branching kann, schreibt man auch HLSL-Shader anders, bzw. lässt Shader die garantiert nicht ohne dynamische Sprünge funktionieren gleich ganz bleiben.

tb
2004-02-25, 00:27:07
Original geschrieben von bans3i
Also meinst du jetz damit dass man wirklich schnelle 3.0 Shader nur durch Hand erzeugen kann, was dann doch in einem Mehraufwand für die Entwickler resultieren würde, weil der HLSL Compiler nicht ganz perfekt ist?? Ich müsste also herangehen und wirkliche 3.0 Shader von Hand coden? Liege ich da jetz ungefähr richtig oder meinst du was anderes?


Jein. Per Hand kann man auch schnellere 2.0 oder 2.x Shader basteln. Das Problem bei 3.0 ist folgendes:
Wenn man nicht nen 2.0 oder 2.x Shader hat, welcher durch ein neues("loop") oder vielleicht besser unterstütztes Feature("if ..." - echtes Branching) schneller laufen kann, dann bringt der reine Versionsunterschied nichts, da die Anzahl der Befehle kaum variirt.
Was den 3.0 vom 2.x(mit alles Extended Cap Bits) unterscheidet(es gibt noch ein paar kleine syntaktische und wertebereichsmäßige Unterschiede) ist der "loop" und der "texldl" Befehl. Die gibt es im 2.x nicht, dort gibt es nur "rep" und "rep" hat ne feste Schrittweite von 1.
"texldl" kann nen bestimmten MipMap-Level einer Texture auslesen. Dies ging bisher nicht. Man konnte nur den LOD-BIAS ändern, womit man aber selten weiss, welche MipMap man bekommt.

Zwischen 2.x(voll ausgebaut versteht sich, also alle Extended Cap Bits gesetzt) und 3.0 gibt es also keine großartigen Unterschiede (auf der gleichen VPU) die Leistungssprünge erwarten lassen.


Thomas

marco42
2004-02-25, 01:35:19
Original geschrieben von tb
Wenn man Shader als 2.0'er Shader schreibt, und diese in 2_a(2.x) oder 3_0 compiliert, dann hat die VPU damit kaum Vorteile. Die Berechnungen werden doch leider nicht weniger. Hier nur ein Beispiel (Compiler ist noch beta, also sind Verbesserungen möglich!)


Es waere nett gewesen, wenn du den HLSL Code dazugeschrieben haettest. :-)

tb
2004-02-25, 02:49:37
Original geschrieben von marco42
Es waere nett gewesen, wenn du den HLSL Code dazugeschrieben haettest. :-)

Ist doch beim ShaderMark v2.0 dabei ;)

float4 PS_shadowbumpmap(PS_INPUT IN) : COLOR
{
// compute the bump mapping

// to transform from world space to tangent space
float3x3 Matrix = { (float3)((IN.Tangent)),
(float3)((IN.Binormal)),
(float3)((IN.Normal)) };

// Unpack two component bump map
float3 Normal = (tex2D(NormalMap, IN.Tex) * 2.0 - 1.0).agg;
// Compute third component
Normal.z = sqrt(1.0 - Normal.x*Normal.x - Normal.y*Normal.y);

float3 LightDir = IN.Light;
LightDir = normalize(LightDir);
float3 ViewTangentDir = normalize(IN.ViewTangent);
float N_dot_L = saturate(dot(Normal, LightDir));
float selfShadow = N_dot_L;

float3 reflection = reflect(-ViewTangentDir, Normal);
reflection = reflection.x*Matrix[0] + reflection.y*Matrix[1] + reflection.z*Matrix[2];

// compute the phong lighting

// R = 2N (N dot L) - L
float3 Reflect = normalize(2 * N_dot_L * Normal - LightDir);

// Ix = AxKaDx + [KdDx(N dot L) + KsSx(R dot V)^n] -> n=8
// sample texture
float3 Ct = tex2D(BaseMap, IN.Tex);

// sample IBL texture
float3 envmap = texCUBE(DiffuseEnvironmentMap, reflection).xyzz;

// Compute ambient term / apply IBL texture
float3 AmbientColor = envmap;//Ax * Ka;

// Compute diffuse term:
float3 DiffuseColor = Dx * Kd * max(0, N_dot_L);

// Compute specular term:
float3 SpecularColor = Sx * Ks * pow( max(0, dot(Reflect, ViewTangentDir)), N_Specular );

float3 color = (AmbientColor + DiffuseColor)* Ct + SpecularColor * selfShadow;

// compute the shadow
float sum;
float3 Light = saturate(normalize(IN.Light)*0.5+0.5);

float4 horizon1=tex2D(HorizonMap1,IN.Tex);
float4 basis1=tex2D(BasisMap1, Light);

float4 horizon2=tex2D(HorizonMap2,IN.Tex);
float4 basis2=tex2D(BasisMap2, Light);

float4 horizon3=tex2D(HorizonMap3,IN.Tex);
float4 basis3=tex2D(BasisMap3, Light);

float4 horizon4=tex2D(HorizonMap4,IN.Tex);
float4 basis4=tex2D(BasisMap4, Light);

float distance=IN.Light.z*1.50; // make it a just a little darker

sum = (dot(horizon1, basis1));
sum += (dot(horizon2, basis2));
sum += (dot(horizon3, basis3));
sum += (dot(horizon4, basis4));

color *= (1.0 - saturate(sum - distance));
return float4(color, 1.0);
}


Thomas

ShadowXX
2004-02-25, 08:39:08
Original geschrieben von tb
Jein. Per Hand kann man auch schnellere 2.0 oder 2.x Shader basteln. Das Problem bei 3.0 ist folgendes:
Wenn man nicht nen 2.0 oder 2.x Shader hat, welcher durch ein neues("loop") oder vielleicht besser unterstütztes Feature("if ..." - echtes Branching) schneller laufen kann, dann bringt der reine Versionsunterschied nichts, da die Anzahl der Befehle kaum variirt.
Was den 3.0 vom 2.x(mit alles Extended Cap Bits) unterscheidet(es gibt noch ein paar kleine syntaktische und wertebereichsmäßige Unterschiede) ist der "loop" und der "texldl" Befehl. Die gibt es im 2.x nicht, dort gibt es nur "rep" und "rep" hat ne feste Schrittweite von 1.
"texldl" kann nen bestimmten MipMap-Level einer Texture auslesen. Dies ging bisher nicht. Man konnte nur den LOD-BIAS ändern, womit man aber selten weiss, welche MipMap man bekommt.

Zwischen 2.x(voll ausgebaut versteht sich, also alle Extended Cap Bits gesetzt) und 3.0 gibt es also keine großartigen Unterschiede (auf der gleichen VPU) die Leistungssprünge erwarten lassen.


Thomas

Nur das der r420 ausser der vergrösserten möglichen Shaderlänge nix in Richtung 2.x zu bieten hat, und so wie ich das bis jetzt gelesen habe, gehst du da von aus, das der r420 ein "voll" ausgebauter 2.x-Chip ist...anders gesagt: der r420 hat nicht mal die eingeschränkten Sprünge und Co. .......

Ich für meinen Teil würde nicht mal sicher sein, das er VS3.0 an Bord hat....

Aber trotzdem könnte ATIs Rechnung aufgehen...bis Herbst wird PS2.0 definitv ausreichen....ab dann könnte es allerdings knapp werden...

Ich bin inzwischen mehr gespannt, ob der Refresh-Chip von ATI (r480) wieder nur ein Speedup des alten wird...dann würde ich zumindest fürs X-Mas-Geschäft schlechte Zeiten für ATI vorraussehen...

J.S.Shadow

LovesuckZ
2004-02-25, 08:50:02
Original geschrieben von ShadowXX
Aber trotzdem könnte ATIs Rechnung aufgehen...bis Herbst wird PS2.0 definitv ausreichen....ab dann könnte es allerdings knapp werden...


Bei Beyond3d.com gibt es ein Intervie mit einen UT2004 Entwickler. Er meint, dass man erst frühsten 2005/2006 mit richtigen PS2.0 Spielen rechnen koenne, da dann erst die Hardwarebasis gegeben sei.
Ati's Entscheidung ist aus ihrer Scht nicht falsch, da selbst "richtige" PS2.0 Spiele noch lange auf sich waerten lassen. Nur koennte sich dies in Bezug auf die Zukunft so entwickeln, wie es sich bei Nvidiaentwickelt hat...

ShadowXX
2004-02-25, 09:04:23
Original geschrieben von LovesuckZ
Bei Beyond3d.com gibt es ein Intervie mit einen UT2004 Entwickler. Er meint, dass man erst frühsten 2005/2006 mit richtigen PS2.0 Spielen rechnen koenne, da dann erst die Hardwarebasis gegeben sei.
Ati's Entscheidung ist aus ihrer Scht nicht falsch, da selbst "richtige" PS2.0 Spiele noch lange auf sich waerten lassen. Nur koennte sich dies in Bezug auf die Zukunft so entwickeln, wie es sich bei Nvidiaentwickelt hat...

Das mit dem "knapp" war vielleicht etwas missverständlich...

Ich meinte nur, das es ab Ende04-Anfang05, durchaus möglich sein könnte, das der eine oder andere Entwickler durchaus einen PS3.0 Shader miteinbaut, der nV einen Geschwindigkeitsvorteil beschert...

Ich kenne das Interview übrigens und soweit ich es verstanden habe, soll schon die nächste Generation der Unreal-Engine "voll" DX9 sein...als minimum.

Nur gerade bei solchen Aussagen, insbesondere wenn er über Shader spricht die >1000 Instuctionen sind, wäre die Frage, ob es da nicht tatsächlicher sinnvoller wäre mit PS3.0 zu Programmieren....

Tja...eigentlich mochte ich ATI ganz gerne und werde wohl auch noch den r420 kaufen...aber im Moment sehe ich ATI als Technologie-Bremse.

J.S.Shadow

Demirug
2004-02-25, 09:30:09
Also der Entwickler war Tim Sweeney selbst. Ich bin mir aber ehrlich gesagt nicht sicher ob er der richtige Mann bezüglich Fragen zum Einsatz von modernen Technologien bei Spielen ist. Epic zeichnet sich ja nun nicht gerade darin aus das sie auf dem Schnellzug mitfahren und jeder Neuerung hinterherhecheln. Sicher die Engine unterstützt Shadertechnologie aber in den eigenen Produkten setzt man sie nur sehr zögerlich ein.

Gast
2004-02-25, 09:30:21
Original geschrieben von LovesuckZ
Bei Beyond3d.com gibt es ein Intervie mit einen UT2004 Entwickler. Er meint, dass man erst frühsten 2005/2006 mit richtigen PS2.0 Spielen rechnen koenne, da dann erst die Hardwarebasis gegeben sei.
Ati's Entscheidung ist aus ihrer Scht nicht falsch, da selbst "richtige" PS2.0 Spiele noch lange auf sich waerten lassen. Nur koennte sich dies in Bezug auf die Zukunft so entwickeln, wie es sich bei Nvidiaentwickelt hat...


Tim Sweeney nennst du "einen" UT2004 Entwickler....Seufz.

Es handelt sich um _den_ Unreal - Entwickler schlechthin.

Link : http://www.beyond3d.com/interviews/sweeney04/


Frage:
There have been criticisms of some DirectX9 games not looking much better than a game like Unreal Tournament 2003. Tomb Raider : Angel of Darkness is an example, despite featuring a host of DirectX9 features like floating point textures and different 2.0 Pixel Shaders for certain effects. In your opinion, what and how do the general gaming public determine what is "great looking"? Do you think it wouldn't be too far wrong to say that it is still a matter of detailed and colorful textures, instead of what DirectX9 proposes to provide ("realism")? Are some of the DirectX9 features too "subtle" to notice in its displayed form?


Antwort:
The first DX9 games will mostly use it to add some visual improvements on top of a rendering pipeline designed over a multi-year development cycle and targetted primarily at DirectX7 hardware. That approach doesn't give you anywhere near the full benefit of DirectX9, but it's the commercially reasonable way to go if you're shipping a product in 2004, because there are at least 10X more DirectX7 class cards in gamers' hands than DirectX9 cards.

The really interesting things in shader land will start to happen in the late 2005 to early 2006 timeframe. That's when there will be a good business case for shipping DirectX9-focused games.


Also wenn es nach ihm geht, und hierbei sollte er schon den Überblick haben, dann müssen wir für richtige DX9-Spiele noch ca. 2 Jahre warten.

Gast
2004-02-25, 10:15:08
Original geschrieben von Gast
...Also wenn es nach ihm geht, und hierbei sollte er schon den Überblick haben, dann müssen wir für richtige DX9-Spiele noch ca. 2 Jahre warten.
Und mit dieser Aussage steht er sicherlich nicht alleine da. Es gibt derzeit nur einige wenige Titel, welche mit PS/VS 2.0(2.X) (R300/NV30-Hardware) überhaupt entwickelt werden, und man kann sich selbst ausrechnen, wie lange es voraussichtlich zur Marktreife noch dauern wird.

Selbst wenn bestimmte Entwickler auf den 3.0-Pfad sofort aufspringen, was wäre denn die Konsequenz ? Nicht nur bis morgen denken, sondern auch mal 2 Jahre nach vorne schauen.
ATI hier schon als "Technologiebremse" abzustempeln, ist doch etwas sehr weit hergeholt.

Der R500 kommt früh genug (2005), der R420 (2004) wird zusammen mit R480 (2004) dieses Jahr völlig ausreichen.

seahawk
2004-02-25, 10:20:59
Alles richtig. Nur wofür hatte ATI den schon 2002 einen DX9 Chip ?? Ist zwischen der Vorstellung des R300 und heute ein Spiel erschienen das wirklich massiven Gebrauch von DX9 gemacht hat.

War dann die Nv3X Serie nicht sogar besser, die mit PS2.0 schlecht war, dafür aber alles bis 1.3 sehr schnell ausführen konnte ??

Oder anders gesagt, wenn NV nicht in 2004 eine Chip mit 3.0 bringen würde. Dann würden die Spiele dafür noch ein Jahr später kommen.

3.0 ist kein Kaufgrund für den Heimanwender. Für die Entwicklung der Branche ist es aber ein wichtiger Schritt.

Langsam geht mir diese Ungleichbehandlung von ATI und NV hier aber auf den Sack.

Edit : Typos

ShadowXX
2004-02-25, 11:02:35
Original geschrieben von seahawk
Alles richtig. Nur wofür hatte ATI den schon 2002 eine DX9 Chip ?? Ist zwischen der Vorstellung des R300 und heute ein Spiel erschienen das wirklich massiven Gebrauch von DX9 gemacht hat.

War dann die Nv3X Serie nicht sogar besser, die mit PS2.0 schlecht war, dafür aber alles bis 1.3 sehr schnell ausführen konnte ??

Oder anders gesagt, wenn NV nicht in 2004 eine Chip mit 3.0 bringen würde. Dann würden die Spiele dafür noch ein Jahr später kommen.

3.0 ist kein Kaufgrund für den Heimanwender. Für die Entwicklung der Branche ist es aber ein wichtiger Schritt.

Langsam geht mir diese Ungleichbehandlung von ATI und NV hier aber auf den Sack.

Jupps...das übersehen hier viele gerne.

Klar..bis wirklich PS3.0 Games rauskommen fliesst noch viel Wasser die Elbe herunter...aber je später man den Grundstein legt, desto mehr Wasser wird fliessen.

Ich zwar auch ein "ATI-User", aber auch ich finde das Schönreden der fehlenden PS3.0 sehr unfair..

Ich hatte irgendwo schonmal gepostet, das beide (r3xx & nv3x) für mich sehr schnelle DX8-Karten sind, bei denen man endlich vernünftig AA/AF dazuschalten kann.

Die PS2.0-Shader sind für den normalen Enduser ein Bonbon...für die Entwickler dagegen ein Zeichen, was demnächst (ca. 1 Jahr später) wohl "Vernünftig" benutzbar sein wird.

Dadurch, das ATI PS3.0 nun nicht unterstützt, werden sich auch weniger Entwickler mit PS3.0 auseinandersetzen...zumindest später...dieses wiederum verzögert die Nutzung von PS3.0 in späteren Games...

Wäre interesant wie die Diskussion wäre, wenn der Titel des Threads "r420 hat PS3.0, nV40 nicht" gewesen wäre...

J.S.Shadow

Gast
2004-02-25, 11:06:21
Original geschrieben von seahawk
Alles richtig. Nur wofür hatte ATI den schon 2002 eine DX9 Chip ?? Ist zwischen der Vorstellung des R300 und heute ein Spiel erschienen das wirklich massiven Gebrauch von DX9 gemacht hat.
Absolut, ATI war allerdings nur deshalb voraus, weil NV unbedingt auf 0.13µm musste, und zeitgleich während der risk-production-phase auf low-K setzen wollte. Will heißen: Der NV30 wie er ursprünglich geplant war, wäre ca. zeitgleich mit dem R300 erschienen.
War dann die Nv3X Serie nicht sogar besser, die mit PS2.0 schlecht war, dafür aber alles bis 1.3 sehr schnell ausführen konnte ??Die Analogie funktioniert hier leider nicht, da ATI bereits 2.0 schon "sehr performant" auf dem Markt hatte, alles nicht so einfach zu vergleichen.
Oder anders gesagt, wenn NV nicht in 2004 eine Chip mit 3.0 bringen würde. Dann würden die Spiele dafür noch ein Jahr später kommen.Das bestreitet ja auch niemand. Aus Entwickler-Sicht sicherlich ein riesen Vorteil. Aber ein IHV will Gewinne machen, und die macht er nicht mit 3.0-Entwickler-Hardware, sondern generell mit Marketing. Wenn in diesem Falle ATI 2.0 wirklich extrem performant einbaut, werden wiedermal die Benches sprechen müssen, und ein High-End-Freak, der 400-500 EUR auf den Tisch legt, will auch sehen, wo diese bleiben. Es gibt hier also zwei Sichtweisen, darum lohnt es sich auch darüber zu diskutieren.

seahawk
2004-02-25, 11:32:19
Original geschrieben von Gast
Die Analogie funktioniert hier leider nicht, da ATI bereits 2.0 schon "sehr performant" auf dem Markt hatte, alles nicht so einfach zu vergleichen.


Und wer sagt, dass der NV40 nicht auch 3.0 ausreichend "performant" bieten kann ??

ShadowXX
2004-02-25, 11:37:03
Original geschrieben von seahawk
Und wer sagt, dass der NV40 nicht auch 3.0 ausreichend "performant" bieten kann ??

Die meisten gehen wohl davon aus, das der r420 bei PS2.0 den nv40 in den Boden stampfen wird (30% mehr Frames und so...).

Und genau das glaube ich nicht....es werden wahrscheinlich eher 10% sein...wenn überhaupt.
Alles andere würde mich zumindest überraschen.

J.S.Shadow

Demirug
2004-02-25, 11:41:56
Original geschrieben von Gast
Das bestreitet ja auch niemand. Aus Entwickler-Sicht sicherlich ein riesen Vorteil. Aber ein IHV will Gewinne machen, und die macht er nicht mit 3.0-Entwickler-Hardware, sondern generell mit Marketing. Wenn in diesem Falle ATI 2.0 wirklich extrem performant einbaut, werden wiedermal die Benches sprechen müssen, und ein High-End-Freak, der 400-500 EUR auf den Tisch legt, will auch sehen, wo diese bleiben. Es gibt hier also zwei Sichtweisen, darum lohnt es sich auch darüber zu diskutieren.

Die Speed ist ja bei beiden noch die grosse unbekannte. Den Vorwurf der Technologiebremse muss sich ATI aber auf jeden fall gefallen lassen.

Es gibt nun mal gewisse Marktabdeckungen die erreicht werden müssen damit eine Technologie genutzt, primär benutzt und dann als Minimum vorrausgesetzt wird. Gerade bei den letzten beiden Grenzen ist der Vorlauf sehr lang. Das was jetzt gerade verkauft wird wirkt sich dort noch massiv aus. Die Nutzung für Eyecandy/Speeder wird ATI nicht sicherlich nicht bremsen da reicht die Menge die nVidia in den Markt drückt aus um die kritische Grenze zu uberschreiten. Bei den beiden anderen Punkten wirkt sich das fehlen dagegen dann schon aus. Glücklicherweise sind PS 3.0 im wesentlichen als Speedupgrade gedacht. Allerdings wir keiner nur Effekte bauen die diesen Speedfaktor unbedingt brauchen um vernüpftig zu laufen. Ein fallback ist dann unausweichlich notwendig

Godmode
2004-02-25, 12:37:09
Ich könnte mir gut vorstellen das ATI die restlichen Transistoren für qualitätssteigerne Maßnnahmen nützt und Nvidia für bessere Shader 2.0

ow
2004-02-25, 12:42:29
.

ow
2004-02-25, 13:09:27
.

Demirug
2004-02-25, 13:34:26
Original geschrieben von ow
Ja.
Und es duerfte sogar aeusserst schwierig werden, diesen technologischen Rueckstand wieder aufzuholen.

Ja und nein. Die Shader bei DX-Next werden gegenüber den PS 3.0 im wesentliche eine Treibergeschichte werden. nVidia kann da schon mal mit dem NV40 üben. ATI muss dafür eben den Simulator nehmen.

mapel110
2004-02-25, 13:39:02
Wie wahrscheinlich ists denn, dass wir irgendwann "PS.3.0-only and above"-Spiele sehen werden?

oder anders, wie unwahrscheinlich ists denn, dass die Entwickler den Code nicht nochmal durchs PS.2.0er Profil jagen, weil dann zuviel an Effekten/Speed wegfallen würde?

Tyler_Durden
2004-02-25, 13:55:34
Naja, in absehbarer Zeit wird das wohl mit den PS3.0 only Games nichts werden!
Zumindest nicht bis die Hardwarebasis da ist und das wird noch paar Jahre dauern! ;)

Demirug
2004-02-25, 13:58:23
Original geschrieben von mapel110
Wie wahrscheinlich ists denn, dass wir irgendwann "PS.3.0-only and above"-Spiele sehen werden?

oder anders, wie unwahrscheinlich ists denn, dass die Entwickler den Code nicht nochmal durchs PS.2.0er Profil jagen, weil dann zuviel an Effekten/Speed wegfallen würde?

Das hängt davon ab ob ATI jemals PS 3.0 Hardware bauen wird. Falls nicht wird dieser Schritt bei den Minimumforderungen einfach übersprungen werden.

Das ist ja das schöne an sich selbst erfüllenden Prophezeiungen. Sowohl ATI wie auch nVidia haben die Macht eine Technologiestufe für den minimal Level als unbedeutet zu deklarieren indem sie ein einfach nicht unterstützen. nVidia hat das ja mit PS 1.4 schonmal vorgemacht. Gleichzeitig haben aber beide genügend Macht um die Technologie in der Eyecandy/Performacesteigerungs Stufe interesant zu machen.

Wenn also ATI sagt "Kein Spiel wird PS 3.0 brauchen" haben wir es mit einer sich selbst erfüllenden Prophezeiung zu tun. In diesem Fall muss das brauchen aber als "unbedingt notwendig" verstanden werden.

Im Zweifelsfall werden die Entwickler dann eben einzelne Effekte durch weniger aufwendige 2.0 Versionen ersetzen müssen. Es gibt einfach 3.0 Sachen bei denen verbietet es sich das man sie als 2.0 Shader recompilert.

seahawk
2004-02-25, 14:02:11
Original geschrieben von mapel110
Wie wahrscheinlich ists denn, dass wir irgendwann "PS.3.0-only and above"-Spiele sehen werden?

oder anders, wie unwahrscheinlich ists denn, dass die Entwickler den Code nicht nochmal durchs PS.2.0er Profil jagen, weil dann zuviel an Effekten/Speed wegfallen würde?

Ungefähr so lange wie es bis zum Erscheinen der ersten DX8 Spiele gedauert hat, gerechnet vom Erscheinen der ersten DX8 Karte.

Leider ist ATI momentan eine Technologiebremse. Sowie NV mit den GeForce 4 MX damals auch DX8 Games defakto verzöget hat. ATI wird bis 2005 keine Karte vorstellen die 3.0 kann. 2005 kommen wahrscheinlich erst die Topprodukte mit >3.0 Shadern. Bis ATI auch entsprechende Mittelklasse und gar Entryclass Karten liefern wird, könnte es Mitte-Ende 2005 werden.

Wenn ATI 2004 dominiert beginnt die Entwicklung für Software die =>3.0 Shader verwendet wahrscheinlich erst Mitte/Ende 2005. Schon deswegen hoffe ich auf ein Erfolge von NV mit der NV4X Serie.

ow
2004-02-25, 14:08:35
.

Gast
2004-02-25, 14:10:32
ahh geht wieder.

Warum hast du dann Demirugs Antwort auf mein Posting auch gelöscht? Finde ich nicht nett. Ich hoffe meine Antwort darauf ist jetzt nicht aus dem Zusammenhang gerissen :

Original geschrieben von Demirug
Das interesante an PS 3.0 ist ja das Braching. Den ganzen anderen Müll hat nVidia ja schon im NV3X.

Nicht jeder 3.0 Shader mt Branchs lässt sich in einen 2.X Shader aufrollen.


Dann habe ich deine Postings zu dem Thema aber bisher falsch verstanden. Aus deinen anderen Beiträgen bzw was zum R420 im 3DCenter-Forum stand ging doch bisher immer hervor, das Branching nur dazu dient die Geschwindigkeit beim abarbeiten von Pixelshadern zu steigern indem einige Teile des Shaders nicht abgearbeitet werden müssen, bzw der Shader "kürzer" wird weil man mit einer Loop-Funktion mehrere Anweisungen verschachteln konnte. Ein PS2.0-Shader muss das ganze dann komplett bzw. "aufgerollt" abarbeiten. Das kostet dann eben zum Teil eine Menge an Geschwindigkeit.

Außer Branching hat PS3.0 also nichts zu bieten? Das wäre dann aber schon etwas mager, schließlich kann der R300 bereits alles was der NV30 kann, wenn auch nicht so effektiv bzw. manchmal auf Umwegen.

Bei meinem Kommentar zu den Entwicklern bin ich davon ausgegangen, das PS3.0 auch noch was anderes bietet außer Branching, wenn es nichts besseres enthält, dann stimme ich zu, das eine Emulation von PS3.0=Branching idiotisch wäre.

Ailuros
2004-02-25, 14:11:43
Original geschrieben von Demirug
Das hängt davon ab ob ATI jemals PS 3.0 Hardware bauen wird. Falls nicht wird dieser Schritt bei den Minimumforderungen einfach übersprungen werden.

Das ist ja das schöne an sich selbst erfüllenden Prophezeiungen. Sowohl ATI wie auch nVidia haben die Macht eine Technologiestufe für den minimal Level als unbedeutet zu deklarieren indem sie ein einfach nicht unterstützen. nVidia hat das ja mit PS 1.4 schonmal vorgemacht. Gleichzeitig haben aber beide genügend Macht um die Technologie in der Eyecandy/Performacesteigerungs Stufe interesant zu machen.

Wenn also ATI sagt "Kein Spiel wird PS 3.0 brauchen" haben wir es mit einer sich selbst erfüllenden Prophezeiung zu tun. In diesem Fall muss das brauchen aber als "unbedingt notwendig" verstanden werden.

Im Zweifelsfall werden die Entwickler dann eben einzelne Effekte durch weniger aufwendige 2.0 Versionen ersetzen müssen. Es gibt einfach 3.0 Sachen bei denen verbietet es sich das man sie als 2.0 Shader recompilert.

Eigene Spekulation: wenn die Adoption von PS3.0 auf zumindest gleichem Grad stehen wird wie bei PS1.4 in der Vergangenheit bzw. Gegenwart, sieht es mir persoenlich nicht so leicht fuer ATI aus wenn es dann zu Shaders4.0 kommt....(IMHO(tm)).

mapel110
2004-02-25, 14:13:02
Original geschrieben von seahawk
Ungefähr so lange wie es bis zum Erscheinen der ersten DX8 Spiele gedauert hat, gerechnet vom Erscheinen der ersten DX8 Karte.


hab ich gefragt "Wann"? Ich hab gefragt "Wie" :|

askibo
2004-02-25, 14:18:28
Original geschrieben von ow
Ja, das hattest du schonmal erwaehnt. Mit echter HW zu ueben duerfte aber einfacher sein. Zudem hat NV ja dann schon Uebung mit 3.0er Shadern und auf 4.0 ist es dann nur noch ein kleines Stueck.


Ich quote mich mal selbst aus dem anderen Thread, passt eh besser ins Spekuforum rein.

Original geschrieben von askibo
Einen Vorteil hat aber ATI. Sie arbeiten bei der Xbox2 direkt mit Microsoft zusammen und werden wohl am frühsten die genauen Spezifikationen für PS/VS 4.0 erfahren. Mit dem R400 haben sie ja auch schon Erfahrung gesammelt, zwar keine gut aber jetzt wissen sie hoffentlich wie mans nicht macht.

Der XBox2 Chip soll doch ein DX10 Chip werden, oder gibts da mittlerweile andere Gerüchte?

Meinungen dazu?

seahawk
2004-02-25, 14:29:11
Original geschrieben von mapel110
hab ich gefragt "Wann"? Ich hab gefragt "Wie" :|

So wahrscheinlich wie wir nur DX8 Spiele sehen werden. Den PS3.0 and above umfaßt ja auch DX-Next. :D

Demirug
2004-02-25, 14:32:40
Original geschrieben von Gast
Dann habe ich deine Postings zu dem Thema aber bisher falsch verstanden. Aus deinen anderen Beiträgen bzw was zum R420 im 3DCenter-Forum stand ging doch bisher immer hervor, das Branching nur dazu dient die Geschwindigkeit beim abarbeiten von Pixelshadern zu steigern indem einige Teile des Shaders nicht abgearbeitet werden müssen, bzw der Shader "kürzer" wird weil man mit einer Loop-Funktion mehrere Anweisungen verschachteln konnte. Ein PS2.0-Shader muss das ganze dann komplett bzw. "aufgerollt" abarbeiten. Das kostet dann eben zum Teil eine Menge an Geschwindigkeit.

Bisher bezog ich mich zum grössten Teil auf Dinge von denen man mit einer PS 3.0 Hardware profitieren kann ohne komplett neue Shader zu schreiben.

Schreibt man einen auf 3.0 Funktionalität ausgerichtetn Shader und lässt diesen aufrollen wird er wahrscheinlich unerträglich langsam. Das Problem ist auch das 2.0 Shader mit nur 96 Anweisungen beim Aufrollen solcher Shader schnell am Limit sind. Beim R420 gibt es dieses Problem ja nicht mehr so direkt da man dort auf 512 Anweisungen hochgerüstet hat. Wenn aber loops im Shader sind kann das immer noch eng werden.

Außer Branching hat PS3.0 also nichts zu bieten? Das wäre dann aber schon etwas mager, schließlich kann der R300 bereits alles was der NV30 kann, wenn auch nicht so effektiv bzw. manchmal auf Umwegen.

Bei meinem Kommentar zu den Entwicklern bin ich davon ausgegangen, das PS3.0 auch noch was anderes bietet außer Branching, wenn es nichts besseres enthält, dann stimme ich zu, das eine Emulation von PS3.0=Branching idiotisch wäre.

Es gibt noch ein paar andere Dinge. Diese lassen sich aber auch mehr oder minder durch zusätzliche Instruktionen oder per Multipass nachbilden.

Das Branching ist und bleibt aber der wichtigste Teil. Es gibt eben sachen die man nur damit vernüpftig hinbekommt.

Ailuros
2004-02-25, 14:33:07
Es gibt kein PS/VS4.0 sondern nur Shaders4.0 (=PS/VS3.0+ mit Einheiten die PS und VS behandeln koennen und natuerlich "unlimited resources" minimal Leistung bei 10fps@640*480).

Das mit den Spezifikationen frueher erfahren ist absoluter Quark, denn diese werden bei internen meetings bei Microsoft mit der Zusammenarbeit von allen beteiligten IHVs abgestimmt. Das was als beste Idee klingt wird auch adoptiert. Ebenfalls gibt es Spezifikationen die Pflichtmaessig fuer genaue Komplianz sind und andere die man nur freiwillig einbauen kann.

Es gibt bis jetzt keinen anderen Namen als "DX-Next".

Eine Kleinigkeit ueber PS/VS3.0 oder hoeher (alles frei zur Korrigierung natuerlich): die meisten wenn sie VS3.0 und vertex texturing hoeren, denken immer gleich nur an displacement mapping, wobei dieses nur eine der vielen Moeglichkeiten des Shaders ist. Es gibt auch Geometrie Texturen die in Kombination mit den Faehigkeiten des PS3.0 was Parallelisierung betrifft auch zu anderem Zeug kommen kann wie Chemische Simulationen, Metaballs, Fluid dynamics usw usw.

Gast
2004-02-25, 14:36:16
Original geschrieben von askibo
Ich quote mich mal selbst aus dem anderen Thread, passt eh besser ins Spekuforum rein.
...
Meinungen dazu?
Zu unseren bereits äußerst ausfahrenden Spekulationen dann noch diese Bombe, liegt mir persönlich viel zu weit weg, als das hier jemand wirklich etwas handfestes hätte.

Demirug
2004-02-25, 14:44:38
Original geschrieben von Ailuros
Es gibt kein PS/VS4.0 sondern nur Shaders4.0 (=PS/VS3.0+ mit Einheiten die PS und VS behandeln koennen und natuerlich "unlimited resources" minimal Leistung bei 10fps@640*480).

Das mit den Spezifikationen frueher erfahren ist absoluter Quark, denn diese werden bei internen meetings bei Microsoft mit der Zusammenarbeit von allen beteiligten IHVs abgestimmt. Das was als beste Idee klingt wird auch adoptiert. Ebenfalls gibt es Spezifikationen die Pflichtmaessig fuer genaue Komplianz sind und andere die man nur freiwillig einbauen kann.

Es gibt bis jetzt keinen anderen Namen als "DX-Next".

Und jeder IHV darf Veto schreien wenn ihm was nicht passt und so wird der Draft immer kürzer und kürzer. Dumm nur das Vetos wohl mit einem "Das können wir aber nicht" begründet werden müssen.

Eine Kleinigkeit ueber PS/VS3.0 oder hoeher (alles frei zur Korrigierung natuerlich): die meisten wenn sie VS3.0 und vertex texturing hoeren, denken immer gleich nur an displacement mapping, wobei dieses nur eine der vielen Moeglichkeiten des Shaders ist. Es gibt auch Geometrie Texturen die in Kombination mit den Faehigkeiten des PS3.0 was Parallelisierung betrifft auch zu anderem Zeug kommen kann wie Chemische Simulationen, Metaballs, Fluid dynamics usw usw.

Wenn du nur rechnen willst tun es auch die Pixelshader. Und wenn du dort Geometriepositionen errechnets und in einer Textur speicherst um sie dann im Vertexshader zu benutzten ist es ja auch nur eine Form von Displacement mapping.

Eine Spezialform des DM könnte es auch sein ein Partikelsystem vollständig in der Grafikkarte zu implementieren. Der Pixelshader berechnet in einem ersten Pass die Positionen der Partikel und speichert sie in einer textur welche dann im Zweiten pass von Vertexshader benutzt wird.

Es gibt aber noch andere Anwendungsgebiete des Vertextexturing. Zum Beispiel Tabellen welche für komplizierte Berechnungen als Hilfsmittel genutzt werden können. Was man auch machen kann ist Vertexdaten von Objekten die sich nicht oft ändern einmal bei einer Anderung zu rechen und dann in einer textur zu speichern um sie später dann nicht nochmal rechnen zu müssen. Lohnt sich aber nur bei komplizierten Sachen.

Demirug
2004-02-25, 14:46:29
Original geschrieben von askibo

Meinungen dazu?

Die DX-Version von der XBox I stimmt auch nicht genau mit DX8 überein.

askibo
2004-02-25, 14:46:48
Original geschrieben von Ailuros
Es gibt kein PS/VS4.0 sondern nur Shaders4.0 (=PS/VS3.0+ mit Einheiten die PS und VS behandeln koennen und natuerlich "unlimited resources" minimal Leistung bei 10fps@640*480).

Das mit den Spezifikationen frueher erfahren ist absoluter Quark, denn diese werden bei internen meetings bei Microsoft mit der Zusammenarbeit von allen beteiligten IHVs abgestimmt. Das was als beste Idee klingt wird auch adoptiert. Ebenfalls gibt es Spezifikationen die Pflichtmaessig fuer genaue Komplianz sind und andere die man nur freiwillig einbauen kann.

Es gibt bis jetzt keinen anderen Namen als "DX-Next".

Eine Kleinigkeit ueber PS/VS3.0 oder hoeher (alles frei zur Korrigierung natuerlich): die meisten wenn sie VS3.0 und vertex texturing hoeren, denken immer gleich nur an displacement mapping, wobei dieses nur eine der vielen Moeglichkeiten des Shaders ist. Es gibt auch Geometrie Texturen die in Kombination mit den Faehigkeiten des PS3.0 was Parallelisierung betrifft auch zu anderem Zeug kommen kann wie Chemische Simulationen, Metaballs, Fluid dynamics usw usw.

Das Dx-Next unified shadern haben wird war mir klar, hab mich nur dumm ausgedrückt. ;)

Wie funktioniert so ein Chipdesign für eine Konsole? Eigentlich muss doch ATI schon eine Zeitlang im vorraus von Microsoft wissen was sie alles einbauen sollen. Und soweit ich das mitbekommen habe soll doch die Xbox eine DXNext Konsole werden. Oder wird sie jetzt doch nur als PS3.0 geplant?
Jedes unnütze Feature das ATI einbaut kostet ja letztendlich auch Microsoft Geld.

askibo
2004-02-25, 14:50:13
Original geschrieben von Demirug
Die DX-Version von der XBox I stimmt auch nicht genau mit DX8 überein.

Aber Microsoft hat sicher ein Interesse daran das sich DX-Next und DX-"Xbox2" möglichst ähnlich sind. Das machts doch für alle Beteiligten einfacher (Portierung, Programmierung).

Gast
2004-02-25, 15:04:00
Original geschrieben von Demirug
Bisher bezog ich mich zum grössten Teil auf Dinge von denen man mit einer PS 3.0 Hardware profitieren kann ohne komplett neue Shader zu schreiben.

Schreibt man einen auf 3.0 Funktionalität ausgerichtetn Shader und lässt diesen aufrollen wird er wahrscheinlich unerträglich langsam. Das Problem ist auch das 2.0 Shader mit nur 96 Anweisungen beim Aufrollen solcher Shader schnell am Limit sind. Beim R420 gibt es dieses Problem ja nicht mehr so direkt da man dort auf 512 Anweisungen hochgerüstet hat. Wenn aber loops im Shader sind kann das immer noch eng werden.



Es gibt noch ein paar andere Dinge. Diese lassen sich aber auch mehr oder minder durch zusätzliche Instruktionen oder per Multipass nachbilden.

Das Branching ist und bleibt aber der wichtigste Teil. Es gibt eben sachen die man nur damit vernüpftig hinbekommt.

OK;

dann sollte ATi besser PS3.0 / Branching unterstützen; ansonsten sehen wir wirklich wieder das selbe Scenario wie bei DX8 (1.3 <-> 1.4 ) nur diesmal mit vertauschten Rollen. Grr...@ ATi. Das würde dann die Entwicklung wieder einmal um Jahre zurück werfen, schließlich werden die Lowcost/Mainstream-Chips von ATi ansonsten auch 2005 noch kein PS3.0 können und solche Chips auch noch 2006/2007 verkauft werden. Es reicht ja wohl wenn Intel die Technologiebremse spielt, muss ATi nicht auch noch mitmachen. Auf Nvidia haben wir wegen des GF4MX deswegen ja zurecht rumgetrampelt.

Tyler_Durden
2004-02-25, 15:23:49
Original geschrieben von Demirug
Die DX-Version von der XBox I stimmt auch nicht genau mit DX8 überein.

Auch wenn das jetzt OT ist, sind die NV2A Chips der Xbox garnicht voll und gang DX8 Konform?

Demirug
2004-02-25, 15:30:47
Original geschrieben von Tyler_Durden
Auch wenn das jetzt OT ist, sind die NV2A Chips der Xbox garnicht voll und gang DX8 Konform?

Natürlich ist er konform. Bei der XBox kann man aber noch zusätzlich Sachen nutzen die unter DX8 mit dem NV20/NV25 nicht gehen.

Tyler_Durden
2004-02-25, 15:34:09
Kann aber nicht allzuviel sein oder, denn der NV2A ist doch im Prinzip ein Mischling zwischen NV20 und NV25, welche ja beide DX8 sind!

Ailuros
2004-02-25, 15:56:56
Original geschrieben von askibo
Das Dx-Next unified shadern haben wird war mir klar, hab mich nur dumm ausgedrückt. ;)

Wie funktioniert so ein Chipdesign für eine Konsole? Eigentlich muss doch ATI schon eine Zeitlang im vorraus von Microsoft wissen was sie alles einbauen sollen. Und soweit ich das mitbekommen habe soll doch die Xbox eine DXNext Konsole werden. Oder wird sie jetzt doch nur als PS3.0 geplant?
Jedes unnütze Feature das ATI einbaut kostet ja letztendlich auch Microsoft Geld.

Viel Platz fuer nutzlose Features gibt es sowieso heutzutage nicht mehr.

DX-Next hat gewisse Grundlinien momentan, wie z.B. vereinte Shader Einheiten, Topology, Tesselation, I/O Modell usw usw. Glaubst Du Microsoft interessiert es besonders wie jegliches implementiert wird? Da muessen sich dann die IHVs selber den Kopf zerbrechen durch endlose (halbwegs) Raterei wie man A oder B zustande bringen koennen. Deshalb sind momentan auch die Spezifikationen von DX-Next immer noch sehr fluessig, da noch nichts genau festgelegt ist.

Wie dem auch sei hat Microsoft einen fertigen Design lizenziert von ATI und nicht eine Versprechung dass man jetzt erst mit einem chalkboard design nach MS's Wuenschen beginnt. Hierbei kann man natuerlich nicht ausschliessen dass XBox2 tatsaechlich zumindest minimal DX-Next kompliant sein wird. Wenn Microsoft vorhat bei DX-Next der gleichen Politik wie bei dx9.0 zu folgen und das API unterstuetzt mehr als nur eine Technologie-Generation, dann sieht es mir nicht besonders merkwuerdig aus.

Aber Microsoft hat sicher ein Interesse daran das sich DX-Next und DX-"Xbox2" möglichst ähnlich sind. Das machts doch für alle Beteiligten einfacher (Portierung, Programmierung).

So wie bis jetzt XBox2 oder R5xx beschrieben wird, handelt es sich um eine Architektur die der CPU generell nur AI und physics ueberlassen will. Wie, was und wenn ist eine andere Geschichte. Topology/Tesselation kann man sehr effizient fuer sehr robuste HOS Unterstuetzung durch einen PPP loesen. Wenn man aber von der teuren HW Implementierung und dem HW Platz abweichen will (+ verbundenes Risiko ob oder nicht unterstuetzt im API etc.) koennte man es auch in die Shader auf irgendeine Art vielleicht verschieben. Dass dann ein Entwickler mehr Geduld vielleicht braucht als das Ganze einfach wie immer auf die CPU zu schmeissen ist wohl egal *hust*....

Ich sehe ich plappere wieder zu viel...*rennt davon*

Ailuros
2004-02-25, 16:02:14
Wenn du nur rechnen willst tun es auch die Pixelshader. Und wenn du dort Geometriepositionen errechnets und in einer Textur speicherst um sie dann im Vertexshader zu benutzten ist es ja auch nur eine Form von Displacement mapping.

Eine Spezialform des DM könnte es auch sein ein Partikelsystem vollständig in der Grafikkarte zu implementieren. Der Pixelshader berechnet in einem ersten Pass die Positionen der Partikel und speichert sie in einer textur welche dann im Zweiten pass von Vertexshader benutzt wird.

Es gibt aber noch andere Anwendungsgebiete des Vertextexturing. Zum Beispiel Tabellen welche für komplizierte Berechnungen als Hilfsmittel genutzt werden können. Was man auch machen kann ist Vertexdaten von Objekten die sich nicht oft ändern einmal bei einer Anderung zu rechen und dann in einer textur zu speichern um sie später dann nicht nochmal rechnen zu müssen. Lohnt sich aber nur bei komplizierten Sachen.

Danke :) (copy/paste/save :D )

----------------------------

Bei B3D gibt es ein Interview von Sweeney dass die meisten wohl schon gelesen haben (ueber Unreal3 etc.). Fuer die die es noch nicht gesehen haben, ist es keine schlechte Lektuere, obwohl ich so einiges gegen manche Meinungen (ja selbst als Laie) einzuwenden haette. Mensch bin ich frech....*kicher*

MuLuNGuS
2004-02-25, 16:30:57
..und die moral von der geschicht, kauft eine ATI euch nicht!

hey moment, ich hab ja selber einer Radeon 9700pro, und jetzt ????


mal ärlich warten wir es einfach in ruhe ab, rockt ATI in sachen speed alles andere weg kauft man sich 'nen R420, wenn nicht dann eben eine NV40, so einfach ist das.(IMHO)

Demirug
2004-02-25, 17:04:37
Original geschrieben von Tyler_Durden
Kann aber nicht allzuviel sein oder, denn der NV2A ist doch im Prinzip ein Mischling zwischen NV20 und NV25, welche ja beide DX8 sind!

NV20 und NV25 können auch mehr als DX8 unterstützt. Eine DX Version ist ja immer ein Kompromiss für viele Chips.

NV2A kann dann noch ein bischen was zusätzlich was aber nur bei Konsolen sinn macht.

tb
2004-02-25, 17:33:41
Original geschrieben von ShadowXX
Nur das der r420 ausser der vergrösserten möglichen Shaderlänge nix in Richtung 2.x zu bieten hat, und so wie ich das bis jetzt gelesen habe, gehst du da von aus, das der r420 ein "voll" ausgebauter 2.x-Chip ist...anders gesagt: der r420 hat nicht mal die eingeschränkten Sprünge und Co. .......

Ich für meinen Teil würde nicht mal sicher sein, das er VS3.0 an Bord hat....


Das stimmt. Aber ich warte erstmal den Release ab, bevor ich mir da ne Meinung bilde...

Thomas

LovesuckZ
2004-02-25, 17:35:14
Original geschrieben von tb
-snip-

Wird es ein PS/VS3.0 Update deines Shadermark's 2.0 geben?

tb
2004-02-25, 17:45:52
Ja. Ne simple - ich kompiliere alle meine 2.0 Shader auf 3.0 - läuft schon. Jetzt muss ich noch ein paar 2.x und 3.0 Shader einbauen und sobald das SDK Update 2004 von Microsoft freigegeben ist, kann ich ShaderMark vx.x veröffentlichen.

Thomas

marco42
2004-02-25, 20:12:23
Original geschrieben von tb
Ist doch beim ShaderMark v2.0 dabei ;)


Sorry, ich kenne den Shader Mark nicht. Aber zu Entschuldigung, ich habe seit 3.1 nicht mehr mit Windows gearbeitet.

Der Shader sah auch nicht nach einem Fall fuer bedingte Spruenge und Schleifen aus. Ich hab allerdings schon welche geschrieben, die sowas gebraucht haben(allerdings in Renderman und auch nur zum kennen lernen). Da wuerde es wohl schon groessere Unterschiede geben.

Sphinx
2004-02-25, 20:28:39
http://www.next3d.de/em/ati07.jpg

So, what's next for ATI? Undoubtedly, today's and future games will need some fillrate reserve, and the shader complexity will keep on growing. That is why the number of pixel pipelines will grow up simultaneously with the increase in clocks and weakening of limitations for the shader size. Vertex shaders will also increase in number because the average triangle size is getting smaller and the number of triangles in a frame is getting higher.

Aleksei Barkovoi notes: Actually, I'm not sure whether this slide refers to the current generation or to the next one!


http://www.next3d.de/em/ati08.jpg

Richard once again mentioned the expanded functions available for the current generation of ATI's accelerators:

MultiSample Anti-Aliasing (MSAA) with programmable sample points - currently 2, 4 or 6.
Centroid modifier for texture sampling - this is important when using MSAA in combination with some rendering techniques. Note that the current version of DirectX doesn't allow using the centroid modifier on shaders below 3.0 (but...).
Gamma correction of Anti-Aliasing.

They also showed some interesting slides concerning future technologies. We will omit it today because soon we will publish Alexander Medvedev's article regarding DirectX Next (do not miss it!).

An hour before Richard Haddy's speech, Guennadi Riguer spoke about Compression of maps of normals and introduced a new texture format for using compression of maps of normals. By the way, this seminar was in a certain way connected to the seminar of the effective usage of pixel shaders held by Ashu Rage from NVIDIA the day before. It shows what a great attention IHV pay to usage of maps of normals in modern games.

Maps of normals produce beautiful images but they almost double the texture volume. Maps of normals which do not cause artifacts must be stored in textures of 8 bits per channels at least (RGB8), or better of 16 bits (G16R16), like in all ATI's demos. In order to make the texture volume smaller the company carried out some experiments with DXTn formats (lossy compression called S3TC in OpenGL) and found out that the DXT5 was the most optimal: in this format each of two coordinates (x, y) is stored in its channel: color and alpha. In this format the memory size required is 4 times lower (32 bits against 8 bits)! As the further extension, ATI will support a new format in its new chips. It's based on the DXTC and previously named ATI2N. It differs from DXT5 in compression of only a color component (out of three) using the method identical for the alpha channel compression. The new format will tremendously increase the precision of compressed texture storage compared to the DXT5, with the size being the same.

That was ATI's seminar where the speaker dropped some hints at the future interesting technologies and extension of the current ones without naming definite terms or solutions. When it slipped out that video cards with 512 MB memory onboard will come this year Richard said that there was nothing more to be afraid of as he will get fired anyway :-)

The final stage of the lectures and seminars brought about the discussion about the developers' current achievements, optimizations and debugging.



Wir werden sehen was uns die Zukunft bringt ,)

Quelle : http://www.digit-life.com/articles2/kri/kri2004.html

Exxtreme
2004-02-25, 21:11:51
Original geschrieben von Sphinx
Wir werden sehen was uns die Zukunft bringt ,)

Quelle : http://www.digit-life.com/articles2/kri/kri2004.html
Sehr interessant. =) Das bringt viel Stoff zum Spekulieren. X-D

LovesuckZ
2004-02-25, 21:28:22
Bzeiht sich das auf den r420 (vorallem Folie 2)?

Exxtreme
2004-02-25, 21:31:29
Original geschrieben von LovesuckZ
Bzeiht sich das auf den r420 (vorallem Folie 2)?
Also für mich sieht es so aus. :|

P.S. Anscheinend hat ATi das Antialiasing gar nicht verbessert. Das wirft natürlich ein bestimmtes Licht auf die möglichen AA-Eigenschaften des NV40. So wie es aussieht fürchtet ATi die Konkurrenz in diesem Punkt nicht.

Sphinx
2004-02-25, 21:36:37
Continue to innovate with...

LovesuckZ
2004-02-25, 21:38:53
Original geschrieben von Exxtreme
Also für mich sieht es so aus. :|

Wohl eher nicht. Stamm von'ner russischen Development Messe. Wohl eher eine "today" Folie.

P.S. Anscheinend hat ATi das Antialiasing gar nicht verbessert. Das wirft natürlich ein bestimmtes Licht auf die möglichen AA-Eigenschaften des NV40. So wie es aussieht fürchtet ATi die Konkurrenz in diesem Punkt nicht.

Hm, so wie es Nvidia beim NV30 getan hat?
:D

Exxtreme
2004-02-25, 21:39:15
Original geschrieben von Sphinx
Continue to innovate with...
Also programmierbar ist das AA schon beim R300. Unter Linux kann man die Position der AA-Samples sogar sehr fein einstellen. Man wollte wohl die Windowsuser nicht überfordern. X-D

Naja, vielleicht meinen die, daß man die Sampleanzahl und Samplemuster pro Pixel einstellen kann?

tokugawa
2004-02-25, 21:43:06
Original geschrieben von Sphinx
http://www.next3d.de/em/ati07.jpg

Wir werden sehen was uns die Zukunft bringt ,)

Quelle : http://www.digit-life.com/articles2/kri/kri2004.html


Interessant, hab gar nicht gewußt, dass in Moskau auch eine GDC ist...

Hat die was mit der GDC in San Diego und der European GDC in London zu tun? (also mit der, die mit dem Gama Network und der IGDA zu tun hat; ich vermute mal nicht...)

Exxtreme
2004-02-25, 21:43:18
Original geschrieben von LovesuckZ
Wohl eher nicht. Stamm von'ner russischen Development Messe. Wohl eher eine "today" Folie.

Sieht für mich nicht so aus. Es sieht wie eine typische ATi-Präsentation aus ... was natürlich nichts ausschliesst.
Original geschrieben von LovesuckZ
Hm, so wie es Nvidia beim NV30 getan hat?
:D
Guter Punkt. :) Andererseits hat NV ATi in mehreren Punkten unterschätzt ... nicht nur beim AA. Die Frage ist jetzt ob Nvidia beim NV3x die Möglichkeit hatte noch mehr Transistoren für programmierbares AA zu investieren. Die Gerüchte sagen, daß der ursprüngliche NV30 tatsächlich starke Verbesserungen bezüglich AA hätte haben sollen.

Demirug
2004-02-25, 21:46:26
Original geschrieben von Exxtreme
Sieht für mich nicht so aus. Es sieht wie eine typische ATi-Präsentation aus ... was natürlich nichts ausschliesst.

Sowas bekommts du immer auf Entwickler Konferenzen zu sehen.

Quasar
2004-02-25, 21:52:02
Original geschrieben von Exxtreme
Sehr interessant. =) Das bringt viel Stoff zum Spekulieren. X-D

Jo, besonders das hier:
http://www.ixbt.com/editorial/kri2004/ati02.jpg

"We recommend treating Low-End DX9 Hardware to the DX8 path."

Aber nV ist "schuld", daß die FX5200 in Halo oder TRAOD per default mit DX8-Shadern läuft.... :rofl:

Sphinx
2004-02-25, 21:57:00
Die frage ist ob du gerne mit 5 FPS spielst oder lieber mit 30 FPS - "wobei die zahlen aus der luft gegriffen wurden..."

Godmode
2004-02-25, 22:02:44
Mal ne Frage an Demirug: wie denkst du über die Shader 3.0? Ich meine jetzt nicht als Entwickler, klar das wir uns auf das neue SDK freuen :), sondern eher als Manager eines Spieleentwicklungs Studios. Wenn jetz alle Posts so durchgeht könnte es also durchaus sein das es 2004 eher extreme Mangelware wird, Spiele mit 3.0 Shadersupport zu finden?

Quasar
2004-02-25, 22:06:15
Original geschrieben von Sphinx
Die frage ist ob du gerne mit 5 FPS spielst oder lieber mit 30 FPS - "wobei die zahlen aus der luft gegriffen wurden..."

Ich spiele gern so, wie ich es für richtig halte und nicht, wie die Software meint, daß es am besten für mich wäre. :eyes:

LovesuckZ
2004-02-25, 22:21:21
Original geschrieben von Sphinx
Die frage ist ob du gerne mit 5 FPS spielst oder lieber mit 30 FPS - "wobei die zahlen aus der luft gegriffen wurden..."

Von welcher eigenen "Low-End DX9 Hardware" redet ATi eigentlich? Nunja, dann tun mir die armen 9600 User leid, die von ATi gezwungen werden im "DX8 path" zu spielen...

Sphinx
2004-02-25, 22:32:29
Original geschrieben von Quasar
Ich spiele gern so, wie ich es für richtig halte und nicht, wie die Software meint, daß es am besten für mich wäre. :eyes:

Tja dann verklikker mal den Softwareschmieden das ,)
- Ich will PS4.x
- Ich will RealTime Renderings
- Ich will Blut spritzen sehen...
- Ich will alles flüssig spielen können ohne Ruckler
Und einer mille x anderer Feature auf meiner Wishlist

Es ist nur ein RAT seitens der IHV an Entwickler...

Gast
2004-02-25, 22:37:41
Original geschrieben von LovesuckZ
Von welcher eigenen "Low-End DX9 Hardware" redet ATi eigentlich? Nunja, dann tun mir die armen 9600 User leid, die von ATi gezwungen werden im "DX8 path" zu spielen...

ja und nochmehr die, die meinten das der Umstieg von einer High End DX8 Graka auf eine heutige DX9 Mainstream Graka der Bringer ist.

ATI fängt schon sehr früh an Credit zu verspielen, indem man den Leuten vorschreiben will, was sie brauchen und was nicht. Wenn der R4xx keine VS/PS 3.0 unterstützt, dann hoffe ich für den Kunden, dass Nvidia diesmal in der Performance mindestens gleich auf ist - am liebsten etwas drüber. Dann gibts die saftige Rechnung nämlich schnell präsentiert. Blocker find ich schon in Counterstrike zum kotzen. Hier ist das nicht anders.

deekey777
2004-02-25, 22:47:32
Wem und was schreibt ATi vor? Nur weil ATi keinen "fortschrittlichen" PS 3.0 (die Drei kommt nunmal nach der Zwei), bedeutet das aber nicht, dass diese Firma irgendwas vorschreibt.

Von welcher eigenen "Low-End DX9 Hardware" redet ATi eigentlich? Nunja, dann tun mir die armen 9600 User leid, die von ATi gezwungen werden im "DX8 path" zu spielen...

Da fehlt ein Smiley oder!?

Falls das irgendein Seitenstich Richtung HALO&DX9-Radeons ist, kannst du beruhigt sein: Ab cat. 3.8 wird PS 2.0 als default benutzt. Und wenn wir, 9600 Besitzer, "DX8 Path" benutzen werden müssen/sollen/dürfen, dann bestimmt DX8.1 mit voller PS 1.4-Unterstützung.

tb
2004-02-25, 22:48:24
Original geschrieben von marco42
Sorry, ich kenne den Shader Mark nicht. Aber zu Entschuldigung, ich habe seit 3.1 nicht mehr mit Windows gearbeitet.

Der Shader sah auch nicht nach einem Fall fuer bedingte Spruenge und Schleifen aus. Ich hab allerdings schon welche geschrieben, die sowas gebraucht haben(allerdings in Renderman und auch nur zum kennen lernen). Da wuerde es wohl schon groessere Unterschiede geben.

Das war Absicht. Damit wollte ich zeigen, dass die Änderung der Shaderversion nicht zwangsläufig zu kürzeren/schnelleren Shadern führen muss.

Thomas

betasilie
2004-02-25, 22:51:25
Original geschrieben von LovesuckZ
Von welcher eigenen "Low-End DX9 Hardware" redet ATi eigentlich? Nunja, dann tun mir die armen 9600 User leid, die von ATi gezwungen werden im "DX8 path" zu spielen...
Ich denke das bezieht auf zukünftige DX9-Value-Karten. Also im Grunde ATIs FX5200.

betasilie
2004-02-25, 22:54:25
Original geschrieben von Quasar
Ich spiele gern so, wie ich es für richtig halte und nicht, wie die Software meint, daß es am besten für mich wäre. :eyes:
Wenn abzusehen ist, dass die FX5200 und das zukünftige Gegenstück von ATI unspielbar langsam werden beim Gebrauch der 2.0Shader, dann ist es durchaus sinnvoll im vorhinein auf den DX8-Pfad zu wechseln. ... Was für einen Grund sollte es für den 08/15-User geben ein Spiel mit 3 fps laufen zu lassen?

LovesuckZ
2004-02-25, 22:56:20
Original geschrieben von betareverse
Wenn abzusehen ist, dass die FX5200 und das zukünftige Gegenstück von ATI unspielbar langsam werden beim Gebrauch der 2.0Shader, [...]

Halo laeuft auch unspielbar mit 9800pro/FX5950 Karten. Sollen diese User nun auch gezwungen werden, im schnelleren aber haesslicheren DX8 Path zu spielen?
ATi will eine Bevormundung, warum darf man dies nicht kritisieren?
Ich vergaß: Faehnchen weh, Meinung geh...

deekey777
2004-02-25, 22:57:04
Original geschrieben von betareverse
Ich denke das bezieht auf zukünftige DX9-Value-Karten. Also im Grunde ATIs FX5200.
Ach so, mein Fehler, die entsprechenden NV "6200" werden dann einen DX7-Pfad benutzen oder?

Das ist doch ein Witz! So etwas wird es nie wieder geben: Nicht bei ATi und nicht bei nVidia.

Exxtreme
2004-02-25, 22:57:42
Original geschrieben von LovesuckZ
Halo laeuft auch unspielbar mit 9800pro/FX5950 Karten. Sollen diese User nun auch gezwungen werden, im schnelleren aber haesslicheren DX8 Path zu spielen?

DX8-Spiele laufen auf den Radeons nicht wirklich schneller als DX9-Spiele.

deekey777
2004-02-25, 22:57:58
Das ist keine Bevormundung, das nennt man Schadensbegrenzung!

DX8-Spiele laufen auf den Radeons nicht wirklich schneller als DX9-Spiele.

Stimmt zumindest bei Halo zu 97%.

Ailuros
2004-02-25, 22:58:52
Original geschrieben von betareverse
Ich denke das bezieht auf zukünftige DX9-Value-Karten. Also im Grunde ATIs FX5200.

:lolaway:

...der war gut.

LovesuckZ
2004-02-25, 23:04:23
Original geschrieben von deekey777
Das ist keine Bevormundung, das nennt man Schadensbegrenzung!


Bevormundung:
Gängelung, Verhinderung, Unterbindung einer eigenen Entscheidung

Schadensbegrenzung:
Begrenzung, Verhinderung der weiteren Ausbreitung eines (besonders politischen) Schadens

Dann kannst du mir ja mal erklaeren, was "We recommend treating Low-End DX9 Hardware to the DX8 path." mit Schadensbegrenzung zu tun hat...

ironMonkey
2004-02-25, 23:07:49
1 Seite zurück, da steht die Antwort.


Gruß

betasilie
2004-02-25, 23:08:33
Original geschrieben von LovesuckZ
Halo laeuft auch unspielbar mit 9800pro/FX5950 Karten. Sollen diese User nun auch gezwungen werden, im schnelleren aber haesslicheren DX8 Path zu spielen?
ATi will eine Bevormundung, warum darf man dies nicht kritisieren?
Ich vergaß: Faehnchen weh, Meinung geh...
Bei TombRaider läuft die FX5200 doch auch nur im DX8-Path, oder nicht? ... Es handelt sich doch nur um eine Empfehlung für die Defaultsettings. Es sagt doch niemand, dass man den DX9 nicht erzwingen kann.

Ich verstehe die Aufregung nicht. :ratlos:

betasilie
2004-02-25, 23:11:24
Original geschrieben von Exxtreme
DX8-Spiele laufen auf den Radeons nicht wirklich schneller als DX9-Spiele.
Und u.a. ist genau deswegen anzunehmen, dass sich das nicht auf die RV3xx-Reihe bezieht, sondern auf zukünftige DX9-Value Chips.

deekey777
2004-02-25, 23:18:25
Original geschrieben von LovesuckZ
Bevormundung:
Gängelung, Verhinderung, Unterbindung einer eigenen Entscheidung

Schadensbegrenzung:
Begrenzung, Verhinderung der weiteren Ausbreitung eines (besonders politischen) Schadens

Dann kannst du mir ja mal erklaeren, was "We recommend treating Low-End DX9 Hardware to the DX8 path." mit Schadensbegrenzung zu tun hat...

Weil es eine "Empfehlung" ist. Natürlich wird hier versucht, den für den Kunden entstandenen Schaden (schwache Leistung in kommenden DX9-Spielen) zu begrenzen, indem der DX8(.1)-Pfad forced/benutzt wird (bei ATis aber unnötig :D ). Bevormundung - wer hat dieses Unwort ins Gespräch gebracht?

betasilie
2004-02-25, 23:26:31
Original geschrieben von deekey777
Bevormundung - wer hat dieses Unwort ins Gespräch gebracht?
Ich glaube Quaisstellar, wobei ich da auch mal auf seine Reaktion auf mein vorheriges Posting gespannt bin, wenn er denn antwortet.

Sphinx
2004-02-25, 23:29:31
Ihr weicht vom Thema ab - Hier geht es um Shader 2.x oder 3.0 beim R420...

Liest euch das nochmal mit diesem Link vernünftig durch...

http://www.pornolize.com/pornolize4?lang=en&url=http%3A%2F%2Fwww.digit-life.com%2Farticles2%2Fkri%2Fkri2004.html

Nice Tool ,)

betasilie
2004-02-25, 23:33:09
Original geschrieben von Sphinx
http://www.pornolize.com/pornolize4?lang=en&url=http%3A%2F%2Fwww.digit-life.com%2Farticles2%2Fkri%2Fkri2004.html

Nice Tool ,)
Geil. :up:

http://www.pornolize.com/pornolize4?lang=en&url=http%3A%2F%2Fwww.3dcenter.org ...HT4U = "Hard "Ass-stitcher" ;D

Demirug
2004-02-25, 23:36:47
Original geschrieben von bans3i
Mal ne Frage an Demirug: wie denkst du über die Shader 3.0? Ich meine jetzt nicht als Entwickler, klar das wir uns auf das neue SDK freuen :), sondern eher als Manager eines Spieleentwicklungs Studios. Wenn jetz alle Posts so durchgeht könnte es also durchaus sein das es 2004 eher extreme Mangelware wird, Spiele mit 3.0 Shadersupport zu finden?

Definiere 3.0 Shadersupport.

Wie eine Nutzung von 3.0 Shadern aussehen wird muss und kann nur jeder Entwicklungsleiter individuel für sein Projekt entscheiden. Es hängt von zu vielen Faktoren ab ob es sich nun lohnt oder nicht.

Sphinx
2004-02-25, 23:39:58
Original geschrieben von betareverse
Geil. :up:

http://www.pornolize.com/pornolize4?lang=en&url=http%3A%2F%2Fwww.3dcenter.org ...HT4U = "Hard "Ass-stitcher" ;D

NVIDIA
NVIDIA was titty fucked by John "Mistress Shiva" Spitzer and Ashu "Jerkoff" Rage (John "Big Cock" Spitzer on the left, Ashu "Rugmuncher" Rage below and Philipp "Give it to me" Gerasimov on the right):

sry @ Mods - ich konnt mir den spaß einfach nicht verkneifen -> Ein wenig Auflockerung schadet niemandem und erst recht nicht wenn man einige Meinungen bez. dieses Themas hört und von Ignoranz von Produkten gesprochen wird die noch nicht mal Vorgestellt worden sind... *halt alles Spekulationen

Demirug
2004-02-25, 23:57:54
Um nochmal auf die Presentation von ATI zu kommen. Sie toppen sich mal wieder selbst.

Ich meine die "All of which means" Folie.

Regel Nummer 1: Glaube nie einem IHV wenn er dir was über die Hardware im Markt zu einem bestimmten Zeitpunkt erzählt. IHVs sind da immer zu optimistisch. Ich denke da noch an nVidia die schon vor Jahren erzählt haben man müsste auf nicht HT&L Karten keine Rücksicht mehr nehmen.

Der zweite interesante Punkt ist das man nur zwei Codepfade benutzten soll: DX8 und DX9. Das ist insofern lustig weil es eine andere Presentation von ATI gibt die so einiges anderes erzählt. So spricht man dort dann nur von einem Codepfad welcher für unterschiedliche Technologien konfiguriert wird.

IMHO hat mal wieder das Marketing diese Folien geschrieben. Das Ziel ist klar.

- Druck auf die Besitzer von alter DX7-Hardware ausüben sich neue hardware zu kaufen.
- Mit der Begrenzung auf genau zwei "Pfade" verhindern das Technologisch über den DX9 Basislevel (Shader 2.0)hinausgegangen wird.
- NV3X Karten richtig schlecht aussehen lassen und damit die Spieler dazu zu bringen sich beim nächsten kauf eine ATI Karte zu kaufen.

Quasar
2004-02-26, 09:30:50
Original geschrieben von betareverse
Wenn abzusehen ist, dass die FX5200 und das zukünftige Gegenstück von ATI unspielbar langsam werden beim Gebrauch der 2.0Shader, dann ist es durchaus sinnvoll im vorhinein auf den DX8-Pfad zu wechseln. ... Was für einen Grund sollte es für den 08/15-User geben ein Spiel mit 3 fps laufen zu lassen?

Keine Ahnung, ich bin halt kein 0815-User. Und deshalb möchte ich, daß ich die Optionen einstellen kann im Spiel, die auch technisch möglich sind. Wenn es mir dann zu langsam wird, ist es ganz allein meine Sache, auf welchem Wege ich versuche, die Leistung zu steigern.

edit:
Original geschrieben von betareverse
Ich glaube Quaisstellar, wobei ich da auch mal auf seine Reaktion auf mein vorheriges Posting gespannt bin, wenn er denn antwortet.
Das Wort habe ich zwar nicht gebraucht, aber mir so etwas in der Art gedacht. =)
Und ja, ich antworte, keine Sorge - allerdings nicht, wenn ich im Bett liege und schlafe. Du brauchst mir also nicht unterschwellig, wie es deine Art ist, zu unterstellen, daß ich mich hier jetzt verdrücke. =)

Ist schon witzig, wenn man mal die Argumentationslinien aus dem "TRAOD-Aufregungsthread" und diesem hier vergleicht. :lol:

Quasar
2004-02-26, 09:34:47
Original geschrieben von Sphinx
Tja dann verklikker mal den Softwareschmieden das ,)
[...]
Es ist nur ein RAT seitens der IHV an Entwickler...
Du verwechselst da was, Sphinx. Ich meine natürlich die Einstellungen, die technisch machbar sind. Von mir aus kann natürlich jeder ISV noch den DX-RefRast mit einbinden, damit man auch mit einer Matrox Mystique noch 4.0-Shadereffekte sehen kann, aber für ein gerendertes Pixel dann fünf Minuten zu warten ist halt Ermessenssache (gibt ja solche Leute).

Und daß der "Rat" eines IHVs an einen ISV dazu führt, daß dieser auch befolgt wird und dafür dann ein anderer IHV der Kundenverarsche bezichtigt wird, finde ich schon ziemlich lächerlich.

Quasar
2004-02-26, 09:39:46
Original geschrieben von Exxtreme
DX8-Spiele laufen auf den Radeons nicht wirklich schneller als DX9-Spiele.

Wenn die Entwickler versucht haben, nahezu dieselben Effekte einzubauen, ok. Vielleicht gibt's aber das eine oder andere Games, das bei DX8 einfach auf ein paar Details verzichtet - dann laufen auch ATis potentiell schneller.

Exxtreme
2004-02-26, 09:50:56
Original geschrieben von Quasar
Wenn die Entwickler versucht haben, nahezu dieselben Effekte einzubauen, ok. Vielleicht gibt's aber das eine oder andere Games, das bei DX8 einfach auf ein paar Details verzichtet - dann laufen auch ATis potentiell schneller.
Du musst aber noch eine potenzielle Ineffektivität der DX8-Shader in Kauf nehmen. Einige Operationen laufen mit PS2.0 einfach schneller ggü. PS<2.0-Shadern da man sich einige Rechendurchgänge im Chip sparen kann trotz höherer Qualität.

Demirug
2004-02-26, 09:54:04
Original geschrieben von Exxtreme
Du musst aber noch eine potenzielle Ineffektivität der DX8-Shader in Kauf nehmen. Einige Operationen laufen mit PS2.0 einfach schneller ggü. PS<2.0-Shadern da man sich einige Rechendurchgänge im Chip sparen kann trotz höherer Qualität.

Einge DX8 Operationen laufen aber schneller als DX9 Ops weil bei DX8 Befehlen die Packungsdichte pro Befehl höher ist.

Lost Prophet
2004-02-26, 11:12:44
es heisst hier immer wieder "technologiebremse", auch zurecht, wie ich sagen muss.
aber sollte der speed stimmen wuerde das nicht auch eine art foerderung der technologie sein (komplexeres bei gleichem speed / gleiches schneller)?

noch eine frage:

hab ich das richtig verstanden dass 4.0 eigentlich nur 3.0 ohne limits + ein paar features ist?

cya, axel

deekey777
2004-02-26, 11:32:43
"Technologiebremse" ist das falsche Wort. Technologiebremse wäre DX Next, welches auf Shader ganz verzichtet und wieder T&L "einführt". Hier wäre der Begriff "Innovationsbremse" eher angebracht.
(Bevormundung hat irgendein Gast ins Gespräch eingebracht.)

Was vergessen: Noch ein TWIMTBP-Spiel kommt -> Doom III (http://www.gamestar.de/news/pc-spiele/action/16478/)

Demirug
2004-02-26, 12:05:30
Original geschrieben von Lost Prophet
es heisst hier immer wieder "technologiebremse", auch zurecht, wie ich sagen muss.
aber sollte der speed stimmen wuerde das nicht auch eine art foerderung der technologie sein (komplexeres bei gleichem speed / gleiches schneller)?

Von der reinen Technologieseite her ja. Nur hat MS bisher darauf verzichtet hier vorgaben zu machen wie schnell etwas sein muss. Bei DX-Next sollen aber für den WHQL-Status bestimmte Mindesgeschwindigkeiten erforderlich sein.

noch eine frage:

hab ich das richtig verstanden dass 4.0 eigentlich nur 3.0 ohne limits + ein paar features ist?

cya, axel

So sieht es im Moment aus. Aber noch ist das ja alles noch im Fluss.

Godmode
2004-02-26, 14:57:23
Original geschrieben von Demirug
Definiere 3.0 Shadersupport.

Wie eine Nutzung von 3.0 Shadern aussehen wird muss und kann nur jeder Entwicklungsleiter individuel für sein Projekt entscheiden. Es hängt von zu vielen Faktoren ab ob es sich nun lohnt oder nicht.

Defination 3.0 Shadersupport: also ich verstehe darunter das ein Entwickler in seinem Spiel Effekte/Eyecandy-Sachen implementiert, die dann zb nur funktionieren wenn man die entsprechende Hardware hat. Auf Karten die Shader 3.0 nicht unterstützen, sieht das dann entweder nicht so gut aus, oder es läuft langsamer(zb wenn man statt einem 2.0 Shader einen 3.0 Shader verwendet wo man Branching nützen kann und so den Shader frühzeitig abbrechen kann, womit man sich dann Takte sparen kann, was aber wieder nur gut funktioniert wenn richtigs Branching in die GPU implementiert ist und somit bekommen wir ein paar Prozent mehr Performance) Shader 3.0 Support heisst für mich nicht das Shader 3.0 Hardware Minimum ist, sondern nur dass das Spiel davon gebrauch macht wenn man diese Hardware besitzt. Der Entwickler müsste afik mehre Renderpfade implementieren, was dann mehr Arbeit für ihn wäre, aber für Besitzer einer GPU mit 3.0 Shader Unterstützung ein Grund wäre das Spiel zu kaufen.

Windi
2004-02-26, 15:47:31
Sobald also ein Spiel irgendeinen x-beliebigen Shader 3.0 Effekt nutzt ist es für die richtiges 3.0 Shader-Spiel? (auch wenn der Raketenwerfer dadurch nur ein bischen besser glänzt?)

tokugawa
2004-02-26, 16:11:21
Original geschrieben von Windi
Sobald also ein Spiel irgendeinen x-beliebigen Shader 3.0 Effekt nutzt ist es für die richtiges 3.0 Shader-Spiel? (auch wenn der Raketenwerfer dadurch nur ein bischen besser glänzt?)

Von Entwicklerseite sehe ich das schon so.

Man wird ja vermutlich eine Spiele-Engine nicht von vorn bis hinten mit Shader 3.0 vollstopfen nur damit selbst Skeptiker dann guten Gewissens das Spiel "Shader 3.0-Spiel" nennen können.

Shader 3.0 sollte da eingesetzt werden wo es Sinn macht, und selbst heute machen Shader-lose Teile in der Grafik Sinn. Von daher, wie willst du "Shader 3.0 Spiel" definieren außer durch das Vorhanden sein mindestens eines 3.0-Shaders?

Etwa durch "Arithmetisches Mittel des Verhältnis Shader 3.0-generierter Fragmente zu nicht-Shader 3.0-generierten Fragmenten"? Oder durch die Anzahl der verwendeten 3.0-Shader? Was wäre dann eine "gescheite" Anzahl? 15? 100? 2?

Meiner Ansicht nach ist ein Begriff wie "Shader 3.0-Spiel" unnötig. Ein Spiel, das mindestens einen 3.0er Shader verwendet, verwendet 3.0er Shader. Ob man es ein "Shader 3.0-Spiel" nennen kann oder nicht, ob es "genug 3.0 Shader" verwendet um diesen Begriff zu "verdienen", ist meiner Meinung nach eine unsinnige Begrifflichkeit.

Ailuros
2004-02-26, 16:15:12
http://www.theinquirer.net/?article=14373

errrrr......... (lieber nocht nichts dazu sagen....)

betasilie
2004-02-26, 16:17:57
Original geschrieben von Quasar
Keine Ahnung, ich bin halt kein 0815-User. Und deshalb möchte ich, daß ich die Optionen einstellen kann im Spiel, die auch technisch möglich sind. Wenn es mir dann zu langsam wird, ist es ganz allein meine Sache, auf welchem Wege ich versuche, die Leistung zu steigern.
Also wenn man auch mit Tweaks die Karte nicht zum gebrauch der 2.0Shader bewegen kann, wäre das wirklich ärgerlich. Ich nehme aber einfach mal an, dass der DX8-pfad für die angesprochenen Karten als default Renderpath benutzt wird, was ja nicht heißen muss, dass Leute wie Du das von Hand ändern können.

Original geschrieben von Quasar
Das Wort habe ich zwar nicht gebraucht, aber mir so etwas in der Art gedacht. =)
Und ja, ich antworte, keine Sorge - allerdings nicht, wenn ich im Bett liege und schlafe. Du brauchst mir also nicht unterschwellig, wie es deine Art ist, zu unterstellen, daß ich mich hier jetzt verdrücke. =)[/i]
Das war nicht so gemeint wie Du es aufgefasst hast. ;) Ich war halt nur auf deine Antwort gespannt.

LovesuckZ
2004-02-26, 16:18:16
Original geschrieben von Ailuros
http://www.theinquirer.net/?article=14373
errrrr......... (lieber nocht nichts dazu sagen....)

Wenigsten nicht Fuad :)
Wobei, dass alles hoert sich irgendwie konfus an. Wenn man schon 210Millionen Transistoren verwendet, warum dann nur "full sixteen pipelines" ?!

/edit: aeh, hoppla, "teen" überlesen *hust*

deekey777
2004-02-26, 16:19:17
Original geschrieben von Ailuros
http://www.theinquirer.net/?article=14373

errrrr......... (lieber nocht nichts dazu sagen....)

"...Indeed today, Richard Huddy - ATI's European Developer Relations Manager maintained that their expectation was for ATi’s R420 to be, faster, on balance, across a suite of 10 common games than Nvidia NV40..."
Solitär, Minesweeper...

;D

Aber wie sollen 200 Mio Transistoren gekühlt/mit Strom gefüttert werden? Wird es eine neue NT_Generation geben: R420&NV40 approved?

Godmode
2004-02-26, 16:19:27
Ich kann nur OWNAGE sagen wenn das war sein sollte. Omg 210 MIO :O

Quasar
2004-02-26, 16:21:32
Original geschrieben von betareverse
Das war nicht so gemeint wie Du es aufgefasst hast. ;) Ich war halt nur auf deine Antwort gespannt.

Sorry dann.

Ailuros
2004-02-26, 16:23:14
Original geschrieben von LovesuckZ
Wenigsten nicht Fuad :)
Wobei, dass alles hoert sich irgendwie konfus an. Wenn man schon 210Millionen Transistoren verwendet, warum dann nur "full sixteen pipelines" ?!

Ich bezweifle dass es sich in jedem Fall um wahre 16 pipes handelt. Entweder mit Absicht eine Zixel-Verwirrung oder irgendein komplexer (6*2/12*1)+(4*1/2*2) Aufbau (oder auch anders). Es nervt mich so langsam zu sehr dass es keinen Sinn mehr macht sich mit dem Quark bis zur Ankuendigung zu beschaeftigen. Ich hab Kopfschmerzen...:)

LovesuckZ
2004-02-26, 16:25:00
Original geschrieben von Ailuros
Ich bezweifle dass es sich in jedem Fall um wahre 16 pipes handelt.

Hat der NV36 eigentlich "wahre" 4 Pipelines?

Exxtreme
2004-02-26, 16:25:23
Original geschrieben von Ailuros
http://www.theinquirer.net/?article=14373

errrrr......... (lieber nocht nichts dazu sagen....)
Tja, ATi wird mit der Radeon 10k kontern:
http://www.theinquirer.net/?article=4099

;D X-D

Ailuros
2004-02-26, 16:29:18
Original geschrieben von LovesuckZ
Hat der NV36 eigentlich "wahre" 4 Pipelines?

4 SIMD Kanaele AFAIK noch genauer 4*2/8*0.

egdusp
2004-02-26, 16:29:58
Original geschrieben von Ailuros
Ich bezweifle dass es sich in jedem Fall um wahre 16 pipes handelt. Entweder mit Absicht eine Zixel-Verwirrung oder irgendein komplexer (6*2/12*1)+(4*1/2*2) Aufbau (oder auch anders). Es nervt mich so langsam zu sehr dass es keinen Sinn mehr macht sich mit dem Quark bis zur Ankuendigung zu beschaeftigen. Ich hab Kopfschmerzen...:)

Die 16 pipes würden ja auch Sinn machen, wenn nur auf Z-Pass beschränkt. Da Texelfüllrate bei allen heutigen Karten ja eh schon im Überfluss vorhanden ist, würde die Beschränkung auf 8 Pixel/pass kaum einen (in Psielen) spürbaren Unterschied machen.

Die eigentliche Besonderheit dieser Meldung wäre dann, dass NV es geschafft hat, dies als 16 pipes zu verkaufen. Obwohl sie das nie offiziell sagen werden (wie bei NV30/35).

mfg
egdusp

Godmode
2004-02-26, 16:30:29
Original geschrieben von Exxtreme
Tja, ATi wird mit der Radeon 10k kontern:
http://www.theinquirer.net/?article=4099

;D X-D

Das wird aber noch auf den R400 bezogen sein!

LovesuckZ
2004-02-26, 16:30:53
Original geschrieben von Ailuros
4 SIMD Kanaele AFAIK noch genauer 4*2/8*0.

Ich meine die 5700 (Ultra), die ja in singletexturing Games (ein Fehler, dass Nvidia dies nicht bei den NV35 freigeschaltet hat) als 4x1 durchgeht

Exxtreme
2004-02-26, 16:31:14
Original geschrieben von bans3i
Das wird aber noch auf den R400 bezogen sein!
Hihi, schau mal das Datum der Meldung an. ;D

Ailuros
2004-02-26, 16:33:49
Original geschrieben von Exxtreme
Tja, ATi wird mit der Radeon 10k kontern:
http://www.theinquirer.net/?article=4099

;D X-D

Von jemand (unabhaengige Quelle) der sich schlecht begeistern laesst, hoerte ich eine "WOW" Beschreibung von NV40. Kann natuerlich auch "WOW!!!...what a POS..." sein :D

(ja es war ein offensichtlicher Witz fuer die Empfindlichen)

Ailuros
2004-02-26, 16:36:06
Original geschrieben von egdusp
Die 16 pipes würden ja auch Sinn machen, wenn nur auf Z-Pass beschränkt. Da Texelfüllrate bei allen heutigen Karten ja eh schon im Überfluss vorhanden ist, würde die Beschränkung auf 8 Pixel/pass kaum einen (in Psielen) spürbaren Unterschied machen.

Die eigentliche Besonderheit dieser Meldung wäre dann, dass NV es geschafft hat, dies als 16 pipes zu verkaufen. Obwohl sie das nie offiziell sagen werden (wie bei NV30/35).

mfg
egdusp

Dann ist mir das zu wenig. Ich mach die Augen erst wieder auf wenn ich 64 "pipes" sehen kann ;) (noch ein Witz)

Ailuros
2004-02-26, 16:37:16
Original geschrieben von LovesuckZ
Ich meine die 5700 (Ultra), die ja in singletexturing Games (ein Fehler, dass Nvidia dies nicht bei den NV35 freigeschaltet hat) als 4x1 durchgeht

AFAIK 5700= 4*1/2*2

Godmode
2004-02-26, 16:38:22
Noch ein Witz: Geforce6 TTS (TeraTexelShader)

LovesuckZ
2004-02-26, 16:39:00
Original geschrieben von Ailuros
AFAIK 5700= 4*1/2*2

Und sind es "richtige" 4 Pipelines beim Singletexturing (so wie beim NV35)?
Wenn ja, dann sehe ich dies als Bestaettigung, dass der NV40'ne 8x2 Architektur mit der Singletexturingoptimierung hat => 16 Pipelines

Exxtreme
2004-02-26, 16:39:34
Original geschrieben von Ailuros
Von jemand (unabhaengige Quelle) der sich schlecht begeistern laesst, hoerte ich eine "WOW" Beschreibung von NV40. Kann natuerlich auch "WOW!!!...what a POS..." sein :D

(ja es war ein offensichtlicher Witz fuer die Empfindlichen)
Naja, eigentlich war mein Posting ein Wink mit dem Zaunpfahl. Soll heissen ... nur weil Inq was hinschreibt, heisst's noch lange nicht, daß es auch wahr ist. Und man sollte die Möglichkeit nicht ausschliessen, daß es auch Marketing-Pipelines sein könnten. Naja, aber wenn's "echte" Pipes sind dann Hut ab!

Ailuros
2004-02-26, 16:40:41
Original geschrieben von bans3i
Noch ein Witz: Geforce6 TTS (TeraTexelShader)

Nein. Wenn schon dann GF6 TTS(bc) (bandwidth constrained).

Godmode
2004-02-26, 16:42:24
Wir werden es eh bald wissen, weil vielleicht war ja beim INQ doch wieder :cop:FUAD:cop: am Werk. Aber dast stimmt mit 16 echten Pipes wäre Nvidia sicherlicht gut dabei :). Aber vielleicht hat ja ATIs Chip auch 200 MIO, haben die den schon mal wo offizielles Statement abgeben das sie 160 MIO haben?

Quasar
2004-02-26, 16:45:43
Original geschrieben von LovesuckZ
Und sind es "richtige" 4 Pipelines beim Singletexturing (so wie beim NV35)?

IIRC konnte der nV36, wie alle "kleinen" nV3x (also x != 0/5/8) auch mit einer Texturschicht noch "vier Pipelines aufweisen".

Ailuros
2004-02-26, 16:47:48
Original geschrieben von LovesuckZ
Und sind es "richtige" 4 Pipelines beim Singletexturing (so wie beim NV35)?
Wenn ja, dann sehe ich dies als Bestaettigung, dass der NV40'ne 8x2 Architektur mit der Singletexturingoptimierung hat => 16 Pipelines

Um Himmels Willen spar mir die weiteren Kopfschmerzen mit dem X*Y Mist. Es sind wohl genauso viel 16 Pipelines, wie NV3x 8 pipelines oder NV25 10x sample AA vor dem Launch unterstuetzten.....

Ich sagte variabel 4*1/2*2 bei 5700. 5700 ist praktsich nur eine 5600 + NV30/5 VS unit. NV30/5 = 8 z/stencil, wobei NV31= 4 z/stencil.

Muss man denn immer jedem PR Quark oder jeder Basislosen Spekulation (worueber es sich auch immer handelt) gleich glauben? Ueberhaupt wenn es sich um NVIDIA handelt.

Sonst waere es fuer ATI, wuerde die Masche schnell dagegen sprechen oder?

Demirug
2004-02-26, 16:53:24
Was tut ihr eigentlich so überrascht? Es ist doch schon länger bekannt das nVidia mit 16 Pipelines beim NV40 werben wird. Nur was eben eine Pipeline wirklich ist?

Ailuros
2004-02-26, 16:53:31
Original geschrieben von Quasar
IIRC konnte der nV36, wie alle "kleinen" nV3x (also x != 0/5/8) auch mit einer Texturschicht noch "vier Pipelines aufweisen".

Bilinear :)

Godmode
2004-02-26, 16:56:21
Original geschrieben von Demirug
Was tut ihr eigentlich so überrascht? Es ist doch schon länger bekannt das nVidia mit 16 Pipelines beim NV40 werben wird. Nur was eben eine Pipeline wirklich ist?

Weil "echte" Pipeline vorgekommen ist!! Ja, ist schon klar dass es sich hier wieder nur um Marketing Trick handeln könnte!! Aber wäre es möglich, mit diesem Transistorcount von 210MIO 16 "echte" Pipes zu realisieren und Shader und AA zu verbessern?

Ailuros
2004-02-26, 17:04:58
Original geschrieben von bans3i
Weil "echte" Pipeline vorgekommen ist!! Ja, ist schon klar dass es sich hier wieder nur um Marketing Trick handeln könnte!! Aber wäre es möglich, mit diesem Transistorcount von 210MIO 16 "echte" Pipes zu realisieren und Shader und AA zu verbessern?

Die Frage ist wie Du Dir die 16 "echte pipes" vorstellst?

8*2/16*0?
6*2/12*1 + 4*1?
16*1?
3*2 + 4*1?
usw.

Hoffentlich verwirrend genug....:D

Godmode
2004-02-26, 17:06:58
Ich stelle mir 16 echte Pipes mit 16*1 vor!!

Quasar
2004-02-26, 17:35:32
Original geschrieben von Ailuros
Bilinear :)

Aber sicher. "Trilinear" hätte auch ein R360 keine Acht-Pipe-Füllrate. ;)

Original geschrieben von Ailuros
Die Frage ist wie Du Dir die 16 "echte pipes" vorstellst?

8*2/16*0?
6*2/12*1 + 4*1?
16*1?
3*2 + 4*1?
usw.

Hoffentlich verwirrend genug....:D

Acht "echte" Pipelines zu je zwei komplette 3.0-Shader ALUs. Schon hätte man "16" Shader-Pipelines... ;)


edit:
Ich tendiere dazu, eher den 210M Transistoren Bedeutung beizumessen. 8x1-tri?

Ailuros
2004-02-26, 17:58:03
Original geschrieben von bans3i
Ich stelle mir 16 echte Pipes mit 16*1 vor!!

16 SIMD channels machen erst mit noch breiteren Bussen Sinn. ;D

***edit: NV hat sich uebrigens an die 4*2 Masche fuer ganze 4 Jahre gehalten.

Sunrise
2004-02-26, 18:26:39
Original geschrieben von Demirug
Was tut ihr eigentlich so überrascht? Es ist doch schon länger bekannt das nVidia mit 16 Pipelines beim NV40 werben wird. Nur was eben eine Pipeline wirklich ist?
NV45...the eagle has landed ? ;)

PS: GDDR3 wir kommen.

whitywhiteman
2004-02-26, 18:42:46
Ich glaube nicht dass Spieleentwickler jemals auf Shader 3.0 umsteigen werden da sie angeblich nur Nachteile mit sich bringen.
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Shader 2.0 natürlich

mrdigital
2004-02-26, 18:47:31
Original geschrieben von whitywhiteman
Ich glaube nicht dass Spieleentwickler jemals auf Shader 3.0 umsteigen werden da sie angeblich nur Nachteile mit sich bringen.
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Shader 2.0 natürlich
*seufz* - 21 Seiten Thread und dann diese Erkentniss...

Godmode
2004-02-26, 19:03:51
Original geschrieben von whitywhiteman
Ich glaube nicht dass Spieleentwickler jemals auf Shader 3.0 umsteigen werden da sie angeblich nur Nachteile mit sich bringen.
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Shader 2.0 natürlich

Ich weiss ja nicht was du gelesen hast aber sicher nicht die Postings vor dir :). Was haben den Shader 3.0 mit Bildqualität zu tun? Und die Performance kann man zb durch Branching steigern gegenüber den Shadern 2.0!! Warum sollte die Programmierung umständlicher sein? hast du schon mal was mit Shader programmiert? Ok teurer stimmt zum Teil da man wenn man Shader 3.0 verwendet auch etwas für die Grafikkarten machen muss die nur Shader 2.0 unterstützen also Fallbacks. Aber an deiner Stelle würde ich mir mal den ganzen Thread durchlesen und dann etwas Posten. Ich muss da immer wieder auf den Avatar von Quasar denken :)!! Lesen-Denken-Posten!!!

tokugawa
2004-02-26, 19:06:41
Original geschrieben von whitywhiteman
Ich glaube nicht dass Spieleentwickler jemals auf Shader 3.0 umsteigen werden da sie angeblich nur Nachteile mit sich bringen.
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Shader 2.0 natürlich

Hast du auch _Beweise_ um die Behauptungen zu untermauern?

Das mit dem "umständlicher und teurer" ist definitiv falsch. Denn theoretisch reicht es, in HLSL zu programmieren, ist dabei aber "sorgenfreier" zu programmieren (in Erwartung, dass die Hardware Branching unterstützt).

Was es mit der Bildqualität (in Bezug auf AA und AF) zu tun hat, würd ich auch gern wissen. Falls du die Effektqualität meinst; es gibt schon einige Möglichkeiten, Shader 3.0 spezifische Features für Effekte einzusetzen, das Hauptgebiet sehe ich allerdings eher in höherer Effizienz (texkill und Branching).

Und wie Demirug ausgeführt hat, wird gerade deswegen die Performance eher nicht "in den Keller rutschen", sondern ganz im Gegenteil, bei "günstiger" Konstellation werden Shader 3.0 sogar effizienter sein.

Aquaschaf
2004-02-26, 19:20:43
Original geschrieben von whitywhiteman
Ich glaube nicht dass Spieleentwickler jemals auf Shader 3.0 umsteigen werden da sie angeblich nur Nachteile mit sich bringen.
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Shader 2.0 natürlich

Soll das Provokation sein?
Shader 3 bringen mehr Performance, ersparen den Leuten die Shader programmieren Arbeit und es ist ohne Aufwand möglich 2.0 Shader in schnellere 3.0 Shader umzuwandeln.

egdusp
2004-02-26, 21:38:49
Unglaublich, da hat es einer geschafft ein Posting zu posten (klingt blöd, ich weiß), auf das tatsächlich 4 direkte Antworten kommen. Und das besondere ist, dass dabei keine einzige Beleidigung ist. Was ist nur aus den alten Besserwissern geworden, wo sind sie hin :kratz: ;)

mfg
egdusp

Godmode
2004-02-26, 21:47:01
Original geschrieben von egdusp
Unglaublich, da hat es einer geschafft ein Posting zu posten (klingt blöd, ich weiß), auf das tatsächlich 4 direkte Antworten kommen. Und das besondere ist, dass dabei keine einzige Beleidigung ist. Was ist nur aus den alten Besserwissern geworden, wo sind sie hin :kratz: ;)

mfg
egdusp

Ok wenn du unbedingt willst :)

1. Teilweise, wenn du 2.0 Shader hast wo mein bei 3.0 Branching verwenden kann.

2. Warum ersparen sie arbeit? ich muss doch auch was für 2.0 Shader machen, sonst könne die armen ja wieder in die Röhre ;D also muss ich zwei sachen machen

3. du meinst wohl eher einen HLSL-Shader in ein 3.0 Compilat zu compilieren

so mein lieber egdusp bist du jetz zufrieden? :) ok wenn ich scheisse geschreiben habe korrigiert mich bitte

mfg Besserwisser bans3i

aths
2004-02-27, 11:51:51
Original geschrieben von whitywhiteman
Ich glaube nicht dass Spieleentwickler jemals auf Shader 3.0 umsteigen werden da sie angeblich nur Nachteile mit sich bringen.
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Shader 2.0 natürlich Quark³.

Mit Pixel -und Vertexshader 3.0 ist man gegenüber 2.0 deutlich flexibler. Lies mal die DX9-Doku, was 3.0 kann, was mit 2.0 nicht möglich ist.

CrazyIvan
2004-02-27, 17:04:23
6 Antworten auf einen Troll-Versuch - nicht schlecht, der Wert vom Gast... :D

BTW
The Inquirer sind zumindest immer noch der Meinung, der R420 hätte PS3.0 Vielleicht sollte man denen mal nen Link zu unserem Thread schicken *GGG*

http://www.theinquirer.net/?article=14397

Exxtreme
2004-02-27, 17:08:46
Original geschrieben von CrazyIvan
6 Antworten auf einen Troll-Versuch - nicht schlecht, der Wert vom Gast... :D

BTW
The Inquirer sind zumindest immer noch der Meinung, der R420 hätte PS3.0 Vielleicht sollte man denen mal nen Link zu unserem Thread schicken *GGG*

http://www.theinquirer.net/?article=14397
Ahhhh, unser :cop: FUAD :cop: wieder in Höchstform. Naja, da sieht man wieder wie glaubwürdig INQ ist.

deekey777
2004-02-27, 18:22:44
Naja, da sieht man wieder wie glaubwürdig INQ ist.

Wie meinst du das? TheInq ist ein ernst zu nehmendes Internetmagazin mit sehr glaubwürdigen Artikeln/News. :D

The cards will be AGP 8X and VGA, DVI and VIVO ready, as well as supporting DirectX 9.0c ready and I guess that pixel shader 3.0 is under that spec as well

April, April?! Oder im April werden R420,5/R423,5 mit PS 3.0 Support kommen.

Godmode
2004-02-27, 19:15:34
Also wenn man das wieder liest kann man ja die 210 Transistoren vom NV40 auch gleich wieder verwerfen :) Also ich weiss ja nicht welche Leute dort arbeiten aber sicher keine guten!! wie können die den jetz wieder auf einmal was bringen wo sie behaupten das der r420 doch wieder 3.0 PS unterstützt??

CrazyIvan
2004-02-27, 20:07:28
@ bans3i

Also zur Ehrenrettung vom Inq möchte ich anmerken, dass die nie behauptet haben, der R420 hätte nur PS <3.0
Das ist Demirug's Meinung, gestützt durch seine Entdeckung im "Ashli".

Sollte man net verwechseln. Und auch wenn ich Demi da eher glauben möchte als dem Inq, so muss das noch lange nix heißen - offiziell ist bis jetzt weder noch...

Demirug
2004-02-27, 20:13:17
Original geschrieben von CrazyIvan
@ bans3i

Also zur Ehrenrettung vom Inq möchte ich anmerken, dass die nie behauptet haben, der R420 hätte nur PS <3.0
Das ist Demirug's Meinung, gestützt durch seine Entdeckung im "Ashli".

Sollte man net verwechseln. Und auch wenn ich Demi da eher glauben möchte als dem Inq, so muss das noch lange nix heißen - offiziell ist bis jetzt weder noch...

Nur der Vollständigkeit halber. Leo hat die gleiche Information aus einer anderen Quelle die er für sehr sicher hält.

CrazyIvan
2004-02-27, 20:37:12
Wollte Euer beider Glaubwürdigkeit nicht anzweifeln. Wie gesagt - müsste ich mich entscheiden, dann glaub' ich eher Euch beiden ;)

Wollte nur mal den Inquirer in Schutz nehmen - macht ja außer mir sonst keiner hier.
Auch wenn 80% der Stories an den Haaren herbeigezogen sind, kommen doch trotzdem auch die meisten sich später bewahrheitenden Spekus zu erst bei denen. Und sie halten bezüglich des R420 an ihrer Meinung fest - auch wenns vielleicht die falsche ist ;)

ironMonkey
2004-02-27, 20:44:44
Sicher ist es erst wenns offiziell ist, von daher kann man nicht wirklich sagen obs stimmt oder nicht und so lange muss man halt raten oder das hinehmen was einem gesagt wird.


Gruß

Demirug
2004-02-27, 21:00:20
Original geschrieben von CrazyIvan
Wollte Euer beider Glaubwürdigkeit nicht anzweifeln. Wie gesagt - müsste ich mich entscheiden, dann glaub' ich eher Euch beiden ;)

Wollte nur mal den Inquirer in Schutz nehmen - macht ja außer mir sonst keiner hier.
Auch wenn 80% der Stories an den Haaren herbeigezogen sind, kommen doch trotzdem auch die meisten sich später bewahrheitenden Spekus zu erst bei denen. Und sie halten bezüglich des R420 an ihrer Meinung fest - auch wenns vielleicht die falsche ist ;)

Es ging mir nicht um meine Glaubwürdigkeit da ich die Sache mit den Entwicklertool ja von anfang an als Spekulation dargestellt habe. Es war eben nur eine zufällige Sache das Leo im gleichen Zeitraum aus einer anderen Richtung auf das Thema aufmerksam wurde.