PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Confidental ATI-Slides und die Folgen


Gast
2004-03-30, 12:00:13
Durchgesickerte ATI-Präsentation mit unbeabsichtigt noch enthaltenen Redner-Notizen unterhalb der ppt-Slides. Inzwischen von ATI vom Server entfernt, gibt aber einige Kopien im Netz (siehe B3D-Forum). Hier eine PDF-Version:
http://www3.nf.sympatico.ca/thorne/Save_The_Nanosecond.pdf

StefanV
2004-03-30, 12:05:50
Hm, bisher steht nicht wirklich was interessantes drin (Seite 14).

Das ganze scheint auch eher an Entwickler gerichtet zu sein, irgendwie...

€dit:

Hm, Seite 22 könnte ev. interessant sein und erklären, warum 'einige' eher auf ATI PS2 HW optimieren (und dann ev. auf nV PS2 HW)...
Und auf Seite 27 ein kleiner Seitenhieb auf nV *eg*
Ahjo und auf Seite 30 macht ATI etwas Werbung für FSAA...

BTW: 'Gamma correction of AA in hardware
- ATI do this already with a 2.2 gamma function'

Bedeutet das, das ATI Gamma 2.2 nutzt, bei der Gammakorrektur?? :|

Auf Seite 31 wird 'nur' das bestätigt, was Demi mal vermutete -> PS3 erfordert 32bit FP...

Gast
2004-03-30, 12:13:25
Be careful not to mention Xbox 2 – just let everyone know that‘s what you mean...

Note that many developers treat all DX9 NV hardware as “low end DX9” hardware because that’s the best way.

NVIDIA’s hardware has 2-3 times the shader perf available in FF mode. But then that kills alls the useful features.
Hence treat all NV DX9 hardware as DX8... (See previous slide)

DO NOT be specific about which we will adress first.

Steer people away from flow control in ps3.0 because we expect it to hurt badly. [Also it’s the main extra feature on NV40 vs R420 so let’s discourage people from using it until R5xx shows up with decent performance...]

Mention the absence of support for overflow and underflow too – since it makes you look knowledgeable.

Exxtreme
2004-03-30, 12:16:25
Original geschrieben von Stefan Payne
BTW: 'Gamma correction of AA in hardware
- ATI do this already with a 2.2 gamma function'

Bedeutet das, das ATI Gamma 2.2 nutzt, bei der Gammakorrektur?? :|

Ist doch schon lange bekannt.

Gast
2004-03-30, 12:18:37
Muahaha, selten so gut gelacht.

Da hat sich aber einer Mühe gemacht, so viel zu faken....

;Q

Exxtreme
2004-03-30, 12:20:41
Original geschrieben von Gast
Muahaha, selten so gut gelacht.

Da hat sich aber einer Mühe gemacht, so viel zu faken....

;Q
Und dann hat er den ATi-Server gehackt und es dort plaziert damit es ja so aussieht als ob es von ATi direkt stammt?

ow
2004-03-30, 12:21:51
.

Gast
2004-03-30, 12:26:22
Ja, und es liegt, obwohl es confidential ist, einfach so da rum. :lol:

Und dann die ganze "Machart"....

ow
2004-03-30, 12:28:10
.

Quasar
2004-03-30, 12:31:50
Ja, bei mir schon. Ich kann's immer noch DLen.
*shrugs*

IMO:
- zuviele orthographische Fehler
- zu "colloquial"
- zu viele Inhaltliche Fehler
- Widersprüche zu anderen ATi-Empfehlungen

Seite 26 ist anscheinend spaßig, Seite 17 auch und 12 richtiggehend Falsch.

edit:
Sorry, mit dem Link war's wohl ein Mißverständnis, ich meinte den hier im Thread verlinkten Link. ;)

Endorphine
2004-03-30, 13:41:40
AGP-Bus:
- 266MHz, 2GB per second, with latency like molasses...
[100MB per second for CPU-reads, so don't!]*eg* Das wird mit PCI-Express der Vergangenheit angehören. Der Ingenieur ist aber nicht besonders weitsichtig, wenn er von einer Entwicklung in den nächsten 6 Jahren spricht und nur von AGP redet und deshalb die GPU als reine Datensenke betrachtet. ;D

Blutgrätsche
2004-03-30, 13:44:54
Original geschrieben von Quasar
IMO:
- zuviele orthographische Fehler
- zu "colloquial"
- zu viele Inhaltliche Fehler
- Widersprüche zu anderen ATi-Empfehlungen

Seite 26 ist anscheinend spaßig, Seite 17 auch und 12 richtiggehend Falsch.
- Rechtschreibfehler sind mir in den Slides nicht aufgefallen
- Huddy gilt als lockerer und guter Redner. Auch US-Professoren gestalten ihre Vorlesungen wesentlich unterhaltsamer und witziger.
- Welche Fehler? Seite 17 und 12 sehen ok aus (mit netten Übertreibungen)
- Welche Widersprüche?

Endorphine
2004-03-30, 13:55:57
Steer people away from flow control in ps3.0 because we expect it to hurt badly. [Also
it’s the main extra feature on NV40 vs R420 so let’s discourage people from using it until
R5xx shows up with decent performance...] :lol:

Quasar
2004-03-30, 14:29:48
Original geschrieben von Blutgrätsche
- Rechtschreibfehler sind mir in den Slides nicht aufgefallen
Seite 1: "tobe", falsche Apostrophen
Seite 22: "IMpress"
und noch einige mehr, hab aber jetzt keine Lust, das ganze PDF abzugrasen.



Original geschrieben von Blutgrätsche
- Huddy gilt als lockerer und guter Redner. Auch US-Professoren gestalten ihre Vorlesungen wesentlich unterhaltsamer und witziger.
Mag sein, aber das bringt man im Allgemeinen im Vortrag rüber, nicht in den Slides..


Original geschrieben von Blutgrätsche
- Welche Fehler? Seite 17 und 12 sehen ok aus (mit netten Übertreibungen)
S.12:
20GB/s ist für aktuelle Grafikkarten wohl eher ein Witz.
und die 100MB/s Backchannel werden locker um 90% übertroffen.


Original geschrieben von Blutgrätsche
- Welche Widersprüche?
S.17: "use the lowest Shader model bla." War lt. Demirug eigentlich immer das nV-Credo. ATi hielt sich da an "use 2.0".

Xmas
2004-03-30, 14:57:44
Original geschrieben von Quasar
Seite 1: "tobe", falsche Apostrophen
Seite 22: "IMpress"
und noch einige mehr, hab aber jetzt keine Lust, das ganze PDF abzugrasen.

Mag sein, aber das bringt man im Allgemeinen im Vortrag rüber, nicht in den Slides..

Alles in den Notizen, nicht in den Slides.


S.12:
20GB/s ist für aktuelle Grafikkarten wohl eher ein Witz.
und die 100MB/s Backchannel werden locker um 90% übertroffen.
Ein Witz? Welche Bandbreite hat das aktuelle ATI-Flagschiff nochmal?

S.17: "use the lowest Shader model bla." War lt. Demirug eigentlich immer das nV-Credo. ATi hielt sich da an "use 2.0".
Nun, ATI muss ja auch so langsam umsatteln, und "Use PS1.4 to access the modifiers" wurde schon immer gesagt.

Ich glaube da kein bisschen an einen Fake.

Blutgrätsche
2004-03-30, 15:01:02
Original geschrieben von Quasar
Seite 1: "tobe", falsche Apostrophen
Seite 22: "IMpress"
und noch einige mehr, hab aber jetzt keine Lust, das ganze PDF abzugrasen.
Alle Fehler sind in den Notizen, die der Zuschauer nicht sieht.


Mag sein, aber das bringt man im Allgemeinen im Vortrag rüber, nicht in den Slides..

S.12:
20GB/s ist für aktuelle Grafikkarten wohl eher ein Witz.
und die 100MB/s Backchannel werden locker um 90% übertroffen.
Die angesprochenen Bemerkungen in Klammern sind Zusätze und mit einer Tilde versehen (also circa 20GB). Eine kürzere Variante wird nach wie vor auf der ATI-Developer Page angeboten, inklusive lockeren Formulierungen.

Edit: Xmas war mit dem dem 1.Teil schneller.

AlfredENeumann
2004-03-30, 16:06:07
Original geschrieben von Gast
Durchgesickerte ATI-Präsentation mit unbeabsichtigt noch enthaltenen Redner-Notizen unterhalb der ppt-Slides. Inzwischen von ATI vom Server entfernt, gibt aber einige Kopien im Netz (siehe B3D-Forum). Hier eine PDF-Version:
http://www3.nf.sympatico.ca/thorne/Save_The_Nanosecond.pdf


Nix durchgesickert. Kann jeder Developer bei ATI einsehen.

Exxtreme
2004-03-30, 16:10:10
Original geschrieben von AlfredENeumann
Nix durchgesickert. Kann jeder Developer bei ATI einsehen.
Nein, das ist keine Developer-Präsentation. Ich tippe eher auf eine Marketing-Schulungspräsentation und sowas kriegen die Developer normalerweise nicht zu Gesicht.

AlfredENeumann
2004-03-30, 16:36:51
Original geschrieben von Exxtreme
Nein, das ist keine Developer-Präsentation. Ich tippe eher auf eine Marketing-Schulungspräsentation und sowas kriegen die Developer normalerweise nicht zu Gesicht.

Hatte gestern in irgendeinem Forum noch den Originallink gesehen (welcher nicht mehr funktionierte), welche auf ATIs Developer-Bereich verwies. Daher ging ich davon aus.

Gast
2004-03-30, 16:37:54
Original geschrieben von AlfredENeumann
Nix durchgesickert. Kann jeder Developer bei ATI einsehen.
- leider falsch
- kein Link, keine Beweise
- Thread nicht gelesen

Gast
2004-03-30, 17:11:44
Nette Präsentation;

wirft aber imho ziemlich viel, was wir über den R420 zu wissen glaubten über den Haufen.

Auf Seite 31-32 wird über PS3.0 geredet. Warum sollte ATi sowas machen, wenn der R420 keinen PS3.0-Support hat? Sowas macht man nicht, weder bei Entwicklern noch sonst wo. Man redet nur über das was man selber kann, und nicht darüber was man nicht kann.

=> R420 hat PS3.0 - Support

ABER, anscheinend ist der PS3.0 - support nur marginal, da das Branching entweder gar nicht oder nur eingeschränkt funktioniert.

Siehe :

Steer people away from flow control in ps3.0 because we expect it to hurt badly. [Also it’s the main extra feature on NV40 vs R420 so let’s discourage people from using it until R5xx shows up with decent performance...]


Für mich zeigt dieses Quote deutlich, das der R420 PS3.0 hat, aber eben nur langsames oder gar kein Branching unterstützt; ansonsten würde diese Bemerkung keinen Sinn machen.

Zusätzlich :

It’s generally agreed that SM3.0 requires a move to 32 bit floats (some still think it’s not)


Diese Bemerkung könnte (hoch Spekulativ) darauf hinweisen, das der R420 nur FP24 unterstützt und damit (entgegen dem was ich oben gesagt habe) doch keinen PS3.0-Support hat, da er zwar alle Befehle beherrscht, aber eben nur in FP24 und nicht in FP32.


Ich bin schon gespannt, wie das ganze ausgeht. Aufgrund der Präsentation gehe ich aber zu 90% davon aus, das der R420 PS3.0 unterstützt.


Ach ja, der R500 scheint ja wohl VS4.0 und PS4.0 zu unterstützen und aus einem "Pool of vector-processors" bestehen, die dynamisch als Vertex-Shader oder als Pixel-shader benutzt werden können. Das wird beim Benchmarking wirklich ziemlich lustig.

Exxtreme
2004-03-30, 17:20:34
Original geschrieben von AlfredENeumann
Hatte gestern in irgendeinem Forum noch den Originallink gesehen (welcher nicht mehr funktionierte), welche auf ATIs Developer-Bereich verwies. Daher ging ich davon aus.
Naja, der DL-Link sagt bei ATi nicht wirklich viel aus. Die ganzen Techdemos für die Produkte sind auch im Developer-Bereich ... wenn man nach der URL geht.

StefanV
2004-03-30, 17:27:24
Original geschrieben von Gast
Ich bin schon gespannt, wie das ganze ausgeht. Aufgrund der Präsentation gehe ich aber zu 90% davon aus, das der R420 PS3.0 unterstützt.


Ach ja, der R500 scheint ja wohl VS4.0 und PS4.0 zu unterstützen und aus einem "Pool of vector-processors" bestehen, die dynamisch als Vertex-Shader oder als Pixel-shader benutzt werden können. Das wird beim Benchmarking wirklich ziemlich lustig.

Naja, es könnte aber auch bedeuten, daß der R500 näher ist, als wir alle glauben und der R420 nur ein Lückenfüller für ein halbes Jahr ist ;)

nggalai
2004-03-30, 17:54:49
Original geschrieben von Gast
Ja, und es liegt, obwohl es confidential ist, einfach so da rum. :lol:

Und dann die ganze "Machart".... Der Web-Mutz hat die falsche Präsentation hochgeladen. Eigentlich hätte nur "die obere Hälfte" hochgehen sollen (Original ist eine Powerpoint-Präsentation mit Notizen), nicht das interne "Paper" resp. Richards Powerpoint-Gedankenstützen für die Präsentation selber. Man beachte in der Hinsicht vorallem die letzte Seite. Das sind seine Notizen für die Präsentation, nichts weiter. Interpretiert da nicht zuviel rein. Meine Notizen für Präsis sehen auch häufig so aus:

"Feature 1 baaaad. Feature 2 goooood. Fuck with customer's brains until he understands that Feature 1 == teh suck"

93,
-Sascha.rb

r@e
2004-03-30, 18:10:15
Ich denke mal, dass der Link hier schon genannt wurde:
http://pwp.netcabo.pt/0239863201/Save_The_Nanosecond.ppt

Interessant ist hier die Seite 31:
(nicht die Präsentation, sondern die Bemerkungen ;-) It’s generally agreed that SM3.0 requires a move to 32 bit floats (some still think it’s not)
But - The spec requires it...
Blend etc will be on NV40 and on our own SM3.0 parts
Steer people away from flow control in ps3.0 because we expect it to hurt badly. [Also it’s the main extra feature on NV40 vs R420 so let’s discourage people from using it until R5xx shows up with decent performance...Welches auch der Streitpunkt schlechthin im B3D-Forum zu sein scheint.

Hier wird ziemlich viel hinein interpretiert... aber am interessantesten ist IMO der letzte Punkt:

"FlowControl" (i.e. Branching ;-) ist nicht 'gut' für ATI. Es ist das (Haupt-) 'extra' (also exklusiv-) Feature des NV40 gegenüber dem R420. Erst der R5xx wird diesbezüglich eine 'vernünftige' Performance bieten...

Ergo:
- nix fp32 und nix branching im R420, also auch kein SM3 (was ja schon vermutet wirde)
- irgendetwas nach (!) dem R420 wird branching unterstützen
- aber erst mit dem R5xx (also nicht unbedingt dem R500 ?) wird's performant sein

Wirklich interessant !
Aber auch sicher anders zu interpretieren... ;)

Razor

Gast
2004-03-30, 18:15:26
Original geschrieben von r@e
Ich denke mal, dass der Link hier schon genannt wurde:
http://pwp.netcabo.pt/0239863201/Save_The_Nanosecond.ppt

Interessant ist hier die Seite 31:
(nicht die Präsentation, sondern die Bemerkungen ;-) It’s generally agreed that SM3.0 requires a move to 32 bit floats (some still think it’s not)
But - The spec requires it...
Blend etc will be on NV40 and on our own SM3.0 parts
Steer people away from flow control in ps3.0 because we expect it to hurt badly. [Also it’s the main extra feature on NV40 vs R420 so let’s discourage people from using it until R5xx shows up with decent performance...Welches auch der Streitpunkt schlechthin im B3D-Forum zu sein scheint.

Hier wird ziemlich viel hinein interpretiert... aber am interessantesten ist IMO der letzte Punkt:

"FlowControl" (i.e. Branching ;-) ist nicht 'gut' für ATI. Es ist das (Haupt-) 'extra' (also exklusiv-) Feature des NV40 gegenüber dem R420. Erst der R5xx wird diesbezüglich eine 'vernünftige' Performance bieten...

Ergo:
- nix fp32 und nix branching im R420, also auch kein SM3 (was ja schon vermutet wirde)
- irgendetwas nach (!) dem R420 wird branching unterstützen
- aber erst mit dem R5xx (also nicht unbedingt dem R500 ?) wird's performant sein

Wirklich interessant !
Aber auch sicher anders zu interpretieren... ;)

Razor

in der Tat sehr interessant. Soll sich jeder seinen eigenen Reim draus machen. Von mir bekommt ATI kein Geld bei der nächsten Runde. Wer nach so kurzer Zeit eines Erfolges schon so dreist wird, der benötigt ganz dringend einen Dämpfer. Ich hoffe sie unterliegen in der Performance, damit sie wieder auf den Boden der Tatsachen kommen

seahawk
2004-03-30, 18:17:01
Theorie wäre, dass ATI nicht damit gerechnet hat, dass NV 3.0 mit dem NV40 bringt.

Der Nachfolger des R420 wird notdürftig 3.0 fähig gemacht, aber erst der R500 wird dies richtig schnell umsetzen.

Crushinator
2004-03-30, 18:38:29
Original geschrieben von Gast
Ich bin schon gespannt, wie das ganze ausgeht. Aufgrund der Präsentation gehe ich aber zu 90% davon aus, das der R420 PS3.0 unterstützt. Aufgrund darin enthaltener Kommentare wie...
- Steer people away from flow control in ps3.0 because we expect it to hurt badly. [Also it’s the main extra feature on NV40 vs R420 so let’s discourage people from using it until R5xx shows up with decent performance...]

- Blend etc will be on NV40 and on our own SM3.0 parts ...könnte man auch zu 90% davon ausgehen, daß "own SM3.0 parts" R420 nicht implizieren. ;)
Ach ja, der R500 scheint ja wohl VS4.0 und PS4.0 zu unterstützen und aus einem "Pool of vector-processors" bestehen, die dynamisch als Vertex-Shader oder als Pixel-shader benutzt werden können. Das wird beim Benchmarking wirklich ziemlich lustig. Woraus genau entnimmst Du die Information, daß R500 bereits SM4 unterstützen soll?

r@e
2004-03-30, 20:01:03
Original geschrieben von Gast
Auf Seite 31-32 wird über PS3.0 geredet. Warum sollte ATi sowas machen, wenn der R420 keinen PS3.0-Support hat? Sowas macht man nicht, weder bei Entwicklern noch sonst wo. Man redet nur über das was man selber kann, und nicht darüber was man nicht kann.

=> R420 hat PS3.0 - SupportDiese Präsentation scheint ja für Developer (eh... 'Entwickler' ;-) geschrieben worden zu sein. Auch ist es allgemein bekannt, dass nVidia SM3 unterstützen wird, insofern ATI dieses Thema nicht einfach ausschließen kann.

Dazu passen dann auch die Kommentare des nächsten Blattes (Seite 32): Mention the absence of support for overflow and underflow too – since it makes you look knowledgeable.
64 bit may well be required in the first new DX after Longhorn.Insbesondere mit dem ersten Satz wird hier klar gesagt, dass man den Eindruck erwecken will (wohlgemerkt 'nur' den Eindruck !), die Weisheit mit Löffeln gefressen zu haben.

Bezugnehmend auf die Kommentare der vorherigen Seite heißt dies konkret, dass man heraus stellen möchte, dass "SM3 derzeit (!) unwichtig ist", weil ja die eigene Hardware erst ab R5xx wirklich damit klar kommen wird. Original geschrieben von Gast
Für mich zeigt dieses Quote deutlich, das der R420 PS3.0 hat, aber eben nur langsames oder gar kein Branching unterstützt; ansonsten würde diese Bemerkung keinen Sinn machen.Kein fp32 und kein branching = nix SM3 !
Original geschrieben von Gast
Ach ja, der R500 scheint ja wohl VS4.0 und PS4.0 zu unterstützen und aus einem "Pool of vector-processors" bestehen, die dynamisch als Vertex-Shader oder als Pixel-shader benutzt werden können. Das wird beim Benchmarking wirklich ziemlich lustig. Könntest Du hier auf die Stelle verweisen, die diesen Rückschluss zulassen würde ?

Für mich läuft es erst einmal darauf hinaus, dass ATI erst mit dem R5xx das SM3 'vernünftig' unterstützen wird. Und wenn Demirug recht hat, dann ist die SM4-Fähigkeit dann erst einmal nur eine Treibersache (von der Performance mal abgesehen).

-

Wie hier schon gesagt wurde, sieht es ganz danach aus, dass der R420 tatsächlich nur ein Lückenbüßer werden wird, um die Wartezeit zum R500 zu überbrücken, welcher dann u.U. noch dieses Jahr kommen wird... also sehr viel früher, als erwartet.

Aber wenn dem so sein sollte (jetzt wird's hochgradig spekulativ ;-), dann kann der R500 gar nicht DX-Next-kompatibel sein, da DX-Next ja erst mit Longhorn und damit 2006 auf der Bildfläche erscheinen wird. Was soll ein DX-Next-Chip, der dann noch 1 Jahr auf dessen erstmalige Feature-Nutzung 'warten' muss ?

Alles wirklich äusserst spekulativ und ganz sicher interpretationssache.
Aber auch gleichermaßen hochinteressant !
:D

Razor

AlfredENeumann
2004-03-30, 20:17:35
Original geschrieben von seahawk
Theorie wäre, dass ATI nicht damit gerechnet hat, dass NV 3.0 mit dem NV40 bringt.


Da glaube ich eher das ATI damit gerechnet hat NV mit dem kommenden Chip alles aufbietet was geht.
Kann mir vorstellen das der R420 auf brutalste Renderingpower abzielt.
Wenn die praktische Rohleistung tatsächlich doppelt so hoch ist als vom R300, dann überlege ich mir vielleicht doch den R420 zu holen, oder vielleicht den NV40.

r@e
2004-03-30, 20:41:19
Original geschrieben von AlfredENeumann
Da glaube ich eher das ATI damit gerechnet hat[,daß] NV mit dem kommenden Chip alles aufbietet was geht.
Kann mir vorstellen das der R420 auf brutalste Renderingpower abzielt.Zumindest werden sie versucht haben, aus der verfügbaren Architektur alles heraus zu holen, was technisch machbar ist, um diesem Technik-Monster zumindest ansatzweise etwas entgegen zu halten.

Gerüchte, nach denen die ursprüngliche R400-Architektur 'geknickt' wurde, scheinen sich immer mehr zu verdichten.

Es sieht so aus, als ob sich ATI derzeit voll auf den R5xx konzentriert, welcher ja vermutlich auch die technische Basis für die XBox2 stellen soll. Das wäre dann schon fast ein "Deja Vue" zur damaligen XBox(1)-Geschichte bei nVidia. Auch der NV20 verzögerte sich damals wohl wegen der parallen Entwicklung des NV2a. Nur ist die Situation derzeit eine völlig andere, denn auch mit dem späten Release des NV20 stand nVidia damals noch eine lange Zeit ohne (technologisch vergleichbare) Konkurrenz dar.

Die weitergespinnte Konsequenz könnte dann auch sein, dass sich ATI's erstes SM3-Release dann schon dem Refresh-Chip des NV40 stellen muss...
Original geschrieben von AlfredENeumann
Wenn die praktische Rohleistung tatsächlich doppelt so hoch ist als vom R300, dann überlege ich mir vielleicht doch den R420 zu holen, oder vielleicht den NV40. Kann ich für meine Person so noch nicht sagen...
Dazu fehlt mir einfach noch wirklich Konkretes.

Aber das, was sich da am Horizont abzeichnet sieht schon fast nach einer finalen Schlacht der beiden Großen aus...

Spannend wird das Ganze allemal !
:D

Razor

Demirug
2004-03-30, 20:46:23
Aus diesem Thread: http://www.forum-3dcenter.com/vbulletin/showthread.php?s=&threadid=134112

Original geschrieben von Mave
aus der PowerPoint Präsentation(Page 36):
http://www3.nf.sympatico.ca/thorne/..._Nanosecond.pdf

Also mention that our VPUs are 5D. The vertex units can paralellise a 4D op with a 1D op – giving 5 paralell results! [NV can‘t do this!]

An einen der Ahnung hat(z.B. demi): Was meint Richard Huddy hiermit?

Der Vertexshader besteht aus einer Vektor4 Einheit für die üblichen Sachen wie Multiplikationen und Additionen. Dazu gibt es dann noch eine Skalareinheit für Spezialfunktionen wie Wurzel. Beide Rechenwerke arbeiten gleichzeitig womit der VS eigentlich eine Vektor5 Einheit ist. Ist aber nichts neues. Der R300 kann das auch schon. Für den R200 un genauere Details müsste ich erst nochmal nachschauen.

Mave
2004-03-30, 20:55:11
Original geschrieben von Demirug
Aus diesem Thread: http://www.forum-3dcenter.com/vbulletin/showthread.php?s=&threadid=134112



Der Vertexshader besteht aus einer Vektor4 Einheit für die üblichen Sachen wie Multiplikationen und Additionen. Dazu gibt es dann noch eine Skalareinheit für Spezialfunktionen wie Wurzel. Beide Rechenwerke arbeiten gleichzeitig womit der VS eigentlich eine Vektor5 Einheit ist. Ist aber nichts neues. Der R300 kann das auch schon. Für den R200 un genauere Details müsste ich erst nochmal nachschauen.

Schau doch mal nach bitte:)
Und Nv kann das nicht ?

Gast
2004-03-30, 21:03:09
Original geschrieben von crushinator
Aufgrund darin enthaltener Kommentare wie...
...könnte man auch zu 90% davon ausgehen, daß "own SM3.0 parts" R420 nicht implizieren. ;)


Wenn der R420 keine PS3.0 unterstützen würden, warum sollte dann ATi vor Entwicklern eine Präsentation halten bei der PS3.0 erwähnt wird?

Das wäre dann doch wohl eher frei nach dem Motto "ins eigene Knie geschossen".

In den Randnotizen wird ja sogar speziell herausgestellt, das der R420 (own 3.0 part; Der R500 wird ja sogar gesondert erwähnt) keine "Flowcontrol" beherrscht und man nur dieses eine (imho wichtige) PS3.0-Feature als eher unwichtig herausstellen sollte. Also getreu nach dem Motto, was wir nicht können ist unwichtig. Passt also dazu, das der R420 PS3.0 kann, aber keine "Flowcontrol" also Branching, bzw so schlecht das man es gleich vergessen kann.


Wenn der R420 also PS3.0 unterstützt, warum dann dieses Hide-and-Seek Spiel, das ATi momentan treibt?

IMHO um zu verbergen, das man einige wichtige / ein wichtiges PS3.0-Features nicht unterstützt.

Wenn man also bei der NV40-Präsentation zum ersten Mal(?) auch DX9.0c-Demos sehen wird und nicht nur OpenGL Demos, die auf ATi-Karten sowieso nicht laufen, dann kann man davon ausgehen, das die ATi-Strategie nicht aufgegangen ist und Nvidia ein paar Demos bringen wird die extrem auf Branching setzen werden. Auch wenn diese Demos dann auch auf der NV40 selbst nur mehr schlecht als recht laufen, werden sie auf der R420 gar nicht oder nur extrem langsam laufen ( und jeder wird jubeln wie toll die NV40 ist ).

der arme Tropf, der diese Präentation hochgeladen hat wird wohl heute seinen letzten Arbeitstag bei ATi gehabt haben. Damit hat er sehr wahrscheinlich das ganze Marketing-Konzept von ATi schwer beschädigt und der Firma einen großen Schaden zugefügt (wenn meine obrigen Überlegungen stimmen).

Gast
2004-03-30, 21:06:36
Original geschrieben von crushinator
Woraus genau entnimmst Du die Information, daß R500 bereits SM4 unterstützen soll?

Aus dem Kontext der Präsentation + Slide 36 + alte Gerüchte/Infos über den R400 (=R500) der als "sea of processors" beschrieben wurde.

Das ganze passt imho ziemlich gut zusammen. Ist aber wie die gesamten Interpretationen der Präsentation hoch spekulativ, was auch sonst.

reunion
2004-03-30, 21:15:00
Original geschrieben von Gast
Durchgesickerte ATI-Präsentation mit unbeabsichtigt noch enthaltenen Redner-Notizen unterhalb der ppt-Slides. Inzwischen von ATI vom Server entfernt, gibt aber einige Kopien im Netz (siehe B3D-Forum). Hier eine PDF-Version:
http://www3.nf.sympatico.ca/thorne/Save_The_Nanosecond.pdf

Hochintressant, sieht so aus als ob der R420 wie schon vermutet eine Notlösung ist da der R400 offensichtlich ein Flop war/ist, also nur ein aufgewärmter R300. Der R500(der ja auch in der X-BOX2 eingesetzt werden soll) hingegen wird dann die Bombe auf den man wohl einen großteil der verfügbaren Mannpower gehetzt hat (ein weiterer Grund warum der R420 vermutlich nichts besonderes wird) und dieser ist anscheinend schon ziemlich weit vorangeschrittet...

Demirug
2004-03-30, 21:18:42
Original geschrieben von Mave
Schau doch mal nach bitte:)
Und Nv kann das nicht ?

Das Vektor5 Spiel funktioniert nur beim R300 beim R200 gab es das noch nicht.

Der VS von nVidia ist ein grosses Schwarzes Loch. Man weiss noch weniger darüber als über die Pixelshader.

r@e
2004-03-30, 21:20:18
@reunion

Tjo...
Oder es wiederholt sich Geschichte.

Hintergrund:
Auch seinerzeit musste sich ATI's erster DX8-Chip dem Refresh von nVidia's ersten stellen.NV25 aka GeForce4ti vs. R200 aka R8500Razor

reunion
2004-03-30, 21:29:39
Original geschrieben von r@e
@reunion

Tjo...
Oder es wiederholt sich Geschichte.

Hintergrund:
Auch seinerzeit musste sich ATI's erster DX8-Chip dem Refresh von nVidia's ersten stellen.NV25 aka GeForce4ti vs. R200 aka R8500Razor

Das sich der R500 dann mindestens gegen den Refresh von NV40 (oder schon NV50?) stellen wird müssen ist klar, nur sehe ich darin keinen direkten Nachteil für den R500, das einzige Problem für ATI ist die zeit bis der R500 kommt...

Demirug
2004-03-30, 21:31:22
ATI muss über PS3.0 reden aus einem ganz einfachen Grund. Das Credo bezüglich Shadertechnik war seit dem R300: "Benutzt das beste was verfügbar ist". Würde man diese Aussage nicht aufheben müssen ja alle Entwickler sofort zu nVidia rennen weil man dort definitive SM3 Hardware bekommen wird.

Ergo versucht es ATI in diesem Jahr mit einer neuen Masche die da lautet: "Es gibt nur 2 Technologie Level. DX8 und DX9". DX9 ist natürlich nur SM2 und bei DX8 versucht man alles unterhalb PS 1.4 zu unterschlagen.

Nebenbei wird dann noch ein bischen gestichelt das man die nVidia DX9 Hardware der ersten generation doch besser als DX8 Hardware einstufen soll.

Damit nun auch ja keiner auf die Idee kommt doch etwas mit SM3 zu machen wird kommuniziert das das Hauptfeature Branching sowieso verdammt langsam sein muss weil VPUs einfach keine Sprünge mögen. Ergo wäre jede beschäftigung damit Zeitverschwendung.

nVidia sieht das allerdings etwas anders aber hier geht es ja um ATI.

Gast
2004-03-30, 21:49:35
Ich habe schon vor etwas längerer Zeit den "verdacht" geäussert, das der r500 früher als erwartet kommen wird und ebenfalls dazugesetzt, das dieser "nur" PS/VS3.0 beherschen wird....

Die Begründung war und ist die gleiche, die auch schon razor angerissen hat: Longhorn und damit DX10 (bzw. Next) kommt erst ende 2006, wahrscheinlich sogar erst 2007.

Damit wäre ein r500 (der 2005 erscheinen sollte), der SM4.0 beherscht einfach unnötig und "Transitorverschwendung"...(was wiederum überhaupt nicht zu ATI passt)

Deshalb stehe ich auch weiter zu meinr Aussage, das der r420 nix weiter als ein aufpolierter r360 is, der die Zeit bis zum r500 (der dann vielleicht sogar schon Ende diesen/Anfang nächsten Jahres erscheint) überbrücken soll...

Wenn dies wirklich so ist, dann könnte ATIs Plan mit einem zwischengeschobenen Super-High-Speed r360 (wobei ich natürlich nicht weiss, wie schnell der Chip wirklich ist...soll nur eine versinnbildlichung sein) hinhauen....

Sie hätten dann _jetzt_ die Power für die _jetzt_ und in näherer Zunkunft erscheinenden Games....und wenn dann tatsächlich die ersten PS3.0 "Games" auftauchen, würden SIe den r500 aus dem Ärmel ziehen....

Nebenbei eine nette Werbewirkung (auf den Dau wohlgemerkt)...ATI bringt "zwei" "Next-Gen-Chips" kurz hinterander....(jetzt den r420...im Winter04/Frühling05 den r500...nV kann "nur" mit dem refresh des nv40 aufwarten....)

Ist doch nett wenn man im Spekuforum ist.....

J.S.Shadow

r@e
2004-03-30, 21:50:04
Original geschrieben von Demirug
Damit nun auch ja keiner auf die Idee kommt doch etwas mit SM3 zu machen wird kommuniziert das das Hauptfeature Branching sowieso verdammt langsam sein muss weil VPUs einfach keine Sprünge mögen. Ergo wäre jede beschäftigung damit Zeitverschwendung.Exakt !
Und deswegen soll man bis zum R5xx warten, der dann (obwohl VPU) Sprünge mögen wird ?
:bonk:

Razor

P.S.: ist weniger an Dich, denn an ATI gerichtet... ;)

ShadowXX
2004-03-30, 21:52:44
Original geschrieben von Gast
Ich habe schon vor etwas längerer Zeit den "verdacht" geäussert, das der r500 früher als erwartet kommen wird und ebenfalls dazugesetzt, das dieser "nur" PS/VS3.0 beherschen wird....

Die Begründung war und ist die gleiche, die auch schon razor angerissen hat: Longhorn und damit DX10 (bzw. Next) kommt erst ende 2006, wahrscheinlich sogar erst 2007.

Damit wäre ein r500 (der 2005 erscheinen sollte), der SM4.0 beherscht einfach unnötig und "Transitorverschwendung"...(was wiederum überhaupt nicht zu ATI passt)

Deshalb stehe ich auch weiter zu meinr Aussage, das der r420 nix weiter als ein aufpolierter r360 is, der die Zeit bis zum r500 (der dann vielleicht sogar schon Ende diesen/Anfang nächsten Jahres erscheint) überbrücken soll...

Wenn dies wirklich so ist, dann könnte ATIs Plan mit einem zwischengeschobenen Super-High-Speed r360 (wobei ich natürlich nicht weiss, wie schnell der Chip wirklich ist...soll nur eine versinnbildlichung sein) hinhauen....

Sie hätten dann _jetzt_ die Power für die _jetzt_ und in näherer Zunkunft erscheinenden Games....und wenn dann tatsächlich die ersten PS3.0 "Games" auftauchen, würden SIe den r500 aus dem Ärmel ziehen....

Nebenbei eine nette Werbewirkung (auf den Dau wohlgemerkt)...ATI bringt "zwei" "Next-Gen-Chips" kurz hinterander....(jetzt den r420...im Winter04/Frühling05 den r500...nV kann "nur" mit dem refresh des nv40 aufwarten....)

Ist doch nett wenn man im Spekuforum ist.....

J.S.Shadow

Das war mein geistiger erguss...irgendwie vergisst der rechner neuerdings die cookies...

r@e
2004-03-30, 21:55:36
Original geschrieben von reunion
Das sich der R500 dann mindestens gegen den Refresh von NV40 (oder schon NV50?) stellen wird müssen ist klar, nur sehe ich darin keinen direkten Nachteil für den R500, das einzige Problem für ATI ist die zeit bis der R500 kommt... Kein Nachteil ?
:???:

Das, was sich ATI bis dato mühsam aufgebaut hat, könnte wie eine Seifenblase zerplatzen !

Wenn die Developer (fast zwangsläufig) wieder auf nVidia-Hardware wechseln und der R500 dann nichts wirklich neues bringt (ausser evtl. Performance - was sich dann aber erst noch heraus stellen wird müssen), warum sollten diese dann wieder zurück wechseln ?
:???:

Wenn ATI mit dem R420 nicht wesentlich schneller sein wird, als der NV40, dann haben sie schon fast verloren. Oder was soll dann noch der R500 in einem Absatnd von mindest 6 Monaten bringen ?

Razor

r@e
2004-03-30, 21:58:06
Original geschrieben von Gast
Ist doch nett wenn man im Spekuforum ist.....Wenn es das Speku-Foum wäre...
:D

Razor

Demirug
2004-03-30, 21:59:55
Original geschrieben von r@e
Exakt !
Und deswegen soll man bis zum R5xx warten, der dann (obwohl VPU) Sprünge mögen wird ?
:bonk:

Razor

P.S.: ist weniger an Dich, denn an ATI gerichtet... ;)

1. Was interesiert ATI beim R500 noch ihr dummes geschwätz vom R420? Beim R420 interesiert sie ja auch nicht mehr was sie beim R300 gesagt haben. Das ändern der Meinung ist eine beliebte Sache. Macht nVidia aber durchaus auch mal von Zeit zu Zeit.

2. Der R5XX ist dann sicher keine VPU mehr. Sondern ein VCP (Vektor CoProcessor) und als solcher beherscht er natürlich Branching sehr performant.

ShadowXX
2004-03-30, 22:08:11
Original geschrieben von r@e
Kein Nachteil ?
:???:

Das, was sich ATI bis dato mühsam aufgebaut hat, könnte wie eine Seifenblase zerplatzen !

Wenn die Developer (fast zwangsläufig) wieder auf nVidia-Hardware wechseln und der R500 dann nichts wirklich neues bringt (ausser evtl. Performance - was sich dann aber erst noch heraus stellen wird müssen), warum sollten diese dann wieder zurück wechseln ?
:???:

Wenn ATI mit dem R420 nicht wesentlich schneller sein wird, als der NV40, dann haben sie schon fast verloren. Oder was soll dann noch der R500 in einem Absatnd von mindest 6 Monaten bringen ?

Razor

Da gebe ich dir recht....

Es hängt momentan vieles davon ab, wie schnell oder langsam der r420 gegenüber dem nv40 ist....

Und dann allerdings auch noch davon, wie schnell ATI den r500 denn nun wirklich bringen könnte...vielleicht ist dieser sogar noch viel näher, als wir alle vermuten.....
und der r420 ist wirklich nur "dazwischengeschoben", damit sie etwas zum nv40 launch haben...was auch erklären könnte, warum sich ATI "plötzlich" so viel Zeit mit dem launch des r420 nimmt...

Ja ja...man weiss nix genaues...ich bin gespannt ob ATI zum 13/14 April ebenfalls urplötzlich den r420 ohne grosses TamTam (relativ gesehen) auf den Markt schmeisst...Und wenn er dann tatsächlich "nur" Radeon9900 heissen sollte, weiss man auch, was ATI selbst über diesen Chip denkt...r360++

J.S.Shadow

ShadowXX
2004-03-30, 22:09:08
Original geschrieben von r@e
Wenn es das Speku-Foum wäre...
:D

Razor

war dem link aus dem SpekuForum gefolgt...und dachte das es dort weitergeht...sorry...

LovesuckZ
2004-03-30, 22:10:06
Original geschrieben von Gast
Sie hätten dann _jetzt_ die Power für die _jetzt_ und in näherer Zunkunft erscheinenden Games....und wenn dann tatsächlich die ersten PS3.0 "Games" auftauchen, würden SIe den r500 aus dem Ärmel ziehen....

Der daran zu grunde geht, weil alle welt auf Nvidiahardware entwickelt und sich an deren Optimierungsguides halten.
Ausserdem, wie sollte es die "ersten PS3.0 "Games" beim erscheinen des R500 gaeben, wenn ATi die Entwickler davon abhalten wolle, PS/VS3.0 bis zum r500 schon einzusetzen?


Nebenbei eine nette Werbewirkung (auf den Dau wohlgemerkt)...ATI bringt "zwei" "Next-Gen-Chips" kurz hinterander....(jetzt den r420...im Winter04/Frühling05 den r500...nV kann "nur" mit dem refresh des nv40 aufwarten....)


Der Dau koennte sich auch fragen, warum ATI zwei "Next-Gen-Chips" benoetige, um mit Nvidia gleichzuziehen?
Und, vergiss nicht die negative Resonanz (i hoff so richtig), der Freakz, deren "nichtzukunftstaugliche" r420 schon sehr schnell veraltert* sein werde und sich deswegen aufregen werden.

*technisch und vorallem preislich.

reunion
2004-03-30, 22:31:17
Original geschrieben von r@e
Kein Nachteil ?
:???:

Das, was sich ATI bis dato mühsam aufgebaut hat, könnte wie eine Seifenblase zerplatzen !

Wenn die Developer (fast zwangsläufig) wieder auf nVidia-Hardware wechseln und der R500 dann nichts wirklich neues bringt (ausser evtl. Performance - was sich dann aber erst noch heraus stellen wird müssen), warum sollten diese dann wieder zurück wechseln ?
:???:

Ja, deswegen sage ich ja, ein Nachteil ist es solange der R500 nicht erschienen ist


Wenn ATI mit dem R420 nicht wesentlich schneller sein wird, als der NV40, dann haben sie schon fast verloren. Oder was soll dann noch der R500 in einem Absatnd von mindest 6 Monaten bringen ?

Razor

Warum sollen sie 6 Monate später nichts mehr bringen können?
Er wird später kommen und deshalb vermutlich auch schneller sein.
Also irgendwie verstehe ich die Frage nicht...

Gast
2004-03-30, 22:33:05
RichardHuddy?
Da war doch was... =)
Na klar, er war doch bei Nvidia mal dicke da:
(Richard Huddy at GDC 2002)

http://developer.nvidia.com/attach/3440

Tja und dann isser ab zu Ati...
http://slo-tech.com/clanki/03032/03032en.shtml

up

ShadowXX
2004-03-30, 22:33:29
Original geschrieben von LovesuckZ
Der daran zu grunde geht, weil alle welt auf Nvidiahardware entwickelt und sich an deren Optimierungsguides halten.
Ausserdem, wie sollte es die "ersten PS3.0 "Games" beim erscheinen des R500 gaeben, wenn ATi die Entwickler davon abhalten wolle, PS/VS3.0 bis zum r500 schon einzusetzen?


Ich hatte ja auch geschrieben: "tatsächlich auftauchen sollten"....konjunktiv...wenn ATIs PR-Maschine funktioniert, gibt es Sie bis dahin ja nicht...


Der Dau koennte sich auch fragen, warum ATI zwei "Next-Gen-Chips" benoetige, um mit Nvidia gleichzuziehen?
Und, vergiss nicht die negative Resonanz (i hoff so richtig), der Freakz, deren "nichtzukunftstaugliche" r420 schon sehr schnell veraltert* sein werde und sich deswegen aufregen werden.

*technisch und vorallem preislich.

Da gebe ich dir allerdings recht....zumindest das Image von ATI könnte drunter leiden....

Es kommt viel darauf an, wie schnell der r420 ist und wie lange seine "Lebensdauer" sein soll...anders gesagt...wann sie den r500 dann auf den Markt werfen...

J.S.Shadow

ShadowXX
2004-03-30, 22:39:55
Original geschrieben von reunion
Ja, deswegen sage ich ja, ein Nachteil ist es solange der R500 nicht erschienen ist



Warum sollen sie 6 Monate später nichts mehr bringen können?
Er wird später kommen und deshalb vermutlich auch schneller sein.
Also irgendwie verstehe ich die Frage nicht...

Und genau das ist inzwischen die grosse unbekannte...wann kommt der r500...der r420 ist schon fast uninteressant.

Wie schon gesagt...vielleicht ist der r500 viel näher als wir alle Denken...und er kommt sogar noch dieses Jahr.

ABer lasst uns erst mal sehen, wie "schnell" der r420 dann nun wirklich ist...wobei ich langsam glaube, dass selbst ATI, den r420 intern als "nicht so wichtig" deklariert...er soll scheinbar wirklich nur Zeit überbrücken....

r@e
2004-03-30, 23:02:43
Original geschrieben von reunion
Ja, deswegen sage ich ja, ein Nachteil ist es solange der R500 nicht erschienen istUnd dann ?
:???:
Original geschrieben von reunion
Warum sollen sie 6 Monate später nichts mehr bringen können?
Er wird später kommen und deshalb vermutlich auch schneller sein.
Also irgendwie verstehe ich die Frage nicht... Und meinst Du nicht, dass der Refresh des NV40 auch ein bissel an Geschwindikeit zulegen wird ?

Auch kommt ATI mit einem völlig neuen Stück Technologie (siehe hier auch wieder R200/R300 zum Release-Zeitpunkt). Hinsichtlich der Treiber etc. nicht gerade ein 'Vorteil'.

Zudem hat die Enthusiast-Käuferschicht längst zu nVidia gewechselt (wie jetzt zum großen Teil zu ATI). Und die, die es nicht taten, haben sich womöglich den R420 gezogen und fühlen sich angeschmiert.

Wenn dann das neue ATI-Flagschiff nicht ein wesentliches mehr an Features (ja welche eigentlich ?) und an Performance (welche sich wie gesagt mit dem - ausgereiften - Refresh-Chip von nVidia messen muss) bringt, dann war's das.

Und ob sie dann nochmal so etwas, wie den R300 bringen können (wen sollen sie denn dann aufkaufen ;-), darf dann ja zumindest in Frage gestellt werden...

-

Alles selbstredend noch immer hoch Spekulativ und des GraKa-Forums eigentlich nicht würdig...
:D

Razor

r@e
2004-03-30, 23:09:19
Original geschrieben von ShadowXX
Ich hatte ja auch geschrieben: "tatsächlich auftauchen sollten"....konjunktiv...wenn ATIs PR-Maschine funktioniert, gibt es Sie bis dahin ja nicht...Und machen den R500 dann noch sinnentfreiender, als er ohnehin schon ist ?
Wozu dann den R500 ?
:???:

Das einzige, was funktioniert, ist derzeit die PR-Maschinerie von nVidia.
Und wie will ATI die Entwickler jetzt noch 'an der Nase herumführen', wenn der Hintergrund der Aktion (für den sich bestimmt alle Developer brennend interessieren ;-) nun offen gelegt wurde und die "PR-Maschine" ATI's nun hart ins trudeln gekommen sein dürfte ?

Auf jeden Fall werden sie den Devolopern gegenüber (dem Enthusiast-Segement gegenüber sowieso) unglaubwürdiger erscheinen...

Razor

Gast
2004-03-30, 23:29:58
[B]Original geschrieben von Demirug [/B
Damit nun auch ja keiner auf die Idee kommt doch etwas mit SM3 zu machen wird kommuniziert das das Hauptfeature Branching sowieso verdammt langsam sein muss weil VPUs einfach keine Sprünge mögen. Ergo wäre jede beschäftigung damit Zeitverschwendung.

Die koennen die Entwickler doch nicht fuer so bloed halten?

StefanV
2004-03-30, 23:33:28
Original geschrieben von Gast
Die koennen die Entwickler doch nicht fuer so bloed halten?

Naja, die Frage ist, wie der 'Durchschnittsentwickler' ausschaut (demi halte ich nicht gerad für einen 'Durchschnittsentwickler').

Wenn ich ehrlich bin, dann ist doch eher die Frage, ob ATI die nur für so blöd hält oder ob sie in Wirklichkeit noch viel schlimmer sind...

Persönlich bin ich mir da ehrlich gesagt nicht wirklich sicher, was denn nun zutreffend ist :|

r@e
2004-03-30, 23:35:47
Original geschrieben von Gast
Die koennen die Entwickler doch nicht fuer so bloed halten? Wieso 'blöd' ?
Bis jetzt wurde doch auch von vielen hier gesagt, dass die PS3.0 'unnötig' seien...

Wie schnell sich doch das Blatt wenden kann ?
:D

Razor

del_4901
2004-03-30, 23:36:32
Original geschrieben von Gast
Die koennen die Entwickler doch nicht fuer so bloed halten?
"Im Krieg und der Liebe ist alles erlaubt" Und die beiden haben gerade Krieg, solange bis einer den andern kauft.
Es ist doch Wurst ob die Entwickler Ati das abnimmt oder nicht, allein der Versuch und die damit verbundene Möglichkeit, das die Entw. darauf eingehen, ist wichtig.

Gast
2004-03-30, 23:51:42
Original geschrieben von r@e
Und wie will ATI die Entwickler jetzt noch 'an der Nase herumführen', wenn der Hintergrund der Aktion (für den sich bestimmt alle Developer brennend interessieren ;-) nun offen gelegt wurde und die "PR-Maschine" ATI's nun hart ins trudeln gekommen sein dürfte ?

Auf jeden Fall werden sie den Devolopern gegenüber (dem Enthusiast-Segement gegenüber sowieso) unglaubwürdiger erscheinen...

Razor

Das frage ich mich auch. Die Präsentation ist ein verdammt fetter Dämpfer für derren PR und Developer Relations Department. Den Schnitzer kann man gar nicht gross genug einschätzen, da er nicht nur eine vollkommene Kehrwende zeigt was ATIs Sicht auf neue DX Features angeht, sondern auch nur was sie von Entwicklern halten.
Irgendeiner bei ATI dürfte seit heute seinen Job los sein. Das steht mal fest. Die Präsentation hätte so niemals rausgehen dürfen.
Gott sei Dank ist sie es aber :)
Nun werden einige Herren anfangen zu grübeln. Hoffen wir, dass der NV40 sowohl in der Performance wie auch den Features vorn liegen wird. Das ist das beste Heilmittel gegen Arroganz und Großkotzigkeit.

Demirug
2004-03-30, 23:55:57
Für viele Entwickler sind die Vorträge der IHVs oft die einzige Informationsquelle aus denen sie schöpfen. Wenn man sich dann noch stark auf einen fokusiert weil Leute die mit der Technik nicht unbedingt etwas zu tun haben entsprechende Entscheidungen getroffen haben ist die Information noch einseitiger. Ich möchte ehrlich gesagt nicht wissen wie viele auf der GDC waren und dort zum ersten mal etwas von Shadermodel 3 gehört haben.

ATI muss die Möglichkeit einfach nutzen Zweifel im Bezug auf die Verwendbarkeit von SM3 zu streuen. Würden sie das nicht tun hätte der Devsupport als verlängerter arm des Marketings versagt. Was denkt ihr warum ATI ein Konzept mit nur zwei Renderpfaden DX8(vorzugweise PS 1.4) und DX9 (SM2) verkaufen will?

1. Alle mit DX7 Hardware werden ausgespert und müssen sich eine neue Karte kaufen.
2. Bei reinen DX9 Lösungen sehen die nVidia Karten (NV3X)nicht sonderlich gut aus.
3. Ein zusätzlicher DX9 Modus (SM3) würde eine Karte die das nicht beherscht schlecht aussehen lassen.
4. PS 1.4 Lösungen sperren die GF3/GF4TI Karten aus.

nVidia versucht natürlich auch ein Konzept zu verkaufen das für sie günstiger ist.

r@e
2004-03-31, 00:05:53
@Gast

Na ja, ich weiß nicht...

Ich bin der Meinung, dass so etwas einfach nicht passieren darf. So, wie z.Bsp. auch dieses Kyro-Papier damals von nVidia veröffentlicht wurde (welches letztendlich aber eher kaum oder gar nicht 'geschadet' hat)... dass so ein Teil aber auf dem eigenen Server zum public download landet, ist fast schon blanker Hohn.

Razor

P.S.: Nicht, dass ich diese Diskussion und die sich daraus ergebenden Konsequenzen nicht äusserst interessant finde :) aber irgendwie...

Aqualon
2004-03-31, 00:31:46
Nachdem der Thread doch ziemlich spekulativ ist und niemand wirklich weiß, was Richard Huddy mit seinen Notizen zur Präsentation gemeint hat, ist er hier wohl besser aufgehoben.

Hab auch den Titel angepasst.

*move*

Aqua

sun-man
2004-03-31, 00:46:02
....na, der Gast kann nur einer sein:
RICHTHOFEN

Bei der Rivastation hat der gute sich auchmal wieder gemeldet, komischerweise auch da erst dann wieder wenn es darum geht ATI schlecht zu reden.

http://www.rivastation.com/cgi-bin/dcforum99/dcboard.cgi?az=read_count&om=11535&forum=grafik

Sphinx
2004-03-31, 00:50:36
Original geschrieben von Gast
Das frage ich mich auch. Die Präsentation ist ein verdammt fetter Dämpfer für derren PR und Developer Relations Department. Den Schnitzer kann man gar nicht gross genug einschätzen, da er nicht nur eine vollkommene Kehrwende zeigt was ATIs Sicht auf neue DX Features angeht, sondern auch nur was sie von Entwicklern halten.
Irgendeiner bei ATI dürfte seit heute seinen Job los sein. Das steht mal fest. Die Präsentation hätte so niemals rausgehen dürfen.
Gott sei Dank ist sie es aber :)
Nun werden einige Herren anfangen zu grübeln. Hoffen wir, dass der NV40 sowohl in der Performance wie auch den Features vorn liegen wird. Das ist das beste Heilmittel gegen Arroganz und Großkotzigkeit.

^^ Stimmt ~ ersetze hier mal das NV40 gegen R420 - ViseVersa...

Wenn der NV40 nicht das Verspricht was hier alles Spekuliert wurde... Dann komm ich als ReplacementKiller (c)(r) dich besuchen. ,)

Ailuros
2004-03-31, 01:48:32
Bitte korrigieren wenn ich falsch liegen sollte:

Von dem was ich in letzter Zeit lesen konnte, sieht es mir nicht danach aus als ob branching generell eine sehr gute Idee fuer SIMD basierende Architekturen ist, und ich kann mir vorstellen dass Entwickler aeusserst vorsichtig sein werden muessen mit branching generell.

Das hat jetzt nichts mit ATI's PR-Ausreden zu tun; entweder man unterstuetzt eine Funktion/Feature oder eben nicht und ja fuer den Entwickler im gegebenen Fall ist die Leistung im fruehen Entwicklungs-stadium nun auch wieder nicht so wichtig, wenn er ein Spiel fuer 2006/7 zu entwickeln beginnt.

Was ich hier meine ist dass branching durchaus brauchbar sein wird fuer die Entwickler, aber es auch nicht unbedingt die Apokalypse in 3D vorstellt; zumindest nicht mit den heutigen und den next generation Loesungen in 2004.

Ailuros
2004-03-31, 01:56:54
Original geschrieben von Gast
Das frage ich mich auch. Die Präsentation ist ein verdammt fetter Dämpfer für derren PR und Developer Relations Department. Den Schnitzer kann man gar nicht gross genug einschätzen, da er nicht nur eine vollkommene Kehrwende zeigt was ATIs Sicht auf neue DX Features angeht, sondern auch nur was sie von Entwicklern halten.
Irgendeiner bei ATI dürfte seit heute seinen Job los sein. Das steht mal fest. Die Präsentation hätte so niemals rausgehen dürfen.
Gott sei Dank ist sie es aber :)
Nun werden einige Herren anfangen zu grübeln. Hoffen wir, dass der NV40 sowohl in der Performance wie auch den Features vorn liegen wird. Das ist das beste Heilmittel gegen Arroganz und Großkotzigkeit.

Der eine wird mehr Geld verdienen (je nach Resultat/Leistung jeder Loesung) und der andere weniger. Auf jeden Fall gibt es eine Gerechtfertigung fuer beide IHVs fuer was man diesen auch anhaengen koennte. Business is business.

Die Frage die hier verbleibt sind Deine persoenliche Interessen/Anteile an solchen Angelegenheiten und das was sich im fettgedruckten Text nicht unbedingt als Deine eigene Demuetigkeit interpretieren laesst. Ich will hoffen dass Du persoenlich fuer solchen Quatsch von Deiner Lieblingsfirma auch einen fetten Check dafuer bekommst; wenn nicht dann muss ich Dich warnen: in meiner Muttersprache ist der Unterschied zwischen "Leidenschaft" und "Fehler" nur ein Buchstabe ;)

Demirug
2004-03-31, 07:20:11
Original geschrieben von Ailuros
Bitte korrigieren wenn ich falsch liegen sollte:

Von dem was ich in letzter Zeit lesen konnte, sieht es mir nicht danach aus als ob branching generell eine sehr gute Idee fuer SIMD basierende Architekturen ist, und ich kann mir vorstellen dass Entwickler aeusserst vorsichtig sein werden muessen mit branching generell.

Das hat jetzt nichts mit ATI's PR-Ausreden zu tun; entweder man unterstuetzt eine Funktion/Feature oder eben nicht und ja fuer den Entwickler im gegebenen Fall ist die Leistung im fruehen Entwicklungs-stadium nun auch wieder nicht so wichtig, wenn er ein Spiel fuer 2006/7 zu entwickeln beginnt.

Was ich hier meine ist dass branching durchaus brauchbar sein wird fuer die Entwickler, aber es auch nicht unbedingt die Apokalypse in 3D vorstellt; zumindest nicht mit den heutigen und den next generation Loesungen in 2004.

Man muss hier klar zwischen statischem und dynamischem Branching unterscheiden. Beim statischen nehmen alle Einheiten (Pixel) sowieso den gleichen Weg ergo ist SIMD hier kein Problem. Beim dynamischen ist SIMD dann schon eher problematisch. Das schlimmste was aber passieren kann ist das jeder Pixel eines Quads (oder wie gross die Tile auch immer ist) einen anderen Weg einschlägt. In einem solchen Fall muss eben alles durchlaufen werden und die jeweils nicht betroffenen Pixel ausmakiert werden. Bei Grafik haben wir es aber durchaus mit einer gewissen Kontinuität zu tun. Darum ist die Wahrscheinlichkeit das alle Pixel in einem Quad den gleichen Weg gehen werden eigentlich recht hoch. Bei einer guten Branchhardware verliert man daher im Worstcase Fall gegenüber einer Hardware ohne Brabching nichts kann aber in anderen Fällen bei einzelnen Pixel Takte einsparen.

Demirug
2004-03-31, 07:36:04
Original geschrieben von r@e
Und ob sie dann nochmal so etwas, wie den R300 bringen können (wen sollen sie denn dann aufkaufen ;-), darf dann ja zumindest in Frage gestellt werden...

Razor

Beim R500 (falls echtern DX-Next Chip)könnte sich der Intrinsity Deal positive auswirken. Es stellt sich nur die Frage ob es vom Zeitrahmen her noch gepasst hat.

micki
2004-03-31, 08:14:43
Original geschrieben von Demirug
Bei einer guten Branchhardware verliert man daher im Worstcase Fall gegenüber einer Hardware ohne Brabching nichts kann aber in anderen Fällen bei einzelnen Pixel Takte einsparen.

Das hängt doch eigentlich nur von den Bedingungen vom Sprung ab, aber schlechter als ps2.0 sollte es eigentlich nie werden, denn im worstcase würde man alle instructions durchlaufen, das würde aber im ps2.0 doch sowieso passieren. Somit ist ps3.0 eigentlich performance mässig gleichwertig oder schneller, oder gibt es bestimmte Fälle an denen das nicht ist?

(schneller in bezug auf Befehle/Pixel und nicht noch Taktung und weiteren overhead der den Chip an sich langsammer macht.)

MfG
micki

r@w
2004-03-31, 11:47:00
Ich habe mir noch mal ein paar andere Gedanken gemacht...
:D
Original geschrieben von Gast
Das frage ich mich auch. Die Präsentation ist ein verdammt fetter Dämpfer für derren PR und Developer Relations Department. Den Schnitzer kann man gar nicht gross genug einschätzen, da er nicht nur eine vollkommene Kehrwende zeigt was ATIs Sicht auf neue DX Features angeht, sondern auch nur was sie von Entwicklern halten.
Irgendeiner bei ATI dürfte seit heute seinen Job los sein. Das steht mal fest. Die Präsentation hätte so niemals rausgehen dürfen.
Gott sei Dank ist sie es aber :)Ja, denn ATI wirkt dadurch fast zwangsläufig nicht mehr als 'Feature-Killer', bzw. Innovations-Hemmer. Denn wenn der Inhalt dieser kommentierten Präsentation zumindest in einer Hinsicht richtig interpretiert wird, dann heißt das, dass wohl der R500 nicht mehr so weit weg ist und SM3 unterstützen wird (inkl. performantem 'flow control' oder eben Branching).

Das heißt, dass die Entwickler nun ungehemmt mit dem SM3 proggen können, da zum Zeitpunkt des Erscheinens der App/des Games die dafür notwendige Hardware von den 'wichtigen' IHV's vorhanden sein wird.

Und DAS ist doch die eigentlich erfreulichen Nachricht !
(nun ja, nicht unbedingt für ATI ;-)

Razor

r@w
2004-03-31, 11:51:07
Original geschrieben von Demirug
Beim R500 (falls echtern DX-Next Chip)könnte sich der Intrinsity Deal positive auswirken. Es stellt sich nur die Frage ob es vom Zeitrahmen her noch gepasst hat. Mal angenommen, der R500 würde tatsächlich ende diesen, bzw. anfang nächsten Jahres kommen.
Was soll dieser dann mit einem DX-Next-Featureset ?
(welches heute ja eigentlich noch gar nicht vollständig fixiert ist ;-)

Und eine andere Frage, die sich da noch aufdrängt:
Was für eine DX-Basis wird die XBox2 haben... wann wird sie released ?

Fragen über Fragen...
:D

Razor

Winter[Raven]
2004-03-31, 12:09:12
Tja ich habe mich aus dem Thema etwas rausgehalten um zusehn wie ihr drauf Reagiert ;).

Auch wenn ihr sagt die beiden nehmen sich nichts im Bezug auf die PR Masche, so muss ich trotzdem sagen das ATI derzeit viel agressiver, arroganter und penetranter rüberkommt als NV es je in ihrer Geschichte war.

Nur weil sie einen Erfolg mit dem R3xx hatten muss man nicht gleich großkotzig werden.

wie sagte Kosh aus B5 mal so schön: "HOCHMUT KOMMT VOR DEM FALL".

meine 0.02€ ;)

ram
2004-03-31, 12:10:13
Original geschrieben von micki
Das hängt doch eigentlich nur von den Bedingungen vom Sprung ab, aber schlechter als ps2.0 sollte es eigentlich nie werden, denn im worstcase würde man alle instructions durchlaufen, das würde aber im ps2.0 doch sowieso passieren. Somit ist ps3.0 eigentlich performance mässig gleichwertig oder schneller, oder gibt es bestimmte Fälle an denen das nicht ist?

(schneller in bezug auf Befehle/Pixel und nicht noch Taktung und weiteren overhead der den Chip an sich langsammer macht.)

MfG
micki

Es ist IMO durchaus denkbar, dass in Fällen, in denen die Pixels eines Quads andere Zweige nehmen, ein Shader mit dynamischem Branching langsamer ist einer ohne (der dito produziert). Im Extremfall wird nur eines statt vier Pixel pro Takt pro Quad-Pipe verarbeitet.

Bei dyn. Branching sparst du vielleicht Instruktionen, du brauchst aber für jeden Branch eigene Register (gewisse Architekturen mögen das überhaupt nicht ...) und die Compiler können den Code weniger gut auf die Architektur Optimieren. SirEric gab hier (http://www.beyond3d.com/forum/viewtopic.php?t=9985) einige nette Beispiele wo dyn. Branching mächtig auf die Performance drückt.

It's not nearly as simple as saying "if the branch skips 100 instructions, its a performance win". In fact, if the shader has quite a few texture lookups, then the extra GPRs defined in the instructions that you skip can completely kill performance. You could end up with 1/20 the performance (we have internal examples of that), just because the extra GPRs used will not allow for texture latency hiding. Also given that it's pretty much as easy to change a shader as to load a constant, static shaders will always be faster. The main 1st use of dynamic branching will be to reduce the shader count complexity (this is what the GDC papers were pushing with "dynamic lighting"). It will not be a performance advantage at all; quite the opposite. Later, when shaders are almost pure ALU, then there will be a performance advantage (you need 10's of ALU per texture or perhaps 100's, depending on the architecture).

In a GPU, there are many pixels in flight, and you can consider each, or a group of each, to be a thread. When you hit a branch or a texture fetch, you can sleep that thread and go work on another batch of pixels.

Consequently, branch prediction in VPUs is not useful at all. What is much more important is usage of resources per thread. If each thread uses too many resources, then you can't actually put a thread to sleep when a branch or texture fetch is hit, since you've run out of resources to start another thread. Then you have to stall and wait for something. The higher the latency of items you are waiting for, the longer the wait. That then drops your efficiency. You can virtualize resources and move them into local memory, but then you still are hit by the memory latency.

There are numerous resources defined per pixel, but probably the main one is GPR usage. In a branching case, a compiler cannot know which branch will be taken, consequently a thread must be allocated all resources required for both possible branches. Some union of resources can be done, but it's only on simple true/false branches, and can't be used on loops and other constructs. Consequently, if you skip 100 instructions, it looks good. But if those 100 instructions use lots of resources, you might not be able to start a new thread. Then efficiency drops.

As well, most VPUs are SIMD, so if a branch is taken differently for a pixel vs. its neighbors, you again lose on the efficiency side.

Finally, optimizing accross branches is very difficult. In general, it's very suboptimal. That can kill efficiency too.

If enough efficiency is lost because you cannot operate SIMD or cannot be multi-threaded, then you become a simple single threaded single pixel operation. Given that a CPU runs 5~10x faster, then you've just killed your VPU and are much better running purely on the CPU. The main advantage of the VPU is its ability to run multiple things in parallel and maintain high throughput by having lots of different things to do. If you take that away, you lose.

Unabhängig davon sind die Issues aber IMO noch kein Grund, dyn. Branching nicht anzubieten, denn ein PS 3.0-Shader mit dyn. Branching dürfte auf der GPU i.d.R. immer noch schneller sein als auf der CPU. Für Real-time-Apps wie Games ist derzeit vielleicht unpraktikabel, aber für "Offline"-Rendering kann's ein grosser Gewinn sein. Renderman-Shader in PS3.0 zu übersetzen dürfte einiges einfacher sein als wenn man auf P2.X ohne dyn. Branching beschränkt ist.

Ailuros
2004-03-31, 12:22:51
Original geschrieben von r@w
Mal angenommen, der R500 würde tatsächlich ende diesen, bzw. anfang nächsten Jahres kommen.
Was soll dieser dann mit einem DX-Next-Featureset ?
(welches heute ja eigentlich noch gar nicht vollständig fixiert ist ;-)

Und eine andere Frage, die sich da noch aufdrängt:
Was für eine DX-Basis wird die XBox2 haben... wann wird sie released ?

Fragen über Fragen...
:D

Razor

Zu frueh wuerde ICH sagen Razor, und dass fuer beide uebernaechste Generation chips mit einer "5" im Codenamen.

Demirug
2004-03-31, 12:26:52
ram, SirEric spricht hier ganz klar aus der ATI sicht der Dinge. nVidia wird dieses Problem nicht bekommen weil sie eben schon mit CineFX die richtige Grundlage dafür gebaut haben.

Die Textur Latenz die angesprochen wird versteckt nVidia bereits vollständig in der Pipe. Da zudem jede Pipelinestufe an einen eigenen Thread arbeitet kann sich da auch nichts ins Gehege kommen. Der Nachteil ist bekannt man braucht ein grosses Register File.

Ich könnte bei Bedarf auch "Beweisen" wieso nVidia diese Probleme nicht fürchten braucht und ein 3.0 Shader niemals langsamer als der vergleichbare 2.? Shader sein kann. Nur ist mir das jetzt hier zu umständlich weil ich dafür einige Zeichnungen bräuchte.

Ailuros
2004-03-31, 12:31:17
Original geschrieben von Demirug
Man muss hier klar zwischen statischem und dynamischem Branching unterscheiden. Beim statischen nehmen alle Einheiten (Pixel) sowieso den gleichen Weg ergo ist SIMD hier kein Problem. Beim dynamischen ist SIMD dann schon eher problematisch. Das schlimmste was aber passieren kann ist das jeder Pixel eines Quads (oder wie gross die Tile auch immer ist) einen anderen Weg einschlägt. In einem solchen Fall muss eben alles durchlaufen werden und die jeweils nicht betroffenen Pixel ausmakiert werden. Bei Grafik haben wir es aber durchaus mit einer gewissen Kontinuität zu tun. Darum ist die Wahrscheinlichkeit das alle Pixel in einem Quad den gleichen Weg gehen werden eigentlich recht hoch. Bei einer guten Branchhardware verliert man daher im Worstcase Fall gegenüber einer Hardware ohne Brabching nichts kann aber in anderen Fällen bei einzelnen Pixel Takte einsparen.

Haengt aber auch stark vom Entwickler ab und wie vorsichtig er ist mit branching; da muss er wohl selber etwas experimentieren ob seine Shader besser mit dynamischem oder constantem branching eventuell laeuft, oder?

Deine Erklaerung bringt die ganze Angelegenheit dann schon eher auf den Punkt auf den ich eigentlich hinauswollte, nur hab ich eben sehr begrenztes Wissen in diesem Bereich, um es richtig ausdruecken zu koennen.

ram,

Unabhängig davon sind die Issues aber IMO noch kein Grund, dyn. Branching nicht anzubieten, denn ein PS 3.0-Shader mit dyn. Branching dürfte auf der GPU i.d.R. immer noch schneller sein als auf der CPU. Für Real-time-Apps wie Games ist derzeit vielleicht unpraktikabel, aber für "Offline"-Rendering kann's ein grosser Gewinn sein. Renderman-Shader in PS3.0 zu übersetzen dürfte einiges einfacher sein als wenn man auf P2.X ohne dyn. Branching beschränkt ist.

Ohne jeglichen Zweifel; und ja IMHO alles was man von ATI in dem Fall hoert sind marketing-technisch so verdreht um quasi Entschuldigungen zu finden.

Im Grunde sind SM3.0 ja sowieso nur fuer Entwickler wichtig; je frueher diese derartige Funktionalitaeten zur Hand bekommen desto besser.

Demirug
2004-03-31, 12:38:17
Original geschrieben von Ailuros
Haengt aber auch stark vom Entwickler ab und wie vorsichtig er ist mit branching; da muss er wohl selber etwas experimentieren ob seine Shader besser mit dynamischem oder constantem branching eventuell laeuft, oder?

Deine Erklaerung bringt die ganze Angelegenheit dann schon eher auf den Punkt auf den ich eigentlich hinauswollte, nur hab ich eben sehr begrenztes Wissen in diesem Bereich, um es richtig ausdruecken zu koennen.

Da muss man nichts experimentieren. Die Wahl ob statisches oder dynamisches Branvhing benutzt wird ergibt sich eigentlich automatisch. OK man kann natürlich so blöd sein und dynamisches Branching verwenden obwohl statisches ausreicht. Das ist dann aber ein Entwicklerfehler.

Ailuros
2004-03-31, 12:38:23
Original geschrieben von Demirug
ram, SirEric spricht hier ganz klar aus der ATI sicht der Dinge. nVidia wird dieses Problem nicht bekommen weil sie eben schon mit CineFX die richtige Grundlage dafür gebaut haben.

Die Textur Latenz die angesprochen wird versteckt nVidia bereits vollständig in der Pipe. Da zudem jede Pipelinestufe an einen eigenen Thread arbeitet kann sich da auch nichts ins Gehege kommen. Der Nachteil ist bekannt man braucht ein grosses Register File.

Ich könnte bei Bedarf auch "Beweisen" wieso nVidia diese Probleme nicht fürchten braucht und ein 3.0 Shader niemals langsamer als der vergleichbare 2.? Shader sein kann. Nur ist mir das jetzt hier zu umständlich weil ich dafür einige Zeichnungen bräuchte.

Textur Latenz koennte merkwuerdig aber mit VS3.0 aussehen, ueberhaupt wenn ich an moegliche Unterschiede zu den PS3.0 units denke. Klar gibt es klare Vorteile in dem Fall, aber ganz ohne Nachteile sieht mir das Ganze doch nicht aus. Die Frage ist hier nur ob die Vorteile ueberwiegen, oder auch ob die Nachteile im Grund keine groesseren Probleme unter allen Faellen aufbringen koennen.

Demirug
2004-03-31, 12:42:05
Original geschrieben von Ailuros
Textur Latenz koennte merkwuerdig aber mit VS3.0 aussehen, ueberhaupt wenn ich an moegliche Unterschiede zu den PS3.0 units denke. Klar gibt es klare Vorteile in dem Fall, aber ganz ohne Nachteile sieht mir das Ganze doch nicht aus. Die Frage ist hier nur ob die Vorteile ueberwiegen, oder auch ob die Nachteile im Grund keine groesseren Probleme unter allen Faellen aufbringen koennen.

Bei den VS warnt nVidia ja noch etwas wegen der Textur Latenz. Dafür hat man dort dann aufgrund von MIMD keine Probleme wenn unterschiedliche Verticen unterschiedliche Wege einschlagen.

Wie gesagt wenn die Hardware richtig gebaut ist macht Branching auf einer GPU viel weniger Ärger als bei einer CPU. Aufgrund des massiven multithread Einsatzes muss eine GPU bei Sprüngen ja nicht raten wie CPUs.

micki
2004-03-31, 12:45:23
Original geschrieben von Demirug
Ich könnte bei Bedarf auch "Beweisen" wieso nVidia diese Probleme nicht fürchten braucht und ein 3.0 Shader niemals langsamer als der vergleichbare 2.? Shader sein kann. Nur ist mir das jetzt hier zu umständlich weil ich dafür einige Zeichnungen bräuchte.

naja, ist an sich doch selbsterklärend, aber ich dachte dass du gewisse feinheiten weißt wodurch doch noch das gegenteil der fall ist :)

ich versuche mal ne erklärung:
beim ps2.0 muss man jede möglichkeit durchrechnen und 'wählt' am ende die gewünschte lösung aus, bei ps3.0 kann man wählen was berechnet werden soll und rechnet nur das durch, im schlimmsten fall möchte man alles haben und muss genausoviel wie beim ps2.0 rechnen.

andere formulierung: ps3.0 kann stücke vom shader ausführen, ps2.0 muss immer den ganzen berechnen.

es könnte also sein, dass insbesondere bei multimaterial pixelshadern die nv40 einen enormen performance boost bekommt. (z.b. rost-Metal)


gibt es bei conditional jumps probleme mit der pipeline? bzw. hat die nv30/40 ne pipeline mit mehr als 2 instructions?

MfG
micki

[dzp]Viper
2004-03-31, 12:47:53
Original geschrieben von Winter[Raven]
Tja ich habe mich aus dem Thema etwas rausgehalten um zusehn wie ihr drauf Reagiert ;).

Auch wenn ihr sagt die beiden nehmen sich nichts im Bezug auf die PR Masche, so muss ich trotzdem sagen das ATI derzeit viel agressiver, arroganter und penetranter rüberkommt als NV es je in ihrer Geschichte war.

Nur weil sie einen Erfolg mit dem R3xx hatten muss man nicht gleich großkotzig werden.

wie sagte Kosh aus B5 mal so schön: "HOCHMUT KOMMT VOR DEM FALL".

meine 0.02€ ;)


Ich errinnere dich nur ungern an die "anti Kyro" Präsentation von NV...

und deswegen würde ich mit solchen aussagen wie deiner GANZ vorsichtig sein...

Ailuros
2004-03-31, 12:48:23
Original geschrieben von Demirug
Wie gesagt wenn die Hardware richtig gebaut ist macht Branching auf einer GPU viel weniger Ärger als bei einer CPU. Aufgrund des massiven multithread Einsatzes muss eine GPU bei Sprüngen ja nicht raten wie CPUs.


Das ist mir schon klar und ich denke ja momentan gar nicht an CPUs. An das was ich dachte war N-cycli "overhead", das wohl hoffentlich nur fuer kompliziertes Zeug gueltig sein sollte.

Ailuros
2004-03-31, 12:54:42
Original geschrieben von Winter[Raven]
Tja ich habe mich aus dem Thema etwas rausgehalten um zusehn wie ihr drauf Reagiert ;).

Auch wenn ihr sagt die beiden nehmen sich nichts im Bezug auf die PR Masche, so muss ich trotzdem sagen das ATI derzeit viel agressiver, arroganter und penetranter rüberkommt als NV es je in ihrer Geschichte war.

Nur weil sie einen Erfolg mit dem R3xx hatten muss man nicht gleich großkotzig werden.

wie sagte Kosh aus B5 mal so schön: "HOCHMUT KOMMT VOR DEM FALL".

meine 0.02€ ;)

Von der NVIDIA Perspektive gesehen wohl sicher.

Tatsache ist eben nun mal dass NVIDIA mit der NV3x Linie, weniger Grund hatte "arrogant", "agressiv" oder "penetrat" zu sein.

Grosskotzig war NV sowieso immer solange sie alleine auf der Spitze hockten und genau das gleiche galt fuer ihre Hardcore Fans.

Wenn jemand den anderen Demut beibringen moechte, waere ein guter Anfang dafuer selber ein gutes Beispiel zu geben; wofuer ich aber leider nicht sehr viel Hoffnung habe. Weder von der einen Seite, noch von der anderen.

Gast
2004-03-31, 13:09:10
Original geschrieben von Winter[Raven]
Tja ich habe mich aus dem Thema etwas rausgehalten um zusehn wie ihr drauf Reagiert ;).

Auch wenn ihr sagt die beiden nehmen sich nichts im Bezug auf die PR Masche, so muss ich trotzdem sagen das ATI derzeit viel agressiver, arroganter und penetranter rüberkommt als NV es je in ihrer Geschichte war.

Nur weil sie einen Erfolg mit dem R3xx hatten muss man nicht gleich großkotzig werden.

wie sagte Kosh aus B5 mal so schön: "HOCHMUT KOMMT VOR DEM FALL".

meine 0.02€ ;)

Na klar.
Wen interessiert denn schon dieses Präsenation ?
Das sehen doch höchstens ein paar Entwickler und jetzt ein paar "Freaks" (soll nicht abwertend sein) die sich in irgendwelchen Hardware und 3D Foren rumtreiben.

Der normalsterbliche bekommt von dem ganzen Rotz der hier passiert doch gar nix mit.

Gekauft wird die Karte die in Unreal und Ableger, Quake und Ableger, neue Doom und HL2 Engine (wenn sie denn irgendwann mal kommen), 3D Mark und anderen Benchmarks die meissten FPS ausspucken.

Da interessiert es die wenigsten ob das ding jetzt PS/VS 3.0 kann oder nicht. Das einzige was zählt sind die FPS in aktuellen Games.

Kein Mensch protzt damit : hehe ich hab PS/VS 3.0 und du nicht. Es geht bei der Masse nur um den virtuellen Schwanzvergleich und der wird nicht in features gemessen sondern in FPS.

Gast
2004-03-31, 13:12:20
Original geschrieben von Winter[Raven]
Tja ich habe mich aus dem Thema etwas rausgehalten um zusehn wie ihr drauf Reagiert ;).

Auch wenn ihr sagt die beiden nehmen sich nichts im Bezug auf die PR Masche, so muss ich trotzdem sagen das ATI derzeit viel agressiver, arroganter und penetranter rüberkommt als NV es je in ihrer Geschichte war.

Nur weil sie einen Erfolg mit dem R3xx hatten muss man nicht gleich großkotzig werden.

wie sagte Kosh aus B5 mal so schön: "HOCHMUT KOMMT VOR DEM FALL".

meine 0.02€ ;)
Von dir hört man auch keinen einzigen sachlichen Kommentar zum Thema, immer das gleiche ATI-Gebashe.

Zum Thema:

Das geleakte Paper ist absolut "der normale Ton", jeder IHV muss einen Weg einschlagen, den die HW unterstützt. Man kann einfach schon aus wirtschaftlicher Sicht nie von allem das "Beste" haben. iNTEL ist wohl derzeit das Vorzeige-Beispiel schlechthin, bei GPU´s ist die Sache allerdings noch etwas extremer. Insofern ist das Paper absolut nichts neues, Demi ist hier einer der wenigen die selbst bei solchen "News" absolut sachlich bleiben.

Der R500 wird übrigens wohl gänzlich anders aussehen, wie derzeit R300/R350/R360/R420. Die "Stream Processors" werden wohl in Zukunft durch einen "Pool" mit einem großen "Pool-Verteiler" ersetzt. Dieser bestimmt Ablauf, Zulauf und Aufteilung. Es scheint auchso , als ob man ihn durch reine Treiber von 3.0 -> 4.0 upgraden wird können, allerdings ist mir das noch zu spekulativ, aber es wäre vorstellbar, da die Grundarchitektur gleich bleibt, die "Limits" aber wegfallen.

Gast
2004-03-31, 13:31:12
und deswegen würde ich mit solchen aussagen wie deiner GANZ vorsichtig sein...

Ich glaube diese Anti-Kyro Doku war weder an die Dev's noch an irgend jemanden ausser den Anfängern bei NV intern vorgesehn. Deswegen ehe unwichtig.

Kein Mensch protzt damit : hehe ich hab PS/VS 3.0 und du nicht. Es geht bei der Masse nur um den virtuellen Schwanzvergleich und der wird nicht in features gemessen sondern in FPS

na wenn du es sagst .... ;

Ansosten @ (möchtgern)Gäste, lasst mich raten die gäste sind reunion, MadManniMan ?

Exxtreme
2004-03-31, 13:36:15
Original geschrieben von Gast
Ich glaube diese Anti-Kyro Doku war weder an die Dev's noch an irgend jemanden ausser den Anfängern bei NV intern vorgesehn. Deswegen ehe unwichtig.

Die jetzige Präsentation von ATi war auch nicht für Devs oder OEMs gedacht. :)

ow
2004-03-31, 13:50:54
.

ow
2004-03-31, 13:54:43
.

r@w
2004-03-31, 13:56:16
Original geschrieben von Winter[Raven]
wie sagte Kosh aus B5 mal so schön: "HOCHMUT KOMMT VOR DEM FALL".

meine 0.02€ ;) Woll'n wir mal nicht hoffen, oder ?
Schließlich wollen wir ja nicht mehr in die 800€ Region (i.e. 1599,- DM für die gf2u)...
:D

Razor

r@w
2004-03-31, 14:02:17
Original geschrieben von Ailuros
Zu frueh wuerde ICH sagen Razor, und dass fuer beide uebernaechste Generation chips mit einer "5" im Codenamen. Also wenn ich Demirug richtig verstanden habe, dann ist es durchaus möglich, SM4 über SM3 via 'intelligentem' Treiber abzubilden. Aber klar, Du redest hier von einer vollständigen DX-Next-compliance und das würde auch wunderbar in den zeitlichen Rahmen passen.

Einverstanden !
:D

Razor

r@w
2004-03-31, 14:03:09
Aber die Frage natürlich noch offen bleibt:

Wofür SM4 ?
:???:

Razor

Exxtreme
2004-03-31, 14:10:09
Original geschrieben von ow
Ach nein?
Und ich meine gelesen zu haben, dass die fuer irgendeine Entwicklerkonferez war (GDC?)
Ohne die "Kommentare" von R.H. ja. :)

ram
2004-03-31, 14:12:05
Original geschrieben von Demirug
ram, SirEric spricht hier ganz klar aus der ATI sicht der Dinge. nVidia wird dieses Problem nicht bekommen weil sie eben schon mit CineFX die richtige Grundlage dafür gebaut haben.

Die Textur Latenz die angesprochen wird versteckt nVidia bereits vollständig in der Pipe. Da zudem jede Pipelinestufe an einen eigenen Thread arbeitet kann sich da auch nichts ins Gehege kommen. Der Nachteil ist bekannt man braucht ein grosses Register File.

Ich könnte bei Bedarf auch "Beweisen" wieso nVidia diese Probleme nicht fürchten braucht und ein 3.0 Shader niemals langsamer als der vergleichbare 2.? Shader sein kann. Nur ist mir das jetzt hier zu umständlich weil ich dafür einige Zeichnungen bräuchte.

Ja, den Beweis würd mich interessieren. Insbesondere die Entkräftung des Ressourcenreservierungs-Arguments. Ich kann mir vorstellen, das insbesondere autom. generierte 3.0 Shader mit dyn. Branching nicht gerade sparsam mit Registern umgehen.

Corrail
2004-03-31, 14:13:29
Hab ich das jetzt richtig verstanden:

Der R420 unterstützt bei PS (und ev. bei VS) keine Branching und keine FP32. Aber sonst hat er vollen VS/PS 3.0 Support (also Vertex Texture Units, ...)

r@w
2004-03-31, 14:33:27
Original geschrieben von Gast
Da interessiert es die wenigsten ob das ding jetzt PS/VS 3.0 kann oder nicht. Das einzige was zählt sind die FPS in aktuellen Games.Nun ja... FarCry (um jetzt mal ein aktuelles Beispiel zu nennen ;-), besitzt bereits SM3-Support seit dem letzten Patch. Die Quintessence könnte sein, dass zumindest FarCry um einiges schneller auf einem NV40 ist, als auf einem - sonst vielleicht ebenbürtigen - R420. Der DAU wird also sehen: "Boah ! FarCry is ja viiiieeeellll schneller aufn GeForce." und kauft den LowEnd-Mist.

Noch eins, zwei weitere Games und schon hat ATI ein echtes Problem.
Das Ziel dieser 'Präsentation' sollte ja wohl sein, die Entwickler vom SM3-Support abzubringen (hat mit dem Enduser rein gar nichts zu tun), was ja nun gründlich in die Hose gegangen sein dürfte...

Razor

r@w
2004-03-31, 14:36:24
Original geschrieben von Gast
Der R500 wird übrigens wohl gänzlich anders aussehen, wie derzeit R300/R350/R360/R420. Die "Stream Processors" werden wohl in Zukunft durch einen "Pool" mit einem großen "Pool-Verteiler" ersetzt. Dieser bestimmt Ablauf, Zulauf und Aufteilung. Es scheint auchso , als ob man ihn durch reine Treiber von 3.0 -> 4.0 upgraden wird können, allerdings ist mir das noch zu spekulativ, aber es wäre vorstellbar, da die Grundarchitektur gleich bleibt, die "Limits" aber wegfallen. Gleiches wird auch vom NV40 'behauptet'. Klar, es werden andere Begrifflichkeiten benutzt, aber im Prinzip arbeitet schon die NV3x-Generation, wie von Dir beschrieben... vom fehlenden flow-control mal abgesehen...

Razor

P.S.: Klar, dass da was Neues kommen muss, schließlich war ja schon lange klar, dass ATI mit der bestehenden Architektur große Probleme mit SM3 bekommen wird.

r@w
2004-03-31, 14:37:34
Original geschrieben von Exxtreme
Die jetzige Präsentation von ATi war auch nicht für Devs oder OEMs gedacht. :) Nicht für Devs ?
Für wen denn sonst ?
:???:

Razor

r@w
2004-03-31, 14:40:00
Original geschrieben von Exxtreme
Ohne die "Kommentare" von R.H. ja. :) Witzig...
Und die 'Kommentare' sollten nicht dazu dienen, ergänzende Info's zur Präsentation zu 'formen' ?
Ich bitte Dich !

Auch die Kommentare waren direkt (oder meinetwegen auch indirekt) an die Devs gerichtet.

Razor

r@w
2004-03-31, 14:41:12
Original geschrieben von Corrail
Hab ich das jetzt richtig verstanden:

Der R420 unterstützt bei PS (und ev. bei VS) keine Branching und keine FP32. Aber sonst hat er vollen VS/PS 3.0 Support (also Vertex Texture Units, ...)
Und wenn ?
Was würde ihm das bringen ?
:???:

Razor

Gast
2004-03-31, 14:45:30
Original geschrieben von r@w
Nun ja... FarCry (um jetzt mal ein aktuelles Beispiel zu nennen ;-), besitzt bereits SM3-Support seit dem letzten Patch. Die Quintessence könnte sein, dass zumindest FarCry um einiges schneller auf einem NV40 ist, als auf einem - sonst vielleicht ebenbürtigen - R420. Der DAU wird also sehen: "Boah ! FarCry is ja viiiieeeellll schneller aufn GeForce." und kauft den LowEnd-Mist.

Noch eins, zwei weitere Games und schon hat ATI ein echtes Problem.
Das Ziel dieser 'Präsentation' sollte ja wohl sein, die Entwickler vom SM3-Support abzubringen (hat mit dem Enduser rein gar nichts zu tun), was ja nun gründlich in die Hose gegangen sein dürfte...

Razor
Sehe ich nicht ganz so schlimm wie du.
Schliesslich wissen wir nicht wieviel Shader 3.0 sind denn wirklich drin und vor allem um vieviel schneller sich der SM3-Support sich im Endefeckt wirklich auf die Geschwindigkeit auswirkt.

Und wie schnell PS 2.0 / 3.0 auf NVIDIA Hardware läuft muss sich auch erstmal zeigen.

Ich sehe beide IHV´s gleichauf.
In dem einen Benchmark ist der vorn in dem anderen der andere.

Corrail
2004-03-31, 14:51:37
Naja, VS Texture Mapping ist schon ein tolles neues Feature! :-)

ShadowXX
2004-03-31, 14:55:33
Original geschrieben von r@w
Nun ja... FarCry (um jetzt mal ein aktuelles Beispiel zu nennen ;-), besitzt bereits SM3-Support seit dem letzten Patch. Die Quintessence könnte sein, dass zumindest FarCry um einiges schneller auf einem NV40 ist, als auf einem - sonst vielleicht ebenbürtigen - R420. Der DAU wird also sehen: "Boah ! FarCry is ja viiiieeeellll schneller aufn GeForce." und kauft den LowEnd-Mist.

Noch eins, zwei weitere Games und schon hat ATI ein echtes Problem.
Das Ziel dieser 'Präsentation' sollte ja wohl sein, die Entwickler vom SM3-Support abzubringen (hat mit dem Enduser rein gar nichts zu tun), was ja nun gründlich in die Hose gegangen sein dürfte...

Razor

Da könnte man aber auch gegenhalten, das der nv40 durch den PS3.0 support (bei FarCry) gerade eben an den r420 herankommt und ohne gnadenlos langsamer wäre...

Ist natürlich ebenso aus der Luft gegriffen wie deine Aussage, da wir weder den Speed des nv40, noch den des r420 kennen....

Gast
2004-03-31, 15:09:11
Zuerst mal hallo

Mal zuerst, was ich von ATI zu wissen glaube:
Kurz nach der Vorstellung des R300 hat der Chef von ATI die klar gestellt, dass in Zukunft nur ca. alle zwei Jahre mit einer neuen Architektur zu rechnen ist. Und soweit sind wir ja noch nicht. Zweitens haben sie die R400 kurz danach (so um den launch des NV30 herum) eingestellt, und zwar weil die technischen Ziele des R400 zu hoch gesteckt waren. Das R400 Projekt ist darum ins R500 Projekt aufgegangen. Und wird vom ArtX-Team betreut, die uns den R300 geschenkt haben. Der R420 war von Anfang an als einfacherer Ersatz gedacht, um NVidia bis zum R500 Paroli bieten zu können. Also auf ATI's Seite langfristige Planung und bis jetzt konsequente Umsetzung.

Zu NVidia: dort geistern Gerüchte rum, dass es zwei NV40 gibt, einen mit 175 M und einen mit ~210 M Tranistoren, wobei letzterer evt. ein vorgezogener NV45 ist. Tja, mich erinnert das an das NV30 Debakel, als NV nur wenige Monaten nach der Einführung den NV35 nachgelegt hat. Wenn man Gerüchten glaubt, und wir sind ja hier im Speku-Forum, dann war die 1. Version des NV40 dem R420 nicht ebenbürtig, so dass sie eine zweite nachgelegt haben. Und meiner Meinung nach gilt für eine Entwicklung: "You can't cut corners without scruing up the design".

Und was die Leistung angelangt, fps und Bildqualität ist alles was zählt. NVidias Architektur ist ja im Prinzip schon jetzt flexibler und raffinierter als die von ATI, doch was nützt's wenn man einen super ausgefeilten eleganten Code auf einer Graka laufen lassen kann und dann 5 fps hat. Für professionelle Renderer ganz klar die Bessere Lösung, aber ich bein leider kein solcher, sondern spiele nur sehr gerne.

Ich für meinen Geschmack warte auf den R500 zu Weihnachten :-)

Gruss Martin

P.S. Sorry für die lange Post

reunion
2004-03-31, 15:35:13
Original geschrieben von Gast
Ansosten @ (möchtgern)Gäste, lasst mich raten die gäste sind reunion, MadManniMan ?

Ich poste nie(!) als Gast!
Was man von dir ja anscheinend nicht behaupten kann...

Aqualon
2004-03-31, 15:39:26
Leute, hier gehts um die ATI-Präsentation und die Folgen und nicht darum, wer wann als Gast postet oder nicht. Also bleibt bitte beim Thema.

Aqua

ShadowXX
2004-03-31, 15:41:22
Btw. hat CryTek letztens nicht ATI HW für die Vorführungen benutzt???

Ailuros
2004-03-31, 16:03:23
Original geschrieben von r@w
Also wenn ich Demirug richtig verstanden habe, dann ist es durchaus möglich, SM4 über SM3 via 'intelligentem' Treiber abzubilden. Aber klar, Du redest hier von einer vollständigen DX-Next-compliance und das würde auch wunderbar in den zeitlichen Rahmen passen.

Einverstanden !
:D

Razor

Vollstaendige Komplianz dann im besten Fall aber nur fuer das "Einsteiger-Nivaeu" von DX-Next, genauso wie PS/VS2.0 fuer DX9.0. Dabei wurde DX9.0 wann veroeffentlicht und wir bekommen "vollstaendige" DX9.0 Komplianz jetzt erst im H1 2004.

Nachtrag:

Zur Frage wieso SM4.0:

Zu was braucht man ueberhaupt einen "unified grid"? Im ganz einfachen Sinn so wie ich es verstanden habe, eins der Gruende ist dass es mit unified grids besser mit sehr langen und sehr kurzen Shader zur gleichen Zeit umgehen kann. Das mit dem Treiber-Ding sitzt mir deshalb ein wenig merkwuerdig bei einem SM3.0 chip.

SM4.0 gewinnt sonst im Grund nicht sehr an Wichtigkeit gegenueber 3.0. Aber die wichtigen Aspekte von DX-Next liegen ja ueberhaupt nicht in den Shadern IMHO, sondern eher im neuen I/O Modell, Tesselation, Topology usw.

Demirug
2004-03-31, 16:49:01
Original geschrieben von Ailuros
Zu was braucht man ueberhaupt einen "unified grid"? Im ganz einfachen Sinn so wie ich es verstanden habe, eins der Gruende ist dass es mit unified grids besser mit sehr langen und sehr kurzen Shader zur gleichen Zeit umgehen kann. Das mit dem Treiber-Ding sitzt mir deshalb ein wenig merkwuerdig bei einem SM3.0 chip.

Ein Vektor Grid in der Hardware dient lediglich dazu die Effizienz zu steigern. Bisher ist es ja so das sich PS und VS gegenseitig leicht blockieren können. Bei einem Grid schiebt man die gesamte Rechenleistung immer dorthin wo man sie eben braucht.

Ob ein SM3 Chip aleine durch den Treiber zu einem SM4 Chip werden kann hängt auch noch davon ab was alles als zusätzliche Vorraussetzung erbracht werden muss damit man SM4 melden kann.

SM4.0 gewinnt sonst im Grund nicht sehr an Wichtigkeit gegenueber 3.0. Aber die wichtigen Aspekte von DX-Next liegen ja ueberhaupt nicht in den Shadern IMHO, sondern eher im neuen I/O Modell, Tesselation, Topology usw.

Genau.

r@e
2004-03-31, 19:03:27
Original geschrieben von Gast
Sehe ich nicht ganz so schlimm wie du.
Schliesslich wissen wir nicht wieviel Shader 3.0 sind denn wirklich drin und vor allem um vieviel schneller sich der SM3-Support sich im Endefeckt wirklich auf die Geschwindigkeit auswirkt.Wenn sich das, jetzt hypothetisch betrachtet, gar nicht (oder nur wenig) auswirken sollte, warum dann überhaupt der SM3-Support ?

Und wenn Du Dir die Frontseite mal angeschaut hast, dann besteht zumindest die Möglichkeit, dass selbst bei Prä-SM3-Techniken mit der SM3-Hardware so einiges via Treiber 'eingespart' werden kann.

Aber klar, wir werden sehen...
Original geschrieben von Gast
Und wie schnell PS 2.0 / 3.0 auf NVIDIA Hardware läuft muss sich auch erstmal zeigen.Wie auch beim R420... ja.
Original geschrieben von Gast
Ich sehe beide IHV´s gleichauf.
In dem einen Benchmark ist der vorn in dem anderen der andere. Aufgrund welcher Basis ?
:???:

Razor

r@e
2004-03-31, 19:06:39
Original geschrieben von ShadowXX
Da könnte man aber auch gegenhalten, das der nv40 durch den PS3.0 support (bei FarCry) gerade eben an den r420 herankommt und ohne gnadenlos langsamer wäre...Das würde sich dann ja bei (allen) anderen Anwendungen zeigen und würde dann IMO auch keinen Sinn mehr machen...

Deswegen ja auch die logischen Folgeschritte, ohne die ein gesamtwertung niemals zustande kommen würde.
Original geschrieben von ShadowXX
Ist natürlich ebenso aus der Luft gegriffen wie deine Aussage, da wir weder den Speed des nv40, noch den des r420 kennen.... Klaro.
Aber seit langer zeit könnte (!) es mal wieder so sein, dass neue Technologien auch ohne direkten Engine-Support zum Vorteil gereichen könnte.

Es bleibt spannend !
:D

Razor

r@e
2004-03-31, 19:13:42
Original geschrieben von Ailuros
Zur Frage wieso SM4.0:Sorry, vielleicht ist das ja falsch angekommen, aber eigentlich meinte ich:

Wozu SM4 ohne DX-Next ?
:???:

Razor

Gast
2004-03-31, 22:55:34
Original geschrieben von r@e
Aber klar, wir werden sehen...
Wie auch beim R420... ja.
Aufgrund welcher Basis ?
:???:

Razor
Aufgrund der gleichen Basis weswegen du hier schreibst.
Spekulation

tokugawa
2004-04-01, 05:53:57
Original geschrieben von Gast
Und wird vom ArtX-Team betreut, die uns den R300 geschenkt haben.


"Geschenkt"? Ich weiß nicht wie's bei dir war, aber ich hab mir meine Radeon 9500 Pro schon GEKAUFT. Wär schön gewesen wenn ich die _geschenkt_ bekommen hätte...

:bäh:

r@w
2004-04-01, 09:25:16
Original geschrieben von Gast
Aufgrund der gleichen Basis weswegen du hier schreibst.
Spekulation Und wo gibt es Performance-Prognosen der beiden Chips ?
Man sollte klar zwischen 'Spekulation', 'Wunschdenken' und 'Phantasie' unterscheiden, gell ?
:D

Razor

mapel110
2004-04-01, 09:32:48
Original geschrieben von r@w
Man sollte klar zwischen 'Spekulation', 'Wunschdenken' und 'Phantasie' unterscheiden, gell ?
:D

Razor

hm, wirklich?! dann sollten wir inquirer links hier verbieten.

r@w
2004-04-01, 15:58:25
Original geschrieben von mapel110
hm, wirklich?! dann sollten wir inquirer links hier verbieten. Na, DAS wäre doch mal 'ne Maßnahme !
:D

Razor

Gast
2004-04-02, 00:12:39
Hallo,

läßst sich mit den Infos aus den Slides schon ein Pre-Urteil bilden, ob der 'bruteforce' R420 in DirectX *9* doch schneller sein wird als der 'kann-alles aber langsamer' NV40 ?

Demirug
2004-04-02, 07:02:55
Original geschrieben von Gast
Hallo,

läßst sich mit den Infos aus den Slides schon ein Pre-Urteil bilden, ob der 'bruteforce' R420 in DirectX *9* doch schneller sein wird als der 'kann-alles aber langsamer' NV40 ?

Eher nicht. Auf die Performance geht man dort nicht ein.

Gast
2004-04-07, 14:04:32
Original geschrieben von Gast
ABER, anscheinend ist der PS3.0 - support nur marginal, da das Branching entweder gar nicht oder nur eingeschränkt funktioniert.Ohne Branching kein 3.0. Entweder hat man 3.0-Support, oder nicht (dann eben 2.X. Aber das 2.X vom R420 kann weniger, als das 2.X vom NV30.)

aths
2004-04-07, 14:05:02
Das war ich.

aths
2004-04-07, 14:14:07
Original geschrieben von r@w
Aber die Frage natürlich noch offen bleibt:

Wofür SM4 ?
:???:

Razor Wenn du mit dem Plenken aufhören, und nicht so mit großen Fontgrößen rumschreien würdest, würde ich wahrscheinlich auf solche Fragen antworten X-D

Original geschrieben von Winter[Raven]
Tja ich habe mich aus dem Thema etwas rausgehalten um zusehn wie ihr drauf Reagiert ;).

Auch wenn ihr sagt die beiden nehmen sich nichts im Bezug auf die PR Masche, so muss ich trotzdem sagen das ATI derzeit viel agressiver, arroganter und penetranter rüberkommt als NV es je in ihrer Geschichte war.

Nur weil sie einen Erfolg mit dem R3xx hatten muss man nicht gleich großkotzig werden.

wie sagte Kosh aus B5 mal so schön: "HOCHMUT KOMMT VOR DEM FALL".Die bei ATI sind sicher nicht die 'good guys', aber aggressiv, arrogant und penetrant war, ist, und bleibt NVs Marketingmaschinerie auch. Imo werden sie da von ATI nicht überboten.

aths
2004-04-07, 14:17:27
Original geschrieben von Stefan Payne
Bedeutet das, das ATI Gamma 2.2 nutzt, bei der Gammakorrektur?? :|sRGB nutzt Gamma 2.2, und ATIs 'gammakorrektes' MSAA-Downfiltering ebenfalls. Deshalb ist es ja eben nicht wirklich gammakorrekt (bzw. nur für 2.2.´)

aths
2004-04-07, 14:21:46
Original geschrieben von Demirug
Ein Vektor Grid in der Hardware dient lediglich dazu die Effizienz zu steigern. Bisher ist es ja so das sich PS und VS gegenseitig leicht blockieren können. Bei einem Grid schiebt man die gesamte Rechenleistung immer dorthin wo man sie eben braucht.Und wie gut man skalieren könnet: SM 4.0 mit einer einzigen ALU X-D.

ow
2004-04-07, 15:51:06
.

Gast
2004-04-07, 19:33:42
Original geschrieben von aths
Die bei ATI sind sicher nicht die 'good guys', aber aggressiv, arrogant und penetrant war, ist, und bleibt NVs Marketingmaschinerie auch. Imo werden sie da von ATI nicht überboten.

Darum gehts auch gar nicht. Es geht darum, dass ATI kein Stück besser ist, was aber hier von sehr vielen Leuten so behauptet wurde oder indirekt impliziert wurde.

Nvidia hat eine Kyro2 Präsentation mal gebracht. Diese war für interne Sales Force bestimmt. Das Geschrei war riesen gross.

ATI bringt innerhalb kürzester Zeit 2 Präsentationen raus, die Gehirnwäsche für Entwickler sind.
Auf der einen schreiben sie "develop benchmarks in ATI's favor"
auf der 2. schreiben sie "nutzt bloß nicht PS3.0 oder branching" weil wir es nicht haben. Letzteres umschreiben sie natürlich.

Und jetzt setzen sie kleine Partner unter Druck, bloß keine XGI GPUs einzusetzen, weil sie sonst Ärger bekommen. Genau das hatNvidia auch schon gemacht. Das Geschrei war wie immer riesen gross und was ist jetzt? Keiner der Leute die damals geschrieen haben will etwas davon wissen.

Sehr interessant. ATI ist genauso ein Assi-Laden und Drecksverein wie Nvidia auch. Nicht ein bisschen besser.

ShadowXX
2004-04-07, 21:29:17
nV und ATI wollen beide unser bestes.......unser Geld.

Klar sind beide PR-Maschinen und was es sa sonst noch so gibt gleichermassen "Bad Guys".

Wer das nicht sieht oder sehen will ist IMO Blauäugig...

LovesuckZ
2004-04-07, 21:36:13
Original geschrieben von ShadowXX
Wer das nicht sieht oder sehen will ist IMO Blauäugig...

Das ist falsch.
Macht etwas Nvidia (Brilinear -> zich Artikel, "Radeon 9200 sei die bessere DX9 Karte" -> nichts).
Das ganze hat nichts mehr mit "Blauäugigkeit" zu tun, sondern mit "nicht sehen".
Nunja, irgendwann wird dann wohl mal gegen ATi gewettert, spästesten wenn sie wieder langsamer sind...

ShadowXX
2004-04-07, 21:42:13
Original geschrieben von LovesuckZ
Das ist falsch.
Macht etwas Nvidia (Brilinear -> zich Artikel, "Radeon 9200 sei die bessere DX9 Karte" -> nichts).
Das ganze hat nichts mehr mit "Blauäugigkeit" zu tun, sondern mit "nicht sehen".
Nunja, irgendwann wird dann wohl mal gegen ATi gewettert, spästesten wenn sie wieder langsamer sind...

?? ich hatte geschrieben "wer das nicht sieht oder sehen will"....das impliziert doch das von dir geschriebene...

Ich wollte nur nicht über das Wort "Blauäugig" hinausgehen...klar, das hätte man auch krasser formulieren können...

Und es war definitiv auf beide bezogen....keine bevorzugung/benachteiligung für irgendeinen IHV.

Exxtreme
2004-04-07, 22:58:15
Original geschrieben von Gast
ATI bringt innerhalb kürzester Zeit 2 Präsentationen raus, die Gehirnwäsche für Entwickler sind.
Auf der einen schreiben sie "develop benchmarks in ATI's favor"
auf der 2. schreiben sie "nutzt bloß nicht PS3.0 oder branching" weil wir es nicht haben. Letzteres umschreiben sie natürlich.

Ach komm. Die PPT-Folien mit Gehirnwäsche zu vergleichen ist IMHO nicht wirklich angemessen.
Original geschrieben von Gast
Und jetzt setzen sie kleine Partner unter Druck, bloß keine XGI GPUs einzusetzen, weil sie sonst Ärger bekommen. Genau das hatNvidia auch schon gemacht. Das Geschrei war wie immer riesen gross und was ist jetzt? Keiner der Leute die damals geschrieen haben will etwas davon wissen.

Hmmm, diese Präsentation, daß kleine Anbieter keine XGI-Chips verbauen sollen, ist mir gänzlich unbekannt. Hast du vlt. eine URL zum Downloaden?

Demirug
2004-04-07, 23:05:07
Original geschrieben von Exxtreme
Ach komm. Die PPT-Folien mit Gehirnwäsche zu vergleichen ist IMHO nicht wirklich angemessen.

Warum nicht? Genau das versuchen die IHVs doch auf diesen Entwicklerkonferenzen. nVidia ist da aber auch nicht besser. Ich erinnere mich da noch an: "Nein, auf nicht T&L Karten brauchen sie keine Rücksicht mehr zu nehmen in 12 Monaten hat keiner mehr sowas." Das ganze ist schon einige Jahre her und nach diesen 12 Monaten hatten immer noch genügend Leute keine T&L Karte. Die IHVs versuchen den Entwickler das einzureden was für ihr eigenes Geschäft gut ist.

Exxtreme
2004-04-07, 23:26:47
Original geschrieben von Demirug
Warum nicht? Genau das versuchen die IHVs doch auf diesen Entwicklerkonferenzen. nVidia ist da aber auch nicht besser. Ich erinnere mich da noch an: "Nein, auf nicht T&L Karten brauchen sie keine Rücksicht mehr zu nehmen in 12 Monaten hat keiner mehr sowas." Das ganze ist schon einige Jahre her und nach diesen 12 Monaten hatten immer noch genügend Leute keine T&L Karte. Die IHVs versuchen den Entwickler das einzureden was für ihr eigenes Geschäft gut ist.
Natürlich. Das läuft aber IMHO eher unter Marketing. Bei Gehirnwäsche stelle ich mir... ähhm, drastischere Maßnahmen vor. :naughty: X-D

Gast
2004-04-07, 23:49:11
Original geschrieben von Exxtreme
Natürlich. Das läuft aber IMHO eher unter Marketing. Bei Gehirnwäsche stelle ich mir... ähhm, drastischere Maßnahmen vor. :naughty: X-D

Also wenn etwas bewusst nicht genutzt werden soll oder schwachsinniger Weise jeder Pfurz-Shader in jedem Fall ein PS2.0 mit maxialer Präzision sein soll auch wenn es überhaupt nichts bringt, dann läuft das für mich nicht mehr unter Marketing. Das ist bewusste Gehirnwäsche die nur dem eigenen Vorteil dient und niemandem sonst.

Zu der Sache mit XGI gehst lieber ins Beyond3d Forum. Hellbinder ist da auch schon voll dabei.

Exxtreme
2004-04-07, 23:53:38
Original geschrieben von Gast
Also wenn etwas bewusst nicht genutzt werden soll oder schwachsinniger Weise jeder Pfurz-Shader in jedem Fall ein PS2.0 mit maxialer Präzision sein soll auch wenn es überhaupt nichts bringt, dann läuft das für mich nicht mehr unter Marketing. Das ist bewusste Gehirnwäsche die nur dem eigenen Vorteil dient und niemandem sonst.

Kein Kommentar. :D
Original geschrieben von Gast
Zu der Sache mit XGI gehst lieber ins Beyond3d Forum. Hellbinder ist da auch schon voll dabei.
http://www.theinquirer.net/?article=15180

INQ und auch noch :cop: FUAD :cop: :eyes:

aths
2004-04-08, 10:12:25
Original geschrieben von ow
Letzteres wird sich mit dem Launch des R420 zeigen. Allem Anschein nach hat ATi ja technisch wirklich nix neues zu bieten. Also muss es das Marketing rausreissen wenn der R420 erfogreich werden soll. Ohne viel neue Technik kann man durchaus einen Zyklus (und länger) durchkommen. Falls der R500 gut wird und rechtzeitig kommt, sehe ich für ATI kein wirkliches Problem.

Quasar
2004-04-08, 11:43:38
Original geschrieben von Exxtreme
Hmmm, diese Präsentation, daß kleine Anbieter keine XGI-Chips verbauen sollen, ist mir gänzlich unbekannt. Hast du vlt. eine URL zum Downloaden?

Wir hatten mal eine News auf CB bezgl. der ABit-Volaris.... Nun frag' mich mal, warum die leider wieder offline ist.

tokugawa
2004-04-08, 20:16:44
Original geschrieben von ShadowXX
nV und ATI wollen beide unser bestes.......unser Geld.

Klar sind beide PR-Maschinen und was es sa sonst noch so gibt gleichermassen "Bad Guys".

Wer das nicht sieht oder sehen will ist IMO Blauäugig...


Dabei muß man allerdings sehen, dass das Marketing bei beiden getrennte Abteilungen sind.

Die "technischeren" Abteilungen, also Development, Architecture usw., sind meistens eh nicht sehr einverstanden mit dem was die Marketingabteilung produziert. Die sind nur am technischen Fortschritt interessiert. Man merkt auch, dass definitiv ein anderer Ton herrscht, wenn es um Präsentationen geht, wo die PR/Marketing-Abteilung nicht reingefunkt hat. Manche NV Papers zeigen das sehr deutlich, etwa beim ARB VBO Paper hat man z.B. sehr klar auch gesagt, was nicht gut läuft (auf NV's OpenGL Implementation bezogen), und wie man Dinge besser machen sollte, also wirklich im Interesse der Entwickler. Ich bin mir sicher dass auch viele ATI Developer Papers einen ähnlichen, neutralen, nicht-PR-verwaschenen Ton haben - ich kenn leider nur meistens NVIDIA Papers (die ich als neutraler Beobachter - ich besitze sowohl aktuelle NV als auch ATI Karten - schon loben muß).