PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R420 / RV420 - Wie sieht es mit den Specs aus?


Seiten : [1] 2

Rampage 2
2003-10-24, 17:19:37
Hi Leute,

So langsam habe ich die Nase voll von dem ganzen Gelaber über die R3xx/NV3x Serie. Ich bin jetzt nur noch auf die NextGen-Grafikchips R4xx/NV4x fixiert. Und ich hab auch ein bisschen über die Specs nachgedacht. Viele sind mittlerweile gelangweilt von meinen unrealistischen Postings/Spekulationen. Aber dieses Mal habe ich versucht realistisch zu sein. Ich habe mir dabei folgendes bedacht:

1.) ATI muss natürlich dafür sorgen, dass der R420 mindestens so schnell wie der NV40 sein muss. Gerüchten zufolge soll der NV40 über 51.2GB/s. Speicherbandbreite verfügen. Da müsste ATI dann auch mindestens 45GB+/s. Bandbreite zur Verfügung haben um gleichziehen zu können (effektiver Einsatz der Speicherbandbreite vorausgesetzt)
2.) Gerüchten zufolge wird der NV40 in 0.09um Architektur produziert und soll angeblich Q1-Q2 2004 in den Handel kommen wenn die Gerüchte stimmen. Dann wäre es schon über 1.5 Jahre (also 18 Monate) seit dem R300-Release. Laut Moores Gesetz verdoppelt sich die Anzahl der Transistoren alle 18 Monate. NV30 und R300 haben über 100 Mio. Transistoren. Nach Moores Gesetz könnten R420 und NV40 200-250 Mio. Transistoren verfügen.
3.) Mit 0.09um Architektur sind deutlich höhere Taktraten möglich. Die 9800XT und die 5950Ultra sind durchaus fähig bis zu 500MHz Chiptakt. Bei kleineren Leitern wären dann
50% höhere Taktraten durchaus möglich (finde ich) - also 750MHz (okay, sagen wir das wäre der Optimalfall).
4.) Selbiges gilt für den Speichertakt. Wenn man mit DDR1 schon auf durchschnittlich 450MHz kommen kann, dann sollte mit DDR2/GDDR3 bei entsprechender Architektur ebenfalls 750MHz zu erreichen sein.
5.) NextGen-Chips müssen mindestens doppelt bis dreifach so schnell sein wie die Vorgängerchips (9700) (beschränkt man sich hierbei auf hohe AA/AF-Stufen bei hohen Auflösungen) um attraktiv zu sein. Dazu muss auch entsprechend Füllrate,Bandbreite und Vertex Output vorhanden sein.

R4xx: (ATI Radeon 9900Pro ?)

- 200-250 Mio. Transistoren in 0.09um Architektur
- 8x2 Architektur - vollständig trilineare TMU's
- 256Bit Speicherinterface
- 8 Vertex Shader Units
- PS/VS 3.0, OpenGL 2.0
- HyperZ 4
- Smartshader 3.0
- Smoothvision 3.0 (höhere AA/AF-Modes*)
- Videoshader 3.0
- Truform 3.0 (endlich wieder in Hardware)

- 750MHz Chiptakt
- 1500MHz GDDR3 Speichertakt

Speicherausbau: 256MB

Daraus resultierende Leistung:

- 6 Gigapixel/12 Gigatexel Füllrate
- 48 GB/s. Speicherbandbreite
- 1.5 Gigatriangles Vertex Output

RV4xx: (ATI Radeon 9750Pro ?)

- 100 Mio. Transistoren in 0.09um Architektur
- 4x2 Architektur - vollständig trilinear
- 128Bit Speicherinterface
- 2 Vertex Shader Units
- PS/VS 3.0, OpenGL 2.0
- HyperZ 4
- Smartshader 3.0
- Smoothvision 3.0 (höhere AA/AF-Modes*)
- Videoshader 3.0
- Truform 3.0

- 800MHz Chiptakt
- 1200MHz GDDR3 Speichertakt

Daraus resultierende Leistung:

- 3.2 Gigapixel/6.4 Gigatexel/sec. Füllrate
- 19.2 GB/s. Speicherbandbreite
- 400 Megatriangles Vertex Output

Speicherausbau: 128-256MB

* = 8xRGMS AA mit Gamma-Korrektur, 32x oder 64x AF

DrumDub
2003-10-24, 17:27:23
sorry, aber das meiste ist wunschdenken deinerseits, rampage 2.

Börk
2003-10-24, 17:45:26
R4xx: (ATI Radeon 9900Pro ?)

- 200-250 Mio. Transistoren in 0.09um Architektur
Garantiert kein 0.09µ, soweit ist man noch lange nicht, zumindest bei derart komplexen Chips, und vorher kommt auch erst mal 0.11
200 Mio klingt aber recht realistisch...
- 8x2 Architektur - vollständig trilineare TMU's
Also ich denke entweder 8x1 tri oder 8x2 Bi, tendiere aber zu ersterem. Oder aber 12x1 Bi
- 256Bit Speicherinterface
klar...
- 8 Vertex Shader Units
Wozu? Der Polycount ist nicht das Problem heutiger Grakas
- PS/VS 3.0, OpenGL 2.0
mal sehen
- HyperZ 4
Ja, aber obs so viel mehr bringt als HZ 3 weiss niemand
- Smartshader 3.0
Logo
- Smoothvision 3.0 (höhere AA/AF-Modes*)
8xRGMS wäre schon recht nett, aber lieber nen besseres Grid. Oder vielleicht endlich mal SS für die lieben Alphatexturen.
Beim AF bitte erst mal schönes 16x anstatt 32x oder 64x.
- Videoshader 3.0
izmir wurscht ;)
- Truform 3.0 (endlich wieder in Hardware)
Wenn´s nicht allzu viele Transis kostet wär´s nett...

- 750MHz Chiptakt
- 1500MHz GDDR3 Speichertakt
Speicherausbau: 256MB
Mal sehen was so alles geht. Wobei ich halte 600/600 für realistischer, man muss ja auch Spielraum offen lassen...


RV4xx: (ATI Radeon 9750Pro ?)
Dementsprechend halbiert, dafür aber mit schnellerem Chiptakt und ungefähr gleich schnelle Speicher. Oder aber auch mit 256Bit, dafür dann DDR1...

Höhnangst
2003-10-24, 17:55:24
Original geschrieben von Rampage 2
R4xx: (ATI Radeon 9900Pro ?)
Glaub nicht, dass die Karte noch zur 9xxx-Serie zählen wird. ;)


Original geschrieben von Rampage 2
- 200-250 Mio. Transistoren in 0.09um Architektur
Glaub nicht, dass nV oder ATi mit der nächsten Generation schon auf 0.09µm umsteigen werden. Ich denke, beide werden vorerst noch den 0.13er-Prozess weiterverwenden, wobei nV in der Hinsicht einen kleinen Vorsprung hat bzw. haben müsste. Außerdem gehe ich eher von 140 bis 170 Mio. Transistoren aus.


Original geschrieben von Rampage 2
- 8x2 Architektur - vollständig trilineare TMU's
Wäre durchaus denkbar. Kann mir aber auch vorstellen, dass die Struktur auf 12x1 oder sogar 16x1 geändert wird. Demirug hatte, glaub ich, sogar mal nen ganz anderen Aufbau in Betracht gezogen, also keine feste Pipe-Struktur mehr (?).


Original geschrieben von Rampage 2
- 256Bit Speicherinterface
Ja, würde auch sagen, dass uns das Interface noch eine Zeit lang erhalten bleibt.


Original geschrieben von Rampage 2
- 8 Vertex Shader Units
Bin mir unsicher, ob die wirklich 8 Stück verbauen werden. Vielleicht nur 6 oder es bleibt eben bei 4.


Original geschrieben von Rampage 2
- PS/VS 3.0, OpenGL 2.0
OpenGL 2.0 wohl ja, aber bei den PS und VS wäre ich mir nicht so sicher. Geht vielleicht eher in Richtung 2.X. DX 9 hat doch sowieso nur Shader der Version 2.X, oder? Da würde 3.0 keinen rechten Sinn machen, vor allem wo DX 10 IMHO erst 2005 kommen wird.


Original geschrieben von Rampage 2
- HyperZ 4
Nach 3 kommt logischerweise 4, also richtig. :D


Original geschrieben von Rampage 2
- Smartshader 3.0
Ist das nicht ein Marketing-Ausdruck? Falls nein, was soll das sein?

Ansonsten: Nach 2 kommt 3, also wohl korrekt.


Original geschrieben von Rampage 2
- Smoothvision 3.0 (höhere AA/AF-Modes*)
[...]
* = 8xRGMS AA mit Gamma-Korrektur, 32x oder 64x AF
8-faches (RGMS)AA finde ich auch realistisch, allerdings nicht die AF-Stufe. Ich denke, da bleibt's bei 16-fach. Ich wünsche mir jedoch, dass der Benutzer entscheiden darf, wie gefiltert wird, also entweder adaptiv/optimiert/angepasst (wie auch immer) oder z.B. alles komplett 16-fach + trilinear.


Original geschrieben von Rampage 2
- Videoshader 3.0
(siehe Smartshader 3.0)


Original geschrieben von Rampage 2
- Truform 3.0 (endlich wieder in Hardware)
Halte ich für sehr unwahrscheinlich.


Original geschrieben von Rampage 2
- 750MHz Chiptakt
- 1500MHz GDDR3 Speichertakt
Eher nicht. 500 bis 600MHz (evtl. 650) bei Chip und Speicher ist eher wahrscheinlich.


Original geschrieben von Rampage 2
Speicherausbau: 256MB
Ja, meine ich auch.

ow
2003-10-24, 18:29:33
.

Höhnangst
2003-10-24, 18:57:49
Oh, sehr gut, Danke.
Dann könnten die neuen Karten ja doch schon PS/VS der Version 3.0 unterstützen. (von der Praxisrelevanz mal abgesehen)

duckofdeath
2003-10-24, 19:00:52
ich glaub auch eher an 0,13µ (höchstens 0,11µ, das entspricht aber glaub ich wunschdenken *G*)! warum sollte ati denn schon auf 0,11 oder gar 0,09 umschwenken wenn sie noch nichtmal den 0,13er für highend benutz haben ganz davon abgesehen ausgereizt!
sollten sie den 0,13er dermaßen optimieren können (in zukunft) wie den 0,15er dann sollten 700mhz imho (für refreshes) locker drinnen sein.
Aber jetz wieder zum thema:

R4XX (Radeon 9900pro)
600/600 schaut mal gut aus für mich! 12-16 pipes glaub ich eher als 8x2 weil das nur respektive bei älteren multitexturing spielen und bei anisotrophen filter (wenn jede tmu eine filtereinheit hat) was bringen mag
hat es nicht mal wo geheißen ati's next gereration graphics processor has a few million transistors? das würde mich auf 200mio+ bringen
Low-k ?! (schätz ich mal zwangsweiße)
256bit speicherinterface

RV4XX (radeon 9700 XT ;D )
100+mio transistoren, 0,13µ @750/a/b
a)256bit speicherinterface mit 350-400mhz
b)128bit speicherinterface mit 500-600mhz

originally posted by Höhnangst
Glaub nicht, dass die Karte noch zur 9xxx-Serie zählen wird.
sicher nicht ;D wozu wäre dann die 9800XT nicht zur 9900er geworden

betasilie
2003-10-24, 19:08:52
Original geschrieben von burk23
- Truform 3.0 (endlich wieder in Hardware)
Wenn´s nicht allzu viele Transis kostet wär´s nett...

Wenn VS3.0 implementiert werden, könnte vielleicht Truform for free sein.

ow
2003-10-24, 19:16:54
.

Meta
2003-10-24, 19:18:00
"Laut Moores Gesetz verdoppelt sich die Anzahl der Transistoren alle 18 Monate."

Soweit ich das mitbekommen habe, hat der gute Mann das für CPUS gedacht, nicht für Grafikchips. Ich halte 200 Mio für realistisch.

Meta

ow
2003-10-24, 19:45:23
.

betasilie
2003-10-24, 20:13:13
Original geschrieben von ow
Truform ist tot. Davon abgesehen sitzt eine solche Einheit vor den Vertexshadern. Oder was ist hier mit Truform gemeint?
Ich meine mal gelesen zu haben, dass man die VS3.0 als Ersatz nehmen könnte für eine TF-Einheit, wie auf der 8500 vorhanden. Ich kann mich natürlich auch irren.

mapel110
2003-10-24, 21:01:52
Original geschrieben von betareverse
Ich meine mal gelesen zu haben, dass man die VS3.0 als Ersatz nehmen könnte für eine TF-Einheit, wie auf der 8500 vorhanden. Ich kann mich natürlich auch irren.

generell kann man wohl displacement mapping anstelle von truform einsetzen.
und das ist ab PS/VS3.0 afaik pflicht.

betasilie
2003-10-24, 21:34:45
Original geschrieben von mapel110
generell kann man wohl displacement mapping anstelle von truform einsetzen.
und das ist ab PS/VS3.0 afaik pflicht.
Das ist klar. Ich meine aber irgendwo gelesen zu haben, dass man mit VS3.0 echtes Truform machen könnte, so dass sogar NV, wenn sie denn wollten ;), Truform in Hardware unterstützen könnten. ... Naja, ich habe ehrlich gesagt keine Ahnung, ob das stimmt oder nicht. :ratlos:

nagus
2003-10-24, 21:35:20
- 12x1 oder 16x1 architektur
- ca. 200 mio transistoren
- 0,13 fertigung
- 475-500mhz chiptakt
- 500 Mhz GDDR3 (verbessertes 256bit interface)
- PS3.0 und VS3.0

... plus die übglichen verbesserungen wie z.b. HyperZ 4, Smartshader 3.0 etc...

ca. 10.000 3dmurks2003

halbwegs realistisch IMHO

Crushinator
2003-10-24, 21:40:48
Ich nehme nagus Werte und ergänze nur
- 12x1 oder 12x2

=)

nagus
2003-10-24, 22:05:53
500Mhz chip und speichertakt halte ich allerdings für fast "zu gut" ... ati hat nie sehr viel von extremen taktsteigerungen gehalten.

8500 275 > 9700pro 325 ... 50mhz mehr.

beim speicher schauts ähnlich aus. ist aber auch egal wenn das "ding" 12 oder mehr pipelines hat.... und wer weiß was sonst noch alles an der architektur verbessert wird.

zweifache leistung einer normalen 9700er sind sicher realistisch und nicht übertrieben.

nagus
2003-10-24, 22:33:00
RUHE JETZT!
spamen könnt ihr wo anders!!



wie realistisch ist eine 16x1 architektur? wieviel transistoren würde eine R300 GPU mit 16x1 statt 8x1 haben?

KM
2003-10-24, 23:18:46
Original geschrieben von nagus
500Mhz chip und speichertakt halte ich allerdings für fast "zu gut" ... ati hat nie sehr viel von extremen taktsteigerungen gehalten.

8500 275 > 9700pro 325 ... 50mhz mehr.

beim speicher schauts ähnlich aus. ist aber auch egal wenn das "ding" 12 oder mehr pipelines hat.... und wer weiß was sonst noch alles an der architektur verbessert wird.

zweifache leistung einer normalen 9700er sind sicher realistisch und nicht übertrieben.
Von 8500 auf 9xxx war der gleicher Herstellungsprozess: 0,15µm. Die 420 kommt mit neuem Prozess: 130nm (vielleicht auch 110?)
Meine Taktraten tendieren zwischen 400 und 450 MHz anstatt 450-500 MHz wegen den vielen Transistoren.
Original geschrieben von crushinator
Ich nehme nagus Werte und ergänze nur
- 12x1 oder 12x2
Mit 12x2 wären es eine Menge Transistoren mehr. Ich tendiere auch zu 12x1 oder 8x2 oder 16x1. :D
Rest Nagus Werte *zustimm*

AlfredENeumann
2003-10-25, 01:00:41
Original geschrieben von Höhnangst
Glaub nicht, dass die Karte noch zur 9xxx-Serie zählen wird. ;)



Ich glaube das die R420 nicht Radeon 10000 irgendwas heißen wird.
Denke mal die lassen sich was neues Einfallen.

Ailuros
2003-10-25, 09:31:54
Original geschrieben von ow
Truform ist tot. Davon abgesehen sitzt eine solche Einheit vor den Vertexshadern. Oder was ist hier mit Truform gemeint?

HOS sind nicht tot. Truform war einfach nur zu primitiv und seiner Zeit voraus (haben wir nicht schonmal besprochen dass Truform auf nicht fuer das feature optimierte Modelle eigentlich Quatsch ist?).

On chip tesselation wird an Bedeutung in naechsten Generationen dazugewinnen.

---------------------------------------------

Zu den spekulierten Spezifikationen versucht mal dass K.I.S.S Verfahren, vielleicht kommt ihr naeher ran. An mehr als 200M Transistoren maximum wuerde ich nicht denken.

Ailuros
2003-10-25, 09:33:58
Original geschrieben von nagus
RUHE JETZT!
spamen könnt ihr wo anders!!



wie realistisch ist eine 16x1 architektur? wieviel transistoren würde eine R300 GPU mit 16x1 statt 8x1 haben?

R420= 3/4 R400 und (-PPP)

Das ist wohl ein bisschen gemein jetzt, aber die Nummer-raterei ist sowieso sinnlos. Paperspecs sagen meistens sehr wenig.

Börk
2003-10-25, 10:35:14
Original geschrieben von nagus
500Mhz chip und speichertakt halte ich allerdings für fast "zu gut" ... ati hat nie sehr viel von extremen taktsteigerungen gehalten.

8500 275 > 9700pro 325 ... 50mhz mehr.

Da wurde aber auch nicht der Prozess gewechselt.
Imo sollten mind. 500 Mhz drin sein, hängt natürlich auch davon ob jetzt eher Richtung 150 Mio Transis oder mehr als 200...

StefanV
2003-10-25, 11:07:00
Original geschrieben von nagus
500Mhz chip und speichertakt halte ich allerdings für fast "zu gut" ... ati hat nie sehr viel von extremen taktsteigerungen gehalten.

8500 275 > 9700pro 325 ... 50mhz mehr.

beim speicher schauts ähnlich aus. ist aber auch egal wenn das "ding" 12 oder mehr pipelines hat.... und wer weiß was sonst noch alles an der architektur verbessert wird.

zweifache leistung einer normalen 9700er sind sicher realistisch und nicht übertrieben.

Hm, Radeon 256 -> Radeon 8500 von 183MHz auf 275MHz beim Top Modell, was in etwa 92MHz macht...

Bei den 'normalen' Modellen (166->250) sinds immer noch 84MHz...

Wobei wir gerade nicht die 7500 erwähnen, welche einen um 108MHz höher getakteten Core besitzt, bei der ATI Karte *eg*

StefanV
2003-10-25, 11:09:14
Original geschrieben von crushinator
Ich nehme nagus Werte und ergänze nur
- 12x1 oder 12x2

=)

Ich denke auch, daß ATI 'nur' einen weiteren Pixelprozessor draufpappt...

Vermuten würd ich auch eher 12x1 Tri, 12x2 BI wäre auch möglich :kratz:

robbitop
2003-10-25, 13:46:22
tja ein R300 so wie er ist aber mit 16x1 würde knapp 200Mio Transistoren benötigen.

An 12*X glaube ich kaum

auch nicht an eine X*2 Architektur da die R3xx Pipeline auf 1 TMU Pro Pipe getrimmt ist und Loci letztendlich auf R3xx basieren sollte (R400 ist ja weg). Ich würde 8x1tri TMU nehmen. 2 Bi TMUs währen nur im AF Falle von Vorteil.


Aber wer weiss vieleicht hat man auch den R400 ausgeschlachtet und Teile von ihm mit Teilen des R3xx vermischt....für eine klare Spekulation fehlen einfach zu viele Informationen.

betasilie
2003-10-25, 14:03:26
Also ich denke nicht, dass Loci großartig auf R3xx basiert. Der R400 ist zwar nach hinten verlegt worden, aber das heißt noch lange nicht, das der R420 kein wirklicher neuer Chip ist.

Höhnangst
2003-10-25, 14:23:39
Original geschrieben von betareverse
Der R400 ist zwar nach hinten verlegt worden, aber das heißt noch lange nicht, das der R420 kein wirklicher neuer Chip ist.
Kannst du das bitte genauer erklären? Was ist der R400 und warum wurde der verlegt? Und was ist dann der R420?

robbitop
2003-10-25, 14:30:05
Problem ist, dass der R400 sehr kurzfristig nach hinten verlegt worden ist. und wenn man nicht mal ein Jahr bis zur Markteinführung hat, kann man keinen neuen Chip designen. Das ist eine Sache von Jahren. Besonders bei so komplexen Chips und aus diesem Grunde würde ich die Erwartungen an Loci nicht soo hoch schrauben.

Tigerchen
2003-10-25, 14:55:18
Der ganz große Knaller wird erst wieder der R500.
Bis dahin muß der Notnagel Loci schon reichen.Wenn die 8x1tri gebacken kriegen reicht dies auch vollkommen aus.

robbitop
2003-10-25, 14:59:29
sehe ich ähnlich

Börk
2003-10-25, 15:19:19
Original geschrieben von Tigerchen

Der ganz große Knaller wird erst wieder der R500.
Bis dahin muß der Notnagel Loci schon reichen.Wenn die 8x1tri gebacken kriegen reicht dies auch vollkommen aus.

Halte ich auch am warscheinlichsten.
In Verbindung mit 600 Mhz sollte das auch erstmal reichen...

betasilie
2003-10-25, 16:48:48
Original geschrieben von Höhnangst
Kannst du das bitte genauer erklären? Was ist der R400 und warum wurde der verlegt? Und was ist dann der R420?
Der eigentlich für 2004 geplante R400 wurde auf 2005 verschoben und wird R500 heißen. Der R420 wird also eine Interimsmodell.

nagus
2003-10-25, 19:27:21
Original geschrieben von betareverse
Der eigentlich für 2004 geplante R400 wurde auf 2005 verschoben und wird R500 heißen. Der R420 wird also eine Interimsmodell.


du meinst R400 war für 2003 geplant, nicht 2004.

so wird das ca. ablaufen:

1Q2004 : R420/NV40 (2Q2004 PCI Express version: R423)
4Q2004 : R500/NV45 PCI Express und AGP Version

... IMHO wirds die NV45 wahrscheinlich ziehmlich schwer haben, es sei denn, der NV40 ist schon so extrem gut, was ich erhlich gesagt stark bezweifle.

Leonidas
2003-10-25, 19:34:33
Original geschrieben von Rampage 2
NextGen-Chips müssen mindestens doppelt bis dreifach so schnell sein wie die Vorgängerchips (9700) (beschränkt man sich hierbei auf hohe AA/AF-Stufen bei hohen Auflösungen) um attraktiv zu sein.



Warum? Aus der Grafikchip-Geschichte läßt sich das nicht ableiten.

Im heutigen Geschäft gilt: Vernünftig mehr Leistung bieten, aber unter keinen Unständen zuviel oder gar Doppelte Leistung. Bei NextGen-Chips kann es sogar sein, daß diese gar nicht schneller sind, sondern nur neue Features bieten (GF2U <-> GF3). Das wird bei R420/NV40 zwar nicht passieren, den mit Shader 3.0 holt man niemand mehr hinter dem Ofen hervor, doch mehr als 30% Mehr-Performance unter Standard-Settings halte ich für unwahrscheinlich.

mapel110
2003-10-25, 19:46:52
Original geschrieben von Leonidas
Warum? Aus der Grafikchip-Geschichte läßt sich das nicht ableiten.

Im heutigen Geschäft gilt: Vernünftig mehr Leistung bieten, aber unter keinen Unständen zuviel oder gar Doppelte Leistung. Bei NextGen-Chips kann es sogar sein, daß diese gar nicht schneller sind, sondern nur neue Features bieten (GF2U <-> GF3). Das wird bei R420/NV40 zwar nicht passieren, den mit Shader 3.0 holt man niemand mehr hinter dem Ofen hervor, doch mehr als 30% Mehr-Performance unter Standard-Settings halte ich für unwahrscheinlich.

genau. die 9700 pro war die rühmliche ausnahme. sowas kommt so schnell nicht wieder.
wobei ich hoffnungen habe, dass es powervr richtig krachen lassen wird.
:)

@nagus
glaubst du nicht auch, dass ATI einen refresh des r420 bringen wird?! :|

Höhnangst
2003-10-25, 19:54:28
Original geschrieben von betareverse
Der eigentlich für 2004 geplante R400 wurde auf 2005 verschoben und wird R500 heißen. Der R420 wird also eine Interimsmodell.
Aja, Danke.

So ganz versteh ich das aber noch nicht. Ist der R420 damit nur ein "weiterentwickelter" R3xx? Ich meine, kann man sich das etwa so wie den Sprung von GF3 auf GF4 vorstellen?

Außerdem frag ich mich, warum nicht einfach der Codename "R400" beibehalten wurde. Gibt für mich keinen ersichtlichen Grund, ihn auf "R420" abzuändern. nV scheint ihrem System ja auch treu zu bleiben: NV35 => NV40 => NV45 ...

Richthofen
2003-10-25, 19:56:51
Original geschrieben von nagus
du meinst R400 war für 2003 geplant, nicht 2004.

so wird das ca. ablaufen:

1Q2004 : R420/NV40 (2Q2004 PCI Express version: R423)
4Q2004 : R500/NV45 PCI Express und AGP Version

... IMHO wirds die NV45 wahrscheinlich ziehmlich schwer haben, es sei denn, der NV40 ist schon so extrem gut, was ich erhlich gesagt stark bezweifle.

Also in der letzten ATI Roadmap die ich gesehen habe, war für das 2. Halbjahr 2004 ein Refresh des R420 vorgesehen.

Crushinator
2003-10-25, 19:58:56
Original geschrieben von Richthofen
Also in der letzten ATI Roadmap die ich gesehen habe, war für das 2. Halbjahr 2004 ein Refresh des R420 vorgesehen. Wenn Du die berühmtberüchtigte R423 meinst, handelt es sich dabei nur um die PCI-Express Variante.

StefanV
2003-10-25, 21:37:56
Original geschrieben von Leonidas
Warum? Aus der Grafikchip-Geschichte läßt sich das nicht ableiten.

Stimmt, nur hats ATI irgendwie 3 Generationen durchgehalten *eg*

Radeon -> Radeon 8500 -> Radeon 9700 PRO

Die waren AFAIK in etwa doppelt so schnell zum Vorgänger...

Richthofen
2003-10-25, 21:42:45
Original geschrieben von crushinator
Wenn Du die berühmtberüchtigte R423 meinst, handelt es sich dabei nur um die PCI-Express Variante.

ne den meinte ich nicht. Die Zahl war höher. Wenn ich mich recht entsinne, war es in der Roadmap die Exxtreme hier mal neulich vor paar Wochen verlinkt hat.

Xmas
2003-10-25, 21:42:54
Da muss ich Richthofen zustimmen, ATI scheint einen R450 für 2H2004 zu planen.

SP,
das trifft auch ungefähr für NV10 -> NV20 -> NV30 zu. Kommt immer drauf an welche Chips man zählt.

Richthofen
2003-10-25, 21:45:38
Original geschrieben von Xmas
Da muss ich Richthofen zustimmen, ATI scheint einen R450 für 2H2004 zu planen.


450 oder 480.
Eine von beiden Zahlen war es, daran kann ich mich auch erinnern. Auf der Roadmap von Exxtreme war jedenfalls für 2004 vom R500 nix zu sehen.
Statt dessen tauchte dort im Enthusiast Segment ein Refresh Chip auf.

Winter[Raven]
2003-10-25, 22:00:52
hmmm ... schon wieder ein Refresh ?

Aber das es einen 450 oder 480 geben soll hör ich ja zum ersten mal.

Unter den Umständen, denke ich das man für den 420 die Shader 3.0 vergessen sollte. Was soll Ati bitte dann anpreisen wenn der 450 bzw. 480 kommt ?

Richthofen
2003-10-25, 22:12:05
wieso?
Wenn der R420 ein PS/VS 3.0 Chip ist, dann ist das für 2004 die neue Generation auch wenn zum R300 vieles gleich bleibt.
Denkt bloß nicht, dass nächstes Jahr irgendwas weltbewegend neues kommt.
Da kommt nix. Man wird die maximalen DX9 Specs erreichen und das wars. Das ist dann die Neuerung.
Vor DX10 passiert dann erstmal nix großartig neues.

Somit wäre der R450 oder 480 welche Nummer auch immer der Refresh des R420. Also der R350 der R4xx Reihe.

Ich glaube nicht, dass es 2004 noch einen R500 gibt. Ich würde mal mit Anfang 2005 rechnen.
Macht auch gar keinen Sinn, weil mit den VS/PS 3.0 das ganze Jahr 2004 gut versorgt ist featuretechnisch.

Crushinator
2003-10-25, 22:15:48
Original geschrieben von Xmas
Da muss ich Richthofen zustimmen, ATI scheint einen R450 für 2H2004 zu planen. :kratz: Wo ist denn diese Roadmap zu finden? Ich kenne nur eine halbwegs offizielle von ASUS und sie (http://www.clubic.com/images/auto/img55085.jpg) geht bis max. R423 im 2H2004.

/edit: Hab' sie (http://www.benchmark.co.yu/article.php?sid=3879) gefunden und halte es z.Z. für ein Gerücht, wobei das natürlich nicht unmöglich klingt. Nur der Zeitabstand zu R423 liest sich etwas schwachsinnig. Warum sollte man so kurze Zeit danach einen viel interessanteren Chip auf den markt werfen?

Xmas
2003-10-25, 22:24:41
Original geschrieben von crushinator
:kratz: Wo ist denn diese Roadmap zu finden? Ich kenne nur eine halbwegs offizielle von ASUS und sie (http://www.clubic.com/images/auto/img55085.jpg) geht bis max. R423 im 2H2004.
"Scheint", weil es keine offizielle Roadmap ist.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=97726

Xmas
2003-10-25, 22:32:10
Original geschrieben von crushinator
/edit: Hab' sie (http://www.benchmark.co.yu/article.php?sid=3879) gefunden und halte es z.Z. für ein Gerücht, wobei das natürlich nicht unmöglich klingt. Nur der Zeitabstand zu R423 liest sich etwas schwachsinnig. Warum sollte man so kurze Zeit danach einen viel interessanteren Chip auf den markt werfen?
Wieso, da steht doch nur Q2 und H2. Das können im Extremfall fast 9 Monate sein. Ich glaube sowieso nicht, dass zwischen R420 und R423 mehr als ein Monat liegt, auch vermute ich dass der R423 wohl in geringeren Stückzahlen kommt, einfach weil PCI-Express noch nicht so verbreitet sein wird.

Crushinator
2003-10-25, 22:37:59
^^ Bingo, hatte Q2 mit H2 verwechselt :bonk:, mit Q2->R423 und H2->R450 hört sich das wiederum sinnig an, danke.

robbitop
2003-10-25, 22:40:52
NV50 wird gegen den R500 antreten auch wenn nagus das gern anders hätte :-)

Ailuros
2003-10-26, 03:08:29
Denkt bloß nicht, dass nächstes Jahr irgendwas weltbewegend neues kommt.
Da kommt nix. Man wird die maximalen DX9 Specs erreichen und das wars. Das ist dann die Neuerung.
Vor DX10 passiert dann erstmal nix großartig neues.

IMO ist der Sprung von PS2.0 auf 3.0 wohl in etwa genauso gross wie eine neue API Version. Haben Microsoft und IHVs "DX-next" schon voll definiert und festgelegt? Nein. Es gibt meines Wissens gute Grundlinien dafuer aber ich sehe nichts extravagantes das auf eine "Revolution" deuten koennte.

Ailuros
2003-10-26, 03:13:46
Original geschrieben von robbitop
tja ein R300 so wie er ist aber mit 16x1 würde knapp 200Mio Transistoren benötigen.

An 12*X glaube ich kaum

auch nicht an eine X*2 Architektur da die R3xx Pipeline auf 1 TMU Pro Pipe getrimmt ist und Loci letztendlich auf R3xx basieren sollte (R400 ist ja weg). Ich würde 8x1tri TMU nehmen. 2 Bi TMUs währen nur im AF Falle von Vorteil.


Aber wer weiss vieleicht hat man auch den R400 ausgeschlachtet und Teile von ihm mit Teilen des R3xx vermischt....für eine klare Spekulation fehlen einfach zu viele Informationen.

Gar nix ist "weg".

R3xx = zwei blocks
R420 = drei blocks
R400/500 = vier blocks

Wenn R420 schon voll PS/VS3.0 ist dann ist die "Anzahl" von pipelines inwiefern wichtig?

Transistoren-Anzahl bei ATI wuerde schnell durch die Decke schiessen, wenn der Winkelabhaengige Aniso-Algorithmus aufgegeben wuerde.

Crushinator
2003-10-26, 07:49:04
Original geschrieben von Ailuros

(...)

Transistoren-Anzahl bei ATI wuerde schnell durch die Decke schiessen, wenn der Winkelabhaengige Aniso-Algorithmus aufgegeben wuerde. Und, was meinst Du? Wird sie aufgegeben oder nicht? :)

Tigerchen
2003-10-26, 07:56:05
Original geschrieben von crushinator
Und, was meinst Du? Wird sie aufgegeben oder nicht? :)

Warum sollten sie etwas aufgeben was so gut funktioniert?

Demirug
2003-10-26, 09:49:20
Original geschrieben von Ailuros
IMO ist der Sprung von PS2.0 auf 3.0 wohl in etwa genauso gross wie eine neue API Version. Haben Microsoft und IHVs "DX-next" schon voll definiert und festgelegt? Nein. Es gibt meines Wissens gute Grundlinien dafuer aber ich sehe nichts extravagantes das auf eine "Revolution" deuten koennte.

Ja die 3.0 Shader sollte ja ursprünglich erst mit DX 9.1 oder sogar noch später kommen. MS wollte aber den Intervall von DX Version zu DX-Version vergrössern. Am liebsten würden sie wohl nur noch mit jeder neuen Windowsversion ein neues DX bringen.

Es wird bei DX IMHO auch keine Revolutionen mehr geben. Die Shaderschnittstelle wird im laufe der Zeit immer mächtiger werden und auf grössere Teile des Chips Auswirkungen haben. Es gibt da ja einen schöne Liste mit Dingen über welche die Entwickler mehr Kontrolle wollen.

Das grösste Problem in Verbindung mit PS 3.0 ist das dynamische Branching. Statisches kann vom Treiber gelösst werden und ich wundere mich ein bischen das nVidia das nicht anbietet. Bei einem Grafikchip spielen dabei die üblichen Probleme einer CPU (zb. spekulative sprungvorhersage) kaum bis überhaupt keine Rolle. Die GPUs habe hier mit dem lange verfolgte SIMD Ansatz zu kämpfen.

StefanV
2003-10-26, 09:51:17
Original geschrieben von crushinator
Und, was meinst Du? Wird sie aufgegeben oder nicht? :)

Nö, da zu teuer :)

Ein nicht Winkelabhängiges AF würde 'etwas' Transistoren fressen und somit den Chip nicht unwesentlich verteuern ;)

Ailuros
2003-10-26, 10:02:57
3DCenter koennte einen einfachen Artikel IMO gebrauchen ueber die Unterschiede von PS2.0-->PS3.0 und auch die Moeglichkeiten der DX-next features.

Haettest Du mir damals nicht schnell erklaert was dynamic branching fuer 3.0 anstellen kann und da haette ich schnell denken koennen dass sehr lange Shader nur Overkill fuer solche Karten sein wuerden.

Meine Erinnerung an DX Next Features begrenzt sich an PPP :

http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=79771&highlight=Ailuros

http://www.beyond3d.com/forum/viewtopic.php?t=8666

und extra MRT Funktionalitaeten, an mehr kann ich mich nicht mehr erinnern. Besteht die Moeglichkeit schon fuer eine Vereinigung der PS/VS oder ist es noch zu frueh?

Ich kann mich noch an den Artikel ueber dx9.0 vor dessen Veroeffentlichung hier erinnern, der mir persoenlich damals geholfen hat so einiges zu verstehen. ;)

aths
2003-10-26, 10:13:29
Original geschrieben von Ailuros
Transistoren-Anzahl bei ATI wuerde schnell durch die Decke schiessen, wenn der Winkelabhaengige Aniso-Algorithmus aufgegeben wuerde. Original geschrieben von Stefan Payne
Nö, da zu teuer :)

Ein nicht Winkelabhängiges AF würde 'etwas' Transistoren fressen und somit den Chip nicht unwesentlich verteuern ;) Na sooo teuer ist das nun auch wieder nicht. Schon GeForce3 hat immerhin nur "wenig winkelabhängiges" AF, und ggü. GF3 hat R300 keine einzige TMU mehr.

Offenbar ist gutes AF teuer genug, dass beim NV25 hier glatt gespart wurde (was ich bis heute sehr schade finde.) Doch finde ich es schon komisch, wenn eine superduper-DX9-GPU (läl, neuerdings ja auch VPU genannt) kein AF der reinen Lehre anbietet (gilt für NV ebenso.)

Demirug
2003-10-26, 10:22:57
Original geschrieben von Ailuros
Besteht die Moeglichkeit schon fuer eine Vereinigung der PS/VS oder ist es noch zu frueh?

Das mit der Vereinigung ist ja so eine Sache. Es gab da mal eine Skizze in der man aus den Pixel und Vertexshader bei DX9 einen "Integrated Shader" gemacht hat. Was man sich darunter allerdings vorzustellen hat wurde nie gesagt.

Von reinen Featureset sind die 3.0 Shader ja inzwischen sehr dicht zusammen und auf der HLSL ebene erkennt man schon bei 2.0 kaum noch einen Unterschied.

Ailuros
2003-10-26, 10:24:48
Original geschrieben von Tigerchen

Warum sollten sie etwas aufgeben was so gut funktioniert?


Waere der Algorithmus nicht Winkel-abhaengig wieviele Argumente zu "Schwaechen" haette dann genau die Konkurrenz?

Ein nicht Winkelabhängiges AF würde 'etwas' Transistoren fressen und somit den Chip nicht unwesentlich verteuern.

Es war eine direkte Antwort auf robbis Spekulation dass 16*1 auf 200M Transistoren schiessen wuerde, dabei koennen sie auf diesen Punkt auch mit weniger Pipelines kommen. Kommt ganz drauf was sie in den chip reingesteckt haben; eine Moeglichkeit waere ein nicht winkel-abhaengiger Aniso-Algorithmus.

Ein kluger adaptiver Anisotropic Algorithmus kann heute genauso schnell sein, wenn er je nach Bedarf der Texturen zwischen 1x und 16x samples wahlweise anwendet. Ja es kostet mehr in HW, aber es haengt auch davon ab was ATI auf ihre Liste der notwendigen Aenderungen gesetzt hat.

Persoenlich bin ich immer noch im Unklaren was volle PS/VS3.0 Unterstuetztung betrifft auf R420, sonst sind andere Unterschiede zum originalen R400 (heutigen R500) weniger Einheiten (erwarte jetzt keine Kleinigkeiten) und der fehlende PPP der schon im originalen R400 drin war. Das schliesst die Moeglichkeit einer begrenzt programmierbaren Tesselations-Einheit fuer R420 nicht aus, aber ich bezweifle dass sie eine normale PPP sein wird.

Ailuros
2003-10-26, 10:33:27
Original geschrieben von aths
Na sooo teuer ist das nun auch wieder nicht. Schon GeForce3 hat immerhin nur "wenig winkelabhängiges" AF, und ggü. GF3 hat R300 keine einzige TMU mehr.

Offenbar ist gutes AF teuer genug, dass beim NV25 hier glatt gespart wurde (was ich bis heute sehr schade finde.) Doch finde ich es schon komisch, wenn eine superduper-DX9-GPU (läl, neuerdings ja auch VPU genannt) kein AF der reinen Lehre anbietet (gilt für NV ebenso.)

Wurde der alte GF2 Texmax Algorithmus nur revampt/erweitert oder von vorne an entwickelt? NV's Algorithmus filtert IMO zu viel und oft zum Grad wo es zu Uebertreibungen kommt. Ein guter Versuch (nein ich meine NICHT die bi/trilinear Optimierungen) das ganze zu modifizieren fand im NV3x statt, das heisst aber nicht dass der Algorithmus nicht noch mehr adaptiv haette sein koennen.

Uebrigens verdaechtige ich dass alles nicht sooo einfach ist wie wir uns meistens denken. Ein paar bugs was Aniso auf Nv3x die in verschiedenen Treiber-versionen auftreten sind laut interner Behauptungen durch den Shader-Optimizer reingeschlichen. Man fixt das eine aber wo ist die Garantie dass nicht andere Sachen noch doch nicht brechen koennten? Kein IHV entwickelt eine Architektur von Grund auf, egal was sie behaupten.

Ailuros
2003-10-26, 10:39:30
Original geschrieben von Demirug
Das mit der Vereinigung ist ja so eine Sache. Es gab da mal eine Skizze in der man aus den Pixel und Vertexshader bei DX9 einen "Integrated Shader" gemacht hat. Was man sich darunter allerdings vorzustellen hat wurde nie gesagt.

Von reinen Featureset sind die 3.0 Shader ja inzwischen sehr dicht zusammen und auf der HLSL ebene erkennt man schon bei 2.0 kaum noch einen Unterschied.

Die Ironie ist dass als es kurz vor der R300 Veroeffentlichung auf B3D behauptet wurde, viele damals eine solche Moeglichkeit fuer unmoeglich hielten (nein keiner der hier anwesenden Mitglieder ist damit gemeint, um Missverstaendnissen zu entgehen).

Gast
2003-10-26, 10:45:34
Original geschrieben von Demirug
erst mit DX 9.1

*thread closed* weil das Thema abgehandelt ist. Es gibt kein DX9.1.

Ailuros
2003-10-26, 10:53:07
Original geschrieben von Gast
*thread closed* weil das Thema abgehandelt ist. Es gibt kein DX9.1.

original text vom wunderknaben OW

Demirug sprach vom originalen alten Plan fuer >dx9.0 bevor dieses noch gar nicht veroeffentlicht war.

Die obrige Anspielung ist Bloedsinn da es heutzutage keine Plaene fuer eine dx9.1 update bis jetzt gibt und 3.0 Shader schon Anteil von dx9.0 sind. Es geht hier uebrigens um ATI's zukuenftige Produkte und nicht kindische Vendettas mit Moderatoren.

Demirug
2003-10-26, 10:55:54
Original geschrieben von Ailuros
Wurde der alte GF2 Texmax Algorithmus nur revampt/erweitert oder von vorne an entwickelt? NV's Algorithmus filtert IMO zu viel und oft zum Grad wo es zu Uebertreibungen kommt. Ein guter Versuch (nein ich meine NICHT die bi/trilinear Optimierungen) das ganze zu modifizieren fand im NV3x statt, das heisst aber nicht dass der Algorithmus nicht noch mehr adaptiv haette sein koennen.

Angeblich filtert schon der NV2X Algorithmus nur bis zu dem Grad welcher aufgrund der Länge der AF-Linie notwendig ist.

The hardware is intelligent in this regard, you only pay for the anisotropy you use

AFAIR wurde aber auch einmal gesagt das sobald der Chip meint AF nutzen zu müssen man mindestens 2xAF bekommt. Das AF-Rechenwerk braucht scheinbar mindestens 2 Takte.

Uebrigens verdaechtige ich dass alles nicht sooo einfach ist wie wir uns meistens denken. Ein paar bugs was Aniso auf Nv3x die in verschiedenen Treiber-versionen auftreten sind laut interner Behauptungen durch den Shader-Optimizer reingeschlichen. Man fixt das eine aber wo ist die Garantie dass nicht andere Sachen noch doch nicht brechen koennten? Kein IHV entwickelt eine Architektur von Grund auf, egal was sie behaupten.

Ja, der Devsupport erzählt etwas ähnliches. Ab den 50er Treibern wäre der Shader-optimizer sehr eng mit dem Texturefilter verknüpft. Man sprach allerdings bisher nur von einer einseitigen Beziehung. Also das die gewählte Filter einen Einfluss auf die Shaderoptimierung haben. Der umgekehrte Weg wäre natürlich auch denkbar. Wenn der Treiber erkennt das eine Texture nur zu einem geringen Bruchteil ins endergebniss einfliesst den Filter ein bischen runterdrücken.

Demirug
2003-10-26, 11:00:38
Original geschrieben von Ailuros
Demirug sprach vom originalen alten Plan fuer >dx9.0 bevor dieses noch gar nicht veroeffentlicht war.

Genau, die erste DX9 Beta ging nur bis 2.0. 2.x und 3.0 wurde erst mit der zweiten Beta nachgeliefert. Da bei dieser ersten Beta aber schon abzusehen war das 2.0 eigentlich nicht für alle reicht wurde damals dann vermutet das es ein 9.1 geben wird für die Hersteller die mehr als die Mindestanforderung erfüllen. So wie bei DX8 und DX8.1 auch schon.

Gast
2003-10-26, 11:06:54
Original geschrieben von Ailuros
Demirug sprach vom originalen alten Plan fuer >dx9.0 bevor dieses noch gar nicht veroeffentlicht war.

Die obrige Anspielung ist Bloedsinn da es heutzutage keine Plaene fuer eine dx9.1 update bis jetzt gibt und 3.0 Shader schon Anteil von dx9.0 sind. Es geht hier uebrigens um ATI's zukuenftige Produkte und nicht kindische Vendettas mit Moderatoren.


? warum soll eigendlich kein dx 9.1 9.2 9.3 9.1a 9.00000000001 usw. kommen wisst ihr mehr wie MS selber ?>

Demirug
2003-10-26, 11:23:00
Original geschrieben von Gast
? warum soll eigendlich kein dx 9.1 9.2 9.3 9.1a 9.00000000001 usw. kommen wisst ihr mehr wie MS selber ?>

Weil die nächste DX Version im Moment von MS als DX-Next bezeichnet wird. Zudem wäre die gleiche Nummer vor dem Komma über 3 Generationen von Grafikhardware nicht sonderlich schlau. DX 8.1 war eine Ausnahme die aufgrund der besonderen Situation damals notwendig war. MS wird tunlichst versuchen solchen Zwischenreleases zu vermeiden.

Ailuros
2003-10-26, 11:36:28
Original geschrieben von Gast
? warum soll eigendlich kein dx 9.1 9.2 9.3 9.1a 9.00000000001 usw. kommen wisst ihr mehr wie MS selber ?>

Zumindest Demirug als Spielentwickler hat derartige Informationen schon lange bevor der einfache User davon Wind bekommt.

Von dem abgesehen wie Demi schon sagte bei Microsoft heisst der Nachfolger von dx9.0 (PS2.0/2.0extended/3.0) immer noch DX-Next was auf eine API Version mit einem moeglichen 2005 Veroeffentlichungs-Datum deutet.

Die Frage ist was Du genau besser wissen willst als Microsoft und IHVs alle zusammen....

Ailuros
2003-10-26, 11:39:59
Original geschrieben von Demirug
Weil die nächste DX Version im Moment von MS als DX-Next bezeichnet wird. Zudem wäre die gleiche Nummer vor dem Komma über 3 Generationen von Grafikhardware nicht sonderlich schlau. DX 8.1 war eine Ausnahme die aufgrund der besonderen Situation damals notwendig war. MS wird tunlichst versuchen solchen Zwischenreleases zu vermeiden.

Derartige Updates sind auch absoluter Schwachsinn IMHO. Das erlaubt ja endloses "bugging" von IHVs dass des jeden Extension/Shader Version noch dazugefuegt wurde (siehe dx8.1). Ein API wie dx9.0 dass mehrere Generationen von chips unterstuetzt und auch eine laengere Lebenszeit haben wird, ist eine sehr gute Entscheidung.

Ailuros
2003-10-26, 11:50:03
Angeblich filtert schon der NV2X Algorithmus nur bis zu dem Grad welcher aufgrund der Länge der AF-Linie notwendig ist.

Nach NV's Behauptungen, nur wurden seit der NV20 Veroeffentlichung staendige Aenderungen im Treiber durchgefuehrt die auf die "Ueberfilterung" die ich meine deutet. Unwinder hat ja auch im NV25 Zeitraum auf ein paar extra Optimierungen gedeutet fuer D3D und OGL. Keine Ahnung ob diese schon geplant waren oder ob Unwinder dabei geholfen hat.

Was ich meinte ist dass ein flexiblerer Algorithmus derartige Optimierungen normalerweise nicht noetig haben wuerde. Ist die Filterung von Lightmaps z.B. am Ende wirklich notwendig?

Ja, der Devsupport erzählt etwas ähnliches. Ab den 50er Treibern wäre der Shader-optimizer sehr eng mit dem Texturefilter verknüpft. Man sprach allerdings bisher nur von einer einseitigen Beziehung. Also das die gewählte Filter einen Einfluss auf die Shaderoptimierung haben. Der umgekehrte Weg wäre natürlich auch denkbar. Wenn der Treiber erkennt das eine Texture nur zu einem geringen Bruchteil ins endergebniss einfliesst den Filter ein bischen runterdrücken.

Wie dem auch sei was ich damit sagen wollte ist dass es nicht so leicht sein muss zwischen verschiedenen Architekturen die bis zu einem gewissen Grad Basis-Gemeinsamkeiten haben, ploetzlich einen fundamental verschiedenen Algorithmus hinzuzufuegen.

Da es sich um ATI hier eigentlich handelt; theoretische Frage: waere es moeglich die "Error-Winkel" mit einem Minimum von 4x AF filtern zu lassen ohne groesseren HW Aufwand im Endeffekt?

Gast
2003-10-26, 13:09:38
wuerd mal sagen DX9.1 kommt so sicher wie das amen in einem gebet schon aleine wegen bugfixes in dx9.00000000000000

UNd vieleicht werden Nv + Ms wieder schwul dan kommt ne neue dx version 100 pro


cu alan

Gast
2003-10-26, 13:10:34
sr meine rs
cu alan

Demirug
2003-10-26, 13:47:28
Original geschrieben von Gast
wuerd mal sagen DX9.1 kommt so sicher wie das amen in einem gebet schon aleine wegen bugfixes in dx9.00000000000000

UNd vieleicht werden Nv + Ms wieder schwul dan kommt ne neue dx version 100 pro


cu alan

Bugfixes bekommen Buchstaben. Deswegen ist die aktuelle Runtime ja auch 9.0b. Nummern werden nur geändert wenn sich auch die Funktionalität ändert.

Demirug
2003-10-26, 13:59:37
Original geschrieben von Ailuros
Was ich meinte ist dass ein flexiblerer Algorithmus derartige Optimierungen normalerweise nicht noetig haben wuerde. Ist die Filterung von Lightmaps z.B. am Ende wirklich notwendig?

Hängt von der Ligtmap ab. Auflösung und der Kontrast spielen da wie üblich eine grosse Rolle.

Wie dem auch sei was ich damit sagen wollte ist dass es nicht so leicht sein muss zwischen verschiedenen Architekturen die bis zu einem gewissen Grad Basis-Gemeinsamkeiten haben, ploetzlich einen fundamental verschiedenen Algorithmus hinzuzufuegen.

Solange der Algorithmus was die Input- und Outputsignale angeht idetisch ist geht das schon irgendwie. Aber auf vorhandenes aufzubauen ist immer das kleinere Risiko.

Da es sich um ATI hier eigentlich handelt; theoretische Frage: waere es moeglich die "Error-Winkel" mit einem Minimum von 4x AF filtern zu lassen ohne groesseren HW Aufwand im Endeffekt?

Ohne grossen Aufwand in der Hardware schon aber das würde dann eine untergrenze von 4xAF für alle Winkel bedeuten. Da kann man nur sagen zu viel Fillrate verlust.

robbitop
2003-10-26, 14:53:47
@Ailuros
mit den 200Mio habe ich lediglich einen R3(50) hochgerechnet (oder eher geschätzt) , der halt 16 Pipelines besitzt. Ohne jedglich Änderung im Featureset. Das muss für Loci NICHT zutreffen. Aber 3 Blöcke klingt sehr realistisch. Dann hätte ATi 12x1 Pipelines (um 12x2 nutzen zu können währe wohl ein zu tiefer Eingriff in die Pipelinestruktur nötig) zur Verfügung. Aber PS3 wird imo nur mit FBuffer machbar sein. Die Frage ist, ob man das Vertexarray des R400 nicht übernommen hat. So hätte man mit dieser Art "Patchwork" wohl relativ flott einen Konkurrenzfähigen Chip geschaffen...trotzdem bin ich skeptisch ob das für ATi in so einer kurzen Zeit realisierbar ist.

Xmas
2003-10-26, 17:40:55
Original geschrieben von Demirug
Angeblich filtert schon der NV2X Algorithmus nur bis zu dem Grad welcher aufgrund der Länge der AF-Linie notwendig ist.

AFAIR wurde aber auch einmal gesagt das sobald der Chip meint AF nutzen zu müssen man mindestens 2xAF bekommt. Das AF-Rechenwerk braucht scheinbar mindestens 2 Takte.
Der NV20 nimmt 2 (bi/trilineare) Samples ab einem Anisotropie-Verhältnis von ~1,0004:1. Für 4 und 8 Samples liegen die Grenzen entsprechend knapp über 2:1 und 4:1. In der Praxis bedeutet das, dass Flächen ohne AF nicht vorkommen.

seahawk
2003-10-26, 18:05:11
Ich erwarte den NV40 vor dem R420. Man kriegt doch mehr Infos über den NV40 und erste Tape-outs als über den R420.

Den R500 in 2004 halte ich für unwahrscheinlich. Der wird mit dem NV50 zusammen kommen also in 2005.

für 2004 wird es im High-End_Bereich folgende Chips geben :

ATI :

- R420 (AGP)
- R420 (PCI-Express Version des R420)
- R450 (PCI-Express
- R480 (as market requires)

NV :

- NV40 (PCI-Express + AGP)
- NV45 (PCI-E)
- NV48 (unwahrscheinlich)

nagus
2003-10-26, 18:07:03
Original geschrieben von robbitop
@Ailuros
mit den 200Mio habe ich lediglich einen R3(50) hochgerechnet (oder eher geschätzt) , der halt 16 Pipelines besitzt. Ohne jedglich Änderung im Featureset. Das muss für Loci NICHT zutreffen. Aber 3 Blöcke klingt sehr realistisch. Dann hätte ATi 12x1 Pipelines (um 12x2 nutzen zu können währe wohl ein zu tiefer Eingriff in die Pipelinestruktur nötig) zur Verfügung. Aber PS3 wird imo nur mit FBuffer machbar sein. Die Frage ist, ob man das Vertexarray des R400 nicht übernommen hat. So hätte man mit dieser Art "Patchwork" wohl relativ flott einen Konkurrenzfähigen Chip geschaffen...trotzdem bin ich skeptisch ob das für ATi in so einer kurzen Zeit realisierbar ist.

R420 = 3xRV360 klingt für mich jedenfalls immer realistische... (incl. PS3.0 und VS3.0 natürlich)

denke auch, dass die R420 GPU ziehmlich genau 3x so schnell wird wie eine 9600xt.... und das ist verdammt schnell :)

Crushinator
2003-10-26, 19:58:27
Auch an SP,

Original geschrieben von aths
(...)
Offenbar ist gutes AF teuer genug, dass beim NV25 hier glatt gespart wurde (was ich bis heute sehr schade finde.) Doch finde ich es schon komisch, wenn eine superduper-DX9-GPU (läl, neuerdings ja auch VPU genannt) kein AF der reinen Lehre anbietet (gilt für NV ebenso.) Der Meinung bin ich auch und hoffe darauf, daß einige dieser Millionen von Transistoren auf der R420 für mind. 4xAF ohne Winkelabhängigkeit drauf gehen. Den Traum mit durchgängig FP32 kann ich ja fast schon aufgeben, sofern ich mir die Meinung der JungZ auf B3D diesbezüglich anhöre. ;(™

Liszca
2003-10-26, 20:16:32
Original geschrieben von burk23
R4xx: (ATI Radeon 9900Pro ?)

- 200-250 Mio. Transistoren in 0.09um Architektur
Garantiert kein 0.09µ, soweit ist man noch lange nicht, zumindest bei derart komplexen Chips, und vorher kommt auch erst mal 0.11
200 Mio klingt aber recht realistisch...
- 8x2 Architektur - vollständig trilineare TMU's
Also ich denke entweder 8x1 tri oder 8x2 Bi, tendiere aber zu ersterem. Oder aber 12x1 Bi
- 256Bit Speicherinterface
klar...
- 8 Vertex Shader Units
Wozu? Der Polycount ist nicht das Problem heutiger Grakas
- PS/VS 3.0, OpenGL 2.0
mal sehen
- HyperZ 4
Ja, aber obs so viel mehr bringt als HZ 3 weiss niemand
- Smartshader 3.0
Logo
- Smoothvision 3.0 (höhere AA/AF-Modes*)
8xRGMS wäre schon recht nett, aber lieber nen besseres Grid. Oder vielleicht endlich mal SS für die lieben Alphatexturen.
Beim AF bitte erst mal schönes 16x anstatt 32x oder 64x.
- Videoshader 3.0
izmir wurscht ;)
- Truform 3.0 (endlich wieder in Hardware)
Wenn´s nicht allzu viele Transis kostet wär´s nett...

- 750MHz Chiptakt
- 1500MHz GDDR3 Speichertakt
Speicherausbau: 256MB
Mal sehen was so alles geht. Wobei ich halte 600/600 für realistischer, man muss ja auch Spielraum offen lassen...


RV4xx: (ATI Radeon 9750Pro ?)
Dementsprechend halbiert, dafür aber mit schnellerem Chiptakt und ungefähr gleich schnelle Speicher. Oder aber auch mit 256Bit, dafür dann DDR1...

8x2 Architektur kann man als gesichert sehen.

truform werden wir sicher nicht mehr sehen, war eh ein scheiss, totale vertrueformung von eckigen objekten!

ich denke das langsamste model koennte ca 400 bis 450 mhz haben!

nochwas zum antialiasing:
das muster wird sicher nicht veraendert, das 8x dazu kommt halte ich fuer moeglich aber nicht noetig meinerseits!

zum af:
auf 32 fach und hoer kann ich verzichten (denke auch nicht das ati das erhoeht!), lieberst im treiber einen hacken fuer trilinear, und das moeglichst flott!

Xmas
2003-10-26, 20:32:59
Original geschrieben von Liszca
8x2 Architektur kann man als gesichert sehen.
Das bezweifle ich stark.

Rampage 2
2003-10-26, 20:34:30
Original geschrieben von nagus
R420 = 3xRV360 klingt für mich jedenfalls immer realistische... (incl. PS3.0 und VS3.0 natürlich)

denke auch, dass die R420 GPU ziehmlich genau 3x so schnell wird wie eine 9600xt.... und das ist verdammt schnell :)

3x schneller als 9600XT ist nicht verdammt schnell, weil dass teilweise selbst 'ne 9500Pro (!!!) schafft - z.B. in UT2003 unter 1600x1200x32Bit @ 6xAA+16xAF. 3x schneller als 9600XT bedeutet, dass es vielleicht 50% schneller als eine 9700Pro ist - und das schafft unter bestimmten Umständen schon eine 9800XT!!!

Realistisch gesehen, könnte man sagen, dass der R420 durchschnittlich 2x-2.5x schneller als eine 9700Pro sein wird - ab und zu auch 3x so schnell (bei hohen AA/AF-Stufen)

duckofdeath
2003-10-26, 20:35:50
ich glaub nagus meinte rohleistung also ohne aa und af

GRiNSER
2003-10-26, 20:36:23
wäre ein 8x2 architektur genug, um viel mehr speed [bei gleicher taktrate] im vergleich zur Radeon 9800 Pro zu gewinnen? ich glaubs nicht - außer es wurde auch noch was an den pipes optimiert...

Rampage 2
2003-10-26, 20:40:10
Original geschrieben von GRiNSER
wäre ein 8x2 architektur genug, um viel mehr speed [bei gleicher taktrate] im vergleich zur Radeon 9800 Pro zu gewinnen? ich glaubs nicht - außer es wurde auch noch was an den pipes optimiert...

Vor allem bei AF wäre es schneller - AFAIK hat Demirug gesagt, dass 2 Textureinheiten pro Pipeline einen Leistungseinbruch beim AF abwenden -> also keine Leistungseinbrüche mehr beim AF. Außerdem halte ich 16x1 für etwas zu großzügig. Ist 12x1 überhaupt möglich? Normalerweise verdoppelt man immer - in diesem Fall würde man es ver1.5xen:D

GRiNSER
2003-10-26, 20:51:55
Original geschrieben von Rampage 2
Vor allem bei AF wäre es schneller - AFAIK hat Demirug gesagt, dass 2 Textureinheiten pro Pipeline einen Leistungseinbruch beim AF abwenden -> also keine Leistungseinbrüche mehr beim AF...

ja toll aber was bringt es außer bei AF?

...Ist 12x1 überhaupt möglich? Normalerweise verdoppelt man immer - in diesem Fall würde man es ver1.5xen:D
naja man kann ja die regeln auch mal ändern...

Demirug
2003-10-26, 20:53:31
Original geschrieben von Rampage 2
Vor allem bei AF wäre es schneller - AFAIK hat Demirug gesagt, dass 2 Textureinheiten pro Pipeline einen Leistungseinbruch beim AF abwenden -> also keine Leistungseinbrüche mehr beim AF.

Ich sagte mildern. Um den Leistungseinbruch komplett zu vermeiden reichen 2 BI-TMUs nichta aus. Wobei ich nicht glaube das ATI wieder auf 2 TMUs umschwenkt. Ich sehe da eher eine Tri-TMU. bzw eine TMU mit programmierbarem 4*4 Kernel filter.

Außerdem halte ich 16x1 für etwas zu großzügig. Ist 12x1 überhaupt möglich? Normalerweise verdoppelt man immer - in diesem Fall würde man es ver1.5xen:D

Klar geht 12*1. Ein R3XX Pixelprozessor arbeitet mit 4fach SIMD. 3 davon ergeben 12 Pixel/Takt. Wobei man sich dann immer noch was einfallen lassen muss wegen PS 3.0.

Xmas
2003-10-26, 20:57:26
Original geschrieben von Rampage 2
Vor allem bei AF wäre es schneller - AFAIK hat Demirug gesagt, dass 2 Textureinheiten pro Pipeline einen Leistungseinbruch beim AF abwenden -> also keine Leistungseinbrüche mehr beim AF. Außerdem halte ich 16x1 für etwas zu großzügig. Ist 12x1 überhaupt möglich? Normalerweise verdoppelt man immer - in diesem Fall würde man es ver1.5xen:D
2 Textureinheiten pro Pipeline bedeutet nicht dass man keinen Leistungseinbruch bei AF hat, nur weniger.

12x1 ist möglich (und halte ich auch für wahrscheinlich), allerdings muss sich ATI dann eine andere Methode zur Abstimmung der Blöcke suchen. Beim R3x0 ist ja jeweils ein Viererblock für eine "Schachbrettfarbe" zuständig, so können sie sich nie ins Gehege kommen, selbst wenn sie an 2 verschiedenen Dreiecken arbeiten.

mapel110
2003-10-26, 21:09:01
Original geschrieben von Rampage 2
3x schneller als 9600XT ist nicht verdammt schnell, weil dass teilweise selbst 'ne 9500Pro (!!!) schafft - z.B. in UT2003 unter 1600x1200x32Bit @ 6xAA+16xAF. 3x schneller als 9600XT bedeutet, dass es vielleicht 50% schneller als eine 9700Pro ist - und das schafft unter bestimmten Umständen schon eine 9800XT!!!

Realistisch gesehen, könnte man sagen, dass der R420 durchschnittlich 2x-2.5x schneller als eine 9700Pro sein wird - ab und zu auch 3x so schnell (bei hohen AA/AF-Stufen)

oje, schau dir besser nochmal ein paar benches an.

taktunterschied zwischen 9700 pro und 9800 XT sind ca 30 %(420 mhz als mittelwert wegen overdrive feature).
da können dann schon mal am ende keine 50% egal in welcher situation rauskommen.
9500 pro 3xmal so schnell wie 9600 xt?
http://www.3dcenter.org/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zj_bench_ut2003_d.php
0.1 fps abstand bei 1280er auflösung und 4xAA/8xAF

p.s. hört endlich auf, die 9500 pro schneller zu reden, als sie ist. das nervt.
sie taktet nur mit 275 core, während die 9600 XT mit 500 mhz taktet. allein das gleicht schon fast den füllratenunterschied aus.

GRiNSER
2003-10-26, 21:09:26
das heißt eigentlich is das ja schon sowas wie multichip in einem chip... :D
naja so ein schachbrett kann man doch erweitern oder? [auf 3 farben wenn wir schon bei schachbrett sind...]

Ailuros
2003-10-27, 02:26:04
Original geschrieben von robbitop
@Ailuros
mit den 200Mio habe ich lediglich einen R3(50) hochgerechnet (oder eher geschätzt) , der halt 16 Pipelines besitzt. Ohne jedglich Änderung im Featureset. Das muss für Loci NICHT zutreffen. Aber 3 Blöcke klingt sehr realistisch. Dann hätte ATi 12x1 Pipelines (um 12x2 nutzen zu können währe wohl ein zu tiefer Eingriff in die Pipelinestruktur nötig) zur Verfügung. Aber PS3 wird imo nur mit FBuffer machbar sein. Die Frage ist, ob man das Vertexarray des R400 nicht übernommen hat. So hätte man mit dieser Art "Patchwork" wohl relativ flott einen Konkurrenzfähigen Chip geschaffen...trotzdem bin ich skeptisch ob das für ATi in so einer kurzen Zeit realisierbar ist.

Wenn PS/VS3.0 dann macht wohl 12*1 oder 6*2 mehr Sinn oder?

Ailuros
2003-10-27, 02:38:08
Ja, aber obs so viel mehr bringt als HZ 3 weiss niemand

HyperZ= single stage hierarchical Z
HyperZ II= dual stage hierarchical Z
HyperZ III= triple stage hierarchical Z
HyperZ IV= quad stage hierarchical Z

Bis zu 5 stages sollte Hierarchical Z noch weiterhin hoeheres Potential aufzeigen; ob das stimmt weiss ich zwar nicht aber es macht mir persoenlich Sinn.

- 8 Vertex Shader Units
Wozu? Der Polycount ist nicht das Problem heutiger Grakas

Zu dem gibt es Multi arrays.

- Smoothvision 3.0 (höhere AA/AF-Modes*)
8xRGMS wäre schon recht nett, aber lieber nen besseres Grid.

Was der "Dichter" hier mit "besserem" grid meint ist mir fremd. Wenn schon dann waere wohl nach Smoothvision2.0 ein 8*8 grid zu erwarten. Was kann man da besser machen?

- 750MHz Chiptakt
- 1500MHz GDDR3 Speichertakt
Speicherausbau: 256MB

:lolaway: *jaul* *aechz* *snif* der erste war gut....OMG...:D

seahawk
2003-10-27, 07:38:36
Also ich gehe von einer 8x1 Lösung mit TriTMUs aus. Aber warten wir mal ab

nagus
2003-10-27, 09:40:48
Original geschrieben von seahawk
Also ich gehe von einer 8x1 Lösung mit TriTMUs aus. Aber warten wir mal ab

das ist IMHO zu wenig. es sind min. 12 pipes denke ich.

seahawk
2003-10-27, 10:07:00
Ach wieso, das hängt dann wieder von der Taktfrequenz ab. Wobei ich nicht glaube, dass der R420 ein ähnlicher Sprung wie der R300 wird.

12x1 und 16x1 ist glaube ich für Anfang 2004 noch abwegig.

Exxtreme
2003-10-27, 10:16:44
Und ich sage, das Teil wird eine 12x1-Architektur. :)

Fragt mich aber nicht woher ich das weiss. :)

seahawk
2003-10-27, 10:37:08
Also wirklich die 3xRV360 Architektur ??

Da ist dann aber ein vergleichsweise konservativer Ansatz.

Crushinator
2003-10-27, 10:39:35
Original geschrieben von seahawk
Also wirklich die 3xRV360 Architektur ?? Ich würde sagen: Eher die 3/4 R500 (ehemals R400) Architektur. :freak:

Exxtreme
2003-10-27, 10:49:53
Original geschrieben von seahawk
Also wirklich die 3xRV360 Architektur ??

Da ist dann aber ein vergleichsweise konservativer Ansatz. Naja, direkt 3x RV360 ist das nicht. Es gibt noch weitere Verbesserungen. Das Teil soll mit AA + AF rund doppelt so schnell sein wie eine R9700 Pro.

Ailuros
2003-10-27, 12:02:24
Original geschrieben von Exxtreme
Und ich sage, das Teil wird eine 12x1-Architektur. :)

Fragt mich aber nicht woher ich das weiss. :)

Mir ist lieber wenn Pipeline-zaehlen nur noch im Backend Sinn macht ;)

Ich würde sagen: Eher die 3/4 R500 (ehemals R400) Architektur.

Ein Glas ist entweder halbleer oder halbvoll; dementsprechend kann man je nach POV sagen dass R420=3/2 R3xx oder R420= 3/4 R5xx sein wird. Was macht mehr Sinn?

Ach wieso, das hängt dann wieder von der Taktfrequenz ab.

Bei so hoher Chip-Komplexitaet sollte man erstmal keine extravaganten Taktraten fuer den Anfang (fuer alle next generation chips) erwarten. R300 hatte ~Fruehling 2002 einen sign-off speed von ~250MHz. Wer die Rumour-mill verfolgt wird vielleicht schon gehoert haben wo etwa R420 momentan liegt.

seahawk
2003-10-27, 12:19:12
Ne habe ich noch nicht gehört. Hast Du einen Link ?? (clock speeds R420)

ow
2003-10-27, 12:24:18
.

Crushinator
2003-10-27, 12:39:46
Original geschrieben von Ailuros
Ein Glas ist entweder halbleer oder halbvoll; dementsprechend kann man je nach POV sagen dass R420=3/2 R3xx oder R420= 3/4 R5xx sein wird. Was macht mehr Sinn? *zustimm* und *erklär* daß mein Satz nur darauf abzielte, daß 3/2 R3xx aka 3/4 R5xx eben nicht 3 x RV3XX-Architektur bedeuten müßte. Die Anzahl der Pipes ist selbstverständlich bei allen 3 Varianten mathematisch gleich. =)

Höhnangst
2003-10-27, 12:49:44
Original geschrieben von ow
Das sehe ich auch so.
Mehr als 8x1 wird der R420 nicht haben.
Der R3xx hat doch auch schon 8x1 (bi oder tri?).
Woher glaubst du dann, dass die Mehrleistung beim R420 kommen soll? Nur durch einen höheren Takt bzw. füllratenschonende Techniken?

ow
2003-10-27, 12:53:39
.

StefanV
2003-10-27, 13:15:10
Original geschrieben von ow
Das sehe ich auch so.
Mehr als 8x1 wird der R420 nicht haben.

Denke ich nicht, da es fast schon schwachsinn wäre, wenn man einen 'neuen' Chip mit der gleichen Architektur wie dem Vorgänger aufn Markt schmeiße.

Nagut, NV hats 4x gemacht (nV15, nV20, nV25, nV30), nur wars damals 'ne andere Situation, da weit und Breit kein Konkurent in Sicht war...

8x1 TRI wirds mindestens sein, 16x1 Tri auf keinen Fall, 12x1 bi/tri wäre auch möglich...

Naja und wenn die R420 Pro Takt langsamer ist als 'ne R3x0, dann hat ATI irgendwas falsch gemacht :eyes:

Höhnangst
2003-10-27, 13:35:54
Original geschrieben von ow
Welche Mehrleistung? Gibt's schon Benches?
Nein, das nennt man "Logik". :D
Welchen Grund sollte ATi haben, den R420 langsamer (oder gleichschnell) wie einen R3xx zu machen? Oder meinst du der NV40 wird auch keine Mehrleistung bieten?

Außerdem sollten sich die von dir angesprochenen "leicht erhoehten Taktraten" normalerweise auch schon in Mehrleistung niederschlagen, sofern sich die Architektur nicht unerwartet zum Schlechten entwickelt. Weiterhin denke ich doch, dass sich nV und ATi in einem Wettkampf befinden und beide versuchen deshalb die schnellste Karte zu stellen, um Käufer zu werben.

Ailuros
2003-10-27, 13:58:44
Original geschrieben von seahawk
Ne habe ich noch nicht gehört. Hast Du einen Link ?? (clock speeds R420)

Ich kann nicht zu meiner email box linken oder? Man sollte sign-off speeds von etwa 400-450MHz erwarten.

Ailuros
2003-10-27, 14:00:48
Original geschrieben von ow
Das sehe ich auch so.
Mehr als 8x1 wird der R420 nicht haben.

Da ich so langsam allergisch werde mit dem Pipeline-Quatsch, sagen wir mal dass R420 =/> 12 arithmetic ops. Klingt das besser?

seahawk
2003-10-27, 14:07:59
Original geschrieben von Ailuros
Da ich so langsam allergisch werde mit dem Pipeline-Quatsch, sagen wir mal dass R420 =/> 12 arithmetic ops. Klingt das besser?

Das klingt sinnig :D

Ailuros
2003-10-27, 14:16:29
IMHO (und das geht auch fuer den NV40 thread):

Obwohl das Gegenteil behauptet wird, wuerde ich auf keine 100% PS/VS3.0 Komplianz fuer R420 spekulieren (aber ich lass das Fenster trotzdem offen); was ich aber erwarte ist dass ATI die gleich gute pro-MHz Leistung auch in dieser Generation erhalten wird.

Momentan sieht R420 nicht nach einem +30% Leistungs-Aufschwung aus, aber garantieren wuerde ich auch nichts. Jeder hint bis jetzt deutet auf einen sehr schnellen chip und ich will auch hoffen dass es der Fall bei ATI sowie NV sein wird. Kleine Leistungsspruenge sind langweilig und wenn ich was von feister Konkurrenz erwarte sind es wirkliche upgrades und nicht sidegrades.

My 2 cents :)

seahawk
2003-10-27, 14:25:43
Sehe ich ähnlich. Beim NV40 bin ich mir allerdings fast sicher, dass er voll PS/VS 3.0 sein wird.

Beim R420 vermute ich das diese Feature nur durch einen Workaround erreicht wird und in der Performance mäßig sein wird. Dafür dürfte die PS2.0 Power sehr hoch sein.

Ailuros
2003-10-27, 14:39:38
Es heisst trotzdem abwarten und Tee trinken. Ob ja oder nein finden wir leider erst nach der Ankuendigung heraus, da keiner eine klare Antwort darueber ausgibt.

aths
2003-10-27, 15:12:22
Original geschrieben von Liszca
8x2 Architektur kann man als gesichert sehen. Imo kann man von 8x2 keineswegs ausgehen. Ich denke, es wir bei x1 bleiben. Entweder 8x1 tri oder 16x1 bi.

Exxtreme
2003-10-27, 15:24:40
Hihi, ich bleibe dabei: 3 x 4 x 1. :D

Ich weiss nur nicht ob Bi-TMUs oder Tri-TMUs.

ow
2003-10-27, 15:40:32
.

zeckensack
2003-10-27, 16:19:59
IMO denkbar (und sinnvoll):
8x1 tri (2x4x1-Organisation?)
mehr ROPs pro Pipeline (3? => es bleibt bei 6xMSAA max; 4? => 8xMSAA wird eingeführt)
evtl 'Zixel'-Optimierungen (wieder eine ROP-Geschichte).
Ultrashadow, bzw das gleiche, nur anders benannt.

zur Begründung:
Shaderlastige Titel profitieren nicht mehr stark vom schnellstmöglichen Texturfilter (bi). Man könnte hier PR-mäßig die Filterqualität voll raushängen lassen, was ich bei der momentanen Konkurrenzsituation ("Intellisample") für geschickt halte.
Zixelfüllrate braucht's, um in Doom3 gut auszusehen. Für 3DMark03 ebenfalls hilfreich.
Die Kosten (die area) für diese Geschichten sind recht gering.


Shader:
VS3.0 sollte man schon erwarten, beim PS erwarte ich das noch nicht :)
Eine Verdopplung der 'Phasen', und damit des maximalen instruction count wäre allerdings schön.


edit:
Eine Performancesteigerung bei 'durchschnittlichen' Spielen würde bei so einem Design primär aus dem nun Füllratenfreien trilinearen Filter resultieren (sofern dieser genutzt wird, aber das wird er; zwar nicht immer, aber im Durchschnitt von vielen Spielen macht's IMO doch einen spürbaren Unterschied).

Und den Rest holt man sich über den Takt.


noch mehr edit:
An leckeren Gimmicks könnte ich mir Blending auf Float-Targets vorstellen. Vielleicht noch spezielle Maßnahmen für Post processing mit MSAA (eine Art spezieller fragment shader für den Transfer multisample buffer => RAMDAC-Buffer; die Idee habe ich noch nicht ganz zu Ende gesponnen).

Gast
2003-10-27, 16:45:30
Also wenn ATi nun auch noch für ein einziges Game, wenn auch dessen Engine so erfolgreich sein mag, wie die von Q3, ihre Archtitektur anpasst, dann muss ich echt langsam lachen.

Bei nVs (4[x2])x1 kam's mir schon irgendwie abstrus vor, aber damals war ja noch das Gerede von vielen Engines mit Z-Pass first in der DX9-Generation groß.

q@w

DrumDub
2003-10-27, 16:51:25
Original geschrieben von Gast
Also wenn ATi nun auch noch für ein einziges Game, wenn auch dessen Engine so erfolgreich sein mag, wie die von Q3, ihre Archtitektur anpasst, dann muss ich echt langsam lachen.

wohl eher weinen, weil die dann ganz schön blöde sind. ;)

zeckensack
2003-10-27, 17:19:40
Original geschrieben von Gast
Also wenn ATi nun auch noch für ein einziges Game, wenn auch dessen Engine so erfolgreich sein mag, wie die von Q3, ihre Archtitektur anpasst, dann muss ich echt langsam lachen.

Bei nVs (4[x2])x1 kam's mir schon irgendwie abstrus vor, aber damals war ja noch das Gerede von vielen Engines mit Z-Pass first in der DX9-Generation groß.

q@w Das Verhältnis Kosten/Nutzen ist ziemlich gut, und die Nummer mit den Benchmarks sollte man nicht unterschätzen, IMO. Zixel- und ROP-Optimierungen sind zwei Felder, die ausnahmsweise für die Ingenieure und für's Marketing angenehm sind.

Die Performance-Steigerung in den wirklich kritischen Engines (ie Performance noch nicht wirklich befriedigend, und/oder kritisch für's Marketing) ist IMO beträchtlich. 'Alte' Engines laufen ohnehin ganz gut. Hier würde man sich dann Mehrwert in Form von 'freier' Filterverbesserung und höherer AA-Füllrate holen, was auch Sinn macht, denn zB Q3-Engine in jeglicher Inkarnation ist ohne AA und nur bi-gefiltert wirklich nicht mehr grafiklimitiert.

Das hat wenig mit 'auf eine einzige Engine optimieren' zu tun, sondern eher damit, daß der andere Weg zur Performancesteigerung (mehr Pipelines) viel teuerer ist.

Für einfach gestrickte Engines brauche ich gerade das, was mir mehr Pipelines liefern (mehr color-fill) überhaupt nicht mehr. Anstatt nun die (tatsächlich noch benötigte) AA-Füllrate über mehr Pipelines zu steigern, komme ich mit einer ROP-Verbesserung zum gleichen Ergebnis, bei viel weniger Aufwand.

Crushinator
2003-10-27, 18:21:46
Original geschrieben von zeckensack
(...)
Für einfach gestrickte Engines brauche ich gerade das, was mir mehr Pipelines liefern (mehr color-fill) überhaupt nicht mehr. Anstatt nun die (tatsächlich noch benötigte) AA-Füllrate über mehr Pipelines zu steigern, komme ich mit einer ROP-Verbesserung zum gleichen Ergebnis, bei viel weniger Aufwand. Zecki, das hört sich alles ziemlich schlüssig an. Könnte man demnach davon ausgehen, daß R420 ggf. nur ein ROP-Verbesserter und auf 0.13µ geshrinkter R3XX mit ordentlich viel Takt werden könnte? Wenn ja, wie realistisch könnte man da noch VS/PS 3.0 reinquetschen? Oder noch wichtiger: Ist denn bei dem Vorhaben auch noch Platz für Every Angle Full TriAF™ vorhanden?

/edit: "Angel" hörte sich so ;( an.

zeckensack
2003-10-27, 18:47:59
Original geschrieben von crushinator
Zecki, das hört sich alles ziemlich schlüssig an. Könnte man demnach davon ausgehen, daß R420 ggf. nur ein ROP-Verbesserter und auf 0.13µ geshrinkter R3XX mit ordentlich viel Takt werden könnte? Wenn ja, wie realistisch könnte man da noch VS/PS 3.0 reinquetschen? Oder noch wichtiger: Ist denn bei dem Vorhaben auch noch Platz für Every Angel Full TriAF™ vorhanden? Keine Ahnung. Ich spekulier hier auch nur rum, halte das aber für eine gute Sache, die auch machbar ist.

AF-Verbesserung wäre auch gut, da muß man sich nur dazu überlegen, ob ATI nicht mit der aktuellen Implementierung 'zufrieden' sein kann. Immerhin spart's ein paar Takte, und man ist im Vergleich zur Konkurrenz BQ-mäßig nicht so viel schlechter. Als der Gegner noch NV25 hieß, war das natürlich anders. Nur daß wir uns verstehen, ich fänd's wirklich gut, sehe aber aktuell keinen Handlungsbedarf.

Btw wäre jegliches AF sowieso schon trilinear, "besser pro Takt" also, wenn meine 8x1 tri-Vermutung stimmt.

Zu den höheren Shader-Versionen habe ich ja bereits meinen Senf abgelassen. Ich würde erstmal schauen, wieviel Transistoren eigentlich eingeplant sind, bevor ich da drüber nachdenke. PS3.0 braucht IMO keine Sau ... das kann man sich für die nachfolgende Generation aufsparen. VS3 bietet viel mehr direkt umsetzbaren Mehrwert (und ist dank der Emulierbarkeit des VS auch früher in Software einsetzbar).

betasilie
2003-10-27, 19:45:32
Original geschrieben von nagus
du meinst R400 war für 2003 geplant, nicht 2004.

Der R400 war für Ende 2003 geplant, aber eine echte Verfügbarkeit hat wohl kaum jemand 2003 ernsthaft erwartet. ...

Original geschrieben von nagus
1Q2004 : R420/NV40 (2Q2004 PCI Express version: R423)
4Q2004 : R500/NV45 PCI Express und AGP Version

... IMHO wirds die NV45 wahrscheinlich ziehmlich schwer haben, es sei denn, der NV40 ist schon so extrem gut, was ich erhlich gesagt stark bezweifle.
Naja. Wenn es so aussehen sollte, dann wird der R420 wohl eine Krücke werden im Vergleich zum NV40.

Wenn der R420 (und ggf. Folgemodelle) das ist was ich denke, nämlich ein wirklich neuer Chip, dann wird er dem NV40 Paroli bieten können, aber mit dem R500 sollte es dann erst Anfang/Mitte 2005 was werden.

nagus
2003-10-27, 20:20:04
Original geschrieben von betareverse
Der R400 war für Ende 2003 geplant, aber eine echte Verfügbarkeit hat wohl kaum jemand 2003 ernsthaft erwartet. ...


Naja. Wenn es so aussehen sollte, dann wird der R420 wohl eine Krücke werden im Vergleich zum NV40.

Wenn der R420 (und ggf. Folgemodelle) das ist was ich denke, nämlich ein wirklich neuer Chip, dann wird er dem NV40 Paroli bieten können, aber mit dem R500 sollte es dann erst Anfang/Mitte 2005 was werden.

der R420 eine krücke??? da hab ich aber schon ganz andere sachen gelesen..... nämlich dass dieses "ding" das reinste DX9 monster wird und den NV40, der anscheinend noch immer an den selben krankheiten leidet wie der NV3x, bei dx9 shadern regelrecht in den boden stampfen wird.

ich glaube du unterschätzt ATi gewaltig... bzw. überschätzt nvidia.

AlfredENeumann
2003-10-27, 20:23:03
Original geschrieben von Exxtreme
Hihi, ich bleibe dabei: 3 x 4 x 1. :D

Ich weiss nur nicht ob Bi-TMUs oder Tri-TMUs.

Ich denke mal die haben gelernt und es werden Tri`s

Quasar
2003-10-27, 20:24:33
Original geschrieben von zeckensack
Das Verhältnis Kosten/Nutzen ist ziemlich gut, und die Nummer mit den Benchmarks sollte man nicht unterschätzen, IMO. Zixel- und ROP-Optimierungen sind zwei Felder, die ausnahmsweise für die Ingenieure und für's Marketing angenehm sind.

Die Performance-Steigerung in den wirklich kritischen Engines (ie Performance noch nicht wirklich befriedigend, und/oder kritisch für's Marketing) ist IMO beträchtlich. 'Alte' Engines laufen ohnehin ganz gut. Hier würde man sich dann Mehrwert in Form von 'freier' Filterverbesserung und höherer AA-Füllrate holen, was auch Sinn macht, denn zB Q3-Engine in jeglicher Inkarnation ist ohne AA und nur bi-gefiltert wirklich nicht mehr grafiklimitiert.

Das hat wenig mit 'auf eine einzige Engine optimieren' zu tun, sondern eher damit, daß der andere Weg zur Performancesteigerung (mehr Pipelines) viel teuerer ist.

Für einfach gestrickte Engines brauche ich gerade das, was mir mehr Pipelines liefern (mehr color-fill) überhaupt nicht mehr. Anstatt nun die (tatsächlich noch benötigte) AA-Füllrate über mehr Pipelines zu steigern, komme ich mit einer ROP-Verbesserung zum gleichen Ergebnis, bei viel weniger Aufwand.

Dem will ich nicht widersprechen, aber bislang habe ich noch von keiner Engine gehört, die auf Z-Pass-First und massives Stencil-Shadowing setzte, ausser eben der von D3.

betasilie
2003-10-27, 20:56:23
Original geschrieben von nagus
der R420 eine krücke??? da hab ich aber schon ganz andere sachen gelesen..... nämlich dass dieses "ding" das reinste DX9 monster wird und den NV40, der anscheinend noch immer an den selben krankheiten leidet wie der NV3x, bei dx9 shadern regelrecht in den boden stampfen wird.

ich glaube du unterschätzt ATi gewaltig... bzw. überschätzt nvidia.
Ich habe nie behauptet, dass der R420 eine Krücke wird. ;) Ich habe behauptet, dass wenn der R500 noch 2004 kommen sollte, wie Du beahuptest, der R420 ein R3xx mit minimalen Verbesserungen ist.

Wenn der R420 allerdings ein richtig schellen Stück wird, was ich auch glaube :), dann wird der R500 imo erst irgendwann 2005 kommen, denn wieso sollte ATI zwei komplett neue Chipdesigns innerhalb von weniger als 12Monaten bringen? Das wäre viel zu teuer.

Höhnangst
2003-10-27, 21:21:24
Original geschrieben von betareverse
Ich habe nie behauptet, dass der R420 eine Krücke wird. ;) Ich habe behauptet, dass wenn der R500 noch 2004 kommen sollte, wie Du beahuptest, der R420 ein R3xx mit minimalen Verbesserungen ist.
:???: :???: :???:
Original geschrieben von betareverse
Naja. Wenn es so aussehen sollte, dann wird der R420 wohl eine Krücke werden im Vergleich zum NV40.

Crushinator
2003-10-27, 22:24:03
Original geschrieben von zeckensack
(...)
Zu den höheren Shader-Versionen habe ich ja bereits meinen Senf abgelassen. Ich würde erstmal schauen, wieviel Transistoren eigentlich eingeplant sind, bevor ich da drüber nachdenke. PS3.0 braucht IMO keine Sau ... das kann man sich für die nachfolgende Generation aufsparen. VS3 bietet viel mehr direkt umsetzbaren Mehrwert (und ist dank der Emulierbarkeit des VS auch früher in Software einsetzbar). :kratz2: OK, nehmen wir jetzt einfach mal an, daß sie 180 bis ~200 Millionen Transistoren eingeplant hätten. Was könnte man daraus alles basteln, wenn man dabei wüßte daß der Konkurrenz-Chip PS/VS 3.0 mitbringen soll? Würde man evtl. dann auf mehr als 8x1 setzen und dabei ggf. auf irgendwas anderes verzichten? Ergäbe das einen Sinn?

betasilie
2003-10-27, 22:38:59
Original geschrieben von Höhnangst
:???: :???: :???:
Mhhh. Ist das so missverständlich ausgedrückt?

Meine Meinung:
Wenn der R500 wirklich 2004 kommt, dann wird der R420 eine Krücke sein, da er dann kein wirklich neuer Chip sein wird im Vergleich zum R3xx, da ATI nicht innerhalb von weniger als 12 Monaten zwei neue Chipgenrationen veröffentlichen wird.

... Mein Satz bezog sich also auf das Szenarion, welches Nagus vorstellt. Ich persönlich hoffe auf einen wirklich innovativen R420, so dass ein R500 nicht so schnell notwendig wird. ;)

reunion
2003-10-27, 22:51:17
Also falls der R420 wirklich auf dem R3xx aufbaut, dann glaube ich mindestens an 3x4x1(oder 4x4x1), alleine schon deswegen da der R3xx "nur" 107 Mio Transistoren hat und man praktisch die Transistorzahl verdoppeln könnte (gabs da nichtmal ne Aussage eines ATI-Mitarbeiters, der von "hunderten Millionen Transistoren" Sprach??)

Falls der R420 allerdings wirklich PS/VS3.0 unterstützt, was ich nicht glaube, dann glaub ich eher an 2x4x1tri da die zusätzlichen Features sicherlich eine Menge Transitoren schucken würden...

-130nm low-k
-~200Mio Transistoren
-3x4x1tri(12x1)
-~500 mhz Chiptakt
-~500 mhz DDRII Ramtakt
-PS2.0
-VS3.0

Aquaschaf
2003-10-27, 22:56:49
Aber so wie Nagus es geschrieben hat sieht es doch voraussichtlich aus. Der originale R400 wurde ja gecancelt und der R420 stellt ja irgendwie eine Mischung aus R300 und dem geplanten R400 dar - es wurde ja auch mal vermutet dass das Ding R390 heißen würde. Nur warum soll er dann im Vergleich zum NV40 eine Krücke sein? Der NV40 wird doch prinzipiell auch auf dem NV35 aufbauen, da ist keine Performance-Revolution zu erwarten.

betasilie
2003-10-27, 23:42:50
Original geschrieben von Aquaschaf
Der NV40 wird doch prinzipiell auch auf dem NV35 aufbauen, da ist keine Performance-Revolution zu erwarten.
Woher kommt denn diese Annahme?

KM
2003-10-28, 00:16:36
Original geschrieben von Aquaschaf
Aber so wie Nagus es geschrieben hat sieht es doch voraussichtlich aus. Der originale R400 wurde ja gecancelt und der R420 stellt ja irgendwie eine Mischung aus R300 und dem geplanten R400 dar - es wurde ja auch mal vermutet dass das Ding R390 heißen würde. Nur warum soll er dann im Vergleich zum NV40 eine Krücke sein? Der NV40 wird doch prinzipiell auch auf dem NV35 aufbauen, da ist keine Performance-Revolution zu erwarten.
Der R400 wurde nicht gecancelt: zu R500 umgelabelt und verschoben (oder falsch verstanden?)

Gast
2003-10-28, 00:37:17
Original geschrieben von nagus


ich glaube du unterschätzt ATi gewaltig...

nagus warte doch mal ein halbes jahr dann siehst du wer wenn unterschätzt nv wird nun VOLLGASS geben und wo da ati bleiben wird ist nur ein LACHER

Aquaschaf
2003-10-28, 00:44:52
Original geschrieben von betareverse
Woher kommt denn diese Annahme?

Weil es logisch ist. Warum sollte man für etliche Millionen eine Architektur entwickeln, um dann wieder "von vorne" anzufangen?

AlfredENeumann
2003-10-28, 00:51:49
Original geschrieben von Gast
nagus warte doch mal ein halbes jahr dann siehst du wer wenn unterschätzt nv wird nun VOLLGASS geben und wo da ati bleiben wird ist nur ein LACHER

solch einen Spruch haben wir letzes Jahr auch gehört. Bevor die 5800Ultra releast wurde.
Für ein komplettes Redesign sollte es IMHO für den NV40 zu spät gewesen sein. Also glaube ich nicht das er der Bringer sein wird. Denke mal aber das der NV45 einige Brikets mehr im Feuer hat.

betasilie
2003-10-28, 01:06:22
Original geschrieben von Aquaschaf
Weil es logisch ist. Warum sollte man für etliche Millionen eine Architektur entwickeln, um dann wieder "von vorne" anzufangen?
Logisch wäre es, wenn NV mit aller Entwicklungsgewalt einen NV40 zustande bringen würde, der ATI das fürchten lehrt. Ob das nun mit einem unwahrscheinlichen komplett neueentwickelten Chip stattfinden wird, oder mit einem gutem Evolutionschip weiß ich zwar nicht, aber NV muss mit dem NV40 was großes bringen. Die Leute bei NV sind doch nicht doof!

Ailuros
2003-10-28, 01:31:16
Original geschrieben von reunion
Also falls der R420 wirklich auf dem R3xx aufbaut, dann glaube ich mindestens an 3x4x1(oder 4x4x1), alleine schon deswegen da der R3xx "nur" 107 Mio Transistoren hat und man praktisch die Transistorzahl verdoppeln könnte (gabs da nichtmal ne Aussage eines ATI-Mitarbeiters, der von "hunderten Millionen Transistoren" Sprach??)

Falls der R420 allerdings wirklich PS/VS3.0 unterstützt, was ich nicht glaube, dann glaub ich eher an 2x4x1tri da die zusätzlichen Features sicherlich eine Menge Transitoren schucken würden...

-130nm low-k
-~200Mio Transistoren
-3x4x1tri(12x1)
-~500 mhz Chiptakt
-~500 mhz DDRII Ramtakt
-PS2.0
-VS3.0

Waermer ;)

Ailuros
2003-10-28, 01:36:56
Original geschrieben von betareverse
Logisch wäre es, wenn NV mit aller Entwicklungsgewalt einen NV40 zustande bringen würde, der ATI das fürchten lehrt. Ob das nun mit einem unwahrscheinlichen komplett neueentwickelten Chip stattfinden wird, oder mit einem gutem Evolutionschip weiß ich zwar nicht, aber NV muss mit dem NV40 was großes bringen. Die Leute bei NV sind doch nicht doof!

Keiner sollte NV unterschaetzen, aber man sollte auch nicht vergessen dass der Basis-design vor mehr oder weniger 1.5 Jahr begonnen wurde. Ich wuerde eher sagen dass die Konkurrenz genauso feist wie in diesem Jahr sein wird und es ist fraglich ob es einen wahren und klaren Gewinner geben wird.

Zu einem komplett neuentwickelten chip gab es nicht genug Zeit.

seahawk
2003-10-28, 09:06:32
Ist ja eigentlich auch nicht notwendig. Sagen wir 8x2 für den NV40, dann sollte der ausreichend schnell sein. Die Shadereinheiten sind bereits sehr flexibel. Die schlechte Leistung kann man evtl. durch geringe Änderungen (Temp-Register usw.) anpassen.

Es ist ja nicht so, dass der NV35 oder NV38 extrem schlecht wären.

Bei ATI scheint es sich wohl wirklich auf 12x1 rauszukristallisieren.

ow
2003-10-28, 09:35:14
.

mapel110
2003-10-28, 09:40:47
Original geschrieben von ow
???
Wieso? Weil hier viele das gern haetten?

Es wird eher bei 8x1 bleiben als das es 12x1 geben wird.

ich glaube auch, dass es bei 8x1 bleiben wird. ist schliesslich noch recht jung, soviel rohpower. da gibts bestimmt noch einige kniffe, das ganze erstmal effizienter zu machen.

nagus
2003-10-28, 10:36:00
Original geschrieben von Gast
nagus warte doch mal ein halbes jahr dann siehst du wer wenn unterschätzt nv wird nun VOLLGASS geben und wo da ati bleiben wird ist nur ein LACHER

und worauf begründet sich deine "aussage", GAST?

in04
2003-10-28, 11:01:39
Also ich spekuliere mal mit:
Da der ursprüngliche R400 verschoben wurde weil er Technisch/Preislich zuweit war, habe ich mir mal überlegt was der ursprüngliche R400 den für PS/VS haben sollte. Da der R400 mit an Sicherheit grenzender Wahrscheinlichkeit ein DirectX 9, d.h. PS/VS 3.0 Chip, war glaube ich das der R420 VS 3.0 und PS 2.+ sein wird.
Soweit ich weiß, korrigiert mich wenn ich mich irre, erfordert PS 3.0 32 Bit. Ich bin mir ziemlich sicher das ATI gesagt hat der nächste Chip (R420) wird aber 24 Bit haben, also kein PS 3.0.
Der R420 wird in .13 low-k gefertigt werden, darauf deutet der 9600XT hin. Die Anzahl der Transistoren liegt meiner Meinung nach bei 200+ Mios und 500+ MHz für GPU und 500+ für GDR3 Speicher sind auch drin.
Ich vermute der Chip wird auf der CeBit zu sehen sein und eine 12x1 Architektur haben. Für die Anzahl der Piplines gibt es allerdings noch keine guten Hinweise. Auch die Tri Units sind hoch spekulativ, aber hoffen wir das es welche sind.

Crushinator
2003-10-28, 11:07:44
Original geschrieben von reunion
-130nm low-k
-~200Mio Transistoren
-3x4x1tri(12x1)
-~500 mhz Chiptakt
-~500 mhz DDRII Ramtakt
-PS2.0
-VS3.0 Oh ja, das würde mir gut gefallen. *daraufhoff*

reunion
2003-10-28, 11:35:37
Original geschrieben von ow
???
Wieso? Weil hier viele das gern haetten?

Es wird eher bei 8x1 bleiben als das es 12x1 geben wird.

Weil es für ATI ein leichtes währe einfach noch einen 4x1 "Block" hinzuzufügen man dadurch deutlich Mehrleistung erreichen könnte und die Transistorenzahl durchaus noch im grünen Bereich liegen würde...

nagus
2003-10-28, 11:40:52
hmm... möglich das es "nur" PS2.+ und VS3.0 wird... brauchen würde PS3.0 sowieso im moment kein schwein. vielleicht wirds aber doch eine art PS3.0, nur eben mit 24bit. (falls das stimmt, dass für 100% ps3.0 32bit erforderlich sind). wahrscheinlich wirds das ding dann eher langsam sein in verbindung mit ps3.0... is aber auch nicht so wichtig, hauptsache die features werden unterstützt (für entwickler und marketing zwecke)

in dem fall wäre dann der R500 ATIs erster wirklich 100%iger DX9.(1) chip (vielleicht teilweise sogar schon ansatzweise mit DX10 features), der von VS3.0 über PS3.0 alles unterstützt... und das noch in top geschwindigkeit.


vielleicht wirds ca. so ablaufen....

1Q2004: Radeon 9900PRO launch (CeBit?)
- lowK 0,13µm fertigung
- > 180mio transistoren
- 12x1 (3xRV360)
- 500/500Mhz (GDDR3) 256bit 256MB
- featuresmäßig fast gleich wie R350
- > 9000 3dmark2003

ODER...
- lowK 0,13µm fertigung
- > 150mio transistoren
- 8x1... oder was ähnliches 8xirgendwas
- 600Mhz/500Mhz GDDR3 (megaherz moster)
- > 8000 3dmark2003


3Q2004 Radeon 9900ULTRA?
- optimierter fertigungsprozess
- +10& bis 20% taktfrequenz

4Q2004/1Q2005: Radeon NexGen (Comdex?)
- <= 0,11µm fertigung
- > 260mio transis
- 16x1
- 550/600 GDDR3 (min. 256MB min. 256bit)
- FULL DX9 (PS3.0 VS3.0 etc, ansatzweise DX10)
- > 13000 3dmark2003


dazwischen irgendwo kommt NV40 mit 8x2 und 600Mhz/600Mhz takt, kann R420 knapp in die schranken weise, wird aber durch eine zwischenstufen von ATI wieder überholt...

seahawk
2003-10-28, 12:06:11
Wo dann die Zwischenstufen wieder vom NV45 überholt werden.

nagus
2003-10-28, 12:15:21
Original geschrieben von seahawk
Wo dann die Zwischenstufen wieder vom NV45 überholt werden.

der jedoch vom R500 überrumpelt und in grund und boden gestampft wird :)

ow
2003-10-28, 13:06:55
.

ow
2003-10-28, 13:09:47
.

Börk
2003-10-28, 13:12:13
Original geschrieben von ow
Erstens das und zweitens kan man nicht erwarten, dass die Features aufgebohrt werden UND noch die Pipeanzahl erhoeht wird. Das laeuft auf zu viele Transis hinaus.

Schon eine "1,5xR300"-Architektur (12 Pixelpipes, 6VS) kaeme auf etwa 150Mio Transis.

Ein R300 (8x1) auf VS/PS3 aufgebohrt duerfte auch bei fast 150 Mio liegen.

ergo:
12x1 und aufgebohrtes Featureset sind fuer ATi nicht drin, weil damit die 200 Mio Transis Grenze wohl locker ueberschritten werden duerfte.

Und ich rechne eher mit aufgebortem Featureset als mit mehr Pipes fuer den R420.
Ich glaube kaum, dass sie neben 4 zusätzlichen Pipes auch noch die VS verstärken werden, da die r3xx Chips bei gleichem Takt in Sachen Polygonendurchsatz eh weit vorm NV38 liegen. Eher glaube ich da an ein 12x1 Design mit 4 VS, das dürfte dann so ca. bei 135-140M Transistoren liegen. Da ist meiner Meinung nach noch gut Platz für PS/VS mit besseren features...

ow
2003-10-28, 13:16:30
.

ow
2003-10-28, 13:20:45
.

Labberlippe
2003-10-28, 13:22:29
Original geschrieben von nagus
und worauf begründet sich deine "aussage", GAST?

Auf das übliche, damals haben "Gäste" schon solche Ansagen abgelasen und haben behauptet der "fön" wird die R300 wegblasen.....

Naja im Gewissen sinne hatten Sie auch Recht... .-)

Ich glaube auch eher das auf ein 8x1 gegangen wird.
Dazu müsste ATi in meine Augen zuviel am Chip ändern.

Ich glaube eher ein paar Funktionen mehr die keiner braucht und ein besserer Fertigungsprozess.

Aber lassen wir uns mal überraschen.

Gruss Labberlippe

seahawk
2003-10-28, 13:24:25
Original geschrieben von nagus
der jedoch vom R500 überrumpelt und in grund und boden gestampft wird :)

Wie es dem R500 mit dem NV50 passieren wird.

Oder lassen wir jetzt den Quatsch ?? Es ist doch wohl eher wahrscheinlich, dass sich der gegenwärtige Zustand des Kpof-an-Kopfrennens erhalten bleibt.

Börk
2003-10-28, 13:39:16
Original geschrieben von ow
Mit wieviel Transis rechnest du denn?
Also ich glaube nicht an mehr als etwa 150Mio.
Ein ATI PR-Dude hat mal was von "mehreren Millionen Transistore" gelabbert, d.h. also mind 200 Mio.
Ich weiss jetzt auch nicht 100% ob ich das glauben soll, aber es ist schon möglich, dann aber wohl mit niedrigerem Takt...

Demirug
2003-10-28, 13:43:53
Original geschrieben von ow
Ich glaube du irrst hier (kann aber auch sein, dass ich irre:D). Die Spezifikation fuer VS/PS3 ist ja in DX9 schon drin und damit muesste FP24 fuer den PS reichen.

Ja, die Genauigkeiten für PS 3.0 sind wie für 2.0.

Es koennte nur Problem geben, weil der VS3 (btw. VS Operationen laufen immer mit FP32 ab) IIRC Zugriff auf Texturen hat und diese wiederum ja von den PS-Units zuvor erst einmal errechnet worden sein koennten.

Die sind dann eben nicht so genau.

Crushinator
2003-10-28, 14:10:01
Original geschrieben von ow
12x1 und aufgebohrtes Featureset sind fuer ATi nicht drin, weil damit die 200 Mio Transis Grenze wohl locker ueberschritten werden duerfte. Wenn man sich aus den ganzen Gerüchten bzw. bekannten Details etwas zusammenreimen kann, läuft es IMHO darauf hinaus, daß der Chip zwischen 180 und 200 Mil. Transis mitschleppen dürfte. Wenn diese Annahme der Wahrheit entspräche, wären VS3, PS2+ und 12x1Tri == ~1,9 x R300 drin, so einfach ist das aus meiner Sicht. ;)
Und ich rechne eher mit aufgebortem Featureset als mit mehr Pipes fuer den R420. Ich rechne nur mit sinnvollen oder besser gesagt praktisch nutzbaren (weil ausreichend schnellen) Aufbohrungen, was featureset angeht.

Quasar
2003-10-28, 14:24:29
Wie ist denn das in letzter Zeit? Bei den meisten Herstellern sehe ich kaum Werbung mit Chiptakt, eher Speicherfrequenz wird in den Vordergrund gerückt.

Insofern halte ich es durchaus für möglich, daß die Chips eher paralleler, als höher taktend werden.

robbitop
2003-10-28, 14:44:26
wobei der Chiptakt doch gut angestiegen ist in letzter Zeit...

Trilineare TMUs würde ich nicht unbedingt als gesichert betrachten, denn dazu macht man viel zu viel optimierungen im Treiber, bzgl bilinearer Filterung.

Trilineare TMUs sind nichts neues und nicht deutlich komplexer als bilineare TMUs...imo hätten sie das schon im R300 machen können, wenn sie es gewollt hätten.
Ich denke mal man wird es so sehen, dass trilineare TMUs dank treiberoptimierungen nicht den gewünschten Effekt in der Praxis bringen um den Mehraufwand an Zeit und Transistoren zu rechtfertigen.
Ganz krass: X*2 Beim R3xx ..bringt nur was beim AF, deswegen nicht implementiert...

ow
2003-10-28, 14:53:59
.

betasilie
2003-10-28, 15:00:23
Original geschrieben von ow
Traeum weiter.
ATi hat es bislang noch nicht einmal geschafft einen Chip >100 Mio Transis in 0.13 zu fertigen.
200Mio ist da reines Wunschdenken. Mehr als 150 werden es nicht sein.
Ack. Ich denke bis 160Mio sind drin, alles darüber hinaus ist Wunschdenken.

Crushinator
2003-10-28, 15:04:18
Original geschrieben von ow
Traeum weiter. Gleichfalls.
ATi hat es bislang noch nicht einmal geschafft einen Chip >100 Mio Transis in 0.13 zu fertigen.
200Mio ist da reines Wunschdenken. Mehr als 150 werden es nicht sein. Ernsthaft: Erwartest Du wirklich nur irgendein ernsthaftes Kommentar zu diesem Flameversuch?

betasilie
2003-10-28, 15:07:39
@crushinator
Glaubst Du ernsthaft an 200Mio Tranistoren beim R420? Ich nicht, aber wenn es so wäre, würde ich mich freuen. ;)

ow
2003-10-28, 15:13:57
.

ow
2003-10-28, 15:15:47
.

BigBen
2003-10-28, 15:21:33
Wenn ATi einen Chiphersteller gefunden hätte bzw. es einen gäbe, welcher für (zukünftige) Grafikprozessoren eine gute 0.13 micron Produktionsausbeute zu einem akzeptablen Preis hinbekonmmt, wäre man mit Sicherheit schon auf den 0.13 micron Fertigungsprozess umgestiegen und könnte z.B. dem R420 auch mehr Transistoren spendieren ...

just my 2 € Cents ;)

[Edit]: Ich glaube, das sich ATi in diesen Fall nach den Chipherstellern richten muss, oder liegt es etwa doch an deren Chip-Design, welches sich in sener Grundstruktur nicht für 0.13 eignet?

Gruß
Ben

Crushinator
2003-10-28, 15:34:29
Original geschrieben von ow
:lol:
hast du mal wieder keine Argumente?
Und btw., Fakten darzulegen hat mit Flamen nix zu tun. ow, wenn ich es so ausdrücken würde, wie Du's am liebsten hast, würde ich mir möglicherweise Punkte einfangen. ;) Deshalb formuliere ich's lieber so: Ich brauche mich weder zu profilieren, noch auf andere rumzuhacken. Ich lache mich lieber im stillen tot und genieße weiter die herrliche Such-Engine von Google gepaart mit Informationen eines langjährigen Partners und ehemligen Arbeitgebers, um dann zu entscheiden, wer zu was beim Chip-Design fähig ist.

So, jetzt träumt nur weiter, oder auch nicht. ;)

EOD

seahawk
2003-10-28, 15:41:22
Die 200 Millionen Transitoren wird imo keiner mit der nächsten Generation packen. Um 180 Millionen sind möglich.

Ob das für eine 12x1 Struktur + PS/VS 3.0 (und das wird der nächste Marketinghammer) ausreicht, muss jeder für sich entscheiden.

Besonders auch ob diese relativ fixen Pipes überhaupt noch Sinn machen bei einem solchen Chip. Oder ob ein flexibelers Design mehr Sinn macht. (Pixelprozessor)

Crushinator
2003-10-28, 15:47:33
Original geschrieben von betareverse
@crushinator
Glaubst Du ernsthaft an 200Mio Tranistoren beim R420? Ich nicht, aber wenn es so wäre, würde ich mich freuen. ;) Es kommt drauf an, was genau das verwerfen vom ursprünglichen R400 bedeutet. Wenn das jenes bedeutet was viele vermuten, nämlich daß wenn R400 tatsächlich als R500 weiterentwickelt würde, dann daß jene R420 ein kastrierter R500 sei. Letztgenannter wird soweit die Informationen meinerseits stimmen sollten weit mehr als 200 Mill. Transistoren haben, so zumindest die Planung.

reunion
2003-10-28, 16:07:41
Original geschrieben von ow
Erstens das und zweitens kan man nicht erwarten, dass die Features aufgebohrt werden UND noch die Pipeanzahl erhoeht wird. Das laeuft auf zu viele Transis hinaus.


Sehe ich nicht so ;)

Schon eine "1,5xR300"-Architektur (12 Pixelpipes, 6VS) kaeme auf etwa 150Mio Transis.


Der R300 besteht aber nicht nur aus Pixelpipes, somit würde eine erhöhung der Pipes auf 12x1 nie eine Transistorenerhöhung von 50% mit sich bringen...

Ein R300 (8x1) auf VS/PS3 aufgebohrt duerfte auch bei fast 150 Mio liegen.


Kann schon sein...

ergo:
12x1 und aufgebohrtes Featureset sind fuer ATi nicht drin, weil damit die 200 Mio Transis Grenze wohl locker ueberschritten werden duerfte.


Wenn du Gerüchte um Loci stimmen sollten, dann gibt es aber kein aufgebortes Featureset! Sondern lediglich einen R3xx der dank F-Buffer PS3.0 fähig wird...

Und ich rechne eher mit aufgebortem Featureset als mit mehr Pipes fuer den R420.


Ansichtsache ;)

Börk
2003-10-28, 16:08:14
Original geschrieben von ow
Jaja, die PR-Dudes.:D

Es hat noch keiner solch komplexe Chips entwickelt, wieso gehen dann eigentlich alle davon aus, dass "sowas leicht moeglich ist"??
Jeglichen Realitaetssinn verloren?
Kann mir das einer mal erklaeren?
Also wenn es NVidia schon vor nem halben Jahr geschafft hat 130 Mio Transis im 0.13µ Prozess zu packen, so denke ich schon, dass es ATI ein Jahr später möglich sein wird, bei der Verwendung eines besseren Prozesses (0.13µ, low-k) 40%-50% mehr Transistoren in einen Chip zu packen.
Und nein, auch ATI dürfte mittlerweile genug Erfahrung mit dem Prozess haben und es wird ihnen auch möglich sein weitere Erfahrung damit zu bekommen, da der Launch ja noch in ferner Zukunft steht. Mir ist klar, dass damit kein 600 Mhz oder dergleichen möglich sein werden, aber 450Mhz sind imho mind. drin...

P.S.: Beim R300 hat es auch niemand für möglich gehalten, dass man fast doppelt so viele Transisitoren wie beim Vorgänger in einen Chip pflanzt, ohne dabei beim Takt Kompromisse eingehen zu müssen.

reunion
2003-10-28, 16:12:16
Original geschrieben von nagus
hmm... möglich das es "nur" PS2.+ und VS3.0 wird... brauchen würde PS3.0 sowieso im moment kein schwein. vielleicht wirds aber doch eine art PS3.0, nur eben mit 24bit. (falls das stimmt, dass für 100% ps3.0 32bit erforderlich sind). wahrscheinlich wirds das ding dann eher langsam sein in verbindung mit ps3.0... is aber auch nicht so wichtig, hauptsache die features werden unterstützt (für entwickler und marketing zwecke)

in dem fall wäre dann der R500 ATIs erster wirklich 100%iger DX9.(1) chip (vielleicht teilweise sogar schon ansatzweise mit DX10 features), der von VS3.0 über PS3.0 alles unterstützt... und das noch in top geschwindigkeit.


vielleicht wirds ca. so ablaufen....

1Q2004: Radeon 9900PRO launch (CeBit?)
- lowK 0,13µm fertigung
- > 180mio transistoren
- 12x1 (3xRV360)
- 500/500Mhz (GDDR3) 256bit 256MB
- featuresmäßig fast gleich wie R350
- > 9000 3dmark2003

ODER...
- lowK 0,13µm fertigung
- > 150mio transistoren
- 8x1... oder was ähnliches 8xirgendwas
- 600Mhz/500Mhz GDDR3 (megaherz moster)
- > 8000 3dmark2003


3Q2004 Radeon 9900ULTRA?
- optimierter fertigungsprozess
- +10& bis 20% taktfrequenz

4Q2004/1Q2005: Radeon NexGen (Comdex?)
- <= 0,11µm fertigung
- > 260mio transis
- 16x1
- 550/600 GDDR3 (min. 256MB min. 256bit)
- FULL DX9 (PS3.0 VS3.0 etc, ansatzweise DX10)
- > 13000 3dmark2003


dazwischen irgendwo kommt NV40 mit 8x2 und 600Mhz/600Mhz takt, kann R420 knapp in die schranken weise, wird aber durch eine zwischenstufen von ATI wieder überholt...

ich glaube im großen und ganzen bleibt es bei einem Kopf an Kopf rennen, wobei ich auch bei NV40 nicht von 8x2 ausgehn würde, da eine verdoppelung der Pipelines plus PS3.0/VS3.0 support den Chip wohl zusehr aufblähen würde...
Und da der Nv3x schon 130Mio Transistoren hat halte ich eine verdoppelung für unrealistisch.

ow
2003-10-28, 16:32:01
.

reunion
2003-10-28, 16:35:00
Original geschrieben von ow
Du willst von NV auf ATi schliessen? Recht gewagt wuerde ich meinen.
Tatsache ist immer noch, dass Ati nicht mehr als 75Mio Transis in 0.13 fertigt, wenn sie diese Zahl zum R420 verdoppeln, dann ist das schon gut.
Viel mehr wird aber nicht drin sein, 200Mio sind nicht machbar.

Natürlich ow, NV ist ATI natürlich haushoch überlegen :bonk:
Nur blöd das NV den NV3x beim gleicher "Hersteller" gefertigt hat wie ATI den R420 fertigen wird, womit man sehrwohl von NV auf ATI schließen kann...

Quasar
2003-10-28, 16:36:38
Original geschrieben von robbitop
wobei der Chiptakt doch gut angestiegen ist in letzter Zeit...

Ist er, keine Frage. Nur geworben wurde damit IIRC kaum, eher mit AA-Füllrate und Speichertakt.

Börk
2003-10-28, 16:59:20
Original geschrieben von ow
Du willst von NV auf ATi schliessen? Recht gewagt wuerde ich meinen.
Tatsache ist immer noch, dass Ati nicht mehr als 75Mio Transis in 0.13 fertigt, wenn sie diese Zahl zum R420 verdoppeln, dann ist das schon gut.
Viel mehr wird aber nicht drin sein, 200Mio sind nicht machbar.
Ich glaube kaum, dass ATI NV da hinterherhinkt. Bis jetzt hat ATI den 0.13 Prozess eben nur für den RV3xx benutzt, weil ein Redesigns des ursprünglichen R300 einfach viel zu uneffektiv wäre. Da reizt man lieber den 0.15µ Prozess noch ein bisschen aus.
Das heisst aber noch lange nicht, dass sie es nicht hinkriegen würden...

P.S.: Achja am Transistorencount Unterschied von RV350 und R350 sieht man ja wieviele Transistoren 4 Extra Pipes und 2 VS kosten. Nämlich ca. 30 Mio. Wenn man jetzt zusätzlich die 2 extra VS weglässt und nur mehr Pipes draufhaut, dann ist man bei ca. 130 Mio Transistoren. Das Hört sich doch recht gut an ;)

nagus
2003-10-28, 17:32:04
Original geschrieben von reunion
ich glaube im großen und ganzen bleibt es bei einem Kopf an Kopf rennen, wobei ich auch bei NV40 nicht von 8x2 ausgehn würde, da eine verdoppelung der Pipelines plus PS3.0/VS3.0 support den Chip wohl zusehr aufblähen würde...
Und da der Nv3x schon 130Mio Transistoren hat halte ich eine verdoppelung für unrealistisch.

da könntest du recht haben... aber vielleicht muss nvidia für PS3.0 und VS3.0 nimmma sooo viel ändern. immerhin kann das ding schon a bissal mehr als der R300 ... nur eben laaaaaaaaaaaangsam.

... aber wenn die gerüchte um die schwache DX9 leistung des nv40 sich bewarheiten, dann nat nvidia ein problem. ein gewaltiges nämlich. denn nur mit doom3 als zugpferd (und marketinglokomotive ;) .. ob das reicht? wenn R420 bei dx9 titeln wieder so überlegen ist wie jetzt R360 vs. NV38... dann wird eng für NV.

nagus
2003-10-28, 17:36:23
Original geschrieben von burk23
Ich glaube kaum, dass ATI NV da hinterherhinkt. Bis jetzt hat ATI den 0.13 Prozess eben nur für den RV3xx benutzt, weil ein Redesigns des ursprünglichen R300 einfach viel zu uneffektiv wäre. Da reizt man lieber den 0.15µ Prozess noch ein bisschen aus.
Das heisst aber noch lange nicht, dass sie es nicht hinkriegen würden...

P.S.: Achja am Transistorencount Unterschied von RV350 und R350 sieht man ja wieviele Transistoren 4 Extra Pipes und 2 VS kosten. Nämlich ca. 30 Mio. Wenn man jetzt zusätzlich die 2 extra VS weglässt und nur mehr Pipes draufhaut, dann ist man bei ca. 130 Mio Transistoren. Das Hört sich doch recht gut an ;)

oder anders ..

R360 = 2xRV360
R420 = R360 + R360/2 = 3xRV360

transistoren....

110mio/2 * 3 = 110+55 ~= 160-180mio. >> in 0,13 locker mit halbwegs brauchbarer taktfrequenz zu schaffen...

AlfredENeumann
2003-10-28, 17:57:43
Original geschrieben von ow

ATi hat es bislang noch nicht einmal geschafft einen Chip >100 Mio Transis in 0.13 zu fertigen.


War bisher auch nicht notwendig.

Crushinator
2003-10-28, 18:02:58
Original geschrieben von nagus
(...)
... aber wenn die gerüchte um die schwache DX9 leistung des nv40 sich bewarheiten, dann nat nvidia ein problem. ein gewaltiges nämlich. denn nur mit doom3 als zugpferd (und marketinglokomotive ;) .. ob das reicht? wenn R420 bei dx9 titeln wieder so überlegen ist wie jetzt R360 vs. NV38... dann wird eng für NV. Wenn wir jetzt mal auf dem Teppich bleiben und davon ausgehen, daß nVIDIA erkannt hat von welchen falschen Annahmen sie bisher im Bezug auf "Einsatz von PS/VS 2.0 in absehbarer Zukunft" ausgegangen sind, ist nach menschlicher Logik damit zu rechnen, daß sie die bisherigen Fehlentscheidungen nicht mehr treffen werden. Mit anderen Worten: Man kann ruhig davon ausgehen, daß NV40 nur ein Ziel vorgegeben bekommen hat, nämlich besser zu sein als die z.Z. davonziehende Konkurrenz und zwar in möglichst allen Bereichen.

Es würde mich ziemlich wundern, wenn sie wieder Mist (im Sinne von FP-Leistung) bauen würden.

seahawk
2003-10-28, 18:09:11
Original geschrieben von crushinator
Wenn wir jetzt mal auf dem Teppich bleiben und davon ausgehen, daß nVIDIA erkannt hat von welchen falschen Annahmen sie bisher im Bezug auf "Einsatz von PS/VS 2.0 in absehbarer Zukunft" ausgegangen sind, ist nach menschlicher Logik damit zu rechnen, daß sie die bisherigen Fehlentscheidungen nicht mehr treffen werden. Mit anderen Worten: Man kann ruhig davon ausgehen, daß NV40 nur ein Ziel vorgegeben bekommen hat, nämlich besser zu sein als die z.Z. davonziehende Konkurrenz und zwar in möglichst allen Bereichen.

Es würde mich ziemlich wundern, wenn sie wieder Mist (im Sinne von FP-Leistung) bauen würden.

Wobei sich die Probleme für sie mit dem neuen SDK sowieso verringern. Shaderleistung ist nunmal direkt abhängig von Shaderprogrammierung, bzw. Befehlsanordnung. Wenn sich da auch etwas in Richtung NV bewegt, dann könnte die Shaderschwäche erledigt sein.

Ailuros
2003-10-28, 20:14:17
Ein bisschen mehr Geduld sollte wir alle haben. Fuer Q1 2004 Veroeffentlichungen muessen so langsam die ersten erfolgreichen tape outs nach aussen leaken und hoffentlich mehr Details ueber die chips. ;)

Du willst von NV auf ATi schliessen? Recht gewagt wuerde ich meinen.
Tatsache ist immer noch, dass Ati nicht mehr als 75Mio Transis in 0.13 fertigt, wenn sie diese Zahl zum R420 verdoppeln, dann ist das schon gut.
Viel mehr wird aber nicht drin sein, 200Mio sind nicht machbar.

200M liegen noch an der machbaren Grenze bei low-k 13nm, aber es hat auch das dementsprechende Risiko.

Sommer 2002 hielt die Gemeinde und NVIDIA es auch fuer unmoeglich dass ATI 8 pipelines, 107M Transistoren und dazu noch bei >300MHz in 15nm quetschen kann.

Es muessen nicht unbedingt 200M sein, aber mit dem "unmoeglich" wuerde ich ein bisschen vorsichtiger sein.

ow
2003-10-28, 21:13:27
.

ow
2003-10-28, 21:15:11
.

ow
2003-10-28, 21:19:27
.

Crushinator
2003-10-28, 21:41:49
Original geschrieben von ow
Was heisst hier nicht notwendig? Nachteile hätte es doch sicher keine gehabt. Die Ausbeute wäre niedriger gewesen und die Chips wären zu dem Zeitpunkt (Q3 2002) womöglich nicht rechtzeitig und in ausreichender Stückzahl (siehe auch NV34) verfügbar.

Börk
2003-10-28, 22:03:08
Original geschrieben von ow
Was meinst du mit uneffektiv? Kosten?
Das kann´s nicht sein, sonst wäre es nichts für die Massenproduktion. Und eine alten Prozess auszureizen wird gewiss nicht biliger sein.

Ich meine, dass sie den r300/350 erst auf 0.13µ hätten auslegen müssen (neues Design und Tapeout). Es wäre zwar gegangen, aber anscheinend hat es sich wirtschaftlich einfach nicht gelohnt...

Crushinator
2003-10-28, 22:10:20
Original geschrieben von burk23
Ich meine, dass sie den r300/350 erst auf 0.13µ hätten auslegen müssen (neues Design und Tapeout). Es wäre zwar gegangen, aber anscheinend hat es sich wirtschaftlich einfach nicht gelohnt... Man könnte auch sagen, sie hätten nach dem (nie verkehrten) Prinzip "Never touch a running system®" gehandelt. :D

ow
2003-10-28, 22:11:23
.

ow
2003-10-28, 22:14:41
.

betasilie
2003-10-28, 23:10:40
Original geschrieben von ow
Und der R350/360?
Hätte man an denen nicht mal den 0.13 ausprobieren können?

Einerseits redest du von niedriger Ausbeute und andererseits traust du Ati einen 200+Mio Chip in nicht allzuferner Zukunft darin zu?
Vor einigen Monaten hast Du ATI noch Unwirtschaftlichkeit vorgeworfen, jetzt wirfst Du ATI vor, dass sie nicht mehr riskieren, obwohl sie es garnicht nötig haben bei der schwachen Konkurrenz. ... Sehr seltsam! :|

Ailuros
2003-10-29, 00:13:21
Original geschrieben von ow
Theoretisch sind 200Mio in 0.13 machbar, aber ohne entsprechende Erfahrung mit solche komplexen Chips in 0.13 gewiss mit recht hohem Risiko verbunden.
Unmöglich ist es nicht, aber doch unwahrscheinlich.

Und welcher IHV hat mehr Erfahrung mit >150M Transistoren grossen chips?

Und der R350/360?
Hätte man an denen nicht mal den 0.13 ausprobieren können?

Aus welchem Grund?

Pro-MHz Leistung ist offensichtlich hoeher bei R3xx als bei NV3xx, wobei keine Not bestand fuer gleiche oder hoehere Taktraten wie bei NV35/8.

Auf 15nm zu bleiben war billiger in Entwicklungskosten und Zeit und ja Du weisst genau dass ein die shrink nicht von einem Tag auf den anderen kommt, was wohl die gesamte roadmap um einige Monate verspaetet haette.

R3xx wurde von Anfang an fuer 15nm und fuer die gesamte Linie geplant.

Natuerlich haette man als "Experiment" gleich auf low-k 13nm und 500MHz fuer R360 gehen koennen, aber im Endeffekt sollten NV-fans froh sein dass es nicht vorkam. Genauso koennen auch ATI-fans froh sein dass die R360 und alle folgenden Produkte nicht in die weitere Zukunft verschoben wurden

Oder eben sie haben es versucht und es hat nicht so funktioniert wie erwartet. Das ist die andere Möglichkeit.

Im Rahmen der Paradoxologie: warum ist NV im Sommer 2002 nicht auf 15nm zurueckgetreten?

AlfredENeumann
2003-10-29, 00:16:56
Original geschrieben von ow
Was heisst hier nicht notwendig? Nachteile hätte es doch sicher keine gehabt.


Doch. Ein teures unnötiges Redesign auf 0.13µ

Merlin31
2003-10-29, 05:02:24
schön an.

Was nutzen mir diese Karten wenn die BQ
mit jedem neuen Treiber weiter abnimmt.


Toll, dann habe ich in Zukunft >10000 Gummipunkte bei 2003,
aber ne BQ die unter aller Sau ist.
Die Firmen sollten in Zukunft mal lieber mit BQ werben und nicht mit theor. Benchmarkwerte.

mapel110
2003-10-29, 05:22:41
Original geschrieben von Merlin31
Die Firmen sollten in Zukunft mal lieber mit BQ werben und nicht mit theor. Benchmarkwerte.

ich hab 213459782340952045 punkte im image-qualityMARK (tm) ;D

Gast
2003-10-29, 06:20:37
Original geschrieben von AlfredENeumann
Doch. Ein teures unnötiges Redesign auf 0.13µ

Man muss halt rechnen, ab wievielen verkauften Chips sich so ein Redesign rechnet und wenn man meint, daß man a) zuwenig Chips verkaufen würde oder b) man unvorhersagbare Risiken beim Design in Kauf nehmen müsste, läßt man's halt so wie ATi es getan hat.

Andere Gründe, auf einen technisch machbaren Shrink zu verzichten, mögen mir derzeit nicht einfallen. Im Gegenteil, weniger Die-Fläche bedeutet mehr Dies pro Wafer ergo geringere Herstellungskosten und ergo² mehr Gewinn.

ow
2003-10-29, 08:57:35
.

ow
2003-10-29, 09:00:32
.

Crushinator
2003-10-29, 11:18:35
Original geschrieben von ow
Und der R350/360?
Hätte man an denen nicht mal den 0.13 ausprobieren können? Hätte man sicherlich, wenn man das gebraucht hätte. Wobei ein DIE-Shrink auch nicht mal eben so zu machen ist. Mit Sicherheit spielen Entwicklungs-Ressourcen da auch eine Rolle. Wieviel Projekte sollen die denn noch parallel betreiben? ;)
Einerseits redest du von niedriger Ausbeute und andererseits traust du Ati einen 200+Mio Chip in nicht allzuferner Zukunft darin zu? Im richtigen Zusammenhang wiedergegeben habe ich gesagt: Zu gegebenem Zeitpunkt (zu R300 Design-Time) war der 0.13µ Prozeß bei der Foundry nicht soweit, wie es ATi vermutlich gerne hätte, und daß ich mir gut zusammenreimen kann, wer zu welchem Design fähig ist. Ich vermute allerdings, daß wir beide verschiedene Ansprüche an "Chip-Design" stellen. ;)
Also viel billiger als einen Struktur-Shrink wirst du in der Halbleiter-Technik nichts entwickelt bekommen. Der Aufwand liegt bei nahezu null. Der lebende Beweis (AMD Palomino -> T-Bred) spricht da aber scheinbar eine andere Sprache.

Gast
2003-10-29, 11:51:47
Das muss aber sehr früh im Design-Prozess des R300 gewesen sein. Angesichts der Art und Weise, wie der Chip allem Anschein nach aufgebaut ist, hat man bei dieser Studie wohl von vornherein mit 0,15µ kalkuliert.

Palo -> T-Bred ist i.Ü. kein Shrink, sondern ein Überarbeitung.

GF2 Pro -> GF2 Ti, das ist ein Shrink.

Q

Crushinator
2003-10-29, 12:09:47
Original geschrieben von Gast
Palo -> T-Bred ist i.Ü. kein Shrink, sondern ein Überarbeitung. Heißt das jetzt, daß kein volles DIE-Shrink ohne jegliche Überarbeitung möglich sei? ;)

Gast
2003-10-29, 13:12:22
Natürlich ist es möglich, aber eine Überarbeitung erfordert wiederum Arbeit, mithin Aufwand.

Und genau dagegen hast du doch mit dem Palo -> T-Bred argumentiert, oder?

Crushinator
2003-10-29, 14:26:51
Original geschrieben von Gast
Natürlich ist es möglich, aber eine Überarbeitung erfordert wiederum Arbeit, mithin Aufwand. OK, jetzt mal eine Fangfrage: Was meinst Du eigentlich, warum man bei AMD überhaupt die Überarbeitung beim T-Bred machen mußte? =)

Winter[Raven]
2003-10-29, 14:33:47
Weil der sich nich höher takten lies. Sie haben die 9te Schicht (war das die isolationsschicht ?) eingabeut. Sie haben nix am Chip verändert, sondern nur die Chipteile neue geordnet.

Crushinator
2003-10-29, 15:07:16
Original geschrieben von Winter[Raven]
Weil der sich nich höher takten lies. Sie haben die 9te Schicht (war das die isolationsschicht ?) eingabeut. Sie haben nix am Chip verändert, sondern nur die Chipteile neue geordnet. Mit anderen Worten: Es macht keinen Sinn, einen kompletten DIE-Shrink zu vollziehen, ohne dabei die Core-Spannung zu senken, um damit u.A. höheren Takt bei gleichem oder niedrigerem Verbrauch zu erreichen. Damit es überhaupt funktioniert muß das Design gerade bei solchen kritischen Verkleinerungen eben puncto Stabilität/Qualität der Isolation überarbeitet werden. Was i.Ü. den Kern meiner Aussage - Der Aufwand liegt höher als null - nicht gerade umwirft. Außerdem habe ich den Eindruck, daß man meint, ein Palomino sei bereits komplett in 0.13µ gefertigt, was jedoch nicht der Wahrheit entspricht. ;)

robbitop
2003-10-29, 17:01:48
vom Palo zum TBred A war es ein reiner Shrink erst beim TBred B war eine Überarbeitung dabei.

Shrinks müssen nicht sinnlos sein ...sind es leider oft aber ohne überarbeitung (siehe Cumine->Tualatin)
Der Tualatin kommt kaum höher getaktet und hat massig Leckstromprobleme (sieht man derzeit auch beim Prescott)

GRiNSER
2003-10-29, 17:13:40
Original geschrieben von robbitop
vom Palo zum TBred A war es ein reiner Shrink erst beim TBred B war eine Überarbeitung dabei.

Shrinks müssen nicht sinnlos sein ...sind es leider oft aber ohne überarbeitung (siehe Cumine->Tualatin)
Der Tualatin kommt kaum höher getaktet und hat massig Leckstromprobleme (sieht man derzeit auch beim Prescott)
Tualatin hat größeren Cache, bessere prefetch unit und wurde leider nicht viel höher getaktet, da der P4 intels favorit war und der Tualatin [welcher deutlich schneller als viele P4s ist] deshalb künstlich zurückgehalten wurde. Wie man an einigen OC ergebnissen des Tualatin sehen kann, hält dieser sehrwohl höhere taktraten aus...

Tigerchen
2003-10-29, 18:53:32
Original geschrieben von GRiNSER
Tualatin hat größeren Cache, bessere prefetch unit und wurde leider nicht viel höher getaktet, da der P4 intels favorit war und der Tualatin [welcher deutlich schneller als viele P4s ist] deshalb künstlich zurückgehalten wurde. Wie man an einigen OC ergebnissen des Tualatin sehen kann, hält dieser sehrwohl höhere taktraten aus...

Na ich weiß nicht ob da die FSB133 eine immer stärkere Bremse bilden.GTL+ war nun doch schon recht veraltet.

betasilie
2003-10-29, 19:11:58
Original geschrieben von ow
???
es gilt weiterhin, dass 0.15 unwirtschaftlicher ist als 0.13. und das Risiko einer Umstellung des R3xx auf 0.13 ist sehr gering.
Es gibt eine ganze Reihe denkbarer Gründe, weshalb ATI bei den teuren Modellen noch bei 0.15µ ist und diese wurden in den letzten Monaten auch oftmals hier im Forum besprochen.

Irgendwie habe ich das Gefühl Du denkst, dass bei ATI nur Vollidioten sitzen. Die letzten Monaten haben aber gezeigt, dass die Leute bei ATI genau wissen was sie tun. Jedenfalls reicht es, um nVidia gehörig unter Druck zu setzen und Gewinne einzufahren.

Wenn der Wechsel von 0.15µ auf 0.13µ ohne weitere Probleme und mit wirtschaftlichen Vorteilen möglich wäre, hätte ATI diesen schon längst vollzogen. ... Oder glaubst Du ATI macht die Topmodelle weiter in 0.15µ aus nostalgischen Gründen? :spock:

GRiNSER
2003-10-29, 19:18:13
Original geschrieben von Tigerchen

Na ich weiß nicht ob da die FSB133 eine immer stärkere Bremse bilden.GTL+ war nun doch schon recht veraltet.

architektur ist pro MHZ leistung sehr schnell - nur der FSB wäre bei weiterem Ausbau schnell zu einem größeren Flaschenhals geworden - wenn man es so wie AMD gemacht hätte, wäre man sicher bei der Taktfrequenz auf selben Niveau geblieben und wir hätten so zeugs wie P-Rating usw. nicht...
aber das is alles OT also lassen wirs lieber...

wie betareverse schon sagte, die leute bei ATi wissen genau, warum sie den 0,15 micron dem 0,13er vorgezogen haben...

robbitop
2003-10-29, 22:13:59
trotzdem war der TualatinCore Leckstromverseucht..schau mal was AMD und Intel für Taktfrequenzen mit 130nm hinbekommen

GRiNSER
2003-10-29, 22:23:44
Original geschrieben von robbitop
trotzdem war der TualatinCore Leckstromverseucht..schau mal was AMD und Intel für Taktfrequenzen mit 130nm hinbekommen
das liegt an der anders ausgelegten architektur -> intel ist mehr auf höhere taktfrequenzen aus, hat dafür aber eine niedrigere pro MHZ leistung -> bei AMD is es umgekehrt...

zeckensack
2003-10-30, 01:29:01
Original geschrieben von robbitop
vom Palo zum TBred A war es ein reiner Shrink erst beim TBred B war eine Überarbeitung dabei.

Shrinks müssen nicht sinnlos sein ...sind es leider oft aber ohne überarbeitung (siehe Cumine->Tualatin)
Der Tualatin kommt kaum höher getaktet und hat massig Leckstromprobleme (sieht man derzeit auch beim Prescott) :spock:
Pentium 3-S:
31.2 W (0.13 µm @ 1400 MHz 512 KB L2 @ 1.45V) (max)
~21 W (0.13 µm @ 1400 MHz 512 KB L2 @ 1.45V) (typ)

Zum Vergleich: Banias
26.712 W (0.13 µm @ 1400 MHz @ 1.484 V @ 100 C) (max)
22.0 W (0.13 µm @ 1400 MHz @ 1.484 V @ 100 C) (typ)

Ebenfalls zum Vergleich: TBred-B
49.4 W (1466B MHz TH CPUID=680 1.50 V) (max)
44.9 W (1466B MHz TH CPUID=680 1.50 V) (typ)

Und noch schnell den CuMine reineditiert:
29.8 W (0.18 µm @ 1000EB MHz FC-PGA 0686h 1.75 V) (max)
~20 W (0.18 µm @ 1000EB MHz FC-PGA 0686h 1.75 V) (typ)

Q (http://www.sandpile.org/)

Woran genau willst du jetzt "massig Leckstromprobleme" erkannt haben? :spock:

40% Taktsteigerung und doppelter Cache bei gleicher Leistungsaufnahme ist doch ein gutes Ergebnis für einen Shrink?

AlfredENeumann
2003-10-30, 02:27:19
Original geschrieben von ow
Also viel billiger als einen Struktur-Shrink wirst du in der Halbleiter-Technik nichts entwickelt bekommen. Der Aufwand liegt bei nahezu null.

Na so einfach stelle ich mir das aber nicht vor. Wenn es so einfach wäre und die kapazitäten da wären, warum macht es ATI dann nicht? Denn der großteil der DX9 Cores bei ATI werden ja im Performance-Bereich verkauft.

GRiNSER
2003-10-30, 19:29:47
Original geschrieben von AlfredENeumann
Denn der großteil der DX9 Cores bei ATI werden ja im Performance-Bereich verkauft.
du denkst im ernst, dass die meisten DX9 Cores R3xx cores sind? kann ich mir nicht vorstellen...
das war zu zeiten der Radeon 9500 Pro aber nun ist es der RV350/360 der wohl am meisten verkauft wird [von den DX9 chips] wenn ich mich nicht irre...

DrumDub
2003-10-30, 19:51:14
Original geschrieben von GRiNSER
du denkst im ernst, dass die meisten DX9 Cores R3xx cores sind? kann ich mir nicht vorstellen...
das war zu zeiten der Radeon 9500 Pro aber nun ist es der RV350/360 der wohl am meisten verkauft wird [von den DX9 chips] wenn ich mich nicht irre...

er hat doch genau das gegenteil von dem gesagt, was du sagst, das er gesagt hat:

Original geschrieben von AlfredENeumann Denn der großteil der DX9 Cores bei ATI werden ja im Performance-Bereich verkauft.

womit klar gemeint ist, dass auf grund dessen, dass im performance-bereich mehr verkauft wird als im highend-bereich, der shirk auf 0,13 in performance-bereich sinnvoller war als im highend.

GRiNSER
2003-10-30, 19:56:02
scusa, hab mich verlesen :(
bei performance denke ich auch an high-end - is halt auch ein geschönter ausdruck für mainstream ;)

Crazytype
2003-10-30, 22:41:08
Original geschrieben von GRiNSER
das liegt an der anders ausgelegten architektur -> intel ist mehr auf höhere taktfrequenzen aus, hat dafür aber eine niedrigere pro MHZ leistung -> bei AMD is es umgekehrt...
Der Tualatin ist keine P4 Architektur...

GRiNSER
2003-10-30, 22:48:44
Original geschrieben von Crazytype
Der Tualatin ist keine P4 Architektur...
ich rede hier vom aktuellen P4/ von der NetBurst Architektur von intel und nicht von dem P3, welcher [leider] nicht mehr aktuell ist! außerdem meinte ich generell was bei verschieden ausgelegten architekturen passiert...
und jetzt eventuell wieder zum thema?!

Ailuros
2003-10-31, 03:36:04
www.beyond3d.com

ATI Poised for PCI-Express

Bitte notieren dass es sich um eine finanzielle Analyse handelt und daher sollte man diese auch dementsprechend entgegennehmen.

Crushinator
2003-10-31, 11:39:38
^^
(...) this could suggest that R420 will be launched in the March to April ’04 timeframe, which would imply that the part has already been taped-out and sent to the fab. :o

nagus
2003-10-31, 12:02:51
btw, hier gibts alles wissenswerte über microsofts DX9 bzw. Pixelshader und Vertexshader bis version 3.0

http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/reference/shaders/shaders.asp

Quasar
2003-10-31, 12:04:25
Original geschrieben von crushinator
OK, jetzt mal eine Fangfrage: Was meinst Du eigentlich, warum man bei AMD überhaupt die Überarbeitung beim T-Bred machen mußte? =)

Ich weiß es nicht, sag' du es mir...
Vorstellen könnte ich mir Winter[Raven]s Theorie, daß man gleichzeitig höhere Taktraten erreichen wollte.
Ein Shrink ohne leistungsbezogene Aspekte ist wohl etwas anderes...
(Wobei: Was hat das noch mit der ursprgl. Frage zu tun, ob ein Shrink Aufwand darstellt oder nicht?)

Original geschrieben von zeckensack
:spock:
Pentium 3-S:
31.2 W (0.13 µm @ 1400 MHz 512 KB L2 @ 1.45V) (max)
~21 W (0.13 µm @ 1400 MHz 512 KB L2 @ 1.45V) (typ)

Zum Vergleich: Banias
26.712 W (0.13 µm @ 1400 MHz @ 1.484 V @ 100 C) (max)
22.0 W (0.13 µm @ 1400 MHz @ 1.484 V @ 100 C) (typ)

Ebenfalls zum Vergleich: TBred-B
49.4 W (1466B MHz TH CPUID=680 1.50 V) (max)
44.9 W (1466B MHz TH CPUID=680 1.50 V) (typ)

Und noch schnell den CuMine reineditiert:
29.8 W (0.18 µm @ 1000EB MHz FC-PGA 0686h 1.75 V) (max)
~20 W (0.18 µm @ 1000EB MHz FC-PGA 0686h 1.75 V) (typ)

Q (http://www.sandpile.org/)

Woran genau willst du jetzt "massig Leckstromprobleme" erkannt haben? :spock:

40% Taktsteigerung und doppelter Cache bei gleicher Leistungsaufnahme ist doch ein gutes Ergebnis für einen Shrink?

Du hast nur die "typischen" und maximalen Leistungsaufnahmen gepostet. Was ist mit den "idle"-Werten? AFAIK liegt darin der große Unterschied zwischen cu-mine/banias auf der einen und Tualatin auf der anderen Seite.
Die 0,13µ beim Tualatin verhindern erfolgreich, daß er im Idle-Modus richtig weit runtergeht mit der Leistungsaufnahme.

Bei 1GHz lag das Idle-Leistungsaufnahmeverhältnis bei etwa 1:1,5 (IIRC) cu-mine vs. tualatin

nagus
2003-10-31, 12:05:05
"(...) this could suggest that R420 will be launched in the March to April ’04 timeframe, which would imply that the part has already been taped-out and sent to the fab. "



... könnte stimmen und passt zum termin (1Q2004 )mit februar/märz gibts dann erste karten zu bewundern

Crushinator
2003-10-31, 12:31:03
Original geschrieben von Quasar
(...)
Ein Shrink ohne leistungsbezogene Aspekte ist wohl etwas anderes... (Wobei: Was hat das noch mit der ursprgl. Frage zu tun, ob ein Shrink Aufwand darstellt oder nicht?) Sorry, aber die paar Haare die mir noch geblieben sind rüpfe ich jetzt nicht mehr raus, um sie Dir zum Spalten rüber zu reichen. ;) Vielleicht können wir uns ja aber darauf einigen, daß auch IBM schon längst den POWER4 auf 0.13µ geshrinked hätte, wenn es mit Null Aufwand und ohne nennenswertes Risiko realisierbar wäre.

Demirug
2003-10-31, 12:49:49
Ich glaube ich muss jetzt auch mal was zum Thema shrinken sagen.

Was die meisten ja inzwischen wissen dürften ist die Tatsache das man Chips heute nicht mehr Transitor für Transitore zeichnet sondern mit einer extra dafür Gedachten Programmiersprache (z.B. VHDL) schreibt.

Genau wie in jeder anderen höhren Programiersprache kann man sich auch mit diesen Programiersprachen Funktionen bauen die man dann an anderen Stellen einfach aufruft.

Am Ende nimmt dann ein Chipcompiler den ganzen Code und erzeugt die Belichtungsfolien für den Prozess. Genau wie man für jede CPU-Architektur einen anderen Compiler braucht benötigt man auch einen zum Produktions-Prozess passenden Compiler.

Liegt nun der ganze Chip als Sourcecode vor ist ein Shrink eigentlich wirklich kein Problem da man einfach einen anderen Compiler nimmt und das Thema ist erledigt. Das ist aber nur die Theorie. In der Praxis gibt es allerdings das Problem das die Chipcompiler nicht 100% Fehlerfrei arbeiten. So kann es passieren das ein solcher Compiler Einheiten so ungünstig Anordnet das es dann bei der Produktion dort Probleme gibt. Diese Stellen müssen dann nachdem man die ersten Chips aus der FAB hat gesucht und notfalls beseitigt werden. Gerade bei neuen Prozesses neigen die Compiler vermehrt zu solchen Dingen.

Ein weiteres Problem das sich beim Prozesswechsel(Shrink) ergeben kann ist die Verwendung von zugekaufen Funktionen. Teilweise bekommt man diese Funktionen schon für einen Prozess optimiert zu kaufen. In diesem Fall bekommt man nicht nur den Code (für die Simulation) sondern auch schon das genaue Transitorenlayout dazu. Bekommt man nun diese Funktion nicht in einer Optimierten Version für den neuen Prozess kann man ganz schnell einen Chip bauen der trotz kleinerem Prozess plötzlich grösser wird.

Ganz schlimm kommt es wenn man selbst von Hand einzelnen Funktionen angepasst hat. Die kann man dann alle nochmal anpassen.

Quasar
2003-10-31, 13:07:31
Original geschrieben von crushinator
Sorry, aber die paar Haare die mir noch geblieben sind rüpfe ich jetzt nicht mehr raus, um sie Dir zum Spalten rüber zu reichen. ;) Vielleicht können wir uns ja aber darauf einigen, daß auch IBM schon längst den POWER4 auf 0.13µ geshrinked hätte, wenn es mit Null Aufwand und ohne nennenswertes Risiko realisierbar wäre.

Das tut mir leid (mit deinen Haaren)...

Aber der Power4 ist IMHO nicht wirklich vergleichbar, da IBM den wahrscheinlich von der Gewinnspanne her gesehen, in 15µ herstellen könnte (nein, keine "0," vergessen).

Bei den R300-Chips war es lange Zeit dagegen so, daß trotz guter Verkäufe ATi nicht so recht ins plus rutschen wollte.

Motivation ist da ein gutes Stichwort, warum man etwas tut oder bleiben läßt.

Crushinator
2003-10-31, 13:44:54
Original geschrieben von Quasar
(...)
Bei den R300-Chips war es lange Zeit dagegen so, daß trotz guter Verkäufe ATi nicht so recht ins plus rutschen wollte. Wie Du das auf den gewählten Prozeß und nicht auf die für den Zeitraum der Bilanzierung verkaufte Stückzahlen führen möchtes ist mir zwar noch nicht klar, aber das macht nichts, denn mir ist auch nicht klar, was das Ziel dieser Haarsplaterei sein soll. :D
Motivation ist da ein gutes Stichwort, warum man etwas tut oder bleiben läßt. :kratz2: Das hatten wir IMHO auch schon: "Bisher brauchten sie's ja auch nicht."

Quasar
2003-10-31, 14:43:35
Sie brauchten's nicht, um bei NN herumzudümpeln. Erst jetzt, wo zumindest die Mid-Range Chips in 0,13µ gezüchtet werden, kommt ATi in die Gewinnzone.

Aber hast' scho recht: Welche Firma will denn Geld verdienen? :balla:
Den meisten reicht's scho, wenn'se die Kunden verarschen könn'.

zeckensack
2003-10-31, 14:59:26
Quasar,
angenommen ATI würde bereits High-End-Chips in 0,13µ fertigen ... welche Motivation hätten sie, das der Kundschaft unter die Nase zu binden, wo die Lager noch voll von 0,15µ sind? Man könnte den 'alten Krempel' dann abschreiben :|

NV kommt aus einer ganz anderen Situation. 0,13µ-Teile sind das einzige was da ist. Hier muß man nichts zurückhalten.
FX5700U differenziert sich über den Preis, und knabbert wohl kaum an der Verkäuflichkeit der anderen 'parts' ... bis auf FX5600U. Nun, diese wird ja auch gerade eingestellt ;)

Variante 2:
angenommen ATI's Zeitplan für den Nachfolger ist bisher zufriedenstellend abgelaufen. +-3 Monate dauert's noch, bis die ersten R420-Dies nach Hause kommen. Warum jetzt noch umstellen, wenn die Produktion von R3x0 bereits im Auslaufen ist?

Motivation ist wirklich ein gutes Stichwort ;)

Crushinator
2003-10-31, 15:04:22
Original geschrieben von Quasar
Aber hast' scho recht: Welche Firma will denn Geld verdienen? :balla:
Den meisten reicht's scho, wenn'se die Kunden verarschen könn'. Was für ein Glück, daß Du Deine Behauptung - daß nur 0.13 dafür verantwortlich sei - nicht belegen kannst/willst, denn sonst hätte ich beinahe geglaubt ich wäre nicht in der Lage den Unterschied zwischen 4 Layer PCB und jenen mit 8 oder gar 12 und die damit verbundenen möglichen Verkaufsstückzahlen zu begreifen. ;)
Original geschrieben von zeckensack
(...) angenommen ATI's Zeitplan für den Nachfolger ist bisher zufriedenstellend abgelaufen. +-3 Monate dauert's noch, bis die ersten R420-Dies nach Hause kommen. Warum jetzt noch umstellen, wenn die Produktion von R3x0 bereits im Auslaufen ist? ACK, das spielt IMHO mit Sicherheit auch eine Rolle.

Ailuros
2003-10-31, 16:31:26
...angenommen ATI's Zeitplan für den Nachfolger ist bisher zufriedenstellend abgelaufen. +-3 Monate dauert's noch, bis die ersten R420-Dies nach Hause kommen.

Du meinst finales Silizium oder? Wenn ja, then you hit the nail on it's head :P

Ailuros
2003-10-31, 16:41:16
Original geschrieben von nagus
"(...) this could suggest that R420 will be launched in the March to April ’04 timeframe, which would imply that the part has already been taped-out and sent to the fab. "



... könnte stimmen und passt zum termin (1Q2004 )mit februar/märz gibts dann erste karten zu bewundern

Ein Quartal hat 4 Monate. Projection ist und war fuer Maerz/April, wobei ich eher auf April tippen wuerde.

Quasar
2003-10-31, 17:14:37
Original geschrieben von zeckensack
Quasar,
angenommen ATI würde bereits High-End-Chips in 0,13µ fertigen ... welche Motivation hätten sie, das der Kundschaft unter die Nase zu binden, wo die Lager noch voll von 0,15µ sind? Man könnte den 'alten Krempel' dann abschreiben :|

NV kommt aus einer ganz anderen Situation. 0,13µ-Teile sind das einzige was da ist. Hier muß man nichts zurückhalten.
FX5700U differenziert sich über den Preis, und knabbert wohl kaum an der Verkäuflichkeit der anderen 'parts' ... bis auf FX5600U. Nun, diese wird ja auch gerade eingestellt ;)

Variante 2:
angenommen ATI's Zeitplan für den Nachfolger ist bisher zufriedenstellend abgelaufen. +-3 Monate dauert's noch, bis die ersten R420-Dies nach Hause kommen. Warum jetzt noch umstellen, wenn die Produktion von R3x0 bereits im Auslaufen ist?

Motivation ist wirklich ein gutes Stichwort ;)

Jetzt natürlich nicht mehr, aber zum Launch der R9800p wäre IMO ein guter Zeitpunkt gewesen.

Original geschrieben von crushinator
Was für ein Glück, daß Du Deine Behauptung - daß nur 0.13 dafür verantwortlich sei - nicht belegen kannst/willst, denn sonst hätte ich beinahe geglaubt ich wäre nicht in der Lage den Unterschied zwischen 4 Layer PCB und jenen mit 8 oder gar 12 und die damit verbundenen möglichen Verkaufsstückzahlen zu begreifen. ;)


Ich wußte gar nicht, daß ATi auch PCB herstellt/verkauft. Und wenn wir bei 'belegen' sind, schau dir mal das Unterforum hier an... wie heisst es noch gleich? =)

Crushinator
2003-10-31, 18:21:43
Original geschrieben von Quasar
Ich wußte gar nicht, daß ATi auch PCB herstellt/verkauft. Und wenn wir bei 'belegen' sind, schau dir mal das Unterforum hier an... wie heisst es noch gleich? =) Gott, was sind wir heute so unwillig Konsens zu erzielen. :D Also, nochmal ohne Mehrdeutigkeit: Selbst wenn man die R3X00 nachträglich als 0.13er Chips rausgebracht hätte, wären sie - durch schlechterem yield - a) nicht gerade billiger in der Herstellung b) man hätte auch noch die Kosten des Shrinks + Tests und c) wären sie - durch trotzdem noch komplexen PCB-Design für die großen Kärtchen und damit u.A. auch des Endkundenpreises - garantiert nicht mehr verkauft worden als die 0.15er. Selbst wenn das auf Plus/Minus Null hinauslaufen könnte, hätten Viele nach "Never touch a running system" gehandelt. Desweiteren wirft das alles natürlich auch die Frage auf, warum denn NV34 noch auf dem größeren Prozeß basiert, wenn 0.13 so schön unkompliziert und vor allem so billig sei?

BTW: Ich meinte mit "belegen" nur, daß selbst nur ein einziger Fall eines anderen Chip-Designers helfen täte, bei dem nur aus Notwendigkeit billiger zu produzieren ein bestehender und gut laufender Chip auf 0.13 geshrinked wurde. Da es diesen Fall AFAIK nicht wirklich gibt, ist eine Spekulation in die von Dir eingeschlagene Richtung meines Erachtens etwas zu weit hergeholt.

Quasar
2003-10-31, 18:57:09
Die Frage nach dem nV34 kann ich dir mit einem einzigen Wort (und mündlichem Beleg von nVidia, also kein Link) beantworten:

Sofortige Verfügbarkeit in enormen Stückzahlen.

(ok, ist doch ein kurzer Satz geworden).


Als Beleg für den "anderen Chip" kann ich nur wiederholen: GeForce2TI

Crushinator
2003-10-31, 19:39:30
Original geschrieben von Quasar
(...)
(ok, ist doch ein kurzer Satz geworden)
... und unterstreicht dazu noch die These, daß man bei ATi einen ähnlich nachvollziehbaren Grund hat(te) nämlich relativ hohe Stückzahlen ohne Risiko.
(...) Als Beleg für den "anderen Chip" kann ich nur wiederholen: GeForce2TI *lesmeinpostingnochmal* GF2Ti wurde auf (heute immer noch relativ kritische) 0.13 geshrinked? :kratz2:

AlfredENeumann
2003-10-31, 20:25:36
Original geschrieben von Quasar
Sofortige Verfügbarkeit in enormen Stückzahlen.



Warum soll das nicht für den R3X0 gelten ?

Quasar
2003-10-31, 21:10:07
Original geschrieben von crushinator
... und unterstreicht dazu noch die These, daß man bei ATi einen ähnlich nachvollziehbaren Grund hat(te) nämlich relativ hohe Stückzahlen ohne Risiko.
*lesmeinpostingnochmal* GF2Ti wurde auf (heute immer noch relativ kritische) 0.13 geshrinked? :kratz2:

Nein und nein.

Die Stückzahlen, die man bei ATi für ein Jahr im Performance- und Mainstream-Segment brauchte, hatte der nV34 innerhalb eines einzigen Quartals weit überschritten.
Retail und OEM sind einfach ganz andere Dimensionen.

Die GF2Ti ist von 0,18µ auf 0,15µ geshrinkt worden, zu einer Zeit, als die High-End Chips ebenfalls mit 0,15µ auskommen mussten. Absolut vergleichbar also, bezgl. Risiko und wirtschaftlichem Nutzen, was ja der Hauptgrund deiner Frage, so ich sie richtig verstanden habe, war.

@AEN:
Gerade du solltest doch den Unterschied zwischen Retail-Stückzahlen und OEM-Stückzahlen kennen....

AlfredENeumann
2003-11-01, 00:01:24
Original geschrieben von Quasar
@AEN:
Gerade du solltest doch den Unterschied zwischen Retail-Stückzahlen und OEM-Stückzahlen kennen....


Klar kenne ich den.
Nur zum Zeitpunkt des Erscheinens des R300 gab es keine 0.13 Kapazitäten, da von NV geblockt (denke ich mal). Als genügend da waren hat ATI logischerweise erstmal den Mainstream in 0.13 produziert weil dort Mengen gedreht werden (ODM Deals). Den R300 oder R350 dann noch umzustellen in 0.13µ und evtl. Produktionsprobleme (siehe NV30 verspätung) in Kauf zu nehmen wäre doch blödsinn, oder etwa nicht?
Den RV3X0 hat man von Grund auf auf 0.13 Designd, da waren dann keine oder nur kleine Probleme zu erwarten.

Ich hätte genauso wie ATI gehandelt. Lieber ein geringes Risiko und Lieferfähig als Probleme und Lieferrückstand für ne Hand voll Dollar. Probleme und Lieferengpässe darf sich ATI im moment nicht leisten. Nicht bei dem Tempo im Schlagabtausch NV<->ATI.

Wer weis wie sich die Volari und DeltaChrome Karten schlagen. Dann gibts bei den beiden großen gar keine Atempause mehr.

Crushinator
2003-11-01, 00:05:31
Ich geb's auf. Quasar weiß es besser als die Verbauer dieser verfluchten Chips, ja sogar besser als ATi *hust* selbst. :eyes:

betasilie
2003-11-01, 00:12:41
Original geschrieben von crushinator
Ich geb's auf. Quasar weiß es besser als die Verbauer dieser verfluchten Chips, ja sogar besser als ATi *hust* selbst. :eyes:
Wusstest Du das noch nicht? ... Hier sind so einige Leute im Forum, die scheinbar mehr Ahnung haben über die Interna bei ATI, als ATI selbst. :bonk: ;)

KM
2003-11-01, 00:25:34
Original geschrieben von betareverse
Wusstest Du das noch nicht? ... Hier sind so einige Leute im Forum, die scheinbar mehr Ahnung haben über die Interna bei ATI, als ATI selbst. :bonk: ;)
Original geschrieben von crushinator
Ich geb's auf. Quasar weiß es besser als die Verbauer dieser verfluchten Chips, ja sogar besser als ATi *hust* selbst. :eyes:
z.B. die vom Omegatreiber? :D

betasilie
2003-11-01, 01:49:30
Original geschrieben von KM
z.B. die vom Omegatreiber? :D
Als ob auch nur eine Codezeile von denen selbst geschrieben wäre. :eyes:

betasilie
2003-11-01, 01:49:58
Original geschrieben von KM
z.B. die vom Omegatreiber? :D
Als ob auch nur eine Codezeile von denen selbst geschrieben wäre. ;D

Ailuros
2003-11-01, 01:55:10
....und dabei wird mir oefters gesagt dass ich bei sinnlosen Debatten teilnehme....

Wie waere es mal wenn man von dem folgenden ausgeht:

ATI R3xx boards sind nicht groesser als die der Konkurrenz.
Sie verbrauchen nicht mehr Strom.
Sie haben keine groessere Abwaerme.
Die yields sind nicht schlechter.
Sie kosten nicht mehr.
Die pro-MHz Leistung ist hoeher

Natuerlich haette ich das Ganze auch anders formulieren koennen, aber es soll auf logischer Basis bleiben. ;D

Wie dem auch sei fuer ATI gilt: if it ain´t broken, don´t fix it, was der Rest ueber N Moeglichkeiten betrifft ist doch wirklich nutzlos. Im Endeffekt war es ATI die 9 Monate zuvor dx9.0 Karten auf Ladentischen hatten und das Dank deren Design/layout Entscheidungen *rennt um sein Leben* :weg: