PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : r300 doch in .13?


raibera
2002-09-20, 08:11:20
http://www.theinquirer.net/?article=5475

wurde diese info vielleicht bewusst zurückgehalten, um genügend r300 in .15 zu verklopfen?

Lorien
2002-09-20, 09:05:13
na ich weiss ned ob 0.13 chips besser sein sollten. es ist allgemein ned soviel mehr power drin wie sich die macher erhoft haben.

BlackBirdSR
2002-09-20, 09:07:49
Originally posted by Lorien
na ich weiss ned ob 0.13 chips besser sein sollten. es ist allgemein ned soviel mehr power drin wie sich die macher erhoft haben.

was hat das mit der Power zu tun?
hauptsäschlich geht es doch um geringere pro Stück kosten und ein paar MHZ mehr, bei weniger Leistungsaufnahme.

morfeus
2002-09-20, 09:22:47
Kann mir so ungefähr vorstellen, dass der Chip nicht so schnell
auf dem Markt erscheint ( 1Q 03? )

Wahrscheinlich um auch gegen NV 30 konkurenzfähig zu bleiben:bäh:

ice cool69
2002-09-20, 11:33:04
sicher wirds ein 0,13 micron refresh des r300 geben. der heißt übrigens r350 und ist dann gleich auch etwas überarbeitet und erweitert(dx 9.1)

Demirug
2002-09-20, 11:44:56
ice cool69, ja beim R350 wir mal wohl mit 0,13 rechnen können. aber ATi wird erst mal mit der vollständigen DX 9.0 Spec zu kämpfen haben. (NV mit dem NV35 aber auch). An DX 9.1 braucht im Moment noch niemand zu denken und die meisten werden es wohl auch nie sehen.

robbitop
2002-09-20, 12:15:36
ich glaube kaum dass ATi niedriege Produktionszyklen von 6Monaten anstrebt..das is sehr teuer wegen entwiclung und Produktion, das tut NV auch seit der GF3 nichmehr und der Refresh der GF3 hat 1 JAhr gebraucht (GF4)...

Ich denke der Refresh kommt sicher schnell aber nur aufgrund dessen dass man die Produktionskosten senken muss, denn 0,13µ (wird dank NV ja gerade perfektioniert) ermöglicht günstigere Chips durch geringere Ausschüsse bei aktuellen Taktfrequenzen und allgemein mehr Chips/Wafer...aber in 6Monaten wenn er so schnell kommen sollte hat er sicher keine Neuerungen...das geht kaum...und es würde sich für ATi kaum lohnen, die entwickeln sicher am R400 ..damals sollte es auch einen R250 ala R8800 und/oder 8500XT geben, aber ATi hat sich auf den neuen Chip konzentriert.

Der Refresh bringt sicher nur hohe Chip/Ramtakte evl DDR mit sich...

wenn er denn so schnell kommt und das glaube ich fast, da ATi mal Gewinn machen will (ich mein ordenlich).

zeckensack
2002-09-20, 15:48:29
Originally posted by robbitop
ich glaube kaum dass ATi niedriege Produktionszyklen von 6Monaten anstrebt..das is sehr teuer wegen entwiclung und Produktion, das tut NV auch seit der GF3 nichmehr und der Refresh der GF3 hat 1 JAhr gebraucht (GF4)...Ich muß hier mal eine Lanze für NV brechen ...

Die Gf4-Reihe ist nicht ein klassischer NV-Refresh. Die Gf4Ti hat erstens eine Handvoll Features mehr als die Geforce 3, zweitens ist sie wesentlich (!) effizienter bei gleichem Takt. Wir haben es hier wirklich mit einem überarbeiteten Core zu tun, und nicht nur mit einer Taktratenerhöhung wie bei den 'richtigen' Refreshes (Gf2 -> Gf2Pro/Ultra/Ti ; Gf3 -> Gf3Ti500).

Bei der Gf4MX ein ähnliches Bild. Mehr AA-Modi, mehr AF-Modi, wesentlich effizienter als der Vorgänger, ergo überarbeiteter Core.

Ansonsten (@Topic) gefällt mir, was ich sehe :)

Salvee
2002-09-20, 16:03:24
Originally posted by Demirug
ice cool69, ja beim R350 wir mal wohl mit 0,13 rechnen können. aber ATi wird erst mal mit der vollständigen DX 9.0 Spec zu kämpfen haben. (NV mit dem NV35 aber auch).

Demirug, war das mit dem NV35 ein Verschreiber oder ein Hint ? ;)

robbitop
2002-09-20, 16:06:06
hast du recht, aber was definierst du dann als refresh wenn nicht ein überarbeiteten Core???

Ausserdem is die Pro/Ultra kein Refresh da die cHips exakt dieselben sind ohne kleinste Änderung (Strukturbreite auch nicht)..das sind nur unterschiedliche Modelle...ich denke die GF4 ist zwar überarbeitet, doch ist sie zu sehr GF3 als dass sie mehr als ein Refresh ist..so definiere ich Refresh...überarbeitete / aufgebohrte Version (nicht nur höher getaktet)...

zeckensack
2002-09-20, 16:12:38
Originally posted by robbitop
hast du recht, aber was definierst du dann als refresh wenn nicht ein überarbeiteten Core???

Ausserdem is die Pro/Ultra kein Refresh da die cHips exakt dieselben sind ohne kleinste Änderung (Strukturbreite auch nicht)..das sind nur unterschiedliche Modelle...ich denke die GF4 ist zwar überarbeitet, doch ist sie zu sehr GF3 als dass sie mehr als ein Refresh ist..so definiere ich Refresh...überarbeitete / aufgebohrte Version (nicht nur höher getaktet)... Ich definiere Refresh genauso wie du ???

Von der Geforce2GTS bis zur gleichzeitigen Vorstellung von Geforce2Ultra und Geforce2Pro hat es ein halbes Jahr gedauert. Also ein NV-Produktzyklus. Ein weiteres halbes Jahr später kam die Geforce 3, danach Geforce3Ti200/Ti500 (und als Bonus wurde die Gf2U als Gf2Ti nochmal 'neu' vorgestellt).

Das sind für mich Refreshes, weil bis auf die Taktraten überhaupt nichts verändert wurde.

Daß die Gf4 mehr oder weniger die gleichen Features hat wie die Gf3, liegt IMO daran, daß keine neue DX-Version abzusehen war. Da war einfach kein Raum für haufenweise neue Features, trotzdem ist's ein neuer Core, und nicht nur ein Refresh ;)

Demirug
2002-09-20, 16:24:30
Originally posted by Salvee


Demirug, war das mit dem NV35 ein Verschreiber oder ein Hint ? ;)

Ich meinte schon NV35.

Vorweg: ich habe von NVIDIA nicht mehr informationen als allgemein zugänglich sind.

Der Funktionsumfang der Vertex und Fragment (Pixel) Einheiten des NV30 kann ale bekannt angesehen werden. Auf DX bezogen entspricht sie in beiden Fällen 2.X. DX 9.0 geht aber bis 3.0 und die Änderungen von 2.x zu 3.0 sind sehr heftig. IMO ist das wenn die normale Zyklen beibehalten werden bis zum NV35 nicht machbar.

robbitop
2002-09-20, 16:46:36
nunja ich sehe das etw. anders aber das ist subjektiv.
Du definierst höhere Taktraten als Refresh...naja also OC ab werk.
kA warum man damals so lang damit wartete..sie hatten jedenfalls nix an den Chips geändert..aber es war genug potentil in der 0,18µ Fertigung und die Rambausteine hatten auch noch einiges zu bieten.

Für mich ist eine Überarbeitung oder zumindist eine Takterhöhung RESULTIEREND aus anderer Fertigung erst ein Refresh...aber vieleicht sehe ich das falsch.

Denn die GF4 ist nicht wirlich viel schneller. Ti4200 ist etwas schneller bei gleichem Takt und die 4600 is einfach nur hochgetaktet..aber mehr als ein Refresh isses für mich nicht weil wie gesagt nicht genug am Core geändert worden ist (um die Features geht es mir nicht in 1. Linie)

aber du magst Recht haben...

Pussycat
2002-09-20, 16:52:40
Originally posted by zeckensack
Ich definiere Refresh genauso wie du ???

Von der Geforce2GTS bis zur gleichzeitigen Vorstellung von Geforce2Ultra und Geforce2Pro hat es ein halbes Jahr gedauert. Also ein NV-Produktzyklus. Ein weiteres halbes Jahr später kam die Geforce 3, danach Geforce3Ti200/Ti500 (und als Bonus wurde die Gf2U als Gf2Ti nochmal 'neu' vorgestellt).

Das sind für mich Refreshes, weil bis auf die Taktraten überhaupt nichts verändert wurde.

Daß die Gf4 mehr oder weniger die gleichen Features hat wie die Gf3, liegt IMO daran, daß keine neue DX-Version abzusehen war. Da war einfach kein Raum für haufenweise neue Features, trotzdem ist's ein neuer Core, und nicht nur ein Refresh ;)

Gängigerweise wird z.b. GF1->GF2 als refresh bezeichnet. Hier und da ein paar Änderungen/Verbesserungen, mehr nicht.

Die GF2Ultra / GF3Ti sind IMO nur chips um die '6-Monate-Zyklus'-Mythe instande halten zu können.

robbitop
2002-09-20, 16:54:17
@Pussycat
FULL ACK

Ikon
2002-09-21, 07:54:52
Originally posted by zeckensack
Bei der Gf4MX ein ähnliches Bild. Mehr AA-Modi, mehr AF-Modi, wesentlich effizienter als der Vorgänger, ergo überarbeiteter Core.

Kleine Korrektur: die GF4MX kann auch nur 2xAF :)

ow
2002-09-21, 10:55:15
Bei der ganzen Refresh-Diskussion hier stellt sich mir die Frage, was denn eine GF4MX ist? Eine Neuentwicklung?

Mit der Gf2 hat sie nicht viel mehr gemeinsam als mit einer GF3 oder 4.

StefanV
2002-09-21, 11:09:46
Originally posted by ow
Bei der ganzen Refresh-Diskussion hier stellt sich mir die Frage, was denn eine GF4MX ist? Eine Neuentwicklung?

Mit der Gf2 hat sie nicht viel mehr gemeinsam als mit einer GF3 oder 4.

Würd eher sagen, daß es eine stark kastrierte GF3 ist...

Razor
2002-09-21, 11:15:03
nVidia verfolgte eigentlich schon immer 2 Produktlinien, die aber selbstredend nicht völlig unabhängig voneinander zu betrachten sind.

Habe das schon öfters gepostet, aber hier dann noch mal:

Hauptprodukte (ca. alle 2 Jahre):
TNT -> GeForce(DDR) -> GeForce3 -> NV30

dazu dann 'Refresh'-Produkte (dazwischen, i.e. auch alle 2 Jahre):
TNT2 -> GeForce2(Ti) -> GeForce4Ti

Von den 'Refresh'-Produkten gibt's dann auch immer LowCost-Produkte:
(die aber weitestgehend zeitgleich kommen)
TNT2M64 -> GeForce2MX -> GeForce4MX

Womit nun ein jährlicher Rythmus zustande gekommen ist...

Nun gibt's dann noch die 'Updates', die aber meistens nur reine Taktratenerhöhungen mit sich bringen...
...und schwupps ist der 6-Monats-Zyklus komplett.

Also bekannter Weise diverste Ultra/Pro/Ti-Vatainten (mit Ausnahme der gf4ti, die ja einem 'Refresh'-Produkt entspricht.)

Die NV18/28-Dingelchen werden also wieder 'Updates' sein, während dessen der NV30 wieder ein Hauptprodukt ist.

That's it !

Und ganz nebenbei ist nVidia noch absolut im Zeitplan.
Auch der NV20 (gf3) sollte zu Weihnachten 2000 kommen, hat sich dann aber bis ca. März/April 2001 verspätet. Wenn nun der NV30 doch noch Ende das Jahres kommen sollte (was ich zur Zeit noch mit einem Fragezeichen versehe), ist nVidia wieder voll im Zeitplan. Da allerdings jetzt das 'Update' kommt...
:D

Bis denne

Razor

Thowe
2002-09-21, 11:33:55
Originally posted by BlackBirdSR


was hat das mit der Power zu tun?
hauptsäschlich geht es doch um geringere pro Stück kosten und ein paar MHZ mehr, bei weniger Leistungsaufnahme.

Das ist die Theorie, in der Praxis gibt es noch ganz andere Probleme. Momentan dürfte der 0.13 Prozess deutlich teurer als der 0.15 sein.

Razor
2002-09-21, 11:38:04
Originally posted by Thowe

Das ist die Theorie, in der Praxis gibt es noch ganz andere Probleme. Momentan dürfte der 0.13 Prozess deutlich teurer als der 0.15 sein.
Wie meinst Du das Thowe ?
???

Wenn man die Kosten für die Entwicklung des .15 (!) Fertigungsprozesses mit in die reinen Fertigungkosten einrechnet, soll dieser also letztendlich günstiger sein, als der neue .13 Prozess in total ?

Hmmm...
Wird doch wohl hoffentlich nicht Dein Ernst sein, oder ?
:D

Bis denne

Razor

P.S.: Klar ist der neue Prozess momentan teurer, weil ALLES teurer ist, wenn es neu ist. Aber Du wirst mir doch wohl hoffentlich zustimmen, dass eine Firma einen eindeutigen Vorteil allein dadurch haben wird, wenn sie mit einer letztendlich kostengünstigeren Fertigung ein halbes Jahr frühger anfähngt, als die Konkurrenz...

ow
2002-09-21, 11:46:49
Originally posted by Stefan Payne


Würd eher sagen, daß es eine stark kastrierte GF3 ist...


Und Accuview, NView und der integrierte Tv encoder??

Die 4MX ist nix von allem.
Die NV Chips werden nach einem Baukastensystem zusammengesetzt (Ati Chips natürlich auch).

StefanV
2002-09-21, 11:52:51
Originally posted by Razor

Wie meinst Du das Thowe ?
???

Wenn man die Kosten für die Entwicklung des .15 (!) Fertigungsprozesses mit in die reinen Fertigungkosten einrechnet, soll dieser also letztendlich günstiger sein, als der neue .13 Prozess in total ?

Hmmm...
Wird doch wohl hoffentlich nicht Dein Ernst sein, oder ?
:D

Bis denne

Razor

P.S.: Klar ist der neue Prozess momentan teurer, weil ALLES teurer ist, wenn es neu ist. Aber Du wirst mir doch wohl hoffentlich zustimmen, dass eine Firma einen eindeutigen Vorteil allein dadurch haben wird, wenn sie mit einer letztendlich kostengünstigeren Fertigung ein halbes Jahr frühger anfähngt, als die Konkurrenz...

Die Ausbeute von 0,13µ ist momentan nur sehr schlecht, während sie bei ,15µ mittlererweile sehr gut ist...

Wie genau das war, weiß ich nicht, aber bei 0,15µ warens AFAIK 20% Ausschuß, bei 0,13µ sinds mindestens 50%, bei komplexeren Designs...

Ikon
2002-09-21, 12:03:11
Originally posted by ow
Und Accuview, NView und der integrierte Tv encoder??

Die 4MX ist nix von allem.
Die NV Chips werden nach einem Baukastensystem zusammengesetzt (Ati Chips natürlich auch).

Du sagst es selbst: die 4MX ist ein Sammelsurium von Technologien verschiedener, bestehender NV-Chips (GF2, GF3, GF4TI). Das einzig Neue ist der integrierte TV-Encoder (welcher allerdings von zweifelhafter Qualität ist und offensichtlich nur der Kostensenkung dient).

Richthofen
2002-09-21, 12:21:31
"
Die Ausbeute von 0,13µ ist momentan nur sehr schlecht, während sie bei ,15µ mittlererweile sehr gut ist...

Wie genau das war, weiß ich nicht, aber bei 0,15µ warens AFAIK 20% Ausschuß, bei 0,13µ sinds mindestens 50%, bei komplexeren Designs...
"

Tjo ob das wirklich so ist lassen wir mal dahingestellt. Die Verspätungen sind sowieso nicht mehr TSMC spezifisch. Denoch gilt für alle das gleiche. Und letztlich wird ATI genau bei der selben niedrigen Ausbeute anfangen wie NV auch.
Das ist dann eben der Zeitvorteil. Momentan muss man dafür eben etwas kürzer treten. Langfristig zahlt es sich aus.

Wenn ATI mit 0.13 anfängt, wird NV dabei sein die gesamte Palette 0.13 reif zu machen, weil sie eben ihre Erfahrungen gemacht haben und die Ausbeute wird deutlich besser sein.
Da sind zu viele Chipspezifika drinn, als das man sagen kann, der eine fängt später an und hat die Ausbeute des anderen.
Wenn das so poplig wäre, würden alle schön warten bis ein Dummer die Vorarbeit leistet. Aber so ist es ja nunmal nicht wie man an bekannten Beispielen in der Chip Welt sehen kann.

StefanV
2002-09-21, 12:25:53
@Richthofen

Nur dummerweise hat ATI erstmal auf 0,15µ gesetzt und so genug Zeit auf 130nm umzusteigen, während NV in Zugzwang geraten ist...

Pussycat
2002-09-21, 13:53:29
Originally posted by Razor
Und ganz nebenbei ist nVidia noch absolut im Zeitplan.
Auch der NV20 (gf3) sollte zu Weihnachten 2000 kommen, hat sich dann aber bis ca. März/April 2001 verspätet. Wenn nun der NV30 doch noch Ende das Jahres kommen sollte (was ich zur Zeit noch mit einem Fragezeichen versehe), ist nVidia wieder voll im Zeitplan. Da allerdings jetzt das 'Update' kommt...
:D

Bis denne

Razor

Also wenn NV alle Produkte verspätet, sind sie wieder voll im Zeitplan? Verstehe ich das richtig???

Razor
2002-09-21, 14:56:24
Originally posted by Stefan Payne

Die Ausbeute von 0,13µ ist momentan nur sehr schlecht, während sie bei ,15µ mittlererweile sehr gut ist...

Wie genau das war, weiß ich nicht, aber bei 0,15µ warens AFAIK 20% Ausschuß, bei 0,13µ sinds mindestens 50%, bei komplexeren Designs...
Woher hast Du das denn ?
???

Würde mich wirklich interessieren !
Soweit ich informiert bein, hat TMSC den Fertigungsprozess schon seit längeren im Griff und die Ausbeute wird hier nicht besser oder schlechter sein, als bei anderen Fertigungsprozessen (gleiche Transistorzahl voraus gesetzt). Ganz im Gegenteil dürfte die Ausbeute bei .15 gefertigten Prozessoren mit 120mio Transistoren sehr viel schlechter sein, da die Die-Fläche grösser und damit die Stückzahl pro Wafer geringer ist und somit auch der Ausschuß höher. Ergo die Produktion insgesamt teuerer sein dürfte...

Wie gesagt, dürfte...
Würde mich wirklich interessieren, wie hoch der Ausfall bei den R300-Chips ist !
Hast Du dazu nähere Info's ?

Bis denne

Razor

Razor
2002-09-21, 15:04:02
Originally posted by Pussycat

Also wenn NV alle Produkte verspätet, sind sie wieder voll im Zeitplan? Verstehe ich das richtig???
Das hast Du was falsch verstanden !
:D

Wenn (ja wenn ;-) der NV30 Weihnachten kommt, sind sie wieder im Zeitplan (analog zum ursprüglichern Erscheinungstermin des NV20, i.e. Weihnachten 2000). Ansonsten hat sich bis heute an dem 6-Monats-Zyklus nichts geändert, wenn man die Verspätung eines (!) Chips, i.e. dem NV20, als gegeben hin nimmt. Kommt der NV30 tatsächlich schon Weihnachten, dann würde im Fall des NV18/28 und dem NV30 ein 3-Monats-Zyklus vorliegen, aber die ursprüngliche Verspätung wieder rein holen.

Hast Du nun verstanden, was ich sagen wollte ?

Tja, und der NV30 wäre auch März 2003 noch 'rechtzeitig', bezogen auf den 6-Monats-Zyklus, nicht aber bezogen auf die derzeitige Marktlage. Könnte mir gut vorstellen, dass die Wahrheit irgendwo dazwischen liegt... aber immer noch besser, als ein halbfertiges Produkt zu liefern, wie damals beim R200 und jetzt mit der A2-Revision des R300.

In diesem Sinne

Razor

Pussycat
2002-09-21, 15:23:25
Ach. Und ich dachte, der nv30 sollte das Spring 2002 Product sein?

Und wieso ist der r300 halbfertig? Weil einige Mobos nicht vernünftig gemacht sind, so dass wir den genauso schnellen 4x modus brauchen?

Razor
2002-09-21, 15:41:29
Originally posted by Pussycat
Ach. Und ich dachte, der nv30 sollte das Spring 2002 Product sein?

Und wieso ist der r300 halbfertig? Weil einige Mobos nicht vernünftig gemacht sind, so dass wir den genauso schnellen 4x modus brauchen?
Gib's zu, Du hast doch irgendetwas getruken, oder ?
:D

Das Problem ist bereits von ATI beseitigt worden und zwar in der neuen A3-Reision des Chips.
Insofern sollte der Verursacher ja wohl fest stehen, oder ?

Und das mit dem 'Spring2002'-Produkt hab' ich zwar gehofft, aber mir war natürlich schon klar, dass diese Ankündigung gar nicht in den Zeitplan nVidia's passt (siehen vorherigen Post, bezogen auf den 2-Jahres-Zyklus).

Wie gesagt, würde der Chip bis Weihnachten kommen, sind sie voll im Zeitplan, was den 2-Jahres-Zyklus angeht, aber ein bissel früh, was den 6-Monats-Zyklus angeht.

Bis denne

Razor

Pussycat
2002-09-21, 16:05:06
Das beweisst nicht, dass ATI es schuld war. ATI kann auch fehler anderer Leute umgehen.

Aber du hältst also den 1-jahres-neue-produkte fest, nichts aber den 6 monate-mythos? Dann kann ich dir recht geben.

Razor
2002-09-21, 16:49:11
Originally posted by Pussycat
Das beweisst nicht, dass ATI es schuld war. ATI kann auch fehler anderer Leute umgehen.

Aber du hältst also den 1-jahres-neue-produkte fest, nichts aber den 6 monate-mythos? Dann kann ich dir recht geben.
ATI löst Probleme anderer Hersteller hardwareseitig ?
Eher nicht...

Aber ich halte auch nicht am 1-Jahres-Zyklus fest, sondern am 2-Jahres-Zyklus !

Die 6-Monats-Zyklen sind ein glatter Marketing-Gag und selbst die 'Refresh'-Zyklen (i.e. alle 2 Jahre zwischen den Hauptprodukten), sind halt 'Mogelpackungen', um den Leuten das Geld aus der Tasche zu ziehen (meine Meinung).

Das ändert allerdings nichts daran, dass nVidia hier sehr geschickt vorgeht (nicht umsonst sind sie Marktführer ;-). Denn so bieten sie für jedes Marktsegment entsprechende Produkte und bieten auch den unentschlossenen etwas.

Wenn ich mir da so aths anschaue...
(soll jetzte keinesfalls ein Angriff oder eine Provokation sein !)

Zuerst hat er grundsätzlich was an nVidia-Karten ausgesetzt und auch an der gf3 hat er kein trockenes Haar gelassen, hat sich dann aber eine gf4ti4600 geholt (was nicht einmal ich zustande gebracht hätte ;-). Auch hat er zugegeben, dass die gf3 ihrer Zeit ziemlich voraus war und eben mehr geboten hat, als nur reine Performance (bei DX7-Titeln).

Ich halte mich an die Hauptprodukt-Linie und da wird der jüngste Spross hoffentlich bald kommen. Und wenn er nicht hält, was er verspricht, wird's halt 'ne R350 oder was weiss ich...
;-)

In diesem Sinne

Razor

Thowe
2002-09-21, 17:15:26
Originally posted by Razor

Wie meinst Du das Thowe ?
???

Wenn man die Kosten für die Entwicklung des .15 (!) Fertigungsprozesses mit in die reinen Fertigungkosten einrechnet, soll dieser also letztendlich günstiger sein, als der neue .13 Prozess in total ?

Hmmm...
Wird doch wohl hoffentlich nicht Dein Ernst sein, oder ?
:D



Ist mein Ernst.

Wenn du im 150nm Prozess fertigen lässt, der mitlerweile durchaus gut ausgereift ist, dann ist eine Ausbeute von 30% auch bei solch komplexen Designs denkbar.

Wenn du im 130nm Prozess fertigen lässt, dann ist es vorstellbar das die Ausbeute zu Beginn von komplexen Chips, der NV30 ist der erste den TSMC in solcher Art und Komplexität fertig, bei deutlich unter 10% oder sogar noch weit geringer liegt. Nebenbei bedeuten kleinere Strukturen auch immer eine höhere Anfälligkeit gegenüber andere Faktoren die es auch zu berücksichtigen gilt.

Zur Zeit ist der 130nm Prozess mit Sicherheit deutlich teurer als der 150nm Prozess.

Das NV nicht glücklich mit TSMC ist war schon mehrfach nachlesbar, im Moment würde ich davon ausgehen das UMC weiter ist was die komplexen Designs in den einzelnen Prozessen angeht.

Richthofen
2002-09-21, 17:56:31
"
Nur dummerweise hat ATI erstmal auf 0,15µ gesetzt und so genug Zeit auf 130nm umzusteigen, während NV in Zugzwang geraten ist...
"

Ne haben sie eben nicht. Sie haben jetzt aktuell den Vorteil aber sowie NV seine 0.13 Serie launched wendet sich das Blatt. Denn den Zeitvorsprung dann holt ATI nicht ein. Der wird wie bei Intel/AMD auch wie eine Klette am Bein hängen.

Wie ich sagte, wenn ATI anfängt seine High End Chips 0.13 fähig zu machen hat NV damit schon längst ne ansprechende Ausbeute und ist bei den Mid Range bis Low Cost Teilen.
Der Zeitverzug macht sich nur bis zum NV30 bemerkbar.

Wird der besser als der R300, ist alles wieder im Lot und der Vorteil auf Seiten von Nvidia so wie es auch bei Intel der Fall ist.

"
ATI löst Probleme anderer Hersteller hardwareseitig ?
Eher nicht...
"
Ganz sicher nicht :)
Wenn ATI was am Design ändert, dann ist garantiert fakt das ATI schuld war und niemand sonst.
Das wäre ja geradezu lächerlich, wenn zb Asus ein Problem mit AGP8x hätte auf seinem Board und ATI mal eben das Design dafür ändert.
Was würden die dann wohl machen bei denen die dieses Problem nicht haben?

Also diese Erkenntnis ist an den Haaren herbeigezogen.
Da kann die ATI PR Abteilung erzählen was sie wollen. Bei AGP8x liegt die Schuld auf den ihrer Seite.

Naja das most stable haben sie ja dann auch aus ihren PR Mitteilungen gleich gestrichen :)
War wohl doch zu dreist.

"
Wenn du im 130nm Prozess fertigen lässt, dann ist es vorstellbar das die Ausbeute zu Beginn von komplexen Chips, der NV30 ist der erste den TSMC in solcher Art und Komplexität fertig, bei deutlich unter 10% oder sogar noch weit geringer liegt.
"
Laut Aussagen des CEOs von NV in einem COnference Call vor 2 bis 3 Monaten war die Ausbeute zwischen 10 und 20% zu diesem Zeitpunkt beim 0.13 Verfahren bei TSMC für komplexe Designs.
Es ist mit reichlich hoher Wahrscheinlichkeit anzunehmen, das sich diese Zahl gebessert hat.
Bei den begrenzten Mengen ist das ohnehin nicht so tragisch.

aths
2002-09-21, 18:26:09
Originally posted by Richthofen
Sie haben jetzt aktuell den Vorteil aber sowie NV seine 0.13 Serie launched wendet sich das Blatt. Denn den Zeitvorsprung dann holt ATI nicht ein. Der wird wie bei Intel/AMD auch wie eine Klette am Bein hängen.Wie oft soll denn noch wiederholt werden, dass 0.13 zwar ganz nett sind, gegenüber 0.15 aber keinen drastischen Sprung darstellen? Mit 0.13 sind, nachdem gewisse Probleme gelöst wurden, etwas höhere Taktraten drin. (Was nV wenig nützen wird, wenn NV30 tatsächlich ein 128-Bit-Interface verwendet.) Neue Taktwunder sind erst mit 0.09 zu erwarten.

Börk
2002-09-21, 18:42:46
Originally posted by aths
Neue Taktwunder sind erst mit 0.09 zu erwarten.

Aber davor gibt´s erst mal 0.11 zumindest bei den Grakas.
Bei den prozzies werden sie gleich zu 0.09 gehen.

Razor
2002-09-21, 19:49:53
@Thowe
Ist mein Ernst.
Wirklich ?
;-)
Wenn du im 150nm Prozess fertigen lässt, der mitlerweile durchaus gut ausgereift ist, dann ist eine Ausbeute von 30% auch bei solch komplexen Designs denkbar.
Denkbar ja, aber wissen tun wir das beide nicht...
Wenn du im 130nm Prozess fertigen lässt, dann ist es vorstellbar das die Ausbeute zu Beginn von komplexen Chips, der NV30 ist der erste den TSMC in solcher Art und Komplexität fertig, bei deutlich unter 10% oder sogar noch weit geringer liegt. Nebenbei bedeuten kleinere Strukturen auch immer eine höhere Anfälligkeit gegenüber andere Faktoren die es auch zu berücksichtigen gilt.
Deswegen ja auch meine Theorie, dass nVidia eben nicht mit dem Komplextätsgrad eines NV30 beginnt, sondern mit einem schon sehr gut bekannten ala NV18/28 (welche im Kern ja wohl NV17/25 entsprechen).

Und wenn ihnen das gelingen sollte, dann dürfte die höhere Komplexität eines NV30 nicht mehr ganz so ins Gewicht fallen...
Zur Zeit ist der 130nm Prozess mit Sicherheit deutlich teurer als der 150nm Prozess.
Das ist sicher korrekt, aber deswegen habe ich ja auch die Anlaufkosten auch beim .15 Prozess (der ja vom .18 Prozess gekommen ist) mit angeführt.

Jetzt teurer, aber auf längere Sicht günstiger...
Das NV nicht glücklich mit TSMC ist war schon mehrfach nachlesbar, im Moment würde ich davon ausgehen das UMC weiter ist was die komplexen Designs in den einzelnen Prozessen angeht.
Dazu gibt es auch schon gegenteilige Berichte.
So scheint es zur Zeit eher an nVidia selbst zu liegen, dass der NV30 noch nicht gefertigt wird, was man öffentlich natürlich so nicht zugeben kann/darf.

Zumal ja jetzt erst mal die NV18/28 kommen, die ja auch verkauft werden wollen. Würde nVidia jetzt den NV30 einführen, würde er den anderen Produkten (auch dem nForce2 !) die Schau stehlen.

Insofern würde ich derzeit sogar davon ausgehen, dass nVidia momentan aus rein taktischen Gründen verzögern muss.

Aber noch können wir nur spekulieren, denn erst die nächsten Monate werden genaueres zeigen !

Bis denne

Razor

Razor
2002-09-21, 20:21:58
Originally posted by aths
Wie oft soll denn noch wiederholt werden, dass 0.13 zwar ganz nett sind, gegenüber 0.15 aber keinen drastischen Sprung darstellen? Mit 0.13 sind, nachdem gewisse Probleme gelöst wurden, etwas höhere Taktraten drin. (Was nV wenig nützen wird, wenn NV30 tatsächlich ein 128-Bit-Interface verwendet.) Neue Taktwunder sind erst mit 0.09 zu erwarten.
Was abzuwarten bliebe...
Was, wenn nVidia erstmalig embedded DRAM nutzen würde ?
Dann würde das externe Speicherinterface nur noch einen sekundären Charakter haben !

Wie groß der interne Bus des Chips ausgelegt ist, weiß zum derzeitigen Zeitpunkt noch niemand. Was, wenn das mutmaßliche eDRAM mit 1024Bit angebunden sein würde und der externe Speicher dann mit sehr hoch getaktetem 128Bit-DDR2 und einem double-quad (nett, nicht wahr ;-) Memory-Controller ?

Noch ist alles offen, so belibt uns nur, erst einmal abzuwarten...

Bis denne

Razor

Salvee
2002-09-21, 20:29:50
Originally posted by Razor

Was abzuwarten bliebe...
Was, wenn nVidia erstmalig embedded DRAM nutzen würde ?
Dann würde das externe Speicherinterface nur noch einen sekundären Charakter haben !


Nie und nimmer, dafür reichen die 120Mio Transen nicht aus (wenn diese Zahl denn stimmt).
Höchstens grössere onchip-Caches (wo ist da eigentlich der Unterschied, btw.)?

Exxtreme
2002-09-21, 20:34:38
Originally posted by Razor

Was abzuwarten bliebe...
Was, wenn nVidia erstmalig embedded DRAM nutzen würde ?
Dann würde das externe Speicherinterface nur noch einen sekundären Charakter haben !

Razor
Sehr... wirklich sehr unwahrscheinlich. Speicher benötigt sehr viel Platz auf'm Die, es sei denn die machen es wie Intel beim PentiumPro. Nur eine solche Lösung wie sie damals Intel gemacht hat ist wirklich schweineteuer. Ausserdem hätte eine solche Lösung den Nachteil, daß man nicht so viel Grafik-RAM unterbringen könnte.

Gruß
Alex

Thowe
2002-09-21, 21:26:33
Originally posted by Razor
@Thowe

Wirklich ?
;-)


aber 100pro



Denkbar ja, aber wissen tun wir das beide nicht...


Das hast du gesagt :)


Deswegen ja auch meine Theorie, dass nVidia eben nicht mit dem Komplextätsgrad eines NV30 beginnt, sondern mit einem schon sehr gut bekannten ala NV18/28 (welche im Kern ja wohl NV17/25 entsprechen).

Und wenn ihnen das gelingen sollte, dann dürfte die höhere Komplexität eines NV30 nicht mehr ganz so ins Gewicht fallen...



Sind völlig unterschiedlich, hätte keinen direkten Einfluss, ausser einen geldlichen nach einigen TapeOuts. Jedoch ist der Schwierigkeitsgrad schon erheblich different. Wenn man dabei einige Aussagen vom CEO von TSMC (z.B. eetimes) berücksichtigt, dann kann man sogar davon ausgehen das z.Z. deutlich weniger als erwartet produziert wird.



Das ist sicher korrekt, aber deswegen habe ich ja auch die Anlaufkosten auch beim .15 Prozess (der ja vom .18 Prozess gekommen ist) mit angeführt.

Jetzt teurer, aber auf längere Sicht günstiger...


Du kannst davon ausgehen das der 130nm Prozess in Relation teurer ist.


Dazu gibt es auch schon gegenteilige Berichte.
So scheint es zur Zeit eher an nVidia selbst zu liegen, dass der NV30 noch nicht gefertigt wird, was man öffentlich natürlich so nicht zugeben kann/darf.


Wer weiss, vielleicht ist das Desing ja inkompatible zum Prozess ;)

UMC selbst erwartet das der 130 nm Prozess im 4 Quartal optimiert wird und somit Kapazitäten möglich sind. Setzt man das in Relation mit einigen "Spekulationen" das UMC weiter als TSMC ist, dann sieht es für Stückzahlen gar nicht so rosig aus. UMC hat, sofern ich es richtig in Erinnerung habe, z.Z. 5 Produkte von 4 Kunden als Tapeouts. Vielleicht ist ja jetzt auch nVidia dabei.


Zumal ja jetzt erst mal die NV18/28 kommen, die ja auch verkauft werden wollen. Würde nVidia jetzt den NV30 einführen, würde er den anderen Produkten (auch dem nForce2 !) die Schau stehlen.


Iwo, sie können nicht.


Insofern würde ich derzeit sogar davon ausgehen, dass nVidia momentan aus rein taktischen Gründen verzögern muss.


Nein, jetzt wäre der beste Zeitpunkt, warum sollten sie es erst zulassen das ATI mit der R9700 Marktanteile gewinnt. So schneller wenigstens Testmuster versickt werden, desto besser wird es für nVidia sein. Bislang begnügen sie sich noch mit "Gerüchten".


Aber noch können wir nur spekulieren, denn erst die nächsten Monate werden genaueres zeigen !

Bis denne

Razor

Davon kannst du ausgehen

Demirug
2002-09-21, 21:55:17
Dann will ich mal wieder eine ganz wilde spekulation beitragen:

NV30 besteht aus 2 DIEs mit jeweils ca 60 Mio Transitoren. Beide DIEs werden in einem Chip integriert.

1. DIE: 2 VS und 4 Pipelines mit einer TMU
2. DIE: 6-7 MB DRAM mit >1024 Bit (8 oder 16 fach XBar) an den primärchip angebunden für den Z-Buffer und Teile des Frame und Texturbuffer.

Das ganze mit 650-700 Mhz Primär Takt.

Technisch nicht ganz einfach aber durchaus machbar

PhoenixFG
2002-09-21, 22:02:23
Hm, da wird immer behauptet, der Sprung von 0,15µm zu 0,13µm würde keinen so sehr großen Taktsprung erlauben, und nun kommt einer und erzählt gleich mal was von dem doppelten des derzeit erhältlichen. Irgendwie passt das nicht so ganz, oder?

MfG

Demirug
2002-09-21, 22:11:49
PhoenixFG,

berechtigter Einwand. Ist aber alles nur eine Frage des Chipdesigns Intel baut ja auch in 0,13 Chip mit 55 Mio Transitoren die über 2 GHz gehen (ok davon gehen eine Menge für die 600 KB caches drauf). Das Problem ist nur die Verlustleistung und die dadurch benötigte Stromaufnahme.

ow
2002-09-21, 23:48:31
Originally posted by Ikon

Das einzig Neue ist der integrierte TV-Encoder (welcher allerdings von zweifelhafter Qualität ist und offensichtlich nur der Kostensenkung dient).


Ja. Und genauso sieht´s bei der R9000 aus.
Billiger als 8500 aber schlechtere Qualität. Nachzulesen in der aktuellen c´t.

Ikon
2002-09-22, 00:06:28
Der einzige Vorteil der ATI-Version ist, dass sie Overscan unterstützt. Aber du hast natürlich recht, die Qualität ist schlechter als bei einem (guten) externen TV-Encoder.

ow
2002-09-22, 00:11:07
Leider scheint ATi auch nicht in der Lage, den Overscan Button ab Werk anzubieten.
Das bemängelt die c´t in jedem Test, dass man dafür eine Tweaker benutzen muss.:D;)

Salvee
2002-09-22, 04:05:46
*gelöscht wg. Übermüdung * :bonk:

robbitop
2002-09-22, 13:27:28
@Demirug
interessante Speku (auch wenn ich nicht glaube dass NV sowas machen wird, da David Kirk eine andere Strategie verfolgt)

aber sind 6-7MB Ram nich ein bissi wenig?
dann müsste schnell auf den Speicher auf der Karte ausgelagert werden der wahrscheinlich sehr langsam sein dürfte, da das Chipdesign teuer genug wäre...

achja und sagmal, wäre es bei GPUs denn auch möglich die bei aktuellen Frequenzen ähnlich hoch wie CPUs zu bringen?
Warum eigendlich nicht??


Meine Speku kennt ja jeder inzwischen:
256bit DDR 350-400Mhz DDR2
350-400Mhz GPU
8*2TMUs
FAA wäre schön aber kA ob die schon soweit sind
4VS

wenn sie kein 256bit DDR haben dann müssen sie verdammt schnelles DDR2 auftreiben und selbst dann sind sie im Gegensatz zum sehr effizienten R300 am Ars** ...

nochmal Demirug an dieser Stelle:
der Chip müsste doch auch intern auf 512bit ausgelegt sein um QBM nutzen zu können?? War doch damals auch beim 128bit DDR so dass man trotzdem ein 256bit reites Speicherinterface brauchte.

Und benötigt man für 128bit QBM selbe Leitungsanzahl wie bei 256bit DDR?? nein, weniger, oder?
denn zw DDR und SDR war ja auch der Vorteil dass man eben weniger Datenleitungen brauchte.

Aber QBM befähigt doch keinesfalls einen Chip der nur ein 256bit breites Interface hat (also inter 256bit) zu 128bit QBM, oder?

danke!

Pussycat
2002-09-22, 14:28:03
Originally posted by Razor
Insofern würde ich derzeit sogar davon ausgehen, dass nVidia momentan aus rein taktischen Gründen verzögern muss.


Ist Imageverlust taktisch?

Razor
2002-09-23, 19:42:08
Originally posted by Pussycat

Ist Imageverlust taktisch?
Möglich...
:D

Razor

Pussycat
2002-09-23, 19:52:47
LOL

Razor
2002-09-23, 19:55:35
Warte doch einfach ab...
;-)

Razor

zeckensack
2002-09-24, 16:01:16
QBM bringt IMO für Grakas ganz exakt garnichts.

Begründung: es gibt keine QBM-Speicherchips. Es gibt QBM-Module (zumindest eine Handvoll Muster), die quasi zwei DDR-Module plus Multiplexer sind. Was sich dadurch ändert, ist die Anzahl der Leitungen auf dem Mainboard, was aufgrund der da vorherrschenden Probleme auch sinnvoll ist.

Wenn ich jetzt diese Multiplexer auf eine Grafikkarte schnalle, dann verkompliziert das nur das Design. Die Leitungen sind sowieso sehr kurz, Speicherchips braucht man genausoviele. Also ist da mit QBM nichts zu gewinnen.

Gesetz den Fall, ich würde die QBM-Logik direkt in den Grafikchip integrieren, hätte das auch keine Vorteile, da auf dem PCB die gleichen Chips (und die gleiche Anzahl Datenleitungen) wie für ein doppelt breites DDR-Interface gebraucht würden.

Damit QBM für Grakas wirklich brauchbar (ie nicht kontraproduktiv) wird, muß es Speicherchips geben, die das Protokoll direkt eingebaut haben. Und die gibt's halt bisher nicht :bäh: