PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia wird 110 nm wieder bei TSMC fertigen


Godmode
2004-02-24, 23:43:22
Hmm hab das vorher auf www.computerbase.de gelesen und habe mich gleich gefragt warum sie jetz wieder bei TSMC fertigen lassen?? Beherrscht IBM den 110 nm Prozess noch nicht? Oder sind die Ergebnisse einfach nicht so gut wie bei TSMC; oder ist IBM zu teuer?;D Also das möchte ich gerne mal wissen was da hinter den Kulissen so abgeht!!

Quasar
2004-02-24, 23:52:06
Eine weitere, aber _sehr_ paranoide Möglichkeit ist, daß nVidia ihren Vertrag mit TSMC ausnutzen möchte, den aktuellsten Prozess durch Mitgestaltung nutzen zu können, schlicht und einfach, um ATi genau daran zu hindern.

Wie gesagt, _sehr_ paranoid....

Ailuros
2004-02-24, 23:53:06
Wie der kalifornische Grafikchipdesigner heute in einer Pressemeldung bekannt gab, hat man mit der althergebrachten Haus- und Hof-Fertigungsstätte TSMC aus Taiwan ein Abkommen über die Nutzung des aktuellen 0,11µ-Prozesses geschlossen.

Schoen. Betreffend H2 2004 Produkte natuerlich.

Jetzt beginnt erst der absolute Bloedsinn:

Inwieweit dadurch die spekulative Fertigung des bald erwarteten High-End Flaggschiffes nV40 bei IBM betroffen sein könnte, ist noch nicht abzusehen. Aber im Regelfalle dauert die Anpassung eines Prozesses auf ein bestehendes Design zusätzlich zur Züchtung und Belichtung der Siliziumkristalle ein gewisse Zeit und somit wäre mit einer Vorstellung des nV40 kaum vor Sommer zu rechnen.
Viel wahrscheinlicher ist hingegen, dass der neue Prozess für den später erwarteten Refresh-Chip nV45 genutzt werden kann.

*arggghhhh*

Fertigung der kleineren Ableger für den Low-Cost und Mid-Range Markt ist ziemlich ausgeschlossen, da hier ein enormes Volumen bedient werden muss, welches bei einem neuen, unerprobten Prozess mit einem unkalkulierbaren Risiko behaftet wäre - nicht umsonst ist der nV34 der einzige DX9-Chip, den nVidia samt Mobil-Variante noch in 0,15µ fertigen lässt.

Irrelevant. 110nm im mainstream ist nicht unmoeglich fuer H2 2004 und dass nicht nur fuer NVIDIA. Es gibt aehnliche Geruechte ueber ATI und mainstream/H2.

Ailuros
2004-02-24, 23:54:36
Original geschrieben von Quasar
Eine weitere, aber _sehr_ paranoide Möglichkeit ist, daß nVidia ihren Vertrag mit TSMC ausnutzen möchte, den aktuellsten Prozess durch Mitgestaltung nutzen zu können, schlicht und einfach, um ATi genau daran zu hindern.

Wie gesagt, _sehr_ paranoid....

Schlechte Theorie. Siehe vorigen Post.

***edit:

B3D:

http://www.beyond3d.com/forum/viewtopic.php?t=10440

Xmas
2004-02-24, 23:59:46
Wieso eigentlich "jetzt wieder"? NVidia ist doch nicht komplett von TSMC zu IBM gewechselt.

Godmode
2004-02-25, 00:02:48
Original geschrieben von Xmas
Wieso eigentlich "jetzt wieder"? NVidia ist doch nicht komplett von TSMC zu IBM gewechselt.

Ok das "wieder" hätte ich mir sparen können!

Quasar
2004-02-25, 00:24:35
Original geschrieben von Ailuros
*arggghhhh*

Wieso *arggghhhh*? Meinst du, nV läßt den nV40 schon bei TMSC bereitlegen und hofft auf 90nm für den Refresh? :|

mrdigital
2004-02-25, 01:01:37
ich glaube das *aaarghhh* bezieht sich auf den Spruch "...zusätzlich zur Züchtung und Belichtung der Siliziumkristalle ein gewisse Zeit...", wär mir neu, dass man erst den Si Kristall züchten muss (den kauft man von einem Zulieferer ein, den rohen Wafer und muss den nicht erst "gezüchtet" werden) und das Belichten ist ja Teil des Herstellungsprozesses...

Ailuros
2004-02-25, 01:09:48
Original geschrieben von Quasar
Wieso *arggghhhh*? Meinst du, nV läßt den nV40 schon bei TMSC bereitlegen und hofft auf 90nm für den Refresh? :|

Es war eher auf den Schwachsinn ueber NV40/5 bezogen. Die Teile sind fertig und erwarten nur eine Ankuendigung bzw. Massenproduktion (keine Ahnung was die Ankuendigung von NV45 genau betrifft; reine Schaetzung basierend auf den Zeitpunkt der tape-outs).

NV macht ne Ankuendigung ueber 110nm, da sollte es wohl offensichtlich sein, dass fertige Produkte auf keinen Fall NICHT davon betreffen werden.

Die Geschichte mit den refreshes ist mir immer noch zu truebe (ob und wann es diese geben sollte). 90nm erst in 2005 und dann eher fuer NV50.

Ailuros
2004-02-25, 01:12:29
Original geschrieben von mrdigital
ich glaube das *aaarghhh* bezieht sich auf den Spruch "...zusätzlich zur Züchtung und Belichtung der Siliziumkristalle ein gewisse Zeit...", wär mir neu, dass man erst den Si Kristall züchten muss (den kauft man von einem Zulieferer ein, den rohen Wafer und muss den nicht erst "gezüchtet" werden) und das Belichten ist ja Teil des Herstellungsprozesses...

Ich kenne mich mit den Kleinigkeiten von dem Zeug sowieso nicht aus. Wenn es sich aber tatsaechlich um eine Aenderung der foundry gehandelt haette, dann koennte man NV40 in dem Fall eher September oder spaeter erwarten.

Gast
2004-02-25, 01:13:56
Ich wußte gar nicht, daß der nV45 schon in den Starlöchern steht (also fertig bis hin zu den Photomasken designed ist).

Und daß der nV40 nicht mit dem 0,11µ in Verbindung stehen sollte, steht ja auch in der Meldung.

;Q

Ailuros
2004-02-25, 01:17:19
Original geschrieben von Gast
Ich wußte gar nicht, daß der nV45 schon in den Starlöchern steht (also fertig bis hin zu den Photomasken designed ist).

Und daß der nV40 nicht mit dem 0,11µ in Verbindung stehen sollte, steht ja auch in der Meldung.

;Q

NV45 ist kein refresh chip so wie ihn die meisten verstehen wollen.

R420/R423 und NV40/NV45.

Wenn etwas NV45 aufhalten koennte (ein paar Monate vielleicht) dann ist es nicht die foundry oder der Herstellungsprozess.

Gast
2004-02-25, 01:35:41
Ich habe gelesen das NV den NV45 diesmal kurz nach dem NV40 bringen will.Und das schon nach 1 oder 2 Monaten,ist das richtig ?

Will NV den "Turbochip" schon so schnell bringen weil sie ahnen das ATI stark sein wird ?

Godmode
2004-02-25, 07:42:01
Ich weiss nicht mehr so genau aber ich glaube der NV45 ist nur die PCI-Express Variante!!

Gast
2004-02-25, 08:12:17
Original geschrieben von bans3i
Ich weiss nicht mehr so genau aber ich glaube der NV45 ist nur die PCI-Express Variante!!

Wie soll dann der Refresh Chip heißen ?

Gast
2004-02-25, 08:26:58
Original geschrieben von Gast
Wie soll dann der Refresh Chip heißen ?

PCGH sagte das er schon kurze Zeit nach dem NV40 erscheinen soll.Damit kann ja nicht der NV45 gemeint sein,der ist ja nur die PCI E Variante. hmm

BlackBirdSR
2004-02-25, 10:31:06
Original geschrieben von mrdigital
ich glaube das *aaarghhh* bezieht sich auf den Spruch "...zusätzlich zur Züchtung und Belichtung der Siliziumkristalle ein gewisse Zeit...", wär mir neu, dass man erst den Si Kristall züchten muss (den kauft man von einem Zulieferer ein, den rohen Wafer und muss den nicht erst "gezüchtet" werden) und das Belichten ist ja Teil des Herstellungsprozesses...

ja, bei dem Spruch fegts mich auch aus den Schlappen *g*

robbitop
2004-02-25, 10:39:05
ich vermute mal, dass man die Midrangereihe wie ATi auch in 110nm fertigen möchte.
Und midrange sollte von anfang an bei TSMC bleiben. NV36 war afaik nur ein Test ob IBM mit VPUs von NV klarkommt.
ich denke mal NV41?(midrange) und NV44? (lowcost)werden bei TSMC gefertigt. NV41 evl schon mit 110nm, vieleicht aber auch erst dessen Refresh (NV46??). NV44 sicher mit 130nm.
Alles nur meine Vermutungen..

mrdigital
2004-02-25, 10:45:31
ja, bei dem Spruch fegts mich auch aus den Schlappen *g*

wieso lässt man solche Reakteure einen Artikel veröffentlichen? Ich mein wenn der über ein Erscheinugsdatum von einem Produkt rumrät, das ist es klar, dass man sich da vergreifen kann, denn es ist ja eine Spekulation aber wenn es dann halt soooo grob wird, dann sollte man ihm doch ein paar Fortbildungen in Halbleitertechnik spendieren, bevor er darüber philosophiert. Andererseits ist das auch wiederum gut, wenn man Unsinn so schnell erkennen kann, dann kann man das gleich aussortieren...

Endorphine
2004-02-25, 10:50:53
Original geschrieben von mrdigital
wieso lässt man solche Reakteure einen Artikel veröffentlichen? Ich mein wenn der über ein Erscheinugsdatum von einem Produkt rumrät, das ist es klar, dass man sich da vergreifen kann, denn es ist ja eine Spekulation aber wenn es dann halt soooo grob wird, dann sollte man ihm doch ein paar Fortbildungen in Halbleitertechnik spendieren, bevor er darüber philosophiert. Andererseits ist das auch wiederum gut, wenn man Unsinn so schnell erkennen kann, dann kann man das gleich aussortieren... Newsredakteur für IT-Seiten ist ein schlecht oder gar nicht bezahlter Sklavenjob. Im Regelfall schreibt man nur von anderen Webseiten ab, oftmals bestehen noch Hürden durch unterschiedliche Sprachen etc. Wenn dann die Quelle auch schon spekuliert hat oder auch diese von einer Quelle abschrieb wo spekuliert wurde haben wir wieder den klassischen Fall des Spekulationsmärchens, was nach ein paar mal gegenseitigem Abschreiben dann als Wahrheit hingestellt wird (schon oft erlebt).

Dieser Schwachsinn muss also noch nicht einmal unbedingt vom Newsredakteur selber stammen. Wobei dieser natürlich auch anzuprangern ist, sowas online zu setzen ohne drüber nachzudenken...

mrdigital
2004-02-25, 11:20:32
Original geschrieben von Endorphine
Newsredakteur für IT-Seiten ist ein schlecht oder gar nicht bezahlter Sklavenjob. Im Regelfall schreibt man nur von anderen Webseiten ab, oftmals bestehen noch Hürden durch unterschiedliche Sprachen etc. Wenn dann die Quelle auch schon spekuliert hat oder auch diese von einer Quelle abschrieb wo spekuliert wurde haben wir wieder den klassischen Fall des Spekulationsmärchens, was nach ein paar mal gegenseitigem Abschreiben dann als Wahrheit hingestellt wird (schon oft erlebt).

Dieser Schwachsinn muss also noch nicht einmal unbedingt vom Newsredakteur selber stammen. Wobei dieser natürlich auch anzuprangern ist, sowas online zu setzen ohne drüber nachzudenken...
Ja das stimmt schon, dass man als News-Redakteur nicht alles und jede Meldung verstehen oder überprüfen kann, sind ja auch zu viele Spezialgebiete über die da berichtet wird. Ich versuch mir halt nur an Stellen, wo ich nichts weiss, meinen Kommentar zu verkneifen oder mache ihn als "geraten" kenntlich und versuche mein Viertels bis Halbwissen nicht als "die Wahrheit" zu verkaufen.

ow
2004-02-25, 12:49:17
.

ow
2004-02-25, 12:52:50
.

mrdigital
2004-02-25, 13:47:03
Original geschrieben von ow
Nun, gemaess dieser deiner Meinung muesst ich den Unsinn, den du hier von dir gibst also auch gleich entsorgen, oder??
Oder soll ich dir eine Fortbildung in Halbleitertechnik spendieren?

Also immer locker bleiben, gelle?

Nana, ich hab mich dann doch noch ein wenig relativiert, oder? ;) Das aber die Kristalle erst extra gezüchtet werden ist mir nun neu, meiner Meinung nach kauft man (der Chiphersteller) rohe Wafer von einem Zuliefer ein, und der hat eben Wafer mit bestimmten Eigenschaften auf Lager, oder meinst du das nV zum Telefonhörer greift und sich extra einen Wafer züchten lässt? Die Wafer sind übrigens reine Silizium Scheiben, d.h. es werden erstmal immer die selben roher Wafer als Ausgangsmaterial verwendet, die nötigen Dotierungen werden dann nachträglich durch verschiedene Prozesse erreicht. Wenn ich hier nun grob falsch liege, dann klär mich bitte auf :-)

Ailuros
2004-02-25, 14:07:53
Original geschrieben von bans3i
Ich weiss nicht mehr so genau aber ich glaube der NV45 ist nur die PCI-Express Variante!!

Bingo! (Moeglichkeit von GDDR3 besteht auch).

NV45 ist NV's Antwort auf ATI's R423. Ich habe irgendwie das Gefuehl, dass die Veroeffentlichungs-Zeiten sich nach der Konkurrenz richten werden in beiden Faellen.

ow
2004-02-25, 20:18:57
.

Quasar
2004-02-25, 21:14:58
Original geschrieben von Endorphine
Dieser Schwachsinn muss also noch nicht einmal unbedingt vom Newsredakteur selber stammen. Wobei dieser natürlich auch anzuprangern ist, sowas online zu setzen ohne drüber nachzudenken...

Tut er in diesem Falle aber und nachgedacht wurde, IIRC, auch darüber. Aber allwissend ist nunmal niemand. :)

mrdigital
2004-02-25, 21:27:12
Original geschrieben von ow
Ja, du liegst da zum Teil grob falsch.;)
Zumindest im zweiten Teil, weil die Wafer eben kein reines Silizium sind sondern bereits dotiert. Dem Kristall wird bei der Züchtung bereits der erforderliche Dotierungsgrad des Grundmaterials mitgegeben. Und der Grad der Dotierung ist in gewissem Rahmen (hab da jetzt keine Zahlen) prozessabhängig. Ein Kristall der für 0.15µ Prozess gezüchtet wurde wird sich nicht unbedingt für 0.13µ verwenden lassen.

Wer die Kristalle züchtet und wo weiss ich nicht. Aber bei den Wafern nehme ich an, dass die erst unmittelbar vor der Chipproduktion erzeugt werden.


Ich glaub wir haben ein wenig aneinander vorbei geredet, mir ist schon klar, dass auch das Kristallzüchten Teil des Herstellungsprozesses ist, aber IMHO findet das unabhängig vom Hersteller des Chips statt, der bedient sich im Regal des Wafer Zulieferers und ich glaube erlich gesagt nicht, dass die so exterm kutzfristig ihre Wafer herstellen. Applied Materials sagt übrigens, dass ein Wafer aus reinem Silizium bestünde (Glossary auf deren Website), und dass alle notwendigen Dotierungen erst im weiteren Herstellungsprozess erfolgen und das ist auch mein Wissenstand, den ich aus meinen Halbleitertechnik Vorlesungen mitgenommen habe. In der Regel werden ja verschiedene Dotierungen auf einem Wafer benötigt, das heisst es wird ein einigen (vielen) Stellen des Wafers umdotiert. Der Dotierungsprozess selbst wird übrigens durch bedampfen in einem Ofen erreicht oder durch eine "Ionenkanone" wo gezielt Störstellen in das SI Kristall eingebracht werden. Von daher glaube ich nicht, dass der Kristall schon vordotiert ist oder vielmehr, dass diese Art der Vordotierung des rohen Wafers, wie du sie beschreibst, eher die Ausnahme darstellt. Für einen Halbleiterchip wäre eine Vordotierung im Wafer meiner Meinung nach tödlich, denn ein dotierter Halbleiter ist nunmal leitfähig und wenn das Trägermaterial selbst (reines Si ist elektrisch nicht leitfähig) leitend ist, sind alle in diesem eingebetteten Strukturen miteinander (elektrisch) verbunden und es gibt einen grossen Kurzschluss. Aber vielleicht ist es hier nun doch so, dass nV erst spezielle Wafer sich züchten lassen muss.

Godmode
2004-02-25, 21:58:42
Ionenkanone?? Ja wie funktioniert das? Kann man das mit der Ionenkanone geziehlter machen als mit den Ofen oder ist das einfach eine neuere Methode?? Kann man sich das so vorstellen das diese Kanone Löcher in die Kristalle ballert?

ow
2004-02-25, 22:09:58
.

ow
2004-02-25, 22:14:56
.

BlackBirdSR
2004-02-25, 22:29:07
Original geschrieben von ow
Natürlich ist die Beschussmethode viel exakter als die Diffusionsmethode.
Man kann damit scharf begrenzte pn-Übergänge im Halbleitermaterial herstellen.
Es werden übrigens keine Löcher in die Kristalle geballert sondern Dotierungsatome. Da dabei aber das Kristallgitter teilweise in seiner Struktur gestört wird müssen die Chips später nochmals in einem Ofen erhitzt werden, damit die Gitterfehlstellen ausheilen.


Diffusion heisst nix anderes, als dass sich zwei unterschiedliche Stoffe im Laufe der Zeit vermischen.
Das ergibt ziemlich "weiche" pn-Übergänge. Zerstört aber die Kristllstruktur nicht.

naja Ionenimplantation hilft wohl eher bei der erreichbaren Tiefe der Dotierung und die Temperatur niedrig zu halten.
Diffundieren lassen musst du es auch nach der Implantation. Von wegen scharf begrenzte Übergänge.

BlackBirdSR
2004-02-25, 22:32:32
Original geschrieben von ow
Ja, du liegst da zum Teil grob falsch.;)
Zumindest im zweiten Teil, weil die Wafer eben kein reines Silizium sind sondern bereits dotiert. Dem Kristall wird bei der Züchtung bereits der erforderliche Dotierungsgrad des Grundmaterials mitgegeben. Und der Grad der Dotierung ist in gewissem Rahmen (hab da jetzt keine Zahlen) prozessabhängig. Ein Kristall der für 0.15µ Prozess gezüchtet wurde wird sich nicht unbedingt für 0.13µ verwenden lassen.

Wer die Kristalle züchtet und wo weiss ich nicht. Aber bei den Wafern nehme ich an, dass die erst unmittelbar vor der Chipproduktion erzeugt werden.

cool, haben wir deiner Meinung nach also versch. Kristalle für 90nm, 130nm etc?
Was für ein Aufwand *g*

mrdigital
2004-02-25, 23:32:26
Original geschrieben von ow
Das Grundmaterial ist mit ziemlicher Sicherheit vordotiert, ganz einfach deshalb weil sich nur damit deren elektrisches Verhalten gezielt nutzen und auch überhaupt erstmal kontrollieren lässt. Bei reinen Halbleitern ist die Ladungsträgedichte rein (exponentiell) von der Temperatur abhängig, sowas kann man da eigentlich nicht gebrauchen.

Und was redest du da von Kurzschluss?
Ein Halbleiter ist ein Halbleiter und kein Leiter.
Wenn das dotierte Grundsubstrat ein Kurzschluss verursachen täte, dann gäbe es keine Transistoren.;)
ein dotierter Halbleiter ist ein Leiter! Aber ich kruschtel mal meine Skripte wieder raus :-)

mrdigital
2004-02-26, 00:02:14
so nun bin ich wieder auf der Höhe ;)
um einen N-Kanal MOSFET zu machen, greift man auf einen SCHWACH P-dotierten Halbleiter als Trägermaterial zurück. In diesem schwach P-dotierten Halbleiter werden nun zwei Inseln, die sich nicht berühren, aus stark N-dotiertem Halbleiter erzeugt. Das Gebiet zwischen beiden Inseln ist der sog. Kanal (der dann auch die prozesstypische Minimallänge, also die berühmten 0,18, 0,13, 0,09, etc µm, hat). Auf dem Kanal oben drauf wird eine SIO2 Isolator Schicht erzeugt und oben auf dem Isolator wird die Gate Elektrode angebracht. Durch das Anlegen einer Spannung zwischen dem Bulk und dem Gate werden nun die im P-dotierten SI befindlichen Elektronen zwischen die Insel transportiert, wodurch sich ein N-leitender Kanal zwischen den beiden N-dotierten Inseln ausbildet (dieser Vorgang heisst Inversion, weil im eigentlich P-leitenden SI nun freie Elektronen den Ladungstransport übernehmen). Am Boden des Bulks (dem schwach P-dotierten Halbleiter) sind nun Löcher entstanden, und diese können potentiell auch Ladung transportieren, was in der Realität auch Geschieht, sobalt man auf einem Träger mehrere Transistoren aufebracht hat, was sich als Leckstrom äussert. Um nun einen P-Kanal MOSFET zu erzeugen, muss man ein Gebiet umdotieren, so dass man einen schwach N-dotierten Halbleiter hat. In diesem werden wieder die Inseln ereugt, eben nun aus stark P-dotiertem Si. Mit diesem beiden Transistortypen kann man nun die berümten CMOS Schaltungen aufbauen, wobei man schon einige Vorkehrunen treffen muss, dass zwischen den verschiedenen Gebieten keine Ströme fliessen können, denn immerin findet das ganze ja in einem dotierten, somit leitfähigen, Halbleiter statt. Das kann man zum Beispiel dadurch erreichen, in dem man nicht nur den P-MOS durch Einbringen einer N-dotierten Wanne erzeugt, sondern auch den N-MOS nun nicht mehr in einem schwach N-vordotiertem Halbleiter erzeugt, sondern auf "neutralem" Si eine P-Wanne erzeugt. Dadurch sind dann alle Transistoren auf einem elektrisch nicht leitfähigen Material aufgebracht.

Leonidas @ Mozilla
2004-02-26, 07:14:51
Original geschrieben von Endorphine
Newsredakteur für IT-Seiten ist ein schlecht oder gar nicht bezahlter Sklavenjob. Im Regelfall schreibt man nur von anderen Webseiten ab, oftmals bestehen noch Hürden durch unterschiedliche Sprachen etc. Wenn dann die Quelle auch schon spekuliert hat oder auch diese von einer Quelle abschrieb wo spekuliert wurde haben wir wieder den klassischen Fall des Spekulationsmärchens, was nach ein paar mal gegenseitigem Abschreiben dann als Wahrheit hingestellt wird (schon oft erlebt).

Dieser Schwachsinn muss also noch nicht einmal unbedingt vom Newsredakteur selber stammen. Wobei dieser natürlich auch anzuprangern ist, sowas online zu setzen ohne drüber nachzudenken...


:-))

Leonidas @ Mozilla
2004-02-26, 07:17:40
Zum eigentlichen Thema: NV wollte nie komplett zu IBM wechseln. Man wollte zwei Fertiger haben, die man nun offenbar klasse gegeneinander ausspielen kann, um noch günstigere Preise zu bekommen.


PS: Die PR ist Marketing Pur. ATi wird den RV370 lange vor NV in 110nm bringen. NV hat die Meldung nur rausgehauen, um als erster mit 110nm punkten zu können - zwar nur mit einem Stück Papier, aber immerhin (insbesondere Analysten stehen auf solche Meldungen).

Radeonator
2004-02-26, 11:56:07
Quelle ???

AFAIK ist ATi eher dafür bekannt ziemlich spät und nach allen anderen umzustellen (siehe 0.15 auf 0.13!!!!)

AlfredENeumann
2004-02-26, 13:36:25
Original geschrieben von Radeonator
Quelle ???

AFAIK ist ATi eher dafür bekannt ziemlich spät und nach allen anderen umzustellen (siehe 0.15 auf 0.13!!!!)

Das hatte IMHO nie was mit wollen zu tun, eher mit Produktionskapazitäten und ein wenig Rechnerei.
Wieviel verdient man bei welchem Produktionsprozess, da man auch die Ausbeute mit einbeziehen muss. Vor allem wenn man pro Wafer bezahlen muß und nicht wie NV beim NV30 pro funktionierendem DIE.

Exxtreme
2004-02-26, 13:46:28
Original geschrieben von Radeonator
Quelle ???

AFAIK ist ATi eher dafür bekannt ziemlich spät und nach allen anderen umzustellen (siehe 0.15 auf 0.13!!!!)
Wieso das denn? Ich finde, daß ATi das einzig Richtige gemacht hat. ATi scheint nämlich sehr gute Chip-Compiler zu haben. Ich kann mich noch gut daran erinnern, daß einige Leute hier im Forum einen Chip mit 107 Mio. Transistoren mit über 300 MHz für völlig unmöglich hielten. Der R360 macht meistens 450 MHz ohne Probleme mit. :)

Crushinator
2004-02-26, 13:49:08
Original geschrieben von Radeonator
Quelle ??? AFAIK ist ATi eher dafür bekannt ziemlich spät und nach allen anderen umzustellen (siehe 0.15 auf 0.13!!!!) Die Planung (http://www.anandtech.com/video/showdoc.html?i=1966) scheint jedenfalls Leos Aussage zu stützen.
RV370 - 0.11-micron

ATI's roadmap for the first half of 2004 closes with the low-end RV370 built on a 0.11-micron process. The RV370 will feature 4 rendering pipelines and 2 vertex engines but its 0.11-micron feature size should make the chip very affordable. We unfortunately don't have much more information at RV370 at this time.

Godmode
2004-02-26, 14:46:52
Original geschrieben von Leonidas @ Mozilla
Zum eigentlichen Thema: NV wollte nie komplett zu IBM wechseln. Man wollte zwei Fertiger haben, die man nun offenbar klasse gegeneinander ausspielen kann, um noch günstigere Preise zu bekommen.



Ich glaube das Nvidia überall wo nur geht den Preis zu drücken versucht, genau so wie sie es mit Microsoft und der X-Box gemacht haben. Für die X-Box II kamen sie gar nicht mehr in Frage weil anscheinend die Finanzierung für Microsoft inakzeptabel war. Das muss man auch machen in der Wirtschaft, aber wenn diese Mittel zu extrem angewendet werden könnte man durchaus Parter, Lieferanten, Kunden... verlieren. Wer bekommt den schon sowas wie Nvidia, wo sie nur jedes funktionierende DIE bezahlen müssen(bei IBM haben sie so nen Vertrag) ?? Also die müssen da ein paar ordentlich gute Verhandler in ihrem Unternehmen haben :)

robbitop
2004-02-26, 16:04:58
nunja Exxtreme das hat auch mit dem Design an sich zu tun. Und wie lange mussten sie feilen bis sie den Prozess so weit hatten...

Gast
2004-02-26, 22:30:55
Ich hoffe das NVidia IBM in den Arsch tretet und für immer bei TSMC bleibt.
Das gleiche gilt für ATI, die sollen auch nicht fremd gehen und bei TSMC bleiben.
IBM ist nun mal BIG BLUE und die haben verdammt viel Geld und sind verdammt reiche Säcke!
Und ich denke das IBM außerdem viel Geld für seine Dienste verlangt, da die bestimmt die Verzweiflungslage von NVidia ausgenutzt haben und einen für IBM sehr guten Vertrag ausgehandelt haben.
NVidia hatte Wut im Bauch und wollte mit aller Macht einen neuen Chipfertiger (egal zu welchem Preis) um TSMC drohen zu können: "Wenn Ihr nicht wollt, könnt oder zu teuer seid gehen wir fremd!"
Schließlich sind die Preise über die Fertigung bei IBM nicht bekannt.

Jetzt ist TSMC doch schneller mit der 110 nm Fertigung fertig geworden als mit der 130 nm Fertigung.
Und TSMC bittet die Fertigung bestimmt billiger an als IBM.
BIG BLUE ist für vieles Bekannt, nur für kleine Preise nicht!
Außerdem hat IBM noch nie solche hochkomplexen Chips mit über 150 Millionen Transistoren gefertigt, darum dauert es länger als BIG BLUE dachte!
Bei den CPUs sind ja viele Transistoren nur "dummer" Cache.
Ein Grafikchip ist da ein anders Kalieber.
Seht euch doch die Grafikchips vom Weltmarktführer an, Intel kann zwar (wie AMD) gute CPUs bauen, aber die Grafikchips können es in der Transistorenanzahl, Taktfrequenz und Leistung nicht mit ATI und NVidia (TSMC) aufnehmen.

Noch was zur Börse, die ist schon komisch.
TSMC macht seit Jahren gewinne und trotzdem haben meine TSMC Aktien in den letzten Jahren fast 70% verloren und ich Depp habe all mein Geld in TSMC Aktien angelegt. :(
Also so lange TSMC unter 25€ ist bin ich im Minus. :(
Ich hoffe bis zur meiner Rente wird es besser. :(
Ich kann das nicht verstehen AMD macht Verluste und die Aktien sind im letzten Jahr (1Q2003-1Q2004) über 200 % gestiegen.
Also Leute kauft mehr TSMC Aktien, die haben auf dem zur Zeit niedrigem Nivo viel Kurspotential.
Immerhin machen die Gewinn und ich habe in den letzten Jahren immer ne Rendite in Form von Aktien bekommen, jetzt müssen die nur noch steigen.
Dann könnte ich auch wieder lachen. :)

Godmode
2004-02-26, 22:36:45
Hast du persönlich schleche Erfahrungen mit dem Unternehmen IBM gemacht, weil du so denkst über sie? Oder bist du einfach nur geärgert weil alles dort so verdammt teuer ist?

betasilie
2004-02-26, 22:45:16
Original geschrieben von Gast
NVidia hatte Wut im Bauch und wollte mit aller Macht einen neuen Chipfertiger (egal zu welchem Preis) um TSMC drohen zu können: "Wenn Ihr nicht wollt, könnt oder zu teuer seid gehen wir fremd!"

Wenn TSMC was nicht will oder kann?

Odal
2004-02-26, 22:46:31
naja IBM sind teuer und verkaufen viel mist...

wenn ich mich da noch an meine IBM platten erinnere (ok haben nachher nimmer selbst produziert aber unter ibm verkauft)...hatte 2 platten und 8 mal reklamiert und umgetauscht..kuerzeste lebensdauer war nichtmal nen monat bei kaum benutzung

mrdigital
2004-02-26, 22:49:47
Original geschrieben von Gast
Ich hoffe das NVidia IBM in den Arsch tretet und für immer bei TSMC bleibt.
Das gleiche gilt für ATI, die sollen auch nicht fremd gehen und bei TSMC bleiben.
IBM ist nun mal BIG BLUE und die haben verdammt viel Geld und sind verdammt reiche Säcke!
Und ich denke das IBM außerdem viel Geld für seine Dienste verlangt, da die bestimmt die Verzweiflungslage von NVidia ausgenutzt haben und einen für IBM sehr guten Vertrag ausgehandelt haben.
NVidia hatte Wut im Bauch und wollte mit aller Macht einen neuen Chipfertiger (egal zu welchem Preis) um TSMC drohen zu können: "Wenn Ihr nicht wollt, könnt oder zu teuer seid gehen wir fremd!"
Schließlich sind die Preise über die Fertigung bei IBM nicht bekannt.

Jetzt ist TSMC doch schneller mit der 110 nm Fertigung fertig geworden als mit der 130 nm Fertigung.
Und TSMC bittet die Fertigung bestimmt billiger an als IBM.
BIG BLUE ist für vieles Bekannt, nur für kleine Preise nicht!
Außerdem hat IBM noch nie solche hochkomplexen Chips mit über 150 Millionen Transistoren gefertigt, darum dauert es länger als BIG BLUE dachte!
Bei den CPUs sind ja viele Transistoren nur "dummer" Cache.
Ein Grafikchip ist da ein anders Kalieber.
Seht euch doch die Grafikchips vom Weltmarktführer an, Intel kann zwar (wie AMD) gute CPUs bauen, aber die Grafikchips können es in der Transistorenanzahl, Taktfrequenz und Leistung nicht mit ATI und NVidia (TSMC) aufnehmen.

Noch was zur Börse, die ist schon komisch.
TSMC macht seit Jahren gewinne und trotzdem haben meine TSMC Aktien in den letzten Jahren fast 70% verloren und ich Depp habe all mein Geld in TSMC Aktien angelegt. :(
Also so lange TSMC unter 25€ ist bin ich im Minus. :(
Ich hoffe bis zur meiner Rente wird es besser. :(
Ich kann das nicht verstehen AMD macht Verluste und die Aktien sind im letzten Jahr (1Q2003-1Q2004) über 200 % gestiegen.
Also Leute kauft mehr TSMC Aktien, die haben auf dem zur Zeit niedrigem Nivo viel Kurspotential.
Immerhin machen die Gewinn und ich habe in den letzten Jahren immer ne Rendite in Form von Aktien bekommen, jetzt müssen die nur noch steigen.
Dann könnte ich auch wieder lachen. :)

Danke für die schöne, aufheiternde Geschichte!
Aber ich finde es schön, dass du wenigstens gleich die Erklärung für deine TSMC Freundschaft bekannt gibst - du bist (un)glücklicher Aktionär X-D. Komisch eigentlich, als Aktionär solltest du eigentlich wissen, dass nicht all sein Geld in nur ein Unternehmen stecken sollte - hättes mal IBM Aktien gekauft, wo die ja so erfolgreich sind (wie du ja selbst schreibst). Da du dein Geld lieber mit "Underdog" Sympathie investierst, dann hättest dein Geld noch besser in Transmeta versenken können, oder in Be Aktien. Was das allerdings noch mit dem Thread zu tun hat, ist mir nun auch nicht mehr klar.

Gast
2004-02-26, 23:13:06
was wollen hier eigentlich alle??

Der Vertrag zwischen Nvidia und IBM ist doch nichts besonderes.
Genau den selben Vertrag hat Nvidia auch bei TSMC.
Es wird pro lauffähigem Die bezahlt, zumindest bei den etwas größeren Designs.
Bei der FX5200 kanns per Wafer sein.

Das es bei IBM einen ähnlichen Vertrag gibt ist doch nur logisch. IBM ist froh einen Kunden wie Nvidia zu haben, der einen auch weiterbringt und Nvidia wiederum ist froh die Qual der Wahl zu haben.
IBM hat sich zumindest mal beim NV36 schon mehr als gelohnt.
Ob es sich beim NV40 lohnt wird sich noch zeigen.

Die 0.11 Story mit TSMC selber sagt doch erstmal gar nix. Hier ist nur die Rede davon, dass Nvidia als einer der ersten diesen Prozess nutzen wird.
Na bravo... Darauf bin ich auch schon selber gekommen. Es war nie geplant alles auf IBM zu verlagern. Dass mit 0.11 nun der nächst bessere Prozess bei TSMC anvisiert wird ist doch nur logisch und sagt zu IBM doch überhaupt nichts aus. Es ist doch vollkommen normal, dass Nvidia auch TSMCs 0.11 Prozess teste und nutzen wird. Die Menge die zu verbauen ist, ist riesig und 2004 stehen einige NV4xx PS/VS3.0 Mainstream und Low End Ableger an, die weniger Transistoren haben als die HIgh End Produkte und die man wundervoll in diesem Prozess kosteneffektiv herstellen kann.

Gast
2004-02-26, 23:16:10
Original geschrieben von bans3i
Hast du persönlich schlechte Erfahrungen mit dem Unternehmen IBM gemacht, weil du so denkst über sie? Oder bist du einfach nur geärgert weil alles dort so verdammt teuer ist?

Nein, IBM ist einfach nur "BIG BLUE", mehr nicht. ;)
So wie Microsaft "BIG Gates" ist! ;)
Nein im Ernst, die größten Elefanten in der IT-Branche sind nun mal IBM(Hardware) und Microsoft(Software).
Wir alle lieben und hassen Sie zugleich.

IBM und Microsoft haben nun mal den Personal Computer Markt stark geprägt.
IBM war und ist immer zu teuer, und Microsoft zwar auch, aber schlimmer sind die BUGs (Sicherheitslücken etc.) und die Marktbeherrschende Stellung.

Ich hatte früher auch immer einen IBM kompatiblen PC, weil IBM zu "teuer" war.
Als ich von Microsoft die Schnauze voll hatte und mir einen MAC zulegen wollte, war IBM mit seinen Power-PC Prozessoren einfach zu "teuer".
So jetzt bin ich immer noch bei Windows und inzwischen bei der "XP" Version angelangt.
Linux ist spätestens seit D3D keine Altarnative mehr, da fast alle Spiele nur auf einer Windows oder (zum geringem Teil) MAC Umgebung spielbar sind.
Einzig Quake3 bietet da ne Ausnahme.

Also ich mag IBM nicht, weil die zu "teuer" sind.
Und Microsoft nicht, weil es für die keine ernsthaften Mitbewerber (für PC-Zocker) gibt.

Zusätzlich kommt noch ne "befangende" Meinung zu IBM, da ich TSMC Aktien habe und mich natürlich auf die Seite von TSMC schlagen muss. ;)

Ich fand IBM aber immer schon zu teuer!
Frage hast Du einen IBM PC?
Wenn Nein, siehste! ;)
Wenn ja, wie teuer war der?
Wenn nicht so teuer, hatte er bestimmt keinen "IBM Power-PC Prozessor"! *g*

mrdigital
2004-02-26, 23:26:14
na nu krieg dich mal wieder ein, deine IBM Antipathie ist ja schon fast "pathologisch"

betasilie
2004-02-26, 23:30:53
@TSMC-Gast
Beantworte doch bitte mal meine Frage von oben.

Gast
2004-02-26, 23:57:21
Bin nicht der Schnellste!
Am Besten ich registriere mich mal!
Das hier macht Spaß, außer der Stress beim Schreiben. ;)

Original geschrieben von betareverse
Wenn TSMC was nicht will?

OK, "will" hätte ich in Klammer setzen sollen.
Aber z.B: wenn TSMC NVidia nicht bevorzugen will, im Vergleich zu ATI.
Scheinbar ist das wieder der Fall, weil NVidia ja gesagt hat, sie werden den 110 nm Prozess als erstes nutzen.
Und als "erstes" ist nun mal "vor" ATI.
Aber darüber kann auch ich nur spekulieren. Wir sind hier ja im Spekulationsforum ;)


Original geschrieben von mrdigital
Danke für die schöne, aufheiternde Geschichte!
Aber ich finde es schön, dass du wenigstens gleich die Erklärung für deine TSMC Freundschaft bekannt gibst - du bist (un)glücklicher Aktionär X-D. Komisch eigentlich, als Aktionär solltest du eigentlich wissen, dass nicht all sein Geld in nur ein Unternehmen stecken sollte - hättes mal IBM Aktien gekauft, wo die ja so erfolgreich sind (wie du ja selbst schreibst). Da du dein Geld lieber mit "Underdog" Sympathie investierst, dann hättest dein Geld noch besser in Transmeta versenken können, oder in Be Aktien. Was das allerdings noch mit dem Thread zu tun hat, ist mir nun auch nicht mehr klar.

Also,
1.
IBM ist erfolgreich keine Frage, aber ich habe in keinem Wort die Aktien von IBM erwähnt!

2.
Nur die AMD und TSMC Aktien, übrigens mit IBM hätte man in den letzten 4 Jahren immerhin 30% Verlust eingefahren.
Der Aktienmark geht Hoch und Runter dem Risiko war ich mir bewusst, aber ich denke das ich in 10 Jahren (seit Kaufdatum) gut fahren werde.
Außerdem macht TSMC gute Gewinne und dies wird sich in den nächsten 5 Jahren garantiert auch nicht ändern, z.B. der GPU-Chip des Game Cube (ATI) Nachfolgers wird bei TSMC gefertigt, auch der GPU-Chip der XBOX II (ATI) wird bei TSMC gefertigt.
ATI und Nvidia werden auch in 1-2 Jahren garantiert noch seine Chips bei TSMC fertigen.

3. Du hast recht das ist "OFF-Topic" und darum erwähne ich das auch nicht mehr in diesem Topic.

Und an alle:
Ich finde IBM nur zu teuer, Microsoft hingegen mag ich nicht wirklich gern!
Wenn man die Preisunterschiede zwischen einem originalen "IBM PC" und "kompatiblen PC" früher gesehen hat muss man mir recht geben.
Und ein MAC war schon immer teurer als ein PC, da muss mir auch jeder Recht geben.
Das hat nichts mit "Antipathie" zu tun sonder ist Fakt.

Was für Entkunden gilt, muss nicht für NVidia gelten, dass ist auch Fakt.
Aber das ist vielleicht auch ein bisschen Off-Topic, könnte aber was damit zu tun haben warum NVidia jetzt vielleicht doch den NV40 bei TSMC fertigt.
Weil IBM (ich spekuliere) zu teuer ist. ;)
Aber wir werden ja sehen, denn
1. Kommt alles anders.
2. Als man denkt.

betasilie
2004-02-27, 00:04:52
Original geschrieben von Gast
Bin nicht der Schnellste!
Am Besten ich registriere mich mal!

Mach das mal. Kostet ja nix. ;)

Original geschrieben von Gast
OK, "will" hätte ich in Klammer setzen sollen.
Aber z.B: wenn TSMC NVidia nicht bevorzugen will, im Vergleich zu ATI.
Scheinbar ist das wieder der Fall, weil NVidia ja gesagt hat, sie werden den 110 nm Prozess als erstes nutzen.
Und als "erstes" ist nun mal "vor" ATI.
Aber darüber kann auch ich nur spekulieren. Wir sind hier ja im Spekulationsforum ;)

Ich sehe den Grund für den Weggang von TSMC in der gleichen Ecke. NV hat wahrscheinlich von TSMC eine Korb bekommen, was die zukünftige Bevorzugung gegenüber der Konkurrenz angeht. Man muss ich nur mal ausmalen wie ein R300 in 0.13µ taktbar gewesen wäre. Jetzt will nV wieder zurück und TSMC wird ihnen imho für den Erpressungsversuch einen pinnen.

... Das ist natürlich rein spekulativ, aber trotzdem nicht unwahrscheinlich. Wenn ich bei NV im Management sitzen würde hätte ich nicht anders gehandelt. NV hat jetzt einfach nur Pech, dass IBM doch nicht die erwarteten technolgischen Vorzüge gegenüber TSMC liefert.

Crazytype
2004-02-27, 00:30:03
Original geschrieben von Gast
Bin nicht der Schnellste!
Am Besten ich registriere mich mal!
Das hier macht Spaß, außer der Stress beim Schreiben. ;)



OK, "will" hätte ich in Klammer setzen sollen.
Aber z.B: wenn TSMC NVidia nicht bevorzugen will, im Vergleich zu ATI.
Scheinbar ist das wieder der Fall, weil NVidia ja gesagt hat, sie werden den 110 nm Prozess als erstes nutzen.
Und als "erstes" ist nun mal "vor" ATI.
Aber darüber kann auch ich nur spekulieren. Wir sind hier ja im Spekulationsforum ;)




Also,
1.
IBM ist erfolgreich keine Frage, aber ich habe in keinem Wort die Aktien von IBM erwähnt!

2.
Nur die AMD und TSMC Aktien, übrigens mit IBM hätte man in den letzten 4 Jahren immerhin 30% Verlust eingefahren.
Der Aktienmark geht Hoch und Runter dem Risiko war ich mir bewusst, aber ich denke das ich in 10 Jahren (seit Kaufdatum) gut fahren werde.
Außerdem macht TSMC gute Gewinne und dies wird sich in den nächsten 5 Jahren garantiert auch nicht ändern, z.B. der GPU-Chip des Game Cube (ATI) Nachfolgers wird bei TSMC gefertigt, auch der GPU-Chip der XBOX II (ATI) wird bei TSMC gefertigt.
ATI und Nvidia werden auch in 1-2 Jahren garantiert noch seine Chips bei TSMC fertigen.

3. Du hast recht das ist "OFF-Topic" und darum erwähne ich das auch nicht mehr in diesem Topic.

Und an alle:
Ich finde IBM nur zu teuer, Microsoft hingegen mag ich nicht wirklich gern!
Wenn man die Preisunterschiede zwischen einem originalen "IBM PC" und "kompatiblen PC" früher gesehen hat muss man mir recht geben.
Und ein MAC war schon immer teurer als ein PC, da muss mir auch jeder Recht geben.
Das hat nichts mit "Antipathie" zu tun sonder ist Fakt.

Was für Entkunden gilt, muss nicht für NVidia gelten, dass ist auch Fakt.
Aber das ist vielleicht auch ein bisschen Off-Topic, könnte aber was damit zu tun haben warum NVidia jetzt vielleicht doch den NV40 bei TSMC fertigt.
Weil IBM (ich spekuliere) zu teuer ist. ;)
Aber wir werden ja sehen, denn
1. Kommt alles anders.
2. Als man denkt.

Von nVIDIA flatterte uns eine Meldung ins Haus, wonach man in Zukunft auch Grafikchips in 110nm Fertigungstechnology anbieten will. Die Serie der GeForceFX-Grafikchips ist bis auf die GeForceFX 5200/5500 in 130nm gefertigt, letztgenannte Grafikchips sind noch in 150nm:

nVIDIA, der weltweite Marktführer in Visual Processing Lösungen, bestätigte heute, dass nVIDIA eines der ersten Halbleiter-Unternehmen sein wird, dass ausgewählte zukünftige Graphics Processing Units (GPUs) in der 0,11-Micron-Prozess-Technologie von TSMC (Taiwan Semiconductor Manufacturing Company) fertigen lassen wird. nVIDIA wird TSMCs 0,11-Mikron-Verfahren mit eigenen, innovativen Fertigungs-Designs kombinieren und so Grafik Prozessoren liefern, die hoch performant sind und einen niedrigen Stromverbrauch haben.

Die 0,11-Mikron-Verfahren stellt im Grunde eine foto-lithografische Schrumpfung des insustrieführenden 0,13-Mikron-Prozesses dar. Dieser Prozess wird sowohl im Highend- wie auch im Mittelkasse-Bereich eingesetzt werden wobei FSG (Fluorinated Silicate Glass) zur Isolation der einzelnen Transistoren verwendet wird. Obwohl konkrete Ergebnisse vom jeweiligen Chip-Design abhängen, wird der 0,11-Mikron-Prozess im Vergleich mit der 0,13-Mikron FSG basierten Technologie durch Transistoren-Verbesserungen für eine höhere Geschwindigkeit und geringere Stromaufnahme sorgen.

TSMC begann mit der Entwicklung der hoch performanten 0,11-Mikron-Technologie im Jahre 2002 und stellte den Prozess Ende 2003 fertig. Konstruktions-Vorschriften sowie -Richtlinien, SPICE sowie SRAM Modelle wurden entwickelt. Die Verfügbarkeit von Compilern von Drittanbietern ist für März geplant. Die Ausbeute ist bereits produktionstauglich und die Low-Voltage-Version steht für die Massenproduktion bereit. Die 0,11-Mikron-Massenproduktion beliebiger Chips ist für das erste Quartal 2005 geplant.



Vorsichtiger- und auch richtigerweise schreibt nVIDIA hier, daß man "eines der ersten Unternehmen sei, welche bei TSMC in 110nm fertigen lasse werde". Denn nVIDIA-Hauptkonkurrent ATI wird schon eine ganze Weile vor nVIDIA bei TSMC seinen RV370-Chip, welcher noch im zweiten Quartal diesen Jahres antreten soll, in 110nm fertigen lassen.

Allerdings ist dies auch nur ein LowCost DirectX9 Grafikchip mit vermutlich vergleichsweise geringer Transistoren-Anzahl. Die Fertigung von Grafikchips mit 100 bis 200 Millionen Transistoren in 110nm wird dagegen in der Tat noch eine Weile auf sich warten lassen. Mögliche Startpunkte wären hierfür entweder die Refresh-Chips der demnächst kommenden NextGen-Chips R420 und NV40 im Herbst diesen Jahres oder aber die darauffolgende Grafikchip-Generation um R500 und NV50 im Jahre 2005.

Und wer sich wundert, daß die Grafikchip-Hersteller jetzt erst langsam auf 110nm umstellen, während die CPU-Hersteller schon bei 90nm sind: Dies kann man nicht so direkt miteinander vergleichen. Denn die CPU-Hersteller müssen mit einem Fertigungsverfahren zumeist recht lange durchhalten, weil ein Prozessor-Redesign nur für eine neue Fertigungstechnologie teuer und zeitaufwendig ist, und deshalb gut überlegt sein will.

Deswegen überspringen die CPU-Hersteller gewöhnlich auch die Fertigungsverfahren-Zwischenschritte, welche die Grafikchip-Hersteller alle mitgemacht haben, so 150nm und 110nm. Für die Grafikchip-Hersteller machen diese Zwischenschritte hingegen Sinn, weil die Grafikchip-Entwickler sowieso aller halben Jahre neue Grafikchips herausbringen. Und letztlich benötigen die CPU-Hersteller für ihre sehr hohen Taktfrequenzen prinzipiell immer die allerbesten verfügbaren Fertigungstechnologien.

Das Nvidia als erstes 110 nm nutzt steht da nicht.

Gast
2004-02-27, 01:12:24
Original geschrieben von Crazytype
Das Nvidia als erstes 110 nm nutzt steht da nicht. Du hast vollkommen recht! Mein Fehler Sorry!
Da habe ich wohl was falsch interpretiert, ich würde mich auch wundern das TSMC jemanden bevorzugt.


@ betareverse
Oh, vielen Dank für die unterstützende Meinung. :)
Man muss aber auch sagen, das TSMC immer versucht hat so neutral wie nur möglich zu sein.
TSMC hat immer hin schon für 3DFX, ATI, NVidia und ja man höre und staune auch indirekt für PowerVR gefertigt.

STMicro hat die Chips für PowerVR gefertigt indem sie Produktionskapazitäten von TSMC fest gebucht haben.
Also ist auch der KYRO Chip vom TSMC Band gelaufen. :)
Quelle:
http://www.3dcenter.de/news/2002/woche06.php#2002-02-10

Mann überlege sich mal eine Firma fertigt alle Grafikchips für die bedeutesten Firmen in der Grafikgeschichte.
Ärger gab es nur wenn jemand bevorzugt werden wollte. Wenn meine ich wohl? ;)
Also muss TSMC ja neutral und auch Technologieführer gewesen sein, sonst hätten die wohl nicht PowerVR, Voodoo, NVidia, ATI Chips gefertigt.

Zum 130 nm Prozess denke ich folgendes, der 130 nm Prozess war wohl zu aufwendig (teuer) und auch noch nicht sofort verfügbar für ATI und NVidia.
NVidia wollte scheinbar mit aller Macht um denn "Düsenfön" NV30 hoch takten, da sie gemerkt haben, dass das Leistungsplus im Vergleich zu Ihrer eigenen GF4 Serie zu gering war.
ATI war sicher die GF4 Serie zu überflügeln und der 150 nm Prozess hatte anscheinend noch ein bisschen Spiel.
Sie Brachten den R300 raus, der wohl der Größte Wurf war den ich jemals von ATI gesehen habe.
Ich fand früher ATI einfach nur schrot, jetzt seit dem ArtX mitwerkelt bin ich sehr erstaunt über die Leistungen.
Nehmen wir mal an ATI würde es jetzt nicht geben, dann könnten die NVidia Karten teurer, lauter und langsamer sein, oder?
Alle dachten doch nach dem 3DFX aus hat NVidia auf Gamerkarten das Monopol, oder?

Ja und als der N30 nicht so doll war, brachte ATI noch den R350 raus um noch was besseres NVidia entgegenzusetzen. Den Rest kennt Ihr ja.

Ich freue mich auf die neue Runde NVidia vs. ATI.
NV40 gegen den R420.
Aber das muss ja eigentlich in einen andern Topic. *g*

Ailuros
2004-02-27, 02:32:47
Original geschrieben von Odal
naja IBM sind teuer und verkaufen viel mist...

wenn ich mich da noch an meine IBM platten erinnere (ok haben nachher nimmer selbst produziert aber unter ibm verkauft)...hatte 2 platten und 8 mal reklamiert und umgetauscht..kuerzeste lebensdauer war nichtmal nen monat bei kaum benutzung

Du meinst "Deathstars"? :D Zwei neue in 3 Monaten mausetot bei mir in der Vergangenheit.

Leonidas
2004-02-27, 19:18:47
Original geschrieben von Radeonator
Quelle ???

AFAIK ist ATi eher dafür bekannt ziemlich spät und nach allen anderen umzustellen (siehe 0.15 auf 0.13!!!!)



Steht doch alles hier schon:
http://www.3dcenter.org/artikel/2004/02-22_a.php

robbitop
2004-02-28, 12:27:15
@Gast

Der Fön war scheinbar nur Marketing oder was auch immer.
Auf Hartware.de haben sie den mal auseinander genommen. Fazit: wenig Kupfer, keine funktionierenden Heatpipes verkrorkstes Lüfterdesign ect.
Wir haben damals mal den FlowFX bei seijin.de gegen einen kleinen Orb von Revoltek getestet. Der Revoltek war leiser und viel kleiner. Also so schwer war NV30 nicht zu kühlen, wie viele vieleicht denken mögen.

zu 110nm:
ich denke auch dass erst einmal die Midrangeprodukte so gefertigt werden, da inkomplexer und somit einfacher zu realisieren. Und selbst das wird noch ein paar Monate dauern. Wer weiss, vieleicht werden ja schon NV48 und R480 so gefertigt. Denn Ailuros meinte dass R500/NV50 in 90nm gefertigt werden.

Was ich seltsam finde: bei 110nm gibt TSMC derzeit nur FSG als Dielectricum an. von Black Diamond keine Spur.. also wird 110nm vorerst kein "lowk" verfügen?

wieso sprechen soviele davon dass nVIDIA weg von IBM will und zurück zu TSMC geht?
Waren sie jemals weg von TSMC?? AFAIR nein. Lediglich NV36 (als Test) und alle High End Chips werden dort gefertigt (und man scheint sehr zufrieden zu sein was ich in den Conference Calls so gelesen hab). Midrange und LowCost weiterhin bei TSMC. Ich denke sie sind damals wegen der schlechten Erfahrungen bzgl 130nm zu IBM gewechselt.
Und IBM sollte wohl bessere Yields und kürzere Zeiten vom Tapeout zur Massenfertigung haben (Conference Call).
Es ist doch nicht schlecht bei 2 Manufkteuren zu sein. ATi ist nebenbei noch bei UMC (RV250 wird dort afair gefertigt).

Godmode
2004-02-28, 12:53:04
Der 2. FX-Flow vom NV38 Chip war aber dann ein recht gutes Teil oder? Der war ja dann auch leiser und viel effizienter als die erste Version, ich bin mir jetz nicht sicher ob da viel Kupfer verwendet wurde, auf jedenfall wenn man den ganzen Kühler aus Kupfer fertigen würde, würde man die Abwärme der neuen Chips sicher schnell in den Griff bekommen. Zum TSMC zu IBM wieder zu TSMC Wechsel oder wie auch immer man dazu sagt, kann ich nur sagen das es recht blöd wäre nur auf einem Fertiger zu vertrauen, deshalb wird sich Nvidia ein 2. Standbein gesucht haben, denn wenn es mal Probleme gibt könnte man schnell(ok dauert ein paar Monate bis man den Chip dann in der ander Foundry herstellen kann) wechseln.

robbitop
2004-02-28, 13:09:00
die Kühllösung auf dem NV38 hies AFAIK nicht FlowFX.

Aber irgendwie hällt sich das Gerücht, dass Geforce Karten im Allgemeinen laut sind doch recht gut :)

Doomtrain
2004-02-28, 14:57:30
Original geschrieben von Gast
Ich habe gelesen das NV den NV45 diesmal kurz nach dem NV40 bringen will.Und das schon nach 1 oder 2 Monaten,ist das richtig ?

Will NV den "Turbochip" schon so schnell bringen weil sie ahnen das ATI stark sein wird ?

NV und ATI "ahnen" nicht, sie wissen. Der eine weiß ziemlich genau was der andere macht....

Godmode
2004-02-28, 16:08:47
Original geschrieben von Doomtrain
NV und ATI "ahnen" nicht, sie wissen. Der eine weiß ziemlich genau was der andere macht....

Weißt du das? oder ahnst du das? Und warum weißt/ahnst du, dass der andere weiß was der eine hat? Glaubst du sie sprechen sich gegenseitig ab wie zB: hey Nvidia wir haben keine PS 3.0 dafür sind wir in PS 2.0 aber doppelt so schnell wie ihr !!!!

CrazyIvan
2004-02-28, 16:31:47
Kann ich mir auch net vorstellen.

Industriespionage ist ne heikle Sache - vor allem wenn's rauskommt. Weder wird Ati bei nV Spitzel haben, noch umgekehrt.

Über Dritte ist das ganze noch schwieriger, da leichter nachvollziehbar. Wenn einer mitbekommt, dass der andere was weiss, dann gibts meist nicht so viele Quellen, von woher er das haben kann.

Und an freiwilligen Informationsaustausch glaub' ich schon gleich gar nicht.

Gutes Argument für oben genanntes ist doch der NV30. Hätte nV frühzeitig Infos zum R300 gehabt, dann hätten wir den NV30 in der Form nie zu Gesicht bekommen.

tokugawa
2004-02-28, 17:37:18
Original geschrieben von robbitop
@Gast

Der Fön war scheinbar nur Marketing oder was auch immer.
Auf Hartware.de haben sie den mal auseinander genommen. Fazit: wenig Kupfer, keine funktionierenden Heatpipes verkrorkstes Lüfterdesign ect.
Wir haben damals mal den FlowFX bei seijin.de gegen einen kleinen Orb von Revoltek getestet. Der Revoltek war leiser und viel kleiner. Also so schwer war NV30 nicht zu kühlen, wie viele vieleicht denken mögen.


Ist natürlich auch die Frage, welches FlowFX von welchem Board die da auseinandergenommen haben.

Jene Boards, die von NVidia am Anfang an die Reviewer verschickt hat, hatten noch ein deutlich schlechteres FlowFX als das finale FlowFX.

Wenn's allerdings ein Retail-Board war, dann wird's schon die finale gewesen sein.

tokugawa
2004-02-28, 17:38:39
Original geschrieben von bans3i
Der 2. FX-Flow vom NV38 Chip war aber dann ein recht gutes Teil oder? Der war ja dann auch leiser und viel effizienter als die erste Version, ich bin mir jetz nicht sicher ob da viel Kupfer verwendet wurde, auf jedenfall wenn man den ganzen Kühler aus Kupfer fertigen würde, würde man die Abwärme der neuen Chips sicher schnell in den Griff bekommen. Zum TSMC zu IBM wieder zu TSMC Wechsel oder wie auch immer man dazu sagt, kann ich nur sagen das es recht blöd wäre nur auf einem Fertiger zu vertrauen, deshalb wird sich Nvidia ein 2. Standbein gesucht haben, denn wenn es mal Probleme gibt könnte man schnell(ok dauert ein paar Monate bis man den Chip dann in der ander Foundry herstellen kann) wechseln.

Selbst die erste war nicht so schlecht wie von den ersten Reviews des NV30 berichtet. Die Reviewer hatten damals einfach nur noch eine Board-Revision geschickt bekommen, wo der FX Flow noch nicht final war; NVidia hat da danach noch nachgebessert (zumindest ein wenig, vermutlich kein Riesensprung, aber doch).

Gast
2004-02-29, 04:45:18
Original geschrieben von robbitop
wieso sprechen soviele davon dass nVIDIA weg von IBM will und zurück zu TSMC geht?
Waren sie jemals weg von TSMC?? AFAIR nein. Lediglich NV36 (als Test) und alle High End Chips werden dort gefertigt (und man scheint sehr zufrieden zu sein was ich in den Conference Calls so gelesen hab). Midrange und LowCost weiterhin bei TSMC. Ich denke sie sind damals wegen der schlechten Erfahrungen bzgl 130nm zu IBM gewechselt.
Und IBM sollte wohl bessere Yields und kürzere Zeiten vom Tapeout zur Massenfertigung haben (Conference Call).
Es ist doch nicht schlecht bei 2 Manufkteuren zu sein. ATi ist nebenbei noch bei UMC (RV250 wird dort afair gefertigt).

Das verstehe ich auch nicht. IBM ist für TSMC momentan noch keine große Konkurenz oder Gefahr, da IBM überhaupt nicht die Kapazitäten hat die ganzen Low Coster mit zu übernehmen und vor allem sind ihre Preise auch einen Tick höher.
Der NV36 war ein Testrun. Die HIgh End Chips landen erstmal bei IBM. Grund war wie du gesagt hast die schlechte Erfahrung mit 0.13 bei TSMC und vor allem soll IBM deutlich kürzere Cycle Times haben. Die Belichtungszeitspanne ist dort laut Nvidia kürzer bei 0.13. Das wiederum bedeutet mehr Chipoutput in einem vergleichbaren Zeitraum auf gleicher Wafergröße.

Ich denke High End bleibt erstmal bei IBM. Mainstream und Low End wird man auf 0.11 bei TSMC konvertieren. Eventuell gibts irgendwann einen High End Refresh bei TSMC aber dann nur, wenn der Prozess deutlich besser ist als bei IBM eben. Davon ist momentan noch nix zu sehen.