Archiv verlassen und diese Seite im Standarddesign anzeigen : nvidia chip tape out @ IBM ?
mapel110
2003-06-21, 01:08:15
http://www.beyond3d.com/forum/viewtopic.php?topic=6538&forum=9
They also stated that a product intended for release later in the year has taped out at IBM and they are expecting to receive the first qualification sample in the next few weeks.
welcher chip issen damit wohl gemeint ?
/edit
imo wohl ein verfeinerter nv35, oder ?
Richthofen
2003-06-21, 02:04:38
Dürfte eher der NV40 sein.
Ursprünglich hatte man Juli als Zeitraum fürs Tape-Out angegeben. Ist schon ne Weile her.
Wenn die also ihre ersten Exemplare bekommmen in den nächsten Wochen, dann trifft der Juli ja zu.
Rechnen wir da mal noch die 100 Tage bzw. etwas mehr drauf, dann könnte zumindest mal der Paperlaunch zur Comdex angesetzt sein im November wie geplant. Natürlich nur unter der Vorraussetzung, dass nix schief geht.
Ailuros
2003-06-21, 04:17:47
Die Aussage mit den 100 Tagen kommt mir irgendwie bekannt vor. Na erstmal sehen wie gut die Resultate vom tape out aussehen und danach noch wie gut die yields sind.
Original geschrieben von Richthofen
Dürfte eher der NV40 sein.
Ursprünglich hatte man Juli als Zeitraum fürs Tape-Out angegeben. Ist schon ne Weile her.
Wenn die also ihre ersten Exemplare bekommmen in den nächsten Wochen, dann trifft der Juli ja zu.
Rechnen wir da mal noch die 100 Tage bzw. etwas mehr drauf, dann könnte zumindest mal der Paperlaunch zur Comdex angesetzt sein im November wie geplant. Natürlich nur unter der Vorraussetzung, dass nix schief geht. wie ich mal sagte sie sind weiter damit als man denkt :)
Richthofen
2003-06-21, 12:57:48
das habe ich auch gesagt :)
Das habe ich schon beim NV35 gesagt und Recht behalten.
Die ersten sind lieferbar gewesen sowohl Ultra als auch Non Ultra.
Somit hat NV seine Juni Termin voll und ganz eingehalten.
Es sind gerade mal 5 Wochen seit dem Launch vergangen.
Ich höre immer noch einige wegen dem NV30 Debakel sagen, August/September frühestens und NV40 niemals dieses Jahr mehr :)
Es ist eben ein bisschen naiv sich darauf zu verlassen, dass wenn ein Problem auftritt, dieses gleich alle Nachfolger betrifft bzw. sich immer fortsetzt.
NV hat 3 Design Teams momentan für GPUs und diese Karte spielen sie jetzt voll aus. Die x-Box ist fertig designed und bis 2006 wird man da weiter gut verdienen. Wenn es keine x-box2 für NV gibt, hat man genug Zeit sich andernortes umzusehen.
"
Die Aussage mit den 100 Tagen kommt mir irgendwie bekannt vor. Na erstmal sehen wie gut die Resultate vom tape out aussehen und danach noch wie gut die yields sind
"
Deswegen sagte ich ja rechne noch etwas drauf. Beim NV35 konnte man die 100 Tage ganz gut wieder einhalten. Beim NV40 rechne ich mal mit ein wenig mehr aber nicht so viel wie mit dem NV30. Es ist der selbe Prozess eventuell mit SOI und kein Wechsel auf 0.09 oder ähnliches.
Lass es 150 Tage (5 Monate sein). Dann würde man es bis zum November für den Paperlaunch schaffen. Das alles natürlich nur unter der Voraussetzung dass es keine Fertigungsprobleme wie beim NV30 gibt.
seahawk
2003-06-21, 20:42:52
Alles wie erwartet. :)
AlfredENeumann
2003-06-21, 21:10:38
http://www.xbitlabs.com/news/video/display/20030620102152.html
NVIDIA to Lengthen Product Cycle?
Difficulties are Tough Enough
NVIDIA said at Thomas Wiesel Growth Conference yesterday that there are still problems with yields of 0.13 micron-based products and the company lengthens its cycles.
According to In Play/Briefing.com, NVIDIA stock was downgraded to Equal Weight at Pacific Growth. According to the firm, at the Thomas Weisel growth conference, NVIDIA indicated that transition to 0.13 micron has been more challenging than expected, yields are not where the company thought and cycle times are being pushed out.
From the company’s top executives we already know that there are a number of problems with products made using 0.13 micron fabrication process these days and the yields of the GeForce FX family are not as high as the company originally estimated. Nevertheless, this is the first time I hear about product cycle lengthening from NVIDIA. Unfortunately, there is no broadcast from Thomas Wiesel conference and I cannot say who of NVIDIA officials actually told this interesting fact to the masses. One thing worth our attention is that NVIDIA has been very open about its challenges with 0.13 micron fabrication process since the beginning of its 2004 fiscal year.
It is fully logical for NVIDIA to push its product cycle forward in case it has relatively poor yields of existing graphics processors at the moment. There are no indications which products are [from now] set to come later than expected originally, but I believe that the NV3x products with boosted performance will be impacted first. The NV40 and derivates will surely come in early 2004.
Additionally, Pacific Growth’s channel checks have shown that game console sales are slower than the firm had been expecting as console prices have not come down as much as was anticipated. Firm now looking for NVDIA to see FY04 and FY05 XBOX revenues of $279.6 million and $230 million versus previous estimates of $314.6 million and $345.1 million.
We will further investigate on the matter of lengthening product cycles by Santa Clara, California-based NVIDIA Corporation. Hold on X-bit labs.
Ailuros
2003-06-22, 02:31:13
Ich höre immer noch einige wegen dem NV30 Debakel sagen, August/September frühestens und NV40 niemals dieses Jahr mehr.
Ich hab schon mehrere Male selber meine eigenen Schaetzungen geaeussert dass ich NV40 NICHT vor Q1 2004 auf Regalen erwarte; wobei wir eigentlich uebereinstimmen denn Paper Launches sind ein anderes Kapitel. All das hat in meinem Kopf nichts mit NV30 direkt zu tun, sondern die um einiges hoehere Chip-Komplexitaet von NV40.
Ich hab auch keinen hier gesehen (vielleicht hab ich ein paar Kommentare uebersehen), die das Gegenteil behauptet haben. Fuer mich macht es nur Sinn dass PS/VS3.0 Produkte nicht vor Anfang 2004 erhaltbar sein werden und dabei ist die Wette ob NVIDIA der erste IHV mit solcher Komplianz auf dem Markt stehn wird, wohl das sicherste Blatt.
Mit Paper launches werden uns mehrere IHV´s vor Jahresende begluecken, was mir persoenlich auch gleichgueltig ist. Was fuer mich zaehlt ist Verfuegbarkeit. In dem Sinn ist fuer mich NV40 ein 2004 Produkt.
Richthofen
2003-06-22, 02:54:27
Original geschrieben von Ailuros
Ich hab schon mehrere Male selber meine eigenen Schaetzungen geaeussert dass ich NV40 NICHT vor Q1 2004 auf Regalen erwarte; wobei wir eigentlich uebereinstimmen denn Paper Launches sind ein anderes Kapitel. All das hat in meinem Kopf nichts mit NV30 direkt zu tun, sondern die um einiges hoehere Chip-Komplexitaet von NV40.
Ich hab auch keinen hier gesehen (vielleicht hab ich ein paar Kommentare uebersehen), die das Gegenteil behauptet haben. Fuer mich macht es nur Sinn dass PS/VS3.0 Produkte nicht vor Anfang 2004 erhaltbar sein werden und dabei ist die Wette ob NVIDIA der erste IHV mit solcher Komplianz auf dem Markt stehn wird, wohl das sicherste Blatt.
Mit Paper launches werden uns mehrere IHV´s vor Jahresende begluecken, was mir persoenlich auch gleichgueltig ist. Was fuer mich zaehlt ist Verfuegbarkeit. In dem Sinn ist fuer mich NV40 ein 2004 Produkt.
Dann ticken wir da halt anders. Für mich zählt nur wann es den Launch gibt und wann NV Kasse macht - sprich Chips verkauft. Alles andere ist für mich belanglos und Sache der Hersteller.
mapel110
2003-06-22, 03:27:27
Original geschrieben von Richthofen
Dann ticken wir da halt anders. Für mich zählt nur wann es den Launch gibt und wann NV Kasse macht - sprich Chips verkauft. Alles andere ist für mich belanglos und Sache der Hersteller.
wenns für dich belanglos ist, wo ist dann deine 5900er ?
Ailuros
2003-06-22, 06:45:06
Original geschrieben von Richthofen
Dann ticken wir da halt anders. Für mich zählt nur wann es den Launch gibt und wann NV Kasse macht - sprich Chips verkauft. Alles andere ist für mich belanglos und Sache der Hersteller.
Mit Paper Launches macht man schlecht Kasse. Von der Definition her alleine meint man meistens mit einem Paper Launch dass ein chip auf Papier praesentiert wird, aber keine Samples zur Praesentation bereitgestellt werden.
Vendors koennen schwer Karten herstellen wenn sie nur Papiere in der Hand haben.
Original geschrieben von Ailuros
Mit Paper Launches macht man schlecht Kasse. Von der Definition her alleine meint man meistens mit einem Paper Launch dass ein chip auf Papier praesentiert wird, aber keine Samples zur Praesentation bereitgestellt werden.
Vendors koennen schwer Karten herstellen wenn sie nur Papiere in der Hand haben. Nicht Schlecht geflamet, aber ab da nv den chip verkauft zählt! Nur weil man lieber als hersteller ein 3 lagen ansttat 5 - 7 lagen board nimmt. Und das wegen der Produktionskosten. Das zählt nicht weis doch jeder, das da signalstörungen und leckströmme stärker sind bzw mit sicherheit vorkommen werden! Aber ist ja billiger, und das ist die hersteller entscheidung, genau wie bei den signal filtern.
Richthofen
2003-06-22, 11:11:44
Original geschrieben von mapel110
wenns für dich belanglos ist, wo ist dann deine 5900er ?
Keine Angst die kommt noch. Ich bin grundsätzlich nicht ungeduldig.
Wieso soll ich Erst oder Zweitwochenadopter spielen, wenn doch nach 4 Wochen alle Hersteller im Markt sein dürften und die erstmal ein Stück Preise fallen.
Meine 5900 wird schon noch kommen aber ich will erstmal alle Hersteller im Markt sehen und dann werd ich wie bei meiner Leadtek Ti4400 damals zwischen 350 und 370 Euro aufn Tisch legen.
"
Mit Paper Launches macht man schlecht Kasse. Von der Definition her alleine meint man meistens mit einem Paper Launch dass ein chip auf Papier praesentiert wird, aber keine Samples zur Praesentation bereitgestellt werden.
"
Dann ticken wir auch hier anders. Für mich ist jeder Launch, wo ich das Produkt nicht sofort kaufen kann ein Paperlaunch völlig unabhängig davon ob es Previews gibt oder nicht.
Es ist aber sehr gut möglich, dass es NV40 Previews für ausgewählte Seiten noch vor Weihnachten gibt.
Wäre ein guter Effekt damit die Leute ihr Weihnachtsgeld kurz aufheben und wissen wofür sie es anlegen :)
Naja und August, September für NV35 und 2. Quartal 04 für NV40...
dazu sage ich mal lieber nix.....
Die Leute die das zum Besten gegeben haben werden es wiedererkennen :)
nggalai
2003-06-22, 11:24:25
Ich persönlich Tippe für den NV40 auf Q1 2004 (Massenverfügbarkeit), eventuell allerdings schon November/Dezember 2003. But better save than sorry. ;)
Passt mir persönlich ausgezeichnet--bei mir ist im März 2004 eine neue Karte fällig (alle 9-12 Monate neue Karte), und wenn die NV40 da bereits ein paar Monate Reviews und idealerweise auch schon Praxis-Tests der Freaks hinter sich hat, kann ich besser abschätzen, ob's eine NV, ATI oder sonstwas (PVR wo bist du?) wird.
93,
-Sascha.rb
Ailuros
2003-06-22, 11:49:07
Ein Paper Launch ist nur eine Papier Praesentation. Wenn ihr beiden einen Launch meint wo auch praesentable Hartware bereit gestellt dann ist es nicht ein Paper Launch.
Ihr koennt ruhig jede einzige Defination verdrehen wie ihr wollt, aber es wird auch nichts an der Realitaet am Ende aendern.
Um es noch klarer zu machen: wenn alles nach Plan bei NVIDIA laeuft, dann wird NV40 vor Ende des Jahres normal vorgestellt, der chip kommt zu der Zeit in die Volle Produktion und wird dann auch Anfang 2004 auf Regalen sitzen.
Wenn aber alles nicht nach Plan laeuft und es sich nur um eine reine Papier Praesentation handelt wo man nichts in Silizium vorzeigen kann, sieht es dann eher so aus dass Produktion und Verfuegbarkeit analog verspaetet wird.
Nicht Schlecht geflamet, aber ab da nv den chip verkauft zählt! Nur weil man lieber als hersteller ein 3 lagen ansttat 5 - 7 lagen board nimmt. Und das wegen der Produktionskosten. Das zählt nicht weis doch jeder, das da signalstörungen und leckströmme stärker sind bzw mit sicherheit vorkommen werden! Aber ist ja billiger, und das ist die hersteller entscheidung, genau wie bei den signal filtern.
Auf den Paragraph hat es wohl ueberhaupt keinen Zweck zu antworten.
Dann ticken wir auch hier anders. Für mich ist jeder Launch, wo ich das Produkt nicht sofort kaufen kann ein Paperlaunch völlig unabhängig davon ob es Previews gibt oder nicht.
Es ist aber sehr gut möglich, dass es NV40 Previews für ausgewählte Seiten noch vor Weihnachten gibt.
Das ist kein Paper launch, sondern eine stinknormale Veroeffentlichung einer Karte. Einen Paper launch hatte die NV30 letztes Jahr oder als alternatives Beispiel S3 Delta Chrome (um einiges schlimmer). Eventuell werden die Technologie/Architektur/Spezifikationen auf Papieren ausgelegt, wobei erste test-samples Monate spaeter kommen und von Verfuegbarkeit kann gar nicht die Rede sein. Eventuell ist ein Paper launch eine Notloesung und kann nur Probleme anzeigen.
Alles haengt wohl von den Resultaten des ersten tape outs und den folgenden respins ab; und da kann keiner mit Sicherheit voraussagen ob auch alles nach Plan laufen wird.
Ailuros
2003-06-22, 11:57:16
(PVR wo bist du?)
errrrr.....ja. Da wo wohl momentan alle PS/VS3.0 chips liegen. Mit denen kann ich schon mit groesserer Sicherheit fuer einen Paper launch rechnen.
Quasar
2003-06-22, 14:03:45
Ailuros,
Entwickelt hat sich all dies doch aus der Analogie zum nV30 Launch, der von vielen fälschlicherweise als Paper-Launch bezeichnet wurde (der November-Termin).
Es gab damals Karten nur hat sich die endgültige Verfügbarkeit bei den AIBs verzögert.
mapel110
2003-06-22, 15:22:14
http://www.xbitlabs.com/news/video/display/20030622025747.html
nochmal x-bit
Mike Hara commented that he had not said which product would come out this Fall, but he said that this product had already been taped out at IBM and its commercial manufacturing will begin in the fourth quarter. I believe this was told about the code-named NV40 graphics processor that is set to emerge later this year. Note that in case it will require two re-designs after the initial tape out (and if every new redesign takes 14 weeks), the graphics chip will only be able to come here in very late 2003 (six or seven month from now), but it is more likely to massively appear in 2004. If NVIDIA requires only one re-spin of the NV40 to achieve proper performance and yield, NV40 may make it into the market this Fall.
mapel110
2003-06-22, 15:28:38
Original geschrieben von Quasar
Ailuros,
Entwickelt hat sich all dies doch aus der Analogie zum nV30 Launch, der von vielen fälschlicherweise als Paper-Launch bezeichnet wurde (der November-Termin).
Es gab damals Karten nur hat sich die endgültige Verfügbarkeit bei den AIBs verzögert.
so wie du kann mans einfach nicht auslegen. fakt ist, dass der nv30 erst 5 monate nach dem launch auf den markt kam. also kann man "jetzt" sagen, es war ein paper launch.
für nv war abzusehen, dass es noch lange bis zur verfügbarkeit dauert.
wenn du jetzt das gegenteil behauptest, dann behauptest du auch, dass nv keine ahnung von ihrem eigens entwickeltem produkt und derem fertigungssstand hatte.
mehr gibts dazu nicht zu sagen.
nv musste halt was bringen um ATI das weihnachtsgeschäft ein wenig zu verhageln.
/edit
otto grafi
/edi2
wie erklärst du dir sonst den termin ende november ?
man hätte auch noch 6 wochen bis nach weihnachten warten können. damit man dann genauer bescheid wüsste, wie es mit der verfügbarkeit aussieht.
/edit3
otto graf. oh man, bescheid mit t geschrieben :sulkoff:
seahawk
2003-06-22, 17:02:38
Imo liegt NV momentan besser als ich erwartete. Den Plan den ich kannte sagte Tape-Out im July. Sollten sie es schon im Juni geschafft haben lägen sie besser.
Es wird die Frage sein ob der erste Tape-Out funktioniert und wieviele Respins sie brauchen. Natürlich wird es auch von der Fähigkeit von IBM abhängen diese Chip zu produzieren, aber da bin ich zuversichtlich. (nicht reine Spekulation)
Richthofen
2003-06-22, 17:17:07
Original geschrieben von mapel110
so wie du kann mans einfach nicht auslegen. fakt ist, dass der nv30 erst 5 monate nach dem launch auf den markt kam. also kann man "jetzt" sagen, es war ein paper launch.
für nv war abzusehen, dass es noch lange bis zur verfügbarkeit dauert.
wenn du jetzt das gegenteil behauptest, dann behauptest du auch, dass nv keine ahnung von ihrem eigens entwickeltem produkt und derem fertigungssstand hatte.
mehr gibts dazu nicht zu sagen.
nv musste halt was bringen um ATI das weihnachtsgeschäft ein wenig zu verhageln.
man hätte auch noch 6 wochen bis nach weihnachten warten können. damit man dann genauer bescheit wüsste, wie es mit der verfügbarkeit aussieht.
Hätte man ja, aber dann hätte man viele dazubewegt im Mainstream das Schiff zu wechseln und das hat man cleverer Weise zu verhindern gewusst.
Also prima in meinen Augen - das beste aus der Situation gemacht und Zweck erfüllt :)
Und die Zeit die der NV30 gebraucht hat muss nicht gleich für alle Chips gelten.
NV30 war ein Neudesign. Beim NV40 werden sich die Neuerungen in Grenzen halten, weil man mit Einigem schon lange rumspielt und diese Dinge eigentlich schon im NV30 spätestens 35 bringen wollte.
Die Unterschiede zwischen NV40 vs NV30 werden nicht so gross sein wie zwischen NV30 und NV25. Jetzt bitte nicht mehr der Pipezahl kommen. Das macht eine komplizierte und neue Architektur mit Sicherheit nicht aus, indem man einfach bisserl rumdupliziert.
Die Neuerungen im NV30 gehen sehr tief und deswegen ist für mich der Sprung von 4 Pipes NV25 auf 4 Pipes NV30 aber mit flexiblem Neuaufbau schwieriger als nun den flexiblen Aufbau auf 8 Pipes zu erweitern und noch bisserl mehr an der Flexibilität zu basteln.
An großartige Verkäufe dieses Jahr glaub ich auch nicht aber zumindest sieht es für einen Launch recht gut aus und eventuell gibts dann rechtzeitig für Weihnachten noch ein paar Reviews um die Leute schön bei der STange zu halten.
Pussycat
2003-06-22, 20:51:00
Absolut! Die Leute vom Weinachtsgeld haben bestimmt noch 4 Moante mit ihrem Geld gewartet um sich ein Schrottchip zu kaufen, und für's Image ist's auf jeden Fall gut um schnell an zu kündigen!
Das nenn ich noch mal clever mit der Situation umgehen!
Sag mal ehrlich: Wieviele Leute denkst du, dass monate lang gewartet haben um einen viel teureren, langameren, dustbuster zu kaufen? Wie viel? Von denen die nicht nur auf Verdeih und Verderb warten bis es einen halbwegs akzeptabelen NV-chip gibt, sondern einfach überlegen was für die gut ist?
Ich erwarte eine Antwort. Eine unter 100.000 :).
seahawk
2003-06-22, 21:09:49
Drogen schaden.
Sie veranlassen den Konsumenten dazu vollkommen aus dem Zusammenhang gerissene und unverständliche Postings in diversen Foren zu hinterlassen. Diese sind für nicht durch Halizunogene beeinflußte Leser nahezu unverständlich.
Ein gutes Beispiel ist das vorhergehende Posting.
Also lieber Kinder paßt gut auf. ;)
robbitop
2003-06-22, 21:22:53
ahjo bitte bleibt beim Topic und beschimpfen könnt ihr euch per Mail
sonst ist dieser recht interessanter Threat sicher bald zu ;)
Richthofen
2003-06-22, 23:28:24
Original geschrieben von Pussycat
Absolut! Die Leute vom Weinachtsgeld haben bestimmt noch 4 Moante mit ihrem Geld gewartet um sich ein Schrottchip zu kaufen, und für's Image ist's auf jeden Fall gut um schnell an zu kündigen!
Das nenn ich noch mal clever mit der Situation umgehen!
Sag mal ehrlich: Wieviele Leute denkst du, dass monate lang gewartet haben um einen viel teureren, langameren, dustbuster zu kaufen? Wie viel? Von denen die nicht nur auf Verdeih und Verderb warten bis es einen halbwegs akzeptabelen NV-chip gibt, sondern einfach überlegen was für die gut ist?
Ich erwarte eine Antwort. Eine unter 100.000 :).
Tja dann verrat mir mal wie es sein konnte, dass Nvidia seine Marktanteile und Position halten konnte?
Ich rede nicht von den paar HIgh End Hanseln, die dann zu einer 9700pro gegriffen haben. Die fallen im Markt nicht auf.
Ich habe von den Mainstream Junx geredet und da hat die ganze NV30 PR wirklich wahre Wunder vollbracht das muss ich Nvidia lassen. Einen Image Schaden hätten sie so oder so erlitten, aber an den erinnert sich beim Marktführer in aller Regel ab dem Punkt wo alles bestens ist sowieso keiner mehr.
Sowas trägt man grundsätzlich nur den Underdogs nach.
Intel zb. kann sich riesen Patzer erlauben wie mit dem P3 1,13 GHZ. Interessiert das heute noch wen? Keine Sau. Wenn aber AMD sich was erlaubt, dann wird man ihnen das auch noch in ein paar Jahren nachtragen. So ist das Geschäft. Das war noch nie anders und wird auch nie anders sein. Der kleinere will den großen vom Throm stoßen also muss er gefälligst auch konstant mehr bringen. Ist im Sport ja auch nicht anders. Da bekommt man eben auch keinen Box WM Kampf mal eben so. Den muss man sich über Jahre verdienen :)
Sie haben das beste aus der Situation gemacht und ATI hat gepennt. Soviel steht mal fest lieber Pussycat und ob dir das gefällt oder nicht ist mir reichlich latte.
Das sind die Fakten.
Und wenn sie es schaffen vor Weihnachten NV40 Previews/Reviews hinzubekommen, dann ist das prima. Dann wissen die paar High End Hanseln gleich, wofür sie ihre 600 Euro zu Weihnachten spaaren können.
Für den Mainstream wird der NV36 sein und für den Low End BEreich der NV34.
robbitop
2003-06-22, 23:34:22
Fakt ist aber auch, dass ATi mehr und mehr Fuss fassen kann und wie du weisst, sind Quartalsergebnisse manchmal sehr träge ..jetzt noch der XBOX deal..aber das ist hier absolut OT
AlfredENeumann
2003-06-22, 23:36:19
Original geschrieben von Richthofen
Tja dann verrat mir mal wie es sein konnte, dass Nvidia seine Marktanteile und Position halten konnte?
Ich rede nicht von den paar HIgh End Hanseln, die dann zu einer 9700pro gegriffen haben. Die fallen im Markt nicht auf.
Ich habe von den Mainstream Junx geredet und da hat die ganze NV30 PR wirklich wahre Wunder vollbracht das muss ich Nvidia lassen. Einen Image Schaden hätten sie so oder so erlitten, aber an den erinnert sich beim Marktführer in aller Regel ab dem Punkt wo alles bestens ist sowieso keiner mehr.
Sowas trägt man grundsätzlich nur den Underdogs nach.
Sie haben das beste aus der Situation gemacht und ATI hat gepennt. Soviel steht mal fest lieber Pussycat und ob dir das gefällt oder nicht ist mir reichlich latte.
Das sind die Fakten.
Witzbold. Wer konnte den die Aufträge von ATI nicht so schnell ausliefern weil NV fast alle Produktionskappazitäten blockt ?
Es ist ja kein Wunder das ATI keine großen Marktanteile bekommen konnte wenn sie die Chips nicht so schnell produziert bekommen wie sie verkauft werden.
Ailuros
2003-06-23, 01:21:42
Quasar,
Ja da hast Du recht. Ich hatte ganz vergessen dass es praesentable samples damals schon gab, also nach meinem POV kein reiner Paper-launch.
Beim NV40 werden sich die Neuerungen in Grenzen halten, weil man mit Einigem schon lange rumspielt und diese Dinge eigentlich schon im NV30 spätestens 35 bringen wollte.
Mal angenommen die Geruechte stimmen und NV40 hat tatsaechlich PS/VS3.0, vielleicht sogar vereinte Shader in multi-array, MRT´s, rein trilineare Pipelines, neue AA/AF Algorithmen, die Moeglichkeit eines PPP usw. (was nicht unbedingt alles stimmen muss, aber selbst die Haelfte davon ist genug), dann sind die vorerwaehnten "Grenzen" aber ueberaus gross.
Von den Codenamen allein gehoeren NV30 und NV35 zur gleichen Generation (NV3x), wobei die "4" nach NV eine neue Generation anzeigt. Sonst koennten sie NV40 locker auch NV39 nennen. Haette Microsoft nicht entschieden das Leben von dx9.0 zu verlaengern, waere mit hoechster Wahrscheinlichkeit dx9.0 auf PS/VS2.0 begrenzt und die 3.0 Versionen der Shader in einem hypothetischen dx10 enthalten (wobei da wahre dx10 ja erst fuer 2005 geplant ist).
Einen Image Schaden hätten sie so oder so erlitten, aber an den erinnert sich beim Marktführer in aller Regel ab dem Punkt wo alles bestens ist sowieso keiner mehr.
Sowas trägt man grundsätzlich nur den Underdogs nach.
Nur einen Image-Schaden? Um wieviel Prozente hat sich deren Gewinn wohl reduziert im letzten Quartal?
Zugegeben NVIDIA ist immer eine der wenigen Firmen die ueberhaupt noch Gewinn machen im Markt, aber deren Image war nicht das einzige das geschadet wurde in letzter Zeit. Wenn man weniger Gewinn einkassiert und das Vergroesserungs-Potential einer Firma sich reduziert, dann ist der Schaden durch den Durchschnitt doch nicht so minimal.
Jede Reduzierung selbst vom Gewinn, wird selbst nicht von NVIDIA mit gutem Auge gesehen, und ich bin mir auch sicher dass so manche ihre Verantwortungen dafuer tragen werden. Aber das sind interne Affaeren der Firma, die uns Verbraucher eigentlich egal sein koennten.
seahawk
2003-06-23, 08:25:28
Könnt Ihr euch die NV30 Diskussion sparren ?? Der Chip ist doch zumindest als Ultra Geschichte.
NV ist halt mit dem High-End-Chip zu schnell auf 0,13 Fertigung gegangen. Durch Probleme bei der Herstellung ist der ganze Chip ein fauler Kompromis geworden, der auch noch zu spät war. Immerhin scheint NV mit der Kooperation mit IBM ja auch Lehren aus dem NV30 gezogen zu haben.
ATI hatte da mit der konservativen Lösung (Beibehaltung 0,15)mehr Glück.
PS. Im Hinblick auf den R420 wird ATI aber auch einen Sprung machen müssen. Die gegenwärtige Architektur ist ja für PS/VS 3.0 suboptimal. Dazu der Wechsel zum 0,13 Prozess mit 150 Mill. Transistoren. Mal gucken wie reibungslos das klappt.
Die momentan aktuellen NV.Chips in 0,13 scheinen ja ein Designproblem zu haben. Die Yields für NV31+35 sollen sehr schlecht sein. ATI hingegen hat angeblich +90% Yield bei dem RV350. Das deutet auf einen Desginfehler hin.
NV wird also evtl. sein gesamtes Design überdenken müssen. Es sei den die erhöhte Komplexität und die Probleme resultieren aus der höheren internen Flexibilität des Chips. Der RV350 ist ja vergleichsweise konventionell.
Und was Neues zum NV40 :
http://www.nvnews.net/
Quote:
NV40 Exclusive Tidbit - 6/22/03 4:58 pm - By: volt - Source: Uttar
This was meant to be posted a few days back, but because I went on a short vacation and some things weren't ironed out, we decided to do it today. nV News has gotten exclusive information regarding the NV40 project. Not much to report but it came from a very reliable source (as usual) - thanks to Uttar.
As we all know, NVIDIA's next generation chip is the NV40 (NV35 was a refresh). What we don't know is what will it bring to the table and when will it actually appear on the market.
To cut to the chase, the NV40 is currently being targeted for the following:
550MHz-600MHz Core
700MHz-800MHz Memory
So how accurate are those numbers? VERY. We were not given the exact clock speeds because those do not exist yet. Stay tuned for more
Ailuros
2003-06-23, 09:56:37
Die momentan aktuellen NV.Chips in 0,13 scheinen ja ein Designproblem zu haben. Die Yields für NV31+35 sollen sehr schlecht sein. ATI hingegen hat angeblich +90% Yield bei dem RV350. Das deutet auf einen Desginfehler hin.
NV wird also evtl. sein gesamtes Design überdenken müssen. Es sei den die erhöhte Komplexität und die Probleme resultieren aus der höheren internen Flexibilität des Chips. Der RV350 ist ja vergleichsweise konventionell.
Auf diesen Geruechten beruhen ja auch meine Spekulationen; dass es nicht so leicht sein wird. Ein PS/VS3.0 chip kommt schlecht mit weniger als 150M Transistoren weg.
Dabei denke ich wird das Problem alle IHV's betreffen, die sich fuer 13nm mit extrem hoher Chip-komplexitaet entschieden haben und nicht nur ausschliesslich NV.
Original geschrieben von AlfredENeumann
Witzbold. Wer konnte den die Aufträge von ATI nicht so schnell ausliefern weil NV fast alle Produktionskappazitäten blockt ?
Es ist ja kein Wunder das ATI keine großen Marktanteile bekommen konnte wenn sie die Chips nicht so schnell produziert bekommen wie sie verkauft werden.
Tja hätten ja zum Beispiel mal bei IBM fragen können und 0,13 vs. 0,15 sind immerhin zwei verschieden Produktionsstätten nicht wahr!
Quasar
2003-06-23, 11:08:39
Original geschrieben von AlfredENeumann
Witzbold. Wer konnte den die Aufträge von ATI nicht so schnell ausliefern weil NV fast alle Produktionskappazitäten blockt ?
Es ist ja kein Wunder das ATI keine großen Marktanteile bekommen konnte wenn sie die Chips nicht so schnell produziert bekommen wie sie verkauft werden.
"blocken" ist gut. Für ihre Pionierarbeit und das ganze Malheur, das daraus resultierte, schöpfen sie nun ihre kleine Entschädigung ab, wo ist das Problem?
Immerhin profitieren jetzt ALLE Kunden von TSMC von den Erfahrungen beim nV3x mit x!=1.
Quasar
2003-06-23, 11:13:05
Original geschrieben von seahawk
Die momentan aktuellen NV.Chips in 0,13 scheinen ja ein Designproblem zu haben. Die Yields für NV31+35 sollen sehr schlecht sein. ATI hingegen hat angeblich +90% Yield bei dem RV350. Das deutet auf einen Desginfehler hin.
Da tippe ich doch eher auf ein Problem mit der Komplexität des Designs (mögl. aller Designs weit jenseits von 100MT).
Denn daß nV so mir nichts dir nichts den nV31u um 50MHz beschleunigte, deutet IMO nicht auf ein generelles Problem mit den weniger komplexen Chips in 0,13µ hin.
Im Gegenteil ist mir von mindestens einem recht großen IHV bekannt, dass er wegen "Lieferproblemen" der regulären FX5600-Chips auf einigen Karten 5600ultra-Modelle verbauen musste, die problemlos und in großen Mengen verfügbar sind.
robbitop
2003-06-23, 11:37:58
die 50Mhz waren ja durch das Flip Chip Package drin
Quasar
2003-06-23, 11:43:52
Original geschrieben von robbitop
die 50Mhz waren ja durch das Flip Chip Package drin
FC verbessert die Wärmeabgabe, mehr nicht. Das heisst, wenn ein Chip bereits wegen eines Designfehlers am Limit läuft, kannst du ihn auch auf -50°C kühlen und kriegst ihn nicht 1MHz höher.
Neenee, da is noch ein bißchen Spielraum im Design zumindest der kleinen F(i)Xen.
AlfredENeumann
2003-06-23, 12:59:36
Original geschrieben von Quasar
"blocken" ist gut. Für ihre Pionierarbeit und das ganze Malheur, das daraus resultierte, schöpfen sie nun ihre kleine Entschädigung ab, wo ist das Problem?
Immerhin profitieren jetzt ALLE Kunden von TSMC von den Erfahrungen beim nV3x mit x!=1.
Damit habe ich ja auch kein Problem. Nur mit der Fragestellung von Richthofen.
AlfredENeumann
2003-06-23, 13:02:32
Original geschrieben von Gast
Tja hätten ja zum Beispiel mal bei IBM fragen können und 0,13 vs. 0,15 sind immerhin zwei verschieden Produktionsstätten nicht wahr!
Witzbold.
robbitop
2003-06-23, 13:04:04
Du hast unser Review nich gelesen Quasar ? *grrr*
es sei dir verziehen :D
wir fanden herraus, dass der Chip schweinewar wird egal, welche Kühlmassnahmen, es bildete sich ein Hitzestau im Chip, der ist bei unserem Sample nicht zu erkennen (neue NV31)
weiterhin ist durch das neue Package kein Metal wire bondage mehr nötig, die signale werden einfach klarer, das ist ein netter nebeneffekt von FC ...Thermik ist nicht das einzige
Quasar
2003-06-23, 13:13:00
Ja, euer sample.....
So warm, dass es abgeraucht ist, richtig? ;)
Nee, mal im Ernst. Mein Sample wird nicht sehr warm, grob geschätzt etwa Ti4200-Niveau...
robbitop
2003-06-23, 13:16:21
unser Sample is mitnichten abgeraucht
ausserdem ist 63°C ti4200 niveau und eigendlich nicht warm, aber in anbetracht das der Kühler sehr kühl war und selbst mit abgeschalteten Lüfter gab uns zu denken.
Wärmeleitpaste usw haben wir auch probiert
wir sind keine blutjungen Amateure
und wie gesagt sind die signale beim FC klarer
Quasar
2003-06-23, 13:30:49
Original geschrieben von robbitop
unser Sample is mitnichten abgeraucht
Hm, dann hab' ich das wohl mit Gohans Leadtek-Karte durcheinandergebracht. Sorry, ich dachte, du hättest von dieser gesprochen.
Original geschrieben von robbitop
ausserdem ist 63°C ti4200 niveau und eigendlich nicht warm, aber in anbetracht das der Kühler sehr kühl war und selbst mit abgeschalteten Lüfter gab uns zu denken.
Erst war das Sample "schweinewar[m]", jetzt nicht mehr? Sorry, aber ich komm langsam nicht mehr mit.
War's nun schweinewarm oder hatte es 63°C (wo gemessen?)
Original geschrieben von robbitop
Wärmeleitpaste usw haben wir auch probiert
wir sind keine blutjungen Amateure
Das wollte ich mit keiner Äußerung in keinster Weise implizieren.
Original geschrieben von robbitop
und wie gesagt sind die signale beim FC klarer
Wegen des nun nicht mehr nötigen Metal Wire Bonds, ja, sagtest du.
Erinnerst du dich, wie wir auf dieses Thema gekommen sind?
Ich bestritt, dass ein Designfehler an sich in der nV3x-Reihe besteht, da ohne größere Verrenkungen das Topmodell mal eben um 50MHz höher getaktet wurde (ohne Änderungen am Kühler, ohne neues PCB). Du behauptetest, dass diese 50MHz nur durch das FC-Package zustande gekommen seien.
Ich bestreite das nicht, sondern sage nur, daß wenn ein fataler Makel im Design bestünde, auch die verbesserte Wärmeabgabe durch FC nicht zu höherem Takt gereichen würde.
Der Yield soll schlecht sein, was ich mir ebenfalls nicht vorstellen kann, besonders, wenn ich mir meine beiden Argumente vor Augen halte. ;)
robbitop
2003-06-23, 14:02:54
ok ack
"schweinewarm" war relativ zum kalten Kühlkörper gemeint, was ich ja erleutert habe...
der RV350 hat angeblich nur 5Mio Transistoren weniger als der NV31 vieleicht auch 10...irgendwo da...aber er lässt sich in jedem falle höher Takten und die Boards sehen nicht overingeneered aus...insofern muss dieser Designfehler ja grausam sein und die ganze NV3x Serie betreffen...90% Yield und das bei 130nm ist extrem gut für den RV350
Ailuros
2003-06-23, 14:23:20
Der Yield soll schlecht sein, was ich mir ebenfalls nicht vorstellen kann, besonders, wenn ich mir meine beiden Argumente vor Augen halte.
Schlecht ist uebertrieben, genause wie das Geruecht dass die ATI yields fuer welche auch immer chips bei 98% liegt (so gut wie unmoeglich). Soweit ich weiss sind yields bei ATI mit maessiger chip-Komplexitaet bei 13nm um einiges besser, aber nicht zu dem Punkt, der fuer beide Seiten angegeben wird.
Richthofen
2003-06-23, 18:13:08
"
Mal angenommen die Geruechte stimmen und NV40 hat tatsaechlich PS/VS3.0, vielleicht sogar vereinte Shader in multi-array, MRT´s, rein trilineare Pipelines, neue AA/AF Algorithmen, die Moeglichkeit eines PPP usw. (was nicht unbedingt alles stimmen muss, aber selbst die Haelfte davon ist genug), dann sind die vorerwaehnten "Grenzen" aber ueberaus gross
"
Das stimmt schon aber viele Dinge davon waren bereits für den NV35 geplant wie zum Beispiel der PPP.
Will sagen, die spielen damit schon sehr lange rum.
Insofern wird es nicht so ein radikaler Umbruch sein wie von NV25 auf NV30.
"
Witzbold. Wer konnte den die Aufträge von ATI nicht so schnell ausliefern weil NV fast alle Produktionskappazitäten blockt ?
Es ist ja kein Wunder das ATI keine großen Marktanteile bekommen konnte wenn sie die Chips nicht so schnell produziert bekommen wie sie verkauft werden.
"
Es ist mir nicht bekannt, dass TSMC ein Problem bei 0.15 Kapazitäten hatte. Da wollen wir doch mal bei den Fakten bleiben. Eine 0.13 Produktpalette haben sie erst seit kurzem und auch nur bei den Mainstreamteilen. Die 9 Monate davor war alles 0.15 und da muss sich ATI schon die Frage gefallen lassen, wie es sein kann dass sie daraus so wenig bis gar nichts gemacht haben.
Und da spielen mit Sicherheit eigene Fehler wie die 9500 Reihe mit rein und natürlich auch Nvidia's NV30 Launch auch wenns nur Paper war. Lieber ein Paperlaunch als gar kein Launch und gewirkt hat es ja. Die Position konnte man voll und ganz halten.
Und dass ATI jetzt nicht so die 0.13 Kapazitäten bekommt ist ihr Problem nicht meins. Alle Mittel sind recht um Konkurenzen zu schaden und zu behinder. So ist das Geschäft :)
ATI hat keine Pionierarbeit geleistet auf dem 0.13 Gebiet und sie sind der kleinere Kunde. Wo kommen wir denn da bitteschön hin, wenn sie die selben Konditionen bei TSMC wie NV geniessen. Soweit kommts noch.
AlfredENeumann
2003-06-23, 18:47:47
Original geschrieben von Richthofen
Es ist mir nicht bekannt, dass TSMC ein Problem bei 0.15 Kapazitäten hatte.
Und da spielen mit Sicherheit eigene Fehler wie die 9500 Reihe mit rein ...
1) HAbs irgendwo mal gelsen muß ich mal raussuchen, das TSMC nicht genung R3XX in 0.15 fertigen kann.
2) Der 9500 war kein Fehler, sondern hervorragend um Ausschuß trotzdem zu Geld zu machen.
Razor
2003-06-23, 19:25:55
Original geschrieben von AlfredENeumann
2) Der 9500 war kein Fehler, sondern hervorragend um Ausschuß trotzdem zu Geld zu machen.
...und dadurch weniger HighEnd-Modelle abzusetzen... wirklich 'hervorragend' !
:D
Razor
Richthofen
2003-06-23, 20:19:33
Original geschrieben von AlfredENeumann
1) HAbs irgendwo mal gelsen muß ich mal raussuchen, das TSMC nicht genung R3XX in 0.15 fertigen kann.
2) Der 9500 war kein Fehler, sondern hervorragend um Ausschuß trotzdem zu Geld zu machen.
zu 1) kann ich mir wirklich nicht vorstellen
zu 2) der war Schadensbegrenzung mehr nicht. Die wären nie auf die Idee gekommen Ausschussteile zu verkaufen, wenn sie von Anfang an eigens für den Mainstream was abgespecktes entwickelt hätten, unabhängig davon obs nun DX8 oder DX9 ist.
Es gibt nur eine Firma, die auf Dauer solche Aktionen sich leisten kann und das ist Intel. Die haben auch genug Fabs die zu beschäftigen sind. Für einen reinen Chipdesigner ist das mit Sicherheit der falsche Weg.
Und das es der falsche Weg war zeigen sowohl die Finanzdaten als auch die stagnierende Marktposition.
AlfredENeumann
2003-06-23, 20:20:41
Original geschrieben von Razor
...und dadurch weniger HighEnd-Modelle abzusetzen... wirklich 'hervorragend' !
:D
Razor
Derjenige welcher sich ne 9500 nonPro holt hat eh keine Kohle für was vernünftiges. Früher oder später werden die softmodder eh wissen da hier oder dort ein klitzkleiner Fehler in einer Pipeline ist welcher sich negativ auf dem Bildschirm bemerkbar macht.
Quasar
2003-06-23, 20:23:53
Das Softmodding war IMO auch nicht das Problem.
a) Es gab diesen Run auf die R9500 mit 256Bit Interface (FSAA4Free)
b) Die R9500 PRO hat der R9700(pro) den Preis versaut.
Just my €.02
robbitop
2003-06-23, 21:30:58
@Quasar
trotz extrem viel Bandbreite war das FSAA mitnichten4free...4xhat ca 35-40% gekostet..wie ich bereits sagte hat ein reines Speicher OC keinen Vorteil gebracht...erst ein Chip OC...also die Bandbreite mag bei MS wirklich ausschlaggebend sein, aber wie esagt, scheint es noch andere Faktoren zu geben
Quasar
2003-06-23, 21:48:18
JA, stimmt. Sagtest du bereits.
War das durch die Bank so oder sind die 35-40% ein Extremfall gewesen?
"4Free" war auch nicht buchstäbliche gemeint, sondern eher sinnbildlich, aber wenn's wirklich 40% waren..... ???
robbitop
2003-06-23, 21:50:38
habs nur bei UT2k3 und 3Mark2k1SE probiert. Bei beiden das selbe Bild
Quasar
2003-06-23, 21:52:56
Also beides relativ high-poly count... hm.... :)
robbitop
2003-06-23, 22:09:59
naja...der 9500 hat 4xVS...somit dürfte der Polycount nich soo wichtig sein oder?
Quasar
2003-06-23, 22:24:32
Für den VS an sich nicht, aber für's TriSetup, welches die vielen Polys in 4x1+4x1 Subsamples zerlegen muss.
Vielleicht machten sich da die Einsparungen an Pipelines und/oder anderen teilen des Chips bemerkbar.
robbitop
2003-06-23, 22:26:13
puhaa...äähh...Demi?
Quasar
2003-06-23, 22:40:30
Dadurch, dass die R9500 eher aus der Not gebohren wurde, denke ich, dass das Abschalten von 4 Pipelines durchaus auch sehr unerwünschte Nebeneffekte hat.
Einen kennen mit mittlerweile: HierZ funktioniert nicht.
Darüberhinaus ist auch der Crossbar-Controller sicherlich in Mitleidenschaft gezogen worden.
Auch der Texturcache, bzw. dessen Effizienz scheint mir "beschädigt" zu sein, ist er doch langsamer und/oder kleiner als bei einer R9000Pro, die dieselbe Taktrate aufweist.
Genauso könnten andere Caches oder AA-Sampler beschnitten sein.
robbitop
2003-06-23, 22:43:04
ich rufe noch einmal : Demi ...!?
habe dazu noch keine Tests machen können, wie hast du diese Infos erhalten Quasar?
Demirug
2003-06-23, 23:00:39
ähm ja was soll ich jetzt dazu sagen ausser das ihr absolute off topic seid?
Hat schon mal jemand mit meinem Overdrawtest die HSR Leistung einer 9500 mit und ohne AA gemesen?
Es könnte durchaus sein das mit AA aufgrund des fehlenden Hir-Z die HSR Leistung sinkt weil die verfügbaren Early-Z Einheiten anders genutzt werden müssen.
Quasr: Die Blockgrösse ist wahrscheinlich 2*2 Pixel. Das ist vorteilhafter.
Quasar
2003-06-23, 23:17:29
Original geschrieben von robbitop
ich rufe noch einmal : Demi ...!?
habe dazu noch keine Tests machen können, wie hast du diese Infos erhalten Quasar?
keywords: IBM, nVidia, Tapeout ;)
Trotz Ermahnung weiterhin OT:
robbitop: Ein bissel rumgetestet und wild spekuliert, mehr nicht.
Demirug: Die HSR-Leistung habe ich nur unter OpenGL mal nachgemessen, aber nicht explizit die verworfenen Pixel, wie das dein Test macht. Mal sehen, vielleicht komme ich die Woche dazu...
Ailuros
2003-06-24, 04:38:00
Das stimmt schon aber viele Dinge davon waren bereits für den NV35 geplant wie zum Beispiel der PPP.
Will sagen, die spielen damit schon sehr lange rum.
Insofern wird es nicht so ein radikaler Umbruch sein wie von NV25 auf NV30.
Programmable Primitive Processor ist ein dx10 Feature; es mag zwar dick darueber spekuliert werden, aber das heisst auch nicht dass es garantiert in NV40 enthalten sein wird. Ich hab nur die Spekulationen anderer wiederholt. Teufel ich bezweifle persoenlich sogar einen 8*2 setup, aber ich gebe meine eigenen "Spekulationen" nicht gerne nach aussen und das fuer jeden IHV.
NV40 ist eine neue Generation und ein guter Schritt nach vorne, aber das was ich bei nVnews letzlich gelesen habe, ist mal wieder ein bisschen uebertrieben oder optimales Wunschdenken.
Ich hab zwar keine Ahnung was jetzt wirklich bei IBM und was bei TSMC fabriziert wird, aber wenn es NV40 bei IBM ist, hab ich so einige Gedanken:
a) Hat IBM SILK 13nm unter guter Kontrolle?
b) Wieviele chips derartiger Komplexitaet stellt IBM her?
c) Wieso das Risiko eingehen und von TSMC auf IBM mit dem hoechst komplizierten chip umwandern, wenn man schon Erfahrung beim ersten mit 13nm hat?
Probleme mit low-k 13nm gibts anscheinend in jedem FAB, da macht aus meinem sehr einfachem Blickwinkel mehr Sinn bei TSMC fuer NV40 zu bleiben. Natuerlich wissen wohl die erfahrenen engineers bei NVIDIA schon bescheit was besser ist, aber da es sich hier um ein Spekulationsforum handelt und nichts absolut sicher ist, sind ja solche Aspekte oder Zweifel frei zur Debatte gestellt.
Da sich massenhaft Firmen von IBM Prozeß Beherrschung beibringen lassen (spezielle 0,13 sony, amd, toshiba auch schon für 0,09)um nur einige zu nennen!
IBM ist schon viel weiter sie experimentiert bereits mit strukturgrössen von 0,045 erfolgreich:)
Lowk Läuft auch germanium soi und straind silicon die Firmen wie intel und amd sind definitive hinter IBM anzusiedeln also umc und tsmc sind nicht so die Konkurrenz zu einem solchen unternehmen wie IBM die locker mal den gesamten Umsatz den tsmc macht nur in Forschung stecken (sogar noch mehr)
seahawk
2003-06-24, 12:39:29
Original geschrieben von Ailuros
Ich hab zwar keine Ahnung was jetzt wirklich bei IBM und was bei TSMC fabriziert wird, aber wenn es NV40 bei IBM ist, hab ich so einige Gedanken:
a) Hat IBM SILK 13nm unter guter Kontrolle?
Soweit bekannt ja
Original geschrieben von Ailuros
b) Wieviele chips derartiger Komplexitaet stellt IBM her?
Noch keine, aber selbst Intel stellt nicht so komplexe Chips her.
Original geschrieben von Ailuros
c) Wieso das Risiko eingehen und von TSMC auf IBM mit dem hoechst komplizierten chip umwandern, wenn man schon Erfahrung beim ersten mit 13nm hat?
Probleme mit low-k 13nm gibts anscheinend in jedem FAB, da macht aus meinem sehr einfachem Blickwinkel mehr Sinn bei TSMC fuer NV40 zu bleiben. Natuerlich wissen wohl die erfahrenen engineers bei NVIDIA schon bescheit was besser ist, aber da es sich hier um ein Spekulationsforum handelt und nichts absolut sicher ist, sind ja solche Aspekte oder Zweifel frei zur Debatte gestellt.
IBM ist aber eigentlich schon weiter als 0,13. Für einfachere Chips sind sie bei 0,09. IBM hilft ja auch bei der Entwicklung des Athlon 64s für 0,09. Das Know-How scheint vorhanden.
Für mich ist es sinnvoll zu IBM zu wechseln. Erstmal ist IBM in der Technolgieforschung weiter als TSMC. IBM verfügt über modernste Fertigungsmethoden und der wichtigste Vorteil :
Der direkte Mitbewerber profitiert nicht mehr von den Erfahrungen die NV bei der Umstellung auf einen neuen Prozess macht.
http://www-3.ibm.com/chips/technology/
robbitop
2003-06-24, 12:44:18
afaik kommt SOI zum Einsatz, nicht LowK
zumindist nicht in der Form denn afaik hat niemand nicht mal intel das so doll im Griff, die müssen auch ein "minderwertiges" LowK nehmen
und 8x2 ist viel zu hoch gegriffen. 4x2tri ist ja schon hammer.
denn der NV3x ist 4x2bi...somit hat man schon 2xFüllrate tri, und wer filtert heutzutage noch bi`?
Nicht hauen aber bi filterung ATI
Winter[Raven]
2003-06-24, 13:32:37
Der direkte Mitbewerber profitiert nicht mehr von den Erfahrungen die NV bei der Umstellung auf einen neuen Prozess macht.
Jou, ist meiner Meinung einer der wichtigsten Punkte wieso Nvidia zu IBM gegangen ist.
In der Zeit wo Nvidia NIX liefern konnte, war es Ati möglich dies auszunützen um sich ARROGANT ins Vordergrund zu stellen. Wenn die jetzt bei ihren chips auf 0.13µ umsteigen haben sie die nötige Erfahrug von Nvidia und das sollte nicht so sein. Die sollen ihre Arbeit selber machen und nicht kostenlos in die Hand gedrückt haben !
Original geschrieben von seahawk
Soweit bekannt ja
Noch keine, aber selbst Intel stellt nicht so komplexe Chips her.
IBM ist aber eigentlich schon weiter als 0,13. Für einfachere Chips sind sie bei 0,09. IBM hilft ja auch bei der Entwicklung des Athlon 64s für 0,09. Das Know-How scheint vorhanden.
Für mich ist es sinnvoll zu IBM zu wechseln. Erstmal ist IBM in der Technolgieforschung weiter als TSMC. IBM verfügt über modernste Fertigungsmethoden und der wichtigste Vorteil :
Der direkte Mitbewerber profitiert nicht mehr von den Erfahrungen die NV bei der Umstellung auf einen neuen Prozess macht.
http://www-3.ibm.com/chips/technology/
Nochmals ich verbitte mir die kleinen Hersteller WIE INTEL hier mit IBM zu vergleichen
das können liegt weit über dem Rest der Industrie hier ein Auszug aus dem Jahre 1999
Kommt einem INTEL Itanium schon ‘titanisch’ vor, so tritt ihm doch einer powervoll entgegen, nämlich Göttervater Zeus-IBM, um mit Hilfe vielköpfiger und vielarmiger Riesen (die Power4-Hekatocheiren) den Intel-Titanen ins finstere Tartaros zu verbannen. Nach dem Motto nicht kleckern, sondern klotzen packte IBM zwei komplett überarbeitete Power3-Kerne (fünffach superskalar) auf einen Die und spendierte beiden einen gemeinsamen L2-Cache von vermutlich 1,5 MByte Größe. Ein L3-Cache wird über einen eigenen schnellen 128-bittigen Back Side Bus angesteuert. Mit 170 Millionen Transistoren (0,18 µm, Kupfer, SOI) überflügelt das Design den aktuellen Prozessorgroßmeister HP PA8500 (145 Millionen).
Doch das ist nicht alles. Für die High-End-Serverversion packt IBM vier solcher Doppelprozessoren (mithin 680 Millionen Transistoren) auf ein Multi-Carrier-Modul (MCM). Dabei ist jeder Prozessor mit jedem der anderen über einen Hochgeschwindigkeitsbus (35 GByte/s) verbunden. Beeindruckend sind auch die Bandbreiten der anderen Busse: 40 GByte/s zum L3 und 100 GByte/s intern vom L2 zum L1, das entspricht etwa 20 kompletten DVD-Filmen in einer Sekunde. Und auch der I/O-Bus läuft mit halbem Prozessortakt, also mit mehr als 500 MHz Takt. Für diese vielen breiten Busse benötigt Power4 die unglaubliche Anzahl von mehr als 2200 Signalleitungen (insgesamt 5500 Pins) - wahrlich vielköpfig und vielarmig.
Erste Prototypen des Power4 werden im Frühjahr 2000 erwartet, etwa ein Jahr später soll er mit über 1 GHz Takt auf den Markt kommen.
so diesen Chip in 0,18 soetwas komplexes mit dem anderen runz der so gebaut wird zu vergleichen ist NJA ...
Nun überlegt mal ob es IBM interessiert was INTEL oder die anderen können sie sind kein Maßstab an dem man das können von IBM messen könnte denn dann sind es alles kleine hinterhoffschmieden nicht war!
IBM lies sich damals zwar von intell das x86 Design entwickeln (IBM kompatibel) aber damals konnte INTEL soewas auch nicht fertigen Ne Art Power VR.
Ja INTEL kaufte dieses Design damals zurück nachdem IBM dafür keine Verwendung mehr hatte könnte wohl daran liegen das sie schon In anderen Bereichen weiter waren und da die Zukunft sahen!
Ihr solltet euch mal die mühe machen und einwenig besser und mehr zu suchen z.B. such Funktion des Forums!
An dem "schlechten" Produktionsprozeß (0,18)ist wohl klar zu erkennen das die INTEL grenzen nicht für IBM gelten!
Und das glaubt mal der NV 40 ist nicht so komplex das es IBM in Unruhe bringen könnte sie bauen Chips mit Hören transicount (ja echte Logik keine caches)!
Nebenbei hat IBM verlauten lassen wenn nvidia 1 respin benötigt ist der Chip aufjedenfall in diesem Jahr zu kaufen und IBM weis was sie produzieren können und wie effektive ihr Prozeß ist!
robbitop
2003-06-24, 13:52:31
vergleiche niemals GPUs mit CPUs zumal bei den RiesenCPUs viel Cache dabei ist.
Natürlich hat IBM sehr gute Fabriken aber Intel hat sie auch. Und IBM dürfte auch know how in der GPU fertigung haben..aber so extrem doll sind sie nun auch wieder nicht. Aber ich denke der NV40 bei 130nm und SOI wird wohl recht ordendlich werden...
Und das glaubt mal der NV 40 ist nicht so komplex das es IBM in Unruhe bringen könnte sie bauen Chips mit Hören transicount (ja echte Logik keine caches)!
Bitte ganz lesen und das ist ein lauffähiger Prototyp gewesen 1999!
Was meinst du sie bauen 480 Millionen Chips davon 150 Millionen Cache bleiben 330 Millionen für Logik!
Das der Aufbau von vpus/gpus komplexer ist weis ich aber da nv die 250 Millionen mit dem nv40 nicht knacken wird, ist es kein Problem!
IBM produziert den 480 Millionen Chip 1 die in 0,15 lowk und soi was glaubst du past den dann bei 0,13 drauf 1 transi :)
BlackBirdSR
2003-06-24, 14:08:18
Original geschrieben von Gast
Und das glaubt mal der NV 40 ist nicht so komplex das es IBM in Unruhe bringen könnte sie bauen Chips mit Hören transicount (ja echte Logik keine caches)!
Bitte ganz lesen und das ist ein lauffähiger Prototyp gewesen 1999!
Was meinst du sie bauen 480 Millionen Chips davon 150 Millionen Cache bleiben 330 Millionen für Logik!
Das der Aufbau von vpus/gpus komplexer ist weis ich aber da nv die 250 Millionen mit dem nv40 nicht knacken wird, ist es kein Problem!
IBM produziert den 480 Millionen Chip 1 die in 0,15 lowk und soi was glaubst du past den dann bei 0,13 drauf 1 transi :)
Manche Leute vergessen, dass vor der Fertigung das Design kommt. Und gerade dort kann man viel falsch machen bzw muss schon kompromisse eingehen bevor man an die Grenzen der Fertigung stößt.
Dieses ganze IBM könnte dies und das Gedudel ist völlig Sinnlos wenn das Design nicht damit mithalten kann.
Ohh man noch mal ganz lesen
Nebenbei hat IBM verlauten lassen wenn nvidia 1 respin benötigt ist der Chip aufjedenfall in diesem Jahr zu kaufen und IBM weis was sie produzieren können und wie effektive ihr Prozeß ist!
Tut mir ja echt Leit aber erst lesen dann Nachdenken und dann sinnvoll etwas zum Thema beitragen OK???
Aquaschaf
2003-06-24, 16:34:32
@ gast :
du postest doch verdammt viel trash und flame.
seahawk
2003-06-24, 18:18:28
Original geschrieben von Aquaschaf
@ gast :
du postest doch verdammt viel trash und flame.
Da bin ich gar nicht sicher. Wenn man bei IBM mal so nach hört, dann sind die Leute da sehr davon überzeugt, dass der NV40 (oder "die Sache mit NV") problemlos und im Zeitplan verlaufen wird. ("Die verlangen ja nichts Unmögliches")
Ist von einem Bekannten bei IBM, also inoffiziell und mit sehr viel Vorsicht zu betrachten.
AlfredENeumann
2003-06-24, 19:52:38
Original geschrieben von Shakiro
Jou, ist meiner Meinung einer der wichtigsten Punkte wieso Nvidia zu IBM gegangen ist.
In der Zeit wo Nvidia NIX liefern konnte, war es Ati möglich dies auszunützen um sich ARROGANT ins Vordergrund zu stellen. Wenn die jetzt bei ihren chips auf 0.13µ umsteigen haben sie die nötige Erfahrug von Nvidia und das sollte nicht so sein. Die sollen ihre Arbeit selber machen und nicht kostenlos in die Hand gedrückt haben !
wieso kommt ihr immer mit so scheiß argumenten?
Pass mal auf:
In der Zeit wo ATI in 0.13 NIX liefern konnte, war es NV möglich dies auszunützen um sich ARROGANT ins Vordergrund zu stellen. Wenn die jetzt bei ihren chips auf besser 0.13 fertigung umsteigen haben sie die nötige Erfahrug von IBM und das sollte nicht so sein. Die sollen ihre Arbeit selber machen und nicht kostenlos in die Hand gedrückt haben !
merkste was?
robbitop
2003-06-24, 19:55:58
kostenlos?
naja IBM macht das sicher nicht "kostenlos"
was meinst du warum die da nur ihre HighEnd modelle produzieren, weil es bei IBM sehr teuer ist, um es gelinde auszudrücken
weiterhin ist es nVidias Engagement in diesem Bereich (also Kostenaufwandt und Zeitaufwandt) zu verdanken, dass der 130nm Prozess überhaupt einigermassen läuft bei TSMC
Sunrise
2003-06-24, 21:06:05
Full Ack @ robbitop.
Da übrigens die Fertigung einer so komplexen GPU erstmalig bei IBM "Premiere" hat, werden beide Seiten auch mit aller Macht versuchen, dieses "Geschäft" perfekt abzuwickeln. Hier wird sich vor allem IBM keinen Patzer erlauben können (was ich auch nicht erwarte).
Der frühe Tape-Out lässt ja zumindest einige Rückschlüsse zu.
Fraglich ist allerdings, was NVIDIA dem NV40 spendieren wird. Ich erwarte nicht mehr als höhere Takte / Bandbreite inkl. VS/PS 3.0 und hoffentlich verbessertem AA durch Reserven im Überfluß. Das Marketing bei NV erledigt dann den Rest.
Die Spekulationen von Uttar (soll laut ihm von einer zuverlässigen Quelle kommen), hören sich bis auf den RAM einigermaßen glaubwürdig an, sind aber wohl von der Quelle selbst auch nur "Schätzungen", bzw. die indirekten Ziele von NV selbst.
robbitop
2003-06-24, 21:15:38
nunja trilineare TMUs dürften ordendlich Leistung bringen..immerhin 2xtri Füllrate
Demirug
2003-06-24, 21:36:26
Sunrise was soll den an dem RAM unglaubwürdig sein?
Samsung möchte im 3 Quartal 800 MHz (Physikalisch) als Samples ausliefern.
OK der letzte Samsung RAM war eher eine Pleite.
Sunrise
2003-06-24, 22:00:53
@Demi:
1. Offizielle Quelle ? URL ?
2. Meinst du hier GDDR-3 ?
OK der letzte Samsung RAM war eher eine Pleite.
Hohe Frequenz, bei viel zu hoher Verlustleistung, richtig.
Demirug
2003-06-24, 22:23:52
Original geschrieben von Sunrise
@Demi:
1. Offizielle Quelle ? URL ?
2. Meinst du hier GDDR-3 ?
Hohe Frequenz, bei viel zu hoher Verlustleistung, richtig.
Was du jetzt mit hoher Frequenz meinst ist mir nicht ganz klar. Aber ja die Teile brauchen zu viel Strom.
Also Samsung bezeichnet das ganze immer noch als GDDR2 aber das ganz sich ja noch ändern.
Das immer einen URL braucht. :D
Das Teil hat schon eine offizelle Nummer: K4N55323AF und gibt es mit 500, 550, 600, 700, 800 Mhz. 256 M bit bausteine als FBGA 144 Chips
robbitop
2003-06-24, 22:27:44
nVidia hatte in der Entwicklung bisher immer (das hat man in einem Interview mal bestätigt) immer den schnellsten RAM in der HighENd Variante die verfügbar sind..auch wenn teuer und geringe mengen
Ailuros
2003-06-25, 01:51:04
Geringe Verfuegbarkeit was Speicher betrifft beinflusst aber in dem Fall die Verfuegbarkeit von Graphik-Karten, ueberhaupt wenn man heutzutage nicht mehr mit weniger als 256MB fuer high end Karten davonkommt.
Was den Rest betrifft, ich halt veruebergehend mal wieder meine Klappe was bestimmte Thesen und Spekulationen betrifft. Genauso wie es fuer manche schon gesichert war dass ATI Anfang 2004 ohne PS/VS3.0 dastehen wird, wo ich nicht ohne Grund daran gezweifelt habe. Es ist trotzdem immer noch nichts sicher, aber es kommt auch darauf an wie "zuverlaessig" manche "Quellen" sind, wobei auch selbst diese nicht immer korrekt sind.
Uttar hat uebrigens hoechstwahrscheinlich nur die hoechstmoegliche Taktraten ueber den "sign-off speeds" fuer´s Labor genommen, was wirklich nichts heisst momentan. Das heisst zwar nicht dass 550-600MHz Taktrate unmoeglich sind, aber bevor selbst NVIDIA ueber solche Angelegenheiten sicher sein kann, ist es IMO Schwachsinn so was zu erwaehnen. Der NV35 war ja auch fuer so manche eher eine "Enttaeschung" mit "nur" 450MHz, ganz im Gegenteil zu den eher extravaganten Spekulationen vor der Ankuendigung.
Moeglich erscheint seine "Specliste" schon, aber ein paar Dinge sind schon im Ueberfluss, zumindest meiner Meinung nach.
Uebrigens poste ich selten etwas ueber solche Sachen, wenn ich nicht zumindest von zwei unabhaengigen und zuverlaessigen Quellen die gleiche Sache bestaetigt bekomme. Die Fragen in meinem vorigen Post waren nur theoretische Fragen, aber definitiv nicht aus der Luft gegriffen. Wir werden sowieso in ein paar Monaten herausfinden wieviel NVIDIA vom Design-layout bis zur fruehen Fabrizierung riskiert hat.
NVIDIA kann sich keine weiteren Verspaetungen bzw. Fehler leisten, deshalb macht es mehr Sinn fuer mich wenn man in den meisten Aspekten so viel wie moeglich auf Nummer Sicher geht. Je hoeher der Erfolg in einem Markt, desto weniger Risiko gehen die Firmen ein, und dass beantwortet wohl auch teilweise die staendigen Spekulationen dass NV30, nein wartet NV40....ooops nein stimmt auch nicht NV50 usw. ein TBDR sein werden. :P
seahawk
2003-06-25, 08:33:16
NV ist gar nicht so im Zugzwang imo. NV35 schlägt sich gut. NV31 auch nicht so schlecht. NV34 auch ok.
Ich denke es ist wichtig mit dem NV40 mal wieder einen Chip zu bringen der die Fans in Verzückung versetzt. Da können sie lieber später kommen als ATI.
Gespannt bin ich auf den R420, irgendwie bin ich mir über den Chip nicht klar.
Beim NV40 ist ja eigentlich zumindest eine Tendenz zu erkennen. VS/PS 3.0 dürfte klar sein, die Architektur dürfte darauf optimiert sein und wahrscheinlich noch höhere interne Flexibilität aufweisen.
Ailuros
2003-06-25, 08:36:24
Original geschrieben von seahawk
NV ist gar nicht so im Zugzwang imo. NV35 schlägt sich gut. NV31 auch nicht so schlecht. NV34 auch ok.
Ich denke es ist wichtig mit dem NV40 mal wieder einen Chip zu bringen der die Fans in Verzückung versetzt. Da können sie lieber später kommen als ATI.
Gespannt bin ich auf den R420, irgendwie bin ich mir über den Chip nicht klar.
Beim NV40 ist ja eigentlich zumindest eine Tendenz zu erkennen. VS/PS 3.0 dürfte klar sein, die Architektur dürfte darauf optimiert sein und wahrscheinlich noch höhere interne Flexibilität aufweisen.
Da kann ich nur allen Herzens zustimmen. NVIDIA's primaeres Ziel wird wohl sein sich an die absolute Spitze zurueckzusetzen und nicht nur mit marginalem Unterschied.
x-dragon
2003-06-25, 09:01:02
Original geschrieben von Ailuros
Da kann ich nur allen Herzens zustimmen. NVIDIA's primaeres Ziel wird wohl sein sich an die absolute Spitze zurueckzusetzen und nicht nur mit marginalem Unterschied. Und ATI primäres Ziel sollte sein das NVIDIA zu versauen ... das könnte echt noch richtig interessant werden ... :).
Original geschrieben von Aquaschaf
@ gast :
du postest doch verdammt viel trash und flame.
@
Tja jedem Tirchen sein ...
Wer im Glasshaus sitzt solle die Steine liegen lassen!
Und deine überaus Ach anscheinend so allwissenden quellen (wahrscheinlich ein Traumfänger) hätte ich auch gerne da du ja genau zu wissen scheinst was abgayt
Aber Alfred fängt in diesem Thread schon wieder mit so nem Schrott an wenn hier scheisse geschrieben würde dann von ihm! (guckst du Seite 2 und 3 vom Thread) und dann beginnt man sich mal was längeres zu Posten und schon haperts wieder mit dem ganz lesen oder mit dem verstehen da von robbitop und BlackBirdSR so "seltsame bescheurte" Anmerkungen kamen da ihre vorwürfe (BlackBirdSR) schon längst mit angeführt waren und diese ständige ich will Ne URL
Hallo selber essen macht dick
Ailuros
2003-06-25, 10:32:50
Ich moechte mich ja nicht unbedingt in Euren persoenlichen Differenzen einmischen, aber ist sowas wirklich notwendig?
Ailuros
2003-06-25, 10:37:07
Original geschrieben von X-Dragon
Und ATI primäres Ziel sollte sein das NVIDIA zu versauen ... das könnte echt noch richtig interessant werden ... :).
Deshalb ist ja Konkurrenz auch so toll. So lange ich bei fast jeder Generation umso einiges schnellere Karten und zu besseren Preisen erhalten kann, koennen sich die beiden gerne die Schaedel einbrechen.
Obwohl wenn sich Angestellte von beiden Firmen treffen, wird eher freundlich und albern geulkt als dass es zu sinnlosen Streitereien kommt. So aehnlich wie bei der Politik; nur dass dumme Volk nimmt derartige Sachen viel zu ernst :P
Original geschrieben von Ailuros
Deshalb ist ja Konkurrenz auch so toll. So lange ich bei fast jeder Generation umso einiges schnellere Karten und zu besseren Preisen erhalten kann, koennen sich die beiden gerne die Schaedel einbrechen.
Obwohl wenn sich Angestellte von beiden Firmen treffen, wird eher freundlich und albern geulkt als dass es zu sinnlosen Streitereien kommt. So aehnlich wie bei der Politik; nur dass dumme Volk nimmt derartige Sachen viel zu ernst :P Die meisten von dennen kennen sich noch von sgi und so
robbitop
2003-06-25, 10:45:41
naja ein R3xx mit VS/PS soll mit gewissen Kompromissen ja machbar sein. Mit dem FBuffer in einem "Workaround" ist dies zwar mit Performanceeinbussen im PS3 Bereich möglich, letztendlich zählt aber nur die Verfügbarkeit des Features nicht die Performance, da die zu Lebzeiten irrelevant bleibt.
VS3 könnte aus dem R400 extrahiert werden.
Aber wenn der NV40 wirklich Tri TMUs verbaut, dann wird das Teil sicher nicht langsam ;)
und effektiver wird er sicher als seine Vorgänger
Ailuros
2003-06-25, 11:12:24
Original geschrieben von robbitop
naja ein R3xx mit VS/PS soll mit gewissen Kompromissen ja machbar sein. Mit dem FBuffer in einem "Workaround" ist dies zwar mit Performanceeinbussen im PS3 Bereich möglich, letztendlich zählt aber nur die Verfügbarkeit des Features nicht die Performance, da die zu Lebzeiten irrelevant bleibt.
VS3 könnte aus dem R400 extrahiert werden.
Aber wenn der NV40 wirklich Tri TMUs verbaut, dann wird das Teil sicher nicht langsam ;)
und effektiver wird er sicher als seine Vorgänger
Ich hab trotzdem das Gefuehl dass NV40 mit PS/VS3.0 den Vorrang haben wird in Sachen arithmetischer Effizienz, wobei auch die hoeheren Taktraten die NVIDIA anpeilt auch helfen werden.
Ich wuerde sagen dass beide versucht haben die Effizienz der Pipelines zu erhoehen, was auch auesserst wichtig ist ( neben einer moeglichen zweiten TMU pro pipe und/oder trilineare TMU's).
Wie Du aber schon erwaehnt hast (und ich auch zustimme) ist der ganze Kram sowieso nur interessant oder brauchbar fuer Entwickler. Da interessiert es mich als Gamer viel mehr was jede Karte unter A oder B Bedingungen fuer 2004 leisten koennen.
Komischerweise lassen insider leider immer nur unwichtige hints ueber zukuenftige Produkte raus. Ich wuerde sehr gerne wissen z.B. was alle IHV's in Angelegenheiten wie Anti-aliasing und Anisotropischer Filterung angerichtet haben.
Hier wuerde ich sagen dass ATI nur hoechstwahrscheinlich die Anzahl der samples erhoeht, wobei NVIDIA das grosse Fragezeichen bleibt. Mir persoenlich ist schon 4x sparsely sampled genug. Die hybriden modi koennen sie gerne stehen lassen fuer extravagante Notfaelle.
robbitop
2003-06-25, 11:16:15
das glaube ich zum R420 nicht
ein 8Sample RG würde vermutlich ein Redesign des Trisetups benötigen, das ist ein recht tiefer eingriff und nicht unkompliziert und wenn man das ins Verhältnis zur Entwicklungsdauer und dem was sonst noch rein soll setzt, glaube ich kaum dran...warum auch..immo geht ja nichtmal 6xRG flüssig und ab 4x darf man Jaggies mit dem Mikroskop suchen
ist sparsly sampled nicht besser als Rotated Grid`?
Demirug
2003-06-25, 11:38:08
Bei 4 Samples ist das beste was man machen kann ein RG.
Zum Berechnen des Idealen Grids bei einer Anzahl von x Sampels gibt es ein relative Einfaches verfahren.
1. Man eliminiert alle Lösungen die mehr als ein Sample auf der gleichen Rheie, Spalte oder Diagonalen haben. Das ganze ist auch als N-Dame Problem bekannt.
2. Alle Lösungen die jetzt noch übrig bleiben werden hinsichtlich der Entfernung der Samples zueinader untersucht. Das Muster mit der grössten Durchschnist Entfernung der Samples zueinader sollte das beste sein.
Bei 4 Samples bleiben nach dem ersten Schritt genau zwei Muster übrig welche bezüglich des zweiten Schritts gleichwertig sind. In beiden Fällen ist es ein RG.
Ailuros
2003-06-25, 11:54:42
Wieso hab ich denn den Eindruck dass alle modi bei ATI sparsely sampled (und auch NV's 2xAA modus) sind?
Oder haben wir jetzt mal wieder die Definitionen von sampling patterns durcheinander gebracht?
***edit:
Hier ein Link darueber:
http://www.beyond3d.com/forum/viewtopic.php?p=60662&highlight=sparsely+sample#60662
Demirug
2003-06-25, 12:22:27
Original geschrieben von Ailuros
Wieso hab ich denn den Eindruck dass alle modi bei ATI sparsely sampled (und auch NV's 2xAA modus) sind?
Oder haben wir jetzt mal wieder die Definitionen von sampling patterns durcheinander gebracht?
***edit:
Hier ein Link darueber:
http://www.beyond3d.com/forum/viewtopic.php?p=60662&highlight=sparsely+sample#60662
Das passt schon. Manche Muster passen eben in mehr als eine Definition.
Streng genommen benutzten die 2xAA Modies von ATI und nVidia sowohl ein Sparsely sampled grid wie auch ein Rotated grid.
Das 4xAA Muster des R300 benutzt auch ein SSG und ein RG.
Ailuros
2003-06-26, 11:42:12
ein 8Sample RG würde vermutlich ein Redesign des Trisetups benötigen, das ist ein recht tiefer eingriff und nicht unkompliziert und wenn man das ins Verhältnis zur Entwicklungsdauer und dem was sonst noch rein soll setzt, glaube ich kaum dran...warum auch..immo geht ja nichtmal 6xRG flüssig und ab 4x darf man Jaggies mit dem Mikroskop suchen.
Wie genau stellst Du Dir denn R4xx vor? Nur ein schnellerer R3xx mit mehr Shader-Instruktionen? R4xx ist ein "cross-link" zwischen R3xx und dass was R4xx anfangs sein sollte (siehe R5xx).
Kommt natuerlich ganz drauf an wie man eine neue Generation definiert.
Ich sagte mir waere 4x sparse sampled MS genug und dass im relativen Sinn was in absehbarer Zeit IHV's implementieren koennen, und was auf dieser HW in Kombination mit den verfuegbaren Spielen auch wirklich spielbar sein wird.
Mit dem Mikroskop sucht man Jaggies bei 4x sample AA, selbst mit einem 4*4 grid, gerade unbedingt nicht. Ein schlechter Winkel in einem hochgradigen Fligh-sim ist da schon genug. Das Mikroskop brauchst Du dann da eher >16x samples mit einem 16*16 grid.
PS: Ich sehe immer noch genug jaggies selbst mit 8xS in FS2002. Nur eine einfache Rotation um das Flugzeug genuegt.
robbitop
2003-06-26, 11:47:09
die frage ist, wie du dir den R420 vorstellst...für mich ist anhand der geringen entwicklungszeit nur ein modifizerter R3xx drin. Wie auch anders wenn im März erst entschieden worden ist, R400 zu canclen (das ist für mich der neue Chip). Und wenn man bedenkt dass man 4-6Monate für einen so komplexen Chip zur PRoduktion braucht, bleiben bei mir 3-4Monate für Entwicklung bis zum Tapeout.
Tarkin
2003-06-26, 13:13:04
aktuellste Info zum angeblichen nv40 Tape-out:
Quelle: http://www.beyond3d.com/forum/viewtopic.php?t=6631
"In light of new information, I suggest everyone not to trust any of the NV36 info we had so far. A lot of it is very wrong, and that means the rest most likely is. First of all, the NV36 will be manufactured at IBM's 0.13µ process. Secondly, the NV36 will not fully replace the NV31 ( at least, not the flipchip version ). And finally, it's the NV36 which taped-out at IBM, not the NV40. The NV40 didn't tape-out yet. What market segment is the NV36 in, then? I don't know. Most likely $199-$299, with th NV31 Regular replacing the NV34 Ultra, and the Ultra being between the NV36 Regular and the NV31 Regular. No idea about that part though, it's just speculation, but those three "facts" are very reliable."
Sorry, falls das schon jemand vor mir geposted habe sollte.
robbitop
2003-06-26, 13:15:39
hört sich sehr seltsam an einen midrange chip zu solchen Konditionen zu produzieren...ich bin da mal sehr skeptisch
Ailuros
2003-06-26, 14:28:31
Original geschrieben von Tarkin
aktuellste Info zum angeblichen nv40 Tape-out:
Quelle: http://www.beyond3d.com/forum/viewtopic.php?t=6631
"In light of new information, I suggest everyone not to trust any of the NV36 info we had so far. A lot of it is very wrong, and that means the rest most likely is. First of all, the NV36 will be manufactured at IBM's 0.13µ process. Secondly, the NV36 will not fully replace the NV31 ( at least, not the flipchip version ). And finally, it's the NV36 which taped-out at IBM, not the NV40. The NV40 didn't tape-out yet. What market segment is the NV36 in, then? I don't know. Most likely $199-$299, with th NV31 Regular replacing the NV34 Ultra, and the Ultra being between the NV36 Regular and the NV31 Regular. No idea about that part though, it's just speculation, but those three "facts" are very reliable."
Sorry, falls das schon jemand vor mir geposted habe sollte.
Nein gepostet hat es bis jetzt keiner; ich hab nur ein paar *hints* hier und da angegeben. Manche Leute sind sich einfach allzu sicher ueber das was sie hoeren oder hoeren wollen.
Ailuros
2003-06-26, 14:41:30
Original geschrieben von robbitop
die frage ist, wie du dir den R420 vorstellst...für mich ist anhand der geringen entwicklungszeit nur ein modifizerter R3xx drin. Wie auch anders wenn im März erst entschieden worden ist, R400 zu canclen (das ist für mich der neue Chip). Und wenn man bedenkt dass man 4-6Monate für einen so komplexen Chip zur PRoduktion braucht, bleiben bei mir 3-4Monate für Entwicklung bis zum Tapeout.
Ich hab keine Ahnung welchen chip dann Du meinst. Alle drei high end naechster Generation chips werden nicht vor Q1 04 erscheinen.
Und uebrigens nur ein einfach modifizierter chip bringt nicht gleich die doppelte Leistung, wobei wohl das Resultat dann eher zaehlt. Wenn das nicht der Fall sein sollte bei R4xx, dann hat ATI diese Runde voll verloren.
Was Du unter R400 bzw. R500 verstehst war sowieso in totalem Ueberfluss selbst fuer Anfang 2004 und 8-10 Monate vor der Produktion ist viel zu wenig fuer solche Entscheidungen. Die Entscheidung die Du meinst wurde um einiges frueher getroffen. Der originale Plan fuer R4xx war fuer Herbst 2003, mit einer projezierten Ankuendigung Aug/Sep 2003.
robbitop
2003-06-26, 14:45:58
also glaubst du an das was Tarkin verlinkt hast? AiL?
Ailuros
2003-06-26, 14:46:12
Original geschrieben von robbitop
hört sich sehr seltsam an einen midrange chip zu solchen Konditionen zu produzieren...ich bin da mal sehr skeptisch
Wieso? Klingt meine alberne kleine "Theorie" dass es besser ist den hoechst kompliziertesten chip in der Foundry zu fabrizieren zu lassen wo man mehr mit Erfahrung hat, so unwahrscheinlich?
Wer hat garantiert dass NV40 NICHT low-k verwenden wird, und welche foundry hat momentan im Markt den Vorrang was low-k 13nm betrifft?
Ailuros
2003-06-26, 14:49:15
Original geschrieben von robbitop
also glaubst du an das was Tarkin verlinkt hast? AiL?
Wenn Du meine Gequatsche verfolgt hast, dann weist Du auch warum ich immer noch auf eine zweite Antwort warte um sicher zu sein. Die erste Antwort unterstuetze die IBM/NV40 ueberhaupt nicht.
Ich bin trotzdem immer noch sehr vorsichtig damit und schliesse nichts aus. Meiner Meinung nach macht aber meine Theorie aus meinem sehr einfachen Wissensdenken mehr Sinn.
robbitop
2003-06-26, 14:49:47
sicher klar AiL
aber nVidia hat sich mit dem NV30 eben hingepackt. Und die Erfahrung bekommt der Konkurent zugute. Ausserdem ist SILK soweit ich lass nicht unter Kontrolle.
Warum einen Günstig Chip zu high Cost bauen und den grossen bei einer Lostech Foundry?
Richthofen
2003-06-26, 14:51:20
Original geschrieben von robbitop
hört sich sehr seltsam an einen midrange chip zu solchen Konditionen zu produzieren...ich bin da mal sehr skeptisch
Hm naja der Uttar ist meisst aber schon recht gut informiert. Aber denoch wundert mich das bisserl. Das passt nicht zu der Aussage man wolle vorerst nur 5% zu IBM auslagern.
Mit nem NV36 bei IBM scheints mir deutlich mehr als 5% zu werden.
Eine andere Theorie die hier aber Sinn machen könnte wäre folgende.
TSMC hat nicht genug Kapazitäten und NV und ATI müssen die sich teilen.
Wenn NV nun bei TSMC munter weiter fertigen lässt und einen NV36 bei IBM nachschiebt, könnten sie in die Lage kommen den Markt zu überfluten mit Mainstream DX9 Chips.
Das wäre für mich die einzige Erklärung dafür.
Bei TSMC weiter die vorhandenen Kapazitäten nutzen und bei IBM nachschieben.
Oder aber NV ist als Imagekunde IBM so wichtig, dass sie mega Konditionen bekommen haben, die TSMC nicht unterbieten konnte.
Ailuros
2003-06-26, 14:56:33
Original geschrieben von robbitop
sicher klar AiL
aber nVidia hat sich mit dem NV30 eben hingepackt. Und die Erfahrung bekommt der Konkurent zugute. Ausserdem ist SILK soweit ich lass nicht unter Kontrolle.
Warum einen Günstig Chip zu high Cost bauen und den grossen bei einer Lostech Foundry?
Dann such mal bei digit times fuer low-k und TSMC nach.
Zu Deiner Frage:
Koennen viele Gruende sein. Beispiele:
a) Um Produktionszeiten zu reduzieren; mehrere Foundries = mehrere Stueckzahlen.
b) Um die neue foundry auszuprobieren bevor man ein groesseres Risiko mit dem kompliziertesten chip auf einer "neuen" und fuer NVIDIA unbekannte foundry umsteigt.
robbitop
2003-06-26, 14:58:01
danke für den Hinweis AiL :)
Ailuros
2003-06-26, 14:59:22
Original geschrieben von Richthofen
Hm naja der Uttar ist meisst aber schon recht gut informiert. Aber denoch wundert mich das bisserl. Das passt nicht zu der Aussage man wolle vorerst nur 5% zu IBM auslagern.
Mit nem NV36 bei IBM scheints mir deutlich mehr als 5% zu werden.
Eine andere Theorie die hier aber Sinn machen könnte wäre folgende.
TSMC hat nicht genug Kapazitäten und NV und ATI müssen die sich teilen.
Wenn NV nun bei TSMC munter weiter fertigen lässt und einen NV36 bei IBM nachschiebt, könnten sie in die Lage kommen den Markt zu überfluten mit Mainstream DX9 Chips.
Das wäre für mich die einzige Erklärung dafür.
Bei TSMC weiter die vorhandenen Kapazitäten nutzen und bei IBM nachschieben.
Oder aber NV ist als Imagekunde IBM so wichtig, dass sie mega Konditionen bekommen haben, die TSMC nicht unterbieten konnte.
NV36 laeuft sozusagen als Probe-Test bei IBM, damit auch NVIDIA sehen kann inwiefern man sich auf fuer groessere Bestellungen auf die verlassen kann.
Erfolgreiche Firmen gehen selten ein groesseres Risiko ein als man braucht. Nach dem NV30 Risiko haben sie wohl gesehen dass das keine gute Idee war.
robbitop
2003-06-26, 15:00:15
dort würde auch das ganze mit 150nm für R420 sinn machen..weil wenn nv nicht umlagert (HighEnd) gibt es keine TSMC 130nm Fertigungsstrassen für R420. Somit wäre es absolut denkbar dass man auf 150nm verbleiben muss und mehr zeit fürs deisgn hat (weil keine 130nm Fertigung)
Da ATI aber schon in 0,13 bei tmsc fertigt haut das ja nicht hin
robbitop
2003-06-26, 15:57:22
nVidia hat Exklusivrecht auf 130nm Fertigungskapazität iirc ;)
Original geschrieben von robbitop
nVidia hat Exklusivrecht auf 130nm Fertigungskapazität iirc ;) Da ATI dort in 0,13 fertigt sollte es ja kein problem sein das sie die kapazität nutzen die sie schon dort zu verfügung haben!
Trotz NV exclusive recht hat ATI dort ja die rv350 oder rs weis nicht genau am laufen in 0,13 tausch gegen was auch immer r400 oder 420 Ka das sollte wohl möglich sein oder etwa nicht
robbitop
2003-06-26, 16:39:30
dann haben sie keine Mainstreamkarte mehr ;)
Original geschrieben von robbitop
dann haben sie keine Mainstreamkarte mehr ;) Ach ATI produzier gerne auf halde hierbei sehr praktisch :)
Und mal ganz errlich soviele Hihgens braut keiner weder ATI noch NV quasi reicht ne klein produktion erstmal aus
Ailuros
2003-06-26, 19:01:26
robbitop,
TSMC hat offiziell angekuendigt dass sie low-k 13nm gemeistert haben. Bei hoher chip-Komplexitaet erwarte ich auch keine hoeheren yields als 50-60%, was aber auch verstaendlich sein sollte.
Das Verhaeltnis von yields auf low-complexity chips liegt zwischen den zwei IHV's bei >70% - <90%.
Wer hat gesagt dass jetzt ploetzlich NVIDIA low-k patentiert hat? Soll das ein Scherz sein? IHV geht zur Foundry und sagt ich moechte den und den chip fabrizieren lassen auf X manufacturing process.
Foundry bietet dann drei verschiedene Varianten an (ja so ne Art Menu hehehe), mit Senf, Bananen oder ohne *ahem* ich meine auf Leistung eingestellte Prozesse, stabiliere Prozesse usw. :D
Ich denke dass ATI immer noch Schiss vor 13nm mit hoher Komplexitaet hat, wobei es mich nicht wundern wuerde wenn die immer noch auf 15nm wetten. Auweia ich kann schon jetzt die NV-fans hoeren, wenn da ein Riesen-Brummer drausteckt LOL.
robbitop
2003-06-26, 19:15:38
also ich habe niemals behauptet, dass ein Prozess einem IHV gehört
Demirug
2003-06-26, 19:17:21
Ihr kommt mir hier immer mit Chip-Komplexitaet = Schlechte Yields. Im Prinzip gebe ich euch da ja recht. Aber ist das nicht die Wirkungskette extreme verkürzt?
Eigentlich müsste man ja schreiben:
Hohe Chip-Komplexitaet -> grosser Fläche/Chip -> Schlechte Yields.
Vorallem verursacht durch schlechte Wafer. Fragt mal die Spezialisten von Wacker was sie dafür geben würden wenn sie Siliziumkristale ohne Strukturfehler züchten könnten. Die Foundries würden für solche Wafer sehr gut bezahlen.
Als Faustfomel kann man sagen:
Doppelte DIE Size = doppelter Ausschuss.
In Wrklichkeit steigt der Ausschuss nicht ganz linear zu DIE-Size sondern etwas langsamer weil bei grösseren DIEs ja auch die Wahrscheinlichkeit steigt das zwei Fehler die vorher zwei Chips ruiniert hätte nun nur noch einen killen.
Richthofen
2003-06-26, 19:36:27
Original geschrieben von Ailuros
NV36 laeuft sozusagen als Probe-Test bei IBM, damit auch NVIDIA sehen kann inwiefern man sich auf fuer groessere Bestellungen auf die verlassen kann.
Erfolgreiche Firmen gehen selten ein groesseres Risiko ein als man braucht. Nach dem NV30 Risiko haben sie wohl gesehen dass das keine gute Idee war.
Macht aber keinen SInn, weil sie ja die Entscheidung NV40 bei IBM nicht erst fällen, wenn der NV36 produziert wird.
Das Tape-Out für den NV40 ist offiziell mal auf Spätsommer angesetzt gewesen, müsste demnach, wenn es jetzt nicht der NV40 war in den nächsten Wochen erfolgen. Der Paperlaunch auf Comdex.
Das Zeitfenster für einen großen Probelauf mit NV36 wäre viel zu klein, zumal man dann nicht eben mal wieder sagen kann NV40 nun doch nicht bei IBM sondern TSMC.
Das macht für mich nun wirklich gar keinen Sinn.
Also für mich ist es entweder:
A) IBM hat TSMC bei den Konditionen unterboten
B) TSMC hat auch weiterhin nur begrenzte Kapazitäten auf dem 0.13 Prozess, so daß Nvidia nun zusätzlich auf IBM ausweicht.
robbitop
2003-06-26, 19:38:24
vileicht war ja von anfang an klar dass NV40 bei TSMC bleibt ??
seahawk
2003-06-26, 19:47:20
Ich habe folgendes gehört :
NV36 und NV40 kommen von IBM. Die 0,13 Kapazutäten bei TSMC sind immer noch sehr begrenzt. ATI und NV haben Probleme genügend Chips geliefert zu bekommen.
Dauerhaft strebt NV einen Anteil von etwas 50:50 Verhältnis zwischen IBM und TSMC an. Dies sollte erst längerfrisitg erreicht werden. Aber auf Grund der Probleme bei TSMC und guter Erfshrungen bei der Zusammenarbeit mit IBM hat man sich entschieden schon den NV36 zu IBM zu holen. Der soll ja hohes Midrange werden, so dass IBM durchaus nicht zu teuer ist.
NV war wohl "übrrascht" von der Qualität bei Zusammenarbeit mit IBM, und will nun schneller als geplant zu IBM wechseln.
There we have it. Nvidia is nowhere back to their 6 month cycle at all. As Nvidia missed the June deadline for their NV40 tape-out, that part won't reach production level this year. It takes around 8 months to get a new generation to the market (NV30 taped out in august and hit the street in march, NV20 taped out in late september and hit the street in may). I fear NVIDIA took away ressources from NV40 to finish NV35 on time.
NV40 will be a spring 04 part if everything goes fine. If ATI is able to get the 0.13u R3xx refresh ready for this fall, they own the high-end again. Otherwise we will see a patt.
Trifft die Sache ziemlich gut. Der NV40 kommt also frühestens im März 2004. Etwas später als erwartet, oder?
robbitop
2003-06-26, 21:46:15
mhhh...möchte ich widersprechen.
Februar war Tapeout, im April gab es Protoypen, im Mai Samples im Juni verfügbarkeit. Sind für mich 4 - 5 Monate.
Und ich denke Paperlaunchtermin wird passen, Auslieferung ist sicher erst im Jahr 2004 denkbar in grossen Mengen.
Richthofen
2003-06-26, 23:12:45
"
As Nvidia missed the June deadline for their NV40 tape-out
"
Den Satz versteh ich nun wieder gar nicht.
Es war nie von einer June Deadline die Rede. Eigentlich war Spätsommer geplant und wurde auch so mal auf einem Conference Call verlündet. Daraufhin hat der Uttar glaub ich mal July durchblicken lassen.
Die Meldung neulich dass ein Tape-Out bei IBM erfolgt ist und das der NV40 sein könnte, war daher recht überraschend und wäre früher als eigentlich erwartet.
mapel110
2003-06-27, 00:02:43
Wie Beyond3D in Berufung auf die letzte nVidia Börsenanalysten-Konferenz berichten, hat nVidia bei dieser angegeben, daß kürzlich ein neuer nVidia-Grafikchip bei IBM sein Tape-Out hatte (bedeutet ca. 3-4 Monate bis zur Massenfertigung, zuzüglich eines weiteren Monats bis zur Verfügbarkeit von entsprechenden Grafikkarten). Eigentlich könnte man hier direkt auf den NV40-Chip schließen, ist doch von diesem bekannt, daß er bei IBM gefertigt werden soll. Neue Gerüchte besagen allerdings, daß es sich bei dieser nVidia-Vollzugsmeldung noch nicht um den NV40, sondern um den NV36-Chip handeln soll, welcher dann wohl unerwarteterweise auch mit von IBM gefertigt werden wird ...
//////////////////////////////////////
weiss jemand die gerüchte-quelle worauf sich leonidas bezieht ?
robbitop
2003-06-27, 00:17:41
imho ist es sehr unsicher, dass und ob der NV40 überhaupt bei IBM produztiert wird. Denn wie AiL schon sagte, es wäre ein Risiko und IBM hat noch nicht die Erfahrung in der GPU Produktion
mapel110
2003-06-27, 00:26:40
Original geschrieben von robbitop
imho ist es sehr unsicher, dass und ob der NV40 überhaupt bei IBM produztiert wird. Denn wie AiL schon sagte, es wäre ein Risiko und IBM hat noch nicht die Erfahrung in der GPU Produktion
???
issen da fürn unterschied, ob der chip nun für cpus oder grakas gebraucht wird ?
Crushinator
2003-06-27, 02:14:25
Original geschrieben von robbitop
mhhh...möchte ich widersprechen. Februar war Tapeout, im April gab es Protoypen, im Mai Samples im Juni verfügbarkeit. Sind für mich 4 - 5 Monate. Wenn Du NV35 meinst -> der Chip hat keine "neue" Architektur, NV40 schon eher. :|
Quasar
2003-06-27, 02:20:11
Original geschrieben von mapel110
???
issen da fürn unterschied, ob der chip nun für cpus oder grakas gebraucht wird ?
CPUs sind i.A. nicht so massiv parallel und ein Großteil der Transistoren geht für Cache-Logik drauf, die nicht so viel Abwärme erzeugt.
Darüberhinaus sind bei CPUs auch ganz andere Kühlverfahren möglich, allein vom Platz her.
GPUs müssen daher i.d.R. deutlich stärker optimiert werden, was schon beim Design anfängt, aber bei der Fertigung noch lange nicht aufhört.
Deswegen wundert es mich immer wieder, wie unprofessionell auch auf sehr sehr teueren Grafikkarten Kühler montiert werden. Ich hatte heut' erst wieder so ein Erlebnis....
Crushinator
2003-06-27, 02:26:06
Original geschrieben von robbitop
(...) und IBM hat noch nicht die Erfahrung in der GPU Produktion Diese Behauptung ist nicht (http://www.ibmlink.ibm.com/usalets&parms=H_102-033) ganz richtig. Was meinst Du was für Chips (http://www.heise.de/newsticker/data/jk-21.03.01-007/) auf den FireGL 2 (http://mirror.ati.com/products/workstation/firegl2/specs.html) bis (http://www.heise.de/newsticker/data/ciw-06.06.00-001/) 4 (http://www.ntsi.com/3d_graphics_cards/Video_Cards/FireGL4_specs.htm) sitzen? ;)
Ailuros
2003-06-27, 07:13:52
Original geschrieben von Richthofen
Macht aber keinen SInn, weil sie ja die Entscheidung NV40 bei IBM nicht erst fällen, wenn der NV36 produziert wird.
Das Tape-Out für den NV40 ist offiziell mal auf Spätsommer angesetzt gewesen, müsste demnach, wenn es jetzt nicht der NV40 war in den nächsten Wochen erfolgen. Der Paperlaunch auf Comdex.
Das Zeitfenster für einen großen Probelauf mit NV36 wäre viel zu klein, zumal man dann nicht eben mal wieder sagen kann NV40 nun doch nicht bei IBM sondern TSMC.
Das macht für mich nun wirklich gar keinen Sinn.
Also für mich ist es entweder:
A) IBM hat TSMC bei den Konditionen unterboten
B) TSMC hat auch weiterhin nur begrenzte Kapazitäten auf dem 0.13 Prozess, so daß Nvidia nun zusätzlich auf IBM ausweicht.
Richthofen,
Du hast bei B3D in einem relevanten thread geantwortet, wobei jemand (kann mich nicht mehr erinnern wer) ein paar Kleinigkeiten ueber die internen von IBM gepostet hat, die sehr nahe an der Realitaet liegen IMO (generell wie sich IBM mit ihren Patenten und Technologie verhaelt).
Im Endeffekt sollte es uns auch egal sein wo NV das Ding fabriziert, sobald es zur programmierten Zeit zu einem erfolgreichen tape out kommt.
Und ja der tape out war meines Wissens fuer etwa Ende August angesetzt.
Ailuros
2003-06-27, 07:16:57
Original geschrieben von robbitop
imho ist es sehr unsicher, dass und ob der NV40 überhaupt bei IBM produztiert wird. Denn wie AiL schon sagte, es wäre ein Risiko und IBM hat noch nicht die Erfahrung in der GPU Produktion
Nein ich stellte nur eine Frage, ob IBM schon Erfahrung mit GPU's derartiger Komplexitaet hat.
Ailuros
2003-06-27, 07:20:24
Original geschrieben von Gast
Trifft die Sache ziemlich gut. Der NV40 kommt also frühestens im März 2004. Etwas später als erwartet, oder?
Wieso? Ich dachte schon seit geraumer Zeit an Q1 2004 und das nicht nur fuer NVIDIA.
Uebrigens was NV40 betrifft, wuerde ich die sogenannten Vorhersager ein bisschen beobachten. Kann sein dass die Wetterberichte (auch ein paar Spezis betreffend) sich doch noch aendern.
Demirug
2003-06-27, 07:24:13
Ich weiss ja nicht was ihr immer mit der fehlenden Erfahrung von IBM im Bereich der GPUs hat. IBM soll die Teile produzieren und nicht designen. IBM bekommt die Beleuchtungsmasken und produziert das ganze. Wenn das Designtool das nVidia benutzt dann in die Chips Hotspots eingebaut hat dann ist das ein Problem von nVidia und nicht von IBM. Wenn der Chip natürlich aufgrund von schlechter Fertigung (Z.B. Schichten passen nicht richtig aufeinander) Leckströme und daduch Hotspots hat dann ist das ein IBM Problem was aber auch nicht GPU spezifisch ist dort aber stärker zum tragen kommt weil es mehr aktive Teile gibt.
Natürlich muss IBM nv bestimmte Daten geben damit man die Tools anpassen kann aber diese Daten unterscheiden sich nicht ob man nun CPUs oder GPUs oder sonst was produziert.
Alles was IBM machen muss ist aus den angelieferten Masken mit möglichst hohem Yield Chips produzieren. Das denoch immer so viele nVidia Leute bei den Foundries rumrennen hängt eher damit zusammen das die benutzten Tools bei Chips dieser grösse sich niemals ganz perfekt anpassen lassen und im Notfall mal schnell jemand die Masken ändern können muss. Es geht eben einfach alles ein bischen schneller wenn nicht ständig der Postweg bemüht werden muss.
Ailuros
2003-06-27, 07:24:21
Original geschrieben von Demirug
Ihr kommt mir hier immer mit Chip-Komplexitaet = Schlechte Yields. Im Prinzip gebe ich euch da ja recht. Aber ist das nicht die Wirkungskette extreme verkürzt?
Eigentlich müsste man ja schreiben:
Hohe Chip-Komplexitaet -> grosser Fläche/Chip -> Schlechte Yields.
Vorallem verursacht durch schlechte Wafer. Fragt mal die Spezialisten von Wacker was sie dafür geben würden wenn sie Siliziumkristale ohne Strukturfehler züchten könnten. Die Foundries würden für solche Wafer sehr gut bezahlen.
Als Faustfomel kann man sagen:
Doppelte DIE Size = doppelter Ausschuss.
In Wrklichkeit steigt der Ausschuss nicht ganz linear zu DIE-Size sondern etwas langsamer weil bei grösseren DIEs ja auch die Wahrscheinlichkeit steigt das zwei Fehler die vorher zwei Chips ruiniert hätte nun nur noch einen killen.
Laien haben immer eine Entschuldigung, wenn sie Sachen viel zu viel vereinfachen. ;)
Demirug
2003-06-27, 07:32:51
Original geschrieben von Ailuros
Laien haben immer eine Entschuldigung, wenn sie Sachen viel zu viel vereinfachen. ;)
Im Land der Blinden ist der Einäugige König. (Nicht böse gemeint) Aber was Fertigungstechnologie angeht war meine Ausbildung alles andere als Vollständig. Ein paar Dinge habe ich dann noch bei einem grossen Deutschen Silizium Verarbeiter aufgechnappt und das was auch schon. Alles in allem würde ich sagen das ich mich dabei auf dem Level des durchaus gefährlichen Halbwissens bewege.
Ailuros
2003-06-27, 09:36:43
Blah ich komme in dem Fall nicht mal an Bruchteile dieses "Halbwissens" ran. Ich lese eben mal gerne herum wenn ich Zeit habe, um ein paar Kleinigkeiten besser zu verstehen. Wenn mal bei mir in einem Satz oder Paragraph ein "ich bin mir sicher..." Ansatz da ist, dann stammt gesagte Sicherheit auch nicht von mir selber, sondern von jemand dessen Aussagen basiert auf seiner Erfahrung auch vertrauen kann. Meistens sollte es "ich schaetze", "ich denke", "ich glaube" usw. heissen; wenn mal das Resultat sich anders interpretieren laesst, dann hab ich wohl einen Post zu schnell eingetippt.
Mir ist nur wichtig dass ich Sachen mal ganz generell und vereinfacht verstehen kann. Waere ich heute ~10-12 Jahre juenger wuerde ich genau wissen was ich studieren wuerde; leider ist es heute viel zu spaet dazu. [/end of nonsensical completely irrelevant drivel] :D
robbitop
2003-06-27, 10:11:27
Ergo:
keiner weiss ob NV40 nun @IBM mit SOI
oder @TSMC @low k produziert wird.
hat man dazu schonmal halboffizielle Aussagen vernehmen dürfen?
@crushinator
in der Produktion ist es nicht unbedingt von Signifikanz, ob es sich nun eine neue Architektur handelt. Es geht ja um die Masken, wenn die in Ordnung sind, dann macht es weniger Probleme. Der NV40 wird eine NV3x Basis haben. Weiterhin verspätete sich der NV30 aus 2 Gründen:
unausgereiftheit des 130nm Fertigungsprozess; nichtverfügbarkeit des low-k Dielectricas und die daurausfolgenden Redesigns des NV30.
Ailuros
2003-06-27, 10:26:55
robbitop,
Auf derartige Fragen garantier ich Dir dass Du sehr schwer eine klare Antwort bekommst, wenn ueberhaupt mal geantwortet wird.
Die paar Kleinigkeiten die ich zur Hand habe, sind in manchen Stellen das absolute Gegenteil was so manche berichten und ich meine jetzt nicht die Foundry oder den Herstellungsprozess.
9 aus 10 Situationen, bekommt man zweideutige oder sehr generelle Infos, wobei man nur raten kann wo und was zustimmt. Es passiert mir oft selber (auch ueberhaupt durch mein begrenztes Wissen) dass ich bei einer gegebenen Antwort glaube dass es nur so sein kann wie ich es mir vorstelle, aber da ich extra Kleinigkeit A oder B nicht weiss oder wissen kann, dann doch auf dem falschen Pfad spekuliere.
Ich schick Dir mal ne PM um das ganze ein bisschen besser zu erklaeren.
seahawk
2003-06-27, 10:58:43
http://www.digitimes.com/NewsShow/Article.asp?datePublish=2003/06/23&pages=01&seq=2
Original geschrieben von robbitop
Weiterhin verspätete sich der NV30 aus 2 Gründen:
unausgereiftheit des 130nm Fertigungsprozess; nichtverfügbarkeit des low-k Dielectricas und die daurausfolgenden Redesigns des NV30.
TSMC trägt nicht alleine die Schuld an der NV30-Verspätung. Nvidia hat mehrmals bestätigt, dass sich der NV30 auch wegen des komplexen Logikdesigns und dem Abzug von Entwicklerressourcen verspätet hat.
And contrary to the rumors mill that the 0.13 micron manufacturing process delayed taping out the GeForceFX, Kirk blamed implementing these 32 processing units: "One of the reasons that NV30 took us so long is that everything top to bottom is 128-bit floating-point."
zeckensack
2003-06-27, 11:13:34
Oi, da hat er sich auch noch in die eigene Tasche gelogen :eyes:
Original geschrieben von ram
TSMC trägt nicht alleine die Schuld an der NV30-Verspätung. Nvidia hat mehrmals bestätigt, dass sich der NV30 auch wegen des komplexen Logikdesigns und dem Abzug von Entwicklerressourcen verspätet hat.
[/QUOTE]
Hä bitte mal einen Link zum kompletten Text
Was immer noch nicht erklärt das es bei ATI auch so läuft
Ailuros
2003-06-27, 13:31:00
http://www.beyond3d.com/forum/viewtopic.php?t=6631
Michael 'O Hara gerade vor einer Woche:
http://www.veracast.com/webcasts/twp/growth-forum-2003/79405386.cfm
Richthofen
2003-06-27, 17:13:13
Original geschrieben von robbitop
Ergo:
keiner weiss ob NV40 nun @IBM mit SOI
oder @TSMC @low k produziert wird.
hat man dazu schonmal halboffizielle Aussagen vernehmen dürfen?
ALso ich bin sehr sicher, dass Harah oder Huang persönlich beim letzten Conference Call oder auf einer der unzähligen Tech Konferenzen an der Wall Street bestätigt hat, dass der nächste HIgh End Chip von IBM kommt.
Ursprünglich war auch nur geplant, das High End Segment zu IBM zu transferieren. Das kann sich mittlerweile wegen der Kapazitätsprobleme bei TSMC schon wieder geändert haben.
Aber das High End bei IBM landen wird, haben sie ziemlich deutlich gesagt. So zumindest hab ich das noch im Ohr. Hab jetzt aber auch keine Lust alle Calls nochmal abzuhören :)
Da die links nur speku sind :)
IBM Vize hat es auch gesagt sie werden ein neues Produkt fertigen und wenn NV einen respine braucht gibt es diesen Chip noch vor Weihnachten und das ist wohl kein nv36 weiter sagte er bräuchten sie 2 respins wäre es unwahrscheinlich das er vor ende des Jahres kommen wird dann erst erstes Quartal.
Ailuros
2003-06-28, 16:07:10
O'Hara in einer offiziellen Presse-Konferenz spekulativ?
Entweder ich hab mich persoenlich verhoert, oder er sagt klipp und klar dass sie mit IBM auf eine Art "testrun" sind und dass dort momentan ein followup Teil fuer die derzeitige Linie gefertigt wird.
Original geschrieben von Ailuros
O'Hara in einer offiziellen Presse-Konferenz spekulativ?
Entweder ich hab mich persoenlich verhoert, oder er sagt klipp und klar dass sie mit IBM auf eine Art "testrun" sind und dass dort momentan ein followup Teil fuer die derzeitige Linie gefertigt wird. Ne hast du nicht aber...
Quasar
2003-06-29, 14:28:56
Original geschrieben von Demirug
Ich weiss ja nicht was ihr immer mit der fehlenden Erfahrung von IBM im Bereich der GPUs hat. IBM soll die Teile produzieren und nicht designen. IBM bekommt die Beleuchtungsmasken und produziert das ganze.
Was ich meinte war, dass sich gute Kenntnisse und Ausbeuten im CPU-Bereich nicht 1:1 auf den GPU-Bereich übertragen lassen, da hier im Endeffekte gänzlich andere Bedingungen herrschen.
Wenn ein Hersteller eine CPU mit 150 Millionen Transistoren in 0,13µ mit gutem Yield fertigen kann, läßt sich daraus mitnichten schließen, dass derselbe Prozess (0,13µ und 0,13µ sind bei verschiedenen Herstellern durchaus unterschiedlich) auch bei GPUs mit ähnlicher Transistorzahl zu ähnlichen Ergebnissen führt.
Nicht mehr und nicht weniger.
edit:
Ansonsten würde ich jedem Grafikchiphersteller mal empfehlen, zu Intel zu gehen. 3000MHz für einen 80 Millionen Transistor-Chip sind doch nicht schlecht...
Demirug
2003-06-29, 14:49:58
Original geschrieben von Quasar
Was ich meinte war, dass sich gute Kenntnisse und Ausbeuten im CPU-Bereich nicht 1:1 auf den GPU-Bereich übertragen lassen, da hier im Endeffekte gänzlich andere Bedingungen herrschen.
Im Prinzip kann man das schon solange man nur die Ausbeute an funktionierenden Chips beachtet. Allerdings hat man bei GPUs derzeit viel weniger Möglichkeiten des Binnings was die Ausbeute an brauchbaren (= verkaufbaren) Chips doch erheblich drückt.
In so fern gebe ich dir recht das man es nicht 1:1 übertragen kann.
Wenn ein Hersteller eine CPU mit 150 Millionen Transistoren in 0,13µ mit gutem Yield fertigen kann, läßt sich daraus mitnichten schließen, dass derselbe Prozess (0,13µ und 0,13µ sind bei verschiedenen Herstellern durchaus unterschiedlich) auch bei GPUs mit ähnlicher Transistorzahl zu ähnlichen Ergebnissen führt.
EDIT: Nicht mehr und nicht weniger.
Ja gleiches Problem wie oben schon erwähnt. Bei GPUs muss man am ende eben viel mehr aussortieren was man wenn es sich um CPUs handelen würde noch verkaufen könnte.
edit:
Ansonsten würde ich jedem Grafikchiphersteller mal empfehlen, zu Intel zu gehen. 3000MHz für einen 80 Millionen Transistor-Chip sind doch nicht schlecht...
... ja nur müsste man dür erst mal ein 3 GHz Design haben das mit 80 M Transitoren auskommt. Taktrate um jeden Preis lohnt einfach nicht wenn man viel logik hat.
Edit: Und dann würde ich noch zu gerne wissen wie viel % der produzierten Chips wirklich die 3 Ghz schaffen.
egdusp
2003-06-29, 15:05:22
Original geschrieben von Demirug
Ja gleiches Problem wie oben schon erwähnt. Bei GPUs muss man am ende eben viel mehr aussortieren was man wenn es sich um CPUs handelen würde noch verkaufen könnte.
Das versteh ich nicht.
Ist bei CPUs etwa die Logik mehrmals vorhanden und defekte Teile werden per microcode abgeschaltet? Möglicherweise die Teile, die zur Hotspotentfernung beitragen, wodurch sich dann auch unterschiedliche Taktungen erklären lassen (einige haben alternierende parallele Einheiten, während andere nur noch eine funktionierende haben).
mfg
egdusp
Demirug
2003-06-29, 15:26:21
Original geschrieben von egdusp
Das versteh ich nicht.
Ist bei CPUs etwa die Logik mehrmals vorhanden und defekte Teile werden per microcode abgeschaltet? Möglicherweise die Teile, die zur Hotspotentfernung beitragen, wodurch sich dann auch unterschiedliche Taktungen erklären lassen (einige haben alternierende parallele Einheiten, während andere nur noch eine funktionierende haben).
mfg
egdusp
Ja teilweise sind einzelne Blöcke auch mal doppelt vorhanden aber darauf wollte ich gar nicht hinaus.
Der erste Punkt ist der aufbaut der Produktpalette. Bei den CPUs ist die Produktpalette im Prinzip immer nur auf maximal 2 Produkte aufgebaut die dann zeitweillig sogar noch den gleichen DIE enthalten. Das heist eine Produktion kann für die ganze Produktpalette benutzt werden. Bei den GPUs müssen sich dagegen nv und ati mit 3 unterschiedlichen Produktionen rumschlagen die jeweils nur für eine kleine Anzahl von Produkten zu benutzten sind. Ein Chip der also funktional Richtig arbeitet aber die Taktrate nicht schafft kann nur weggeworfen oder wenn man genügend davon hat als OEM Sondercharge abgestossen werden.
Der zweite Punkt ist das eine CPU eine sehr grosse Fläche für funktional gleiche Einheiten benutzt wird. Cacheblöcke. Nun ist es zum Beispiel ein gutes mittel wenn man viele Chips durch dotierungsfehler verliert einen dieser Cacheblöcke mehr einzubauen und dem Cachecontroller die möglichkeit zu geben wahlweise einen Block zu deaktivieren. Hat man den Dotierungsfehler dann in einem Cacheblock ist der Chip nicht verloren. Aufgrund des grossen Anteils an Cacheblöcken ist die Wahrscheinlichkeit dort einen Fehler zu haben sehr hoch. Mann kann natürlich auch ohne zusätzlichen Cacheblock im Fehlerfall diese Chips einfach mit weniger Cache verkaufen. Da bei GPUs es aber kaum identische Einheiten gibt ist diese Möglichkeit zur Sicherung des Yields nicht gegeben.
Ailuros
2003-06-29, 17:49:55
Original geschrieben von Gast
Ne hast du nicht aber...
Ja aber...was?
Razor
2003-06-29, 19:41:55
Original geschrieben von Ailuros
Ja aber...was?
Da das die erste Fertigung bei IBM ist, sind Tests (bzw. Testläufe ;-) doch wohl nichts Ungewöhnliches, oder ?
???
Razor
Razor
2003-06-29, 19:42:37
...
mapel110
2003-06-29, 20:43:56
Original geschrieben von Razor
Da das die erste Fertigung bei IBM ist, sind Tests (bzw. Testläufe ;-) doch wohl nichts Ungewöhnliches, oder ?
???
Razor
wohl nicht.
es ist aber falsch, daraus zu schliessen, IBM fertige bald nvidias high end chips.
Ailuros
2003-06-30, 12:23:52
Original geschrieben von Razor
Da das die erste Fertigung bei IBM ist, sind Tests (bzw. Testläufe ;-) doch wohl nichts Ungewöhnliches, oder ?
???
Razor
Nicht wenn es sich um einen Teil der NV3x Linie handelt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.