Archiv verlassen und diese Seite im Standarddesign anzeigen : IBM hat Probleme bie der Chip fertigung für NV
Godmode
2004-02-13, 15:36:04
Poor results from Big Blue so far
By INQUIRER staff: Freitag 13 Februar 2004, 08:39
DIFFICULTIES IN translating Nvidia and other chip makers' designs into silicon has caused the graphics giant to shift production back to TSMC, Digitimes is reporting.
(See IBM foundry customers suffer feeble first silicon results).
Earlier this week, IBM was reported as saying that its success rate in making chips in its role as a foundry was only five per cent.
Xilinx is also dissatisfied with production runs made by IBM Microelectronics. While Nvidia will continue to trial Big Blue for its chips, the wire reports that both it and Xilinx are looking for additional capacity from other foundries. µ
Also 5% ist ja schon verdammt wenig, wisst ihr ob Nvidia fertie Wafer bezahlen muss, oder gefertigten funktionierenen Chip? Werden sie dann den NV40 doch wieder bei TSMC machen lassen?
Tigerchen
2004-02-13, 15:42:08
So viel ich weiß hat nVIDIA das seltene Privileg nur funktionierende Chips bezahlen zu müßen.
IBM verkauft fertige chips, keine ganzen wafer. Bei 5% Produktionsausbeute werden die chips aber sicher nicht billig werden.
Original geschrieben von bans3i
Poor results from Big Blue so far
By INQUIRER staff: Freitag 13 Februar 2004, 08:39
DIFFICULTIES IN translating Nvidia and other chip makers' designs into silicon has caused the graphics giant to shift production back to TSMC, Digitimes is reporting.
(See IBM foundry customers suffer feeble first silicon results).
Earlier this week, IBM was reported as saying that its success rate in making chips in its role as a foundry was only five per cent.
Xilinx is also dissatisfied with production runs made by IBM Microelectronics. While Nvidia will continue to trial Big Blue for its chips, the wire reports that both it and Xilinx are looking for additional capacity from other foundries. µ
Also 5% ist ja schon verdammt wenig, wisst ihr ob Nvidia fertie Wafer bezahlen muss, oder gefertigten funktionierenen Chip? Werden sie dann den NV40 doch wieder bei TSMC machen lassen?
Nvidia zahlt pro lauffähigem Chip. Natürlich ist bei einem solchen Modell der Chippreis etwas höher alles in allem dürfte es aber ein wenig günstiger für den Kunden sein als bei dem Bezahlmodell pro Wafer.
So ganz nachvollziehen kann ich den Bericht aber nicht. Nvidias Marge bei Chips ist im Vergleich zum letzten Quartal erheblich gestiegen. Bei schlechter Ausbeute wäre das nicht möglich.
Der NV40 wird bei IBM gefertigt.
haifisch1896
2004-02-13, 17:13:44
Aber die Marge da wurde ja nicht mit dem NV40 erzielt...
In der Serienproduktion dürften die Ausbeute im zweistelligen Prozentberiech liegen.;)
robbitop
2004-02-13, 18:15:57
vor ein paar Monaten gab es mal eine ähnliche News bei theinquirer. NVIDIA und Xiliinx seien unzufrieden und swappen zu TSMC. War damals schwachsinn.
NVIDIA sprach in höchsten Tönen von der NV36 Ausbeute und der Reaktionszeit seitens IBM...ich bin skeptisch was diese Meldung angeht
Selbst wenn die Preise für NV nicht in astronomische Höhen schnellen sollten, wie wollte man dann den Markt mit lauffähigen Chips bedienen?
Original geschrieben von Gast
Selbst wenn die Preise für NV nicht in astronomische Höhen schnellen sollten, wie wollte man dann den Markt mit lauffähigen Chips bedienen?
Steht das denn fest? Ich bezweifle, dass sich die Ausbeute auf finales Silizium bezieht(falls wirklich was dran ist;)).
Original geschrieben von hendrikhey
Aber die Marge da wurde ja nicht mit dem NV40 erzielt...
Das ist richtig aber es war auch noch nie davon die Rede, dass der NV40 zum Launch in 0.11 gefertigt wird und davon reden die da bei Digitimes.
Der NV40 soll noch 0.13 sein, wenn sich das nicht schon wieder geändert hat und der wird definitiv von IBM kommen. Das war gestern nochmal zu hören.
Der Report damals hatte sich wie Robitropp schon andeutete auch als Käse herausgestellt.
Also ich bin da vorsichtig. Momentan deutet gar nichts darauf hin, was diesen Report belegt.
Das aktuelle Ergebnis vom 4. Quartal spricht da eine andere Sprache zumindest mal was die Marge angeht.
Die 90 Mio weniger xbox Umsatz saisonal bedingt, sind natürlich schwer aufzufangen aber anscheinend gings ja doch ganz gut.
Daß auf so ein Gerücht überhaupt noch wer anspringt?
NVidia konnte eigentlich nichts Besseres passieren, als IBM. IBM steht schon immer als Synonym für hochwertigste, aber auch für hochpreisige Produkte.
Ich bin ganz happy, daß der Chip für den NV40 von IBM geliefert wird, da ich mir schon Anfang letzten Jahres vorgenommen habe, meine nächtse Graka kommt von nVidia und trägt den NV40 auf sich. =)
betasilie
2004-02-13, 23:14:56
Also ich halte die Situation nicht für unmöglich. Der NV36 mag zwar gut bei IBM von Band gehen, aber der NV36 ist halt kein NV40 und dementsprechend könnte IBM schon irgendwelche Probleme haben, wenn der Chip viel größer ist und schneller takten soll.
Für nVidia wäre das aber ein mehrfacher Nachteil, denn TSMC wird ATI schon einen Großteil der Produktionsrecourcen versprochen haben für die R4xx-Produktion. nVidia wird daher tief in die Tasche greifen müssen und auch nicht die gewohnte Aufmerksam bekommen.
Original geschrieben von kmf
NVidia konnte eigentlich nichts Besseres passieren, als IBM. IBM steht schon immer als Synonym für hochwertigste, aber auch für hochpreisige Produkte.
Entschuldige bitte, aber was ist das für unsachliches Zeug? Wofür IBM in deinen Augen steht ist eine Sache, nur hat das nichts mit Probleme in der Chipfertigung zu tun.
Original geschrieben von kmf
Ich bin ganz happy, daß der Chip für den NV40 von IBM geliefert wird, da ich mir schon Anfang letzten Jahres vorgenommen habe, meine nächtse Graka kommt von nVidia und trägt den NV40 auf sich. =)
:bonk: Aha, Du bist also froh, dass der Chip ein "hochqualitäts" Produkt von IBM ist? Worin unterscheidet sich denn ein NV40, wenn er von TSMC gefertigt würde? :|
LovesuckZ
2004-02-13, 23:26:34
Original geschrieben von betareverse
Für nVidia wäre das aber ein mehrfacher Nachteil, denn TSMC wird ATI schon einen Großteil der Produktionsrecourcen versprochen haben für die R4xx-Produktion. nVidia wird daher tief in die Tasche greifen müssen und auch nicht die gewohnte Aufmerksam bekommen.
Das weißt du woher?
Original geschrieben von kmf
Daß auf so ein Gerücht überhaupt noch wer anspringt?
NVidia konnte eigentlich nichts Besseres passieren, als IBM. IBM steht schon immer als Synonym für hochwertigste, aber auch für hochpreisige Produkte.
Ich bin ganz happy, daß der Chip für den NV40 von IBM geliefert wird, da ich mir schon Anfang letzten Jahres vorgenommen habe, meine nächtse Graka kommt von nVidia und trägt den NV40 auf sich. =)
Super - Optimist!
Du hast wohl die gesamte Presse über NV3x dieses Jahr verpaßt. Wenn überhaupt macht nur der NV45 SINN, da ab diesem Chip 24-Bit DX-9 unterstützt wird.
Original geschrieben von LovesuckZ
Das weißt du woher?
Er weiß gar nix.
Beide Chiphersteller sind im Vergleich zu NOKIA & co. kleine Nummern und stehen hinten an.
[SIZE=1]Original geschrieben von betareverse
Also ich halte die Situation nicht für unmöglich. Der NV36 mag zwar gut bei IBM von Band gehen, aber der NV36 ist halt kein NV40 und dementsprechend könnte IBM schon irgendwelche Probleme haben, wenn der Chip viel größer ist und schneller takten soll.
Das ist richtig aber der NV36 geht besser von Band als das Mainstreamzeug bei TSMC. Insofern kann man hier schon vorsichtige Vorhersagen treffen, zumal bei IBM die Möglichkeit des SOI Einsatzes besteht.
Für nVidia wäre das aber ein mehrfacher Nachteil, denn TSMC wird ATI schon einen Großteil der Produktionsrecourcen versprochen haben für die R4xx-Produktion. nVidia wird daher tief in die Tasche greifen müssen und auch nicht die gewohnte Aufmerksam bekommen.
Das kann ich mir nun gar nicht vorstellen. Bei dem geringen Volumen, den die High End Chips ausmachen sollte Kapazität kein Problem sein. Schon gar nicht, weil beide auf alt bewährtes setzen - nämlich 0.13.
Außerdem ist Nvidia nach wie vor ein verdammt großer Kunde bei TSMC auch nach der NV36 Produktion bei IBM. Immerhin werden dort noch GF4MX, NV34 und NV31 sowie die Go Varianten + nForce Chips dort gefertigt. Bei UMC dem direkten Konkurenten zu TSMC lässt Nvidia nur recht wenig fertigen, ganz im Gegensatz zu ATI. Also von der Persepektive aus, wird es da keine Steine geben. Der einzige Stein ist, dass die Prozesse unterschiedlich sind und man nicht mal eben die FAB bzw. die Foundry für ein Design wechseln kann.
Ailuros
2004-02-14, 00:27:44
Aha, Du bist also froh, dass der Chip ein "hochqualitäts" Produkt von IBM ist? Worin unterscheidet sich denn ein NV40, wenn er von TSMC gefertigt würde?
ROFL :D
Zur zweiten Frage: In gar nichts.
Original geschrieben von Gast
Er weiß gar nix.
Beide Chiphersteller sind im Vergleich zu NOKIA & co. kleine Nummern und stehen hinten an.
Kleine Nummern? Du weißt aber schon, dass NVidia jährlich achtstellige Stückzahlen bei TSMC fertigen lässt? Dürften mittlerweile weit über 50 Mio. Chips im Jahr sein. Dazu zählen GPUs zu den komplexesten Designs und nutzen die neuesten Fertigungsprozesse. Ich glaube nicht, dass bei TSMC für NVidia keine Kapazitäten bereitstehen würden.
Demirug
2004-02-14, 07:25:59
Original geschrieben von Gast
Super - Optimist!
Du hast wohl die gesamte Presse über NV3x dieses Jahr verpaßt. Wenn überhaupt macht nur der NV45 SINN, da ab diesem Chip 24-Bit DX-9 unterstützt wird.
WSas ist 24 Bit DX9? Ich habe hier nur eine 32 Bit Version für x86 CPUs und eine 64Bit Version für x86-64.
Original geschrieben von Demirug
WSas ist 24 Bit DX9? Ich habe hier nur eine 32 Bit Version für x86 CPUs und eine 64Bit Version für x86-64.
Vermutlich ist FP24 gemeint:spock: Bei einem Refresh:schlag:
Demirug
2004-02-14, 08:46:35
Original geschrieben von Gast
Vermutlich ist FP24 gemeint:spock: Bei einem Refresh:schlag:
Das würde wirklich wenig Sinn machen. Interesanter ist da schon eher die Frage wann lässt nVidia FP16 fallen.
Original geschrieben von Demirug
Das würde wirklich wenig Sinn machen. Interesanter ist da schon eher die Frage wann lässt nVidia FP16 fallen. Vielleicht wenn sie verglichen mit FP24 vernünftige Performance bieten?:kratz: FP24 macht an sich keinen Sinn jedoch ist es DX Standart, den ATI nutzt und daher bessere Performance bei Einhaltung der Mindestqualität liefert. Und für 99% aller "informierten" Kunden zählt nur, welcher Wert vor dem fps steht.:down:
Demirug
2004-02-14, 10:41:06
Original geschrieben von Gast
Vielleicht wenn sie verglichen mit FP24 vernünftige Performance bieten?:kratz: FP24 macht an sich keinen Sinn jedoch ist es DX Standart, den ATI nutzt und daher bessere Performance bei Einhaltung der Mindestqualität liefert. Und für 99% aller "informierten" Kunden zählt nur, welcher Wert vor dem fps steht.:down:
Das Performanceproblem von nVidia hat direkt nichts mit den FP32 zu tun. nVidia sind schlicht und ergreifend die Transitoren ausgegangen um ihr PS 2.X Design mit vernüftiger Geschwindigkeit zu implementieren und dann hat ihnen MS auch noch in die Suppe gespuckt. Sowas nennt man Pech.
Sicherlich hätte man mit FP24 eine Menge Transitoren sparen können. Nur war es zu dem Zeitpunkt als nVidia angefangen hat die NV3X Familie zu entwerfen noch gar kein DX-Standard. In dem DX9 Entwurf den es zu diesem Zeitpunkt gab war noch nicht festgelegt was den nun genau verlangt würde. Es gibt für den DX Standard einen einfache Regel. Der technisch schwächste Chip einer Generation hat den meisten Einfluss auf die Minimalforderungen. Die stärken Chips dürfen Optionen beisteuern. Natürlich kann dabei durchaus in jedem Bereich ein anderer Chip die jeweilge Rolle einnehmen. Hätte ATI jetzt im R300 zum Beispiel FP22 benutzt dann wäre FP22 heute DX9 Standard.
Zudem kann nVidia auch gar nicht mehr zurück. Für mehr als eine OpenGL Extension ist festgelegt das mit FP32 gerechnet wird. Sie müsste also nach wie vor mindestens ein FP32 Rechenwerk haben oder die Kompatibilität zu den "alten" Chips aufgeben.
robbitop
2004-02-14, 11:21:34
Ich sagte nicht, daß das Gerücht falsch ist, sondern habe lediglich meine Skepsis dem ggü betont. Letztes Mal wars eben auch falsch.
Wenn IBM mit dem NV40 Probleme hätte, würde nVIDIA deswegen trotzdem nicht zu TSMC gehen und dort den NV40 fertigen lassen. Soetwas benötigt ein neues Tapeout und etliche Vorbereitungen, das kann schonmal ein paar Monate Verzögerung bedeuten. Ein Foundrywechsel halte ich für unsinnig.
Nachteil zu TSMC: man beherrscht kein serienreifes low-k Dielectric im 130nm Prozess (SiLK), TSMC aber schon (Black Diamond). Was den NV36 betrifft, war IBM jedenfalls auf Anhieb eine sehr positive Erfahrung für nVIDIA, was ich bisher hörte.
Zu IBMs "Möglichkeiten": SOI, 110nm, Strained Silicon usw.
Sind allerdings zu teuer und vermutlich auch nicht für einen 175Mio Transistorchip serienreif.
Ich vermute 130nm mit FSG als Dielectrikum.
Ailuros
2004-02-14, 11:30:30
Ein Foundrywechsel halte ich für unsinnig.
Es wuerde mehr als 6 Monate in extra Zeit kosten um zur Massen-Produktion zu kommen und waere eher katastrophal.
Godmode
2004-02-14, 11:38:06
Original geschrieben von Gast
Super - Optimist!
Du hast wohl die gesamte Presse über NV3x dieses Jahr verpaßt. Wenn überhaupt macht nur der NV45 SINN, da ab diesem Chip 24-Bit DX-9 unterstützt wird.
Wer sagt den das sie nicht mit dem NV40 schon FP24 unterstützen?? Steht das irgendwo geschreiben welche Modi zum Einsatz kommen werden?
Original geschrieben von bans3i
Wer sagt den das sie nicht mit dem NV40 schon FP24 unterstützen?? Steht das irgendwo geschreiben welche Modi zum Einsatz kommen werden?
NVidia wird nie FP24 unterstützen. Wie Demirug schon sagte, sie können gar nicht mehr zurück. Und wenn man schon FP32 unterstützt, macht FP24 keinen Sinn mehr, denn dann spart man nichts mehr dabei.
NV4x wird wohl FP32, FP16 und FX16 bieten.
robbitop
2004-02-14, 15:36:39
wieso bist du dir bei FX16 so sicher?
Original geschrieben von robbitop
wieso bist du dir bei FX16 so sicher?
Bin ich nicht, deswegen das wohl. FP16 und FP32 sind sicher.
robbitop
2004-02-14, 17:33:24
damit gehe ich konform
Demirug
2004-02-14, 17:48:20
FX16 macht nur Sinn wenn nVidia nach wie vor ein Temp-Register File Problem befürchtet.
betasilie
2004-02-14, 17:51:24
Original geschrieben von LovesuckZ
Das weißt du woher?
Das ist lediglich pure Spekulation meinerseits und da wir im Spekulationsforum sind, ist das ja gestattet.
Wenn NV TSMC den Rücken kehren wollte, ATI sicherlich sehr große Stückzahlen ihrer GPUs bei TSMC in 2004 produzieren lassen möchte und NV dann plötzlich wieder zu TSMC zurrück will, weil der neue Partner Schwierigkeiten hat, obwohl die 0.13µ-Fertigungsanlagen für GPUs ziemlich ausgebucht sein dürften, dann wäre es nicht verwunderlich, wenn sich TSMC so eine kurzfristige Buchung der Produktionsstraßen teurer bezahlen ließe, als sonst üblich.
NVidia lässt immer noch sehr viel bei TSMC fertigen, und hat das auch weiterhin vor. ATI lässt ja auch Chips bei UMC fertigen, spielt TSMC deswegen beleidigte Leberwurst?
betasilie
2004-02-14, 18:26:45
Original geschrieben von Xmas
NVidia lässt immer noch sehr viel bei TSMC fertigen, und hat das auch weiterhin vor. ATI lässt ja auch Chips bei UMC fertigen, spielt TSMC deswegen beleidigte Leberwurst?
Bei den Highend-GPUs hat sich der komplette Wechsel zu IBM angedeutet. Wie es bei den "kleineren" Chips aussieht ist eine ganz andere Sache. TSMC wird sich also auf ATI als Hauptpartner in diesem Segment konzentriert haben und dementsprechend werden die Proritäten jetzt imho auch verteilt sein.
... Das ist doch ganz natürlich. Wenn ich ein Unternehmen führe und ein langjähriger Partner will zur Konkurrenz wechseln, dann werde ich doch dementsprechend meine Aufmerksamkeit auf neue Auftraggeber richten. Wenn dann der alte Partner wieder zurrück will, weil die Konkurrenz ihre Zusagen nicht halten konnte, werde ich doch sicherlich die neu gewonnen Kunden, die ein ähnliches Auftragsvolumen (ggf. sogar ein größeres) bedeuten, sich nicht einfach wieder hinten anstellen lassen. Für mich würde das bedeuten, dass ich eine viel stärkere Verhandlungsposition habe gegenüber dem "Fremdgeher" und diese würde ich sicherlich nutzen.
TSMC wird das sicherlich nicht anders handhaben; die sind doch nicht die Caritas.
ATI lässt außerdem bei UMC nur die LowendChips produzieren, afair. Das sind dann auch wieder zwei paar Schuhe.
robbitop
2004-02-14, 19:07:14
man sollte jedoch nicht vergessen, dass es die low cost und dann die midrange chips sind, mit denen die Firmen das meiste Geld verdienen und diese werden auch in deutlich größerer stückzahl produziert als HighEnd.
Letzteres ist vom Marktanteil kaum relevant und dient vorrangig als "Aushangsschild".
Es geht einfach darum, daß sich Firmen nicht nur an einen Lieferanten binden wollen. Mehr steckt nicht dahinter und üblich in der Industrie ist dieses Vorgehen ohnehin.
Ich glaube nicht, daß IBM in Zukunft alleinig die HighEnd-chips fertigen wird.
robbitop
2004-02-14, 22:09:52
IBM ist teuer das sollte man im Hinterkopf bewahren. Für HighEnd Chips ok, da man hier so wenig Risiko wie möglich will und kurze Reaktionszeit von der Foundry.
Der NV36 wurde lediglich aus Testzwecken dort gefertigt.
Ich halte es für sehr wahrscheinlich, daß es bei der HighEnd Fertigung bleiben wird.
betasilie
2004-02-14, 23:05:53
Man sollte das Konsolengeschäft nicht ganz vergeesen, denn dort werden Highendchips in relativ großen Mengen gebraucht. Sowas kann auch ein Faktor sein, der nV tangiert, wobei ich natürlich nicht weiß, ob nV wirklich mit Sony zusammen an einer GPU für die PS3 arbeitet. Sollte sich dieses Gerücht bestätigen, wäre die Zusammenarbeit mit IBM noch logischer.
Original geschrieben von Gast
Super - Optimist!
Du hast wohl die gesamte Presse über NV3x dieses Jahr verpaßt. Wenn überhaupt macht nur der NV45 SINN, da ab diesem Chip 24-Bit DX-9 unterstützt wird. Unsinn.
Es gibt so viel in der CineFX-Technik, die (zum Glück) mit FP32 rechnet. Mit dem R500 wird auch ATI auf FP32 einschwenken.
Ailuros
2004-02-14, 23:15:46
Man sollte das Konsolengeschäft nicht ganz vergeesen, denn dort werden Highendchips in relativ großen Mengen gebraucht. Sowas kann auch ein Faktor sein, der nV tangiert, wobei ich natürlich nicht weiß, ob nV wirklich mit Sony zusammen an einer GPU für die PS3 arbeitet. Sollte sich dieses Gerücht bestätigen, wäre die Zusammenarbeit mit IBM noch logischer.
17.08.2003
<snip>
...and not having a console as a distraction means we can focus harder on making the best desktop card possible.
;)
robbitop
2004-02-14, 23:32:16
hätte mich auch gewundert ;)
betasilie
2004-02-15, 01:40:18
Original geschrieben von Ailuros
17.08.2003
<snip>
;)
Ok, das hat sich dann scheinbar erledigt. :)
Tyler_Durden
2004-02-15, 09:56:40
Denke mal Sony wird den Grafikchip wieder selber entwickeln!
So war es bei der PS2 auch und den hat man ja relativ gut hinbekommen, bis auf den mageren Texturspeicher!
Oder Cell wird die Grafikausgabe mit übernehmen! Bei der bisher "geschätzten" Leistung sollte das sogar möglich sein!
egdusp
2004-02-15, 12:35:53
Original geschrieben von Tyler_Durden
Oder Cell wird die Grafikausgabe mit übernehmen! Bei der bisher "geschätzten" Leistung sollte das sogar möglich sein!
Möglich schon, aber sinnvoll?
Nun ja, ich weiß zu wenig über Cell, aber je mehr die GPUs flexibel werden, desto eher scheint es machbar, dass auch unspezialisierte Parallelchips Grafikberechnung hinbekommen. Die Frage ist nur, ob die Mehrkosten durch die zusätzlichen Cell Chips die Mehrkosten der Entwicklung und Fertigung des zusätzlichen Grafikchips kompensieren würden. Ebenfalls zu beachten ist die Komplexität der Programmierung.
@Topic:
Was haltet ihr von der Aussage des NV CEOs auf dem Conference Call, dass "Low-K not suited for high volume production at this time" (www.nvnews.net)? Der RV350 wird ja bereits in Low-K gefertigt und ist ein Massenprodukt.
mfg
egdusp
Godmode
2004-02-15, 13:57:13
Ich würd mal sagen Nvidia meint das es vielleicht für so große Chips nicht geeignet ist, der rv350 ist ja ein kleiner chip 80mio Transis glaube ich wenn ich mich nicht irre. Aber sie wollen sicherlicht nicht zugeben das eine Technologie des Konkurenten gut ist, das ist einfach so.
robbitop
2004-02-15, 14:35:37
75Mio Transistoren ;)
man hats damals mit dem NV30 probiert und ist ins Wasser gefalln. Seit dem ist man eher vorsichtig und wil das Risiko minimieren. Außerdem beherrscht IBM lowK wohl noch nicht gut genug um beim NV40 zum Einsatz zu kommen.
betasilie
2004-02-15, 17:19:02
Original geschrieben von Tyler_Durden
Denke mal Sony wird den Grafikchip wieder selber entwickeln!
So war es bei der PS2 auch und den hat man ja relativ gut hinbekommen, bis auf den mageren Texturspeicher!
Oder Cell wird die Grafikausgabe mit übernehmen! Bei der bisher "geschätzten" Leistung sollte das sogar möglich sein!
Klar will/wollte Sony das selber machen. Scheinbar werden die eigentlich geplanten Technologien für die PS3 aber 2 Jahre später serienreif. Von daher ist/war so ein Deal mit nV möglich, damit man M$ den Markt nicht zu lange alleine überlassen muss.
Godmode
2004-02-16, 13:17:16
Weiss man eigentlich von der Phantom-Konsole schon näheres?? da habens sie ja auch gesagt das die GPU von NV kommt?
betasilie
2004-02-17, 01:25:15
Original geschrieben von bans3i
Weiss man eigentlich von der Phantom-Konsole schon näheres?? da habens sie ja auch gesagt das die GPU von NV kommt?
Nun ja, selbst wenn dieses Phantom irgendwann mal kommt, halte ich einen Erfolg für unwahrscheinlich und somit auch die Möglichkeit für nV große Kontingente auf diesen Wege zu verkaufen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.