PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Monsterchips und deren Rentabilität


=Floi=
2008-05-23, 10:39:52
Hallo, oft wurde hier schon geschrieben, dass sich große dice nicht lohnen und oft bewies nv dann das gegenteil. Dieses argument stimmt ja im grunde garnicht, denn nv hat wohl so viel highend (G80) wie lange nichtmehr verkauft und der gewinn litt dadurch ebenfalls nicht.
Die GF3 hatte einen chip mit 144mm² fläche (12mm seitenlänge) und der G200 wird 576mm² (24mm seitenlänge) chipfläche haben. Das entspricht einer vervierfachung der chipfläche! Ich glaube, wenn man die produkte entsprechend teuer verkaufen kann, wird man auch hier noch eine kleine steigerung sehen. Es ist auch faszinierend, was alles möglich ist und wie bei jeder generation diese grenze weiter verschoben wird

Ich lasse amd hier mal aus, da deren architektur und chip wesentlich weniger platz braucht

Gandharva
2008-05-23, 10:54:09
Die fetten Margen werden nicht mit den fetten Chips eingefahren. Dort wo der Rubel richtig rollt hat NV gar nicht mal sooo grosse Chips ;)

Die_Allianz
2008-05-23, 11:04:41
ich denke nV wird mit ihren Monsterchips evtl. wirklich weniger verdienen als mit Performance oder darunter (ich meine geringere Marge).
ABER:
die verkaufen ihr High-End sicher nicht ohne Gewinn, und wenn man (G80) dann 1,5 Jahre das einzige High-End-Produkt anbietet, verdient man natürlich auch damit gut

mapel110
2008-05-23, 11:09:42
In der Regel sind gerade im High End Bereich die Margen groß. Ich glaub, wir kleinen Unwissenden können das gar nicht beurteilen. Es spielt ja nicht nur die Größe des Chips eine Rolle, sondern wie gut die Ausbeute ist usw...

Erinnert mich immer wieder an die tollen Statements hier ala "Also xy Mio Transistoren halte ich für ausgeschlossen bei dem Fertigungsprozess"
Und was taucht dann einige Monate später auf?! Richtig! 2 mal xy Mio Transistoren bei dem Fertigungsprozess...

Gast
2008-05-23, 11:10:10
Ich weiss nicht wo du diesen Blödsinn TS aufgeschnappt hast. Wahrscheinlich hier in Forum? Highend Chips und Highend Karten haben höchste Gewinnmargen überhaupt.

Adam D.
2008-05-23, 13:40:01
Ich weiss nicht wo du diesen Blödsinn TS aufgeschnappt hast. Wahrscheinlich hier in Forum? Highend Chips und Highend Karten haben höchste Gewinnmargen überhaupt.
Heißt aber noch lange nicht, dass man damit sein Geld verdient. Wenn ich aus Karte A 300$ Gewinn ziehe, aber nur auf Verkaufszahlen von 2% einer Karte B (50$ Gewinn) komme, hat man halt auch nicht so viel davon.
Laut aktuellen Spekulationen sieht es ja so aus, als wäre der G200 (und seinen daraus folgenden Refreshs) der letzte Monster-Die. Für ATi ist der Zug da eh schon abgefahren.

Gast
2008-05-23, 18:08:04
Ich weiss nicht wo du diesen Blödsinn TS aufgeschnappt hast. Wahrscheinlich hier in Forum? Highend Chips und Highend Karten haben höchste Gewinnmargen überhaupt.


deswegen greift intel auch die meist kohle ab nech :rolleyes:

Gast
2008-05-23, 22:45:34
deswegen greift intel auch die meist kohle ab nech :rolleyes:

bei grafikkarten? nein, da hat intel nur hohe stückzahlen aber nicht hohe umsätze.

Neocroth
2008-05-26, 15:12:00
die Margen sind gerade im High-End-Bereich sehr hoch, aber prinzipiell stimmt es, das große Dice eher unrentabel sind, da
1. weniger potentielle Dice aus dem Wafer zu holen sind,
2. der Verschnitt größer wird (die Ränder des Wafers werden mit steigender Größe schlechter nutzbar) und
3. der Yield, die praktische Ausbeute bei größeren Dice immer niedriger wird.

zum GeForce 3 lässt sich sagen, dass dieser zum Beispiel auf einem 200mm Wafer gefertigt wurde (meines Wissens bis zum GeForce FX) - TSMC arbeitet heute mit 300mm Wafern, also ist es hier schon mal möglich, größere Chips billiger zu produzieren.

Die Margen mögen im Highend-Bereich die höchsten sein, aber das Problem ist hierbei, dass in der Summe aller verkauften Chips die Highend-Produkte nun mal die Minderheit ist und das wirkliche Geld in der Masse gemacht wird - also Mainstream-Produkte, welche niedrigpreisiger angesiedelt sind, die Margen natürlich geringer sind, aber durch die Masse verkaufter Chips Gewinn eingefahren wird.

Was mich wirklich wundert, ist allerdings, warum nVidia den G200 nicht mit 55nm produzieren lässt. Ich weiß, dass nV mit "neuen" Fertigungsprozessen eher vorsichtig ist, aber TSMC hat ja durch die Fertigung der RV670 bereits Erfahrungen mit 55nm gesammelt. Hätte ich bei nVidia in dieser Hinsicht was zu melden, ich würde definitiv auf 55nm setzen - höhere Ausbeute, niedrigere Leckströme, daraus resultierend weniger Stromverbrauch und so weiter... die üblichen Bekannten halt.

Gast
2008-05-26, 17:02:58
Hätte ich bei nVidia in dieser Hinsicht was zu melden, ich würde definitiv auf 55nm setzen - höhere Ausbeute, niedrigere Leckströme, daraus resultierend weniger Stromverbrauch und so weiter... die üblichen Bekannten halt.

wenn man insbesonders jene ATI-chips ansieht die es sowohl in 65 als auch in 55nm gibt, scheint es mir eher so als wäre der einzige vorteil von 55nm die minimal geringere größe.

leckströme nehmen bei kleineren fertigungsverfahren zu und auch der reale stromverbrauch konnte mit 55nm nicht gesenkt werden.

Neocroth
2008-05-26, 18:17:38
wenn man insbesonders jene ATI-chips ansieht die es sowohl in 65 als auch in 55nm gibt, scheint es mir eher so als wäre der einzige vorteil von 55nm die minimal geringere größe.

leckströme nehmen bei kleineren fertigungsverfahren zu und auch der reale stromverbrauch konnte mit 55nm nicht gesenkt werden.

Du hast natürlich Recht, die Leckströme, die durch das Gate fließen, steigen bei kleineren Fertigungsstrukturen. Ich meinte eigentlich niedrigerer Strombedarf, keine Ahnung, wie ich auf Leckströme kam - danke für die Korrektur :smile:

Selbst wenn nur die Größe bliebe - das wäre immer noch ein wesentlicher Grund, gerade bei so einem Monster von einem Die eine kleinere Struktur einzusetzen.

Gast
2008-05-26, 18:34:03
Selbst wenn nur die Größe bliebe - das wäre immer noch ein wesentlicher Grund, gerade bei so einem Monster von einem Die eine kleinere Struktur einzusetzen.

nicht unbedingt, kleinere chip heißt auch schwerer zu kühlen.

vor allem hängt es aber davon ab wie sehr man den prozess im griff hat. wenn man nun 2-3Monate länger braucht und deutlich mehr investieren muss um den prozess in griff zu bekommen zahlt sich das bischen an eingespartem material einfach nicht aus.

ATI ist mit der taktik ja schon einige male leicht und manchmal grob auf die schnauze gefallen, nvidia in vergangenen tagen ebenfalls.

nur weil der prozess bei ATI gut funktioniert, heißt das noch lange nicht dass er auch bei NV funktioniert, vor allem da der nächste NV-chip wohl mindestens um 50% größer als der aktuelle ati-chip ist

BlackBirdSR
2008-05-26, 18:43:25
Selbst wenn nur die Größe bliebe - das wäre immer noch ein wesentlicher Grund, gerade bei so einem Monster von einem Die eine kleinere Struktur einzusetzen.

Wobei du das gegeneinenader aufwiegen musst. Kleinere Chips trotz hoher Komplexität bedeutet aufwändigeres Routing, häufigere Probleme mit Anschlusspads und potentiell noch unausgereifte Charakteristika im Prozess.
Wenn die Nachfrage absehbar gering ist (d.h man setzt den Preis hoch genug an), ist selbst ein "Monster-Chip" rentabel. Und schließlich herrscht immernoch das eine Prinzip vor: "Gewinnst du mit einer High-End-Karte alle Benchmarks, verkaufen sich kleinere Modelle davon schon fast alleine".

PS: Wärme entsteht im AISC nicht homogen.

Neocroth
2008-05-26, 20:04:50
Und schließlich herrscht immernoch das eine Prinzip vor: "Gewinnst du mit einer High-End-Karte alle Benchmarks, verkaufen sich kleinere Modelle davon schon fast alleine".


Ein wahres Wort. Die Performance-Krone ist immer noch gute und einfache Werbung.

Gast
2008-05-26, 20:22:32
Die Performance-Krone ist immer noch gute und einfache Werbung.

gute ja, einfach würde ich nicht gerade sagen ;)

Neocroth
2008-05-26, 20:28:00
gute ja, einfach würde ich nicht gerade sagen ;)

Einfach im Sinne von "Weniger Aufwand für die Marketing-Abteilung" ;)

robbitop@work
2008-05-27, 08:49:55
Der Vollausbau der GPUs (also Highest-End) erwirtschaftet pro Produkt recht hohe Margen. Schließlich sind die Dinger trotz hoher Produktionskosten auch überdimensional teuer. Natürlich nahm die Gewinnmarge seit der GF3 in diesem Bereich ab. Das kann man schon so sagen. Der Kaufpreis war ja der gleiche.
Allerdings sind die Gewinne aus diesem Markt sowieso nicht soo hoch. Vielmehr nutzt man diesen Bereich als Meinungs-Multiplikator. Schließlich gehen massenhaft Samples durch die Presse. Wer den längsten Balken hat, hat die größte Werbewirksamkeit. Die Umsätze des restlichen Portfolios sind davon entscheident abhängig. Schaut euch mal AMD an. Die Umsätze sind in den letzten Jahren eingebrochen. Auch im Low-Cost und Mainstreamsegment. Obwohl sie in diesen Märkten sehr gute Produkte haben. Aber das Highest-End Modell überzeugt nicht mehr, also wird bei der Konkurrenz gekauft. So sind die Massen nunmal.

Dass die Highest-End-Chips über Moores Law hinausschiessen ist von vielen allerdings korrekt erkannt worden. Das kam vermutlich von dem heißen Konkurrenzkampf, der über Jahre loderte. Und natürlich wollte man ständig eine Leistungsverdopplung trotz kostenreicher neuen Featuresets die zusätzlich hinzukamen.