PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 1. August 2021


Leonidas
2021-08-01, 17:29:47
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1-august-2021

bloodflash
2021-08-01, 18:04:42
Finde die Verkaufszahlentabelle maximal missverständlich.
Sieht so aus, als ob komplette Quartale mit einer einzigen Woche verglichen werden.

Leonidas
2021-08-01, 18:43:39
Mmh. Also bei den Prozentwerten und dem ASP trifft dies ja zu. Bei den Absolutwerten steht doch aber dran "pro Monat" ... was ist daran mißverständlich. Krass unterschiedliche Zeiträume werde ich mit Absolutwerten doch sowieso niemals vergleichen.

PS: Ich fettschrifte das "pro Monat" mal.

davidzo
2021-08-01, 20:19:42
Ist das wirklich eine News wert?


AMD hat bisher keine Midrangekarten gelauncht, nur Highend. Da muss man kein Magier sein um auf die Idee zu kommen dass sie daher wohl eher hohe ASPs und geringer Stückzahlen haben.

Die 3060 ist seit Februar draußen und seit einiger Zeit schon die am besten lieferbare Nextgenkarte, obwohl das Gebotene ja nicht gerade Begeisterungsstürme ausgelöst hat.
Es gibt einfach nichts anderes aktuell, selbst turing und rdna1 sind knapp und überteuert.

Entweder man vergleicht Umsatz mit Umsatz, oder man vergleicht die Monate in denen beide Karten, 3060 und 6600xt verfügbar sind. Sonst beschränkt sich die Aussage nur auf: Nvidia hat Midrange schon gelauncht, AMD noch nicht.

iamthebear
2021-08-02, 02:43:17
Hier gibt es die Statistiken von Woche 1-27 2021 (also erstes Halbjahr).

Durchschnitt/Monat
Nvidia: 7280 (62.21%)
AMD: 4420 (37.79%)

Man sollte jedoch bedenken, dass gerade die Marktanteile nicht unbedingt repräsentativ sein müssen, da zwar ein Teil der Karten von Minern aufgekauft wurde, ein Großteil der Miner ihre Karten jedoch gleich direkt von den AIBs als Palettenware beziehen oder vom Händlern in Asien aufkaufen, was in der Folge dazu führt, dass die Ware gar nicht erst bei Mindfactory ankommt. Da Miner großteils Karten von Nvidia ohne LHR kaufen (auch jetzt noch) kann man bei der Stückzahl von Nvidia wahrscheinlich mindestens verdoppeln. Wenn man bedenkt, dass im Durchschnitt ja deutlich größere Karten verkauft werden sieht es so aus als gäbe es bei Nvidia kein wirkliches Fertigungsproblem, sondern nur ein Nachfrageproblem.
Bei AMD sieht es hingegen anders aus. Hier scheinen in Summe nicht mehr Wafer als Anfang 2020 vorhanden zu sein obwohl man das Portfolio nach oben hin vergrößert hat. AMD hat anscheinend wenig Lust auf einen Preiskampf mit Nvidia und priorisiert derzeit eindeutig den CPU Markt.

Update: Hier noch einmal die aktuellen Daten bis einschließlich KW31:
https://www.reddit.com/r/RadeonGPUs/comments/ov8ie8/week_31_mindfactoryde_total_gaming_gpu_sales_1585/

Sowohl Nvidia als auch AMD Verkaufszahlen seit Anfang Juli stark gefallen. Kann es sein, dass sowohl als auch AMD sich hier bewusst zurückhalten, damit die Preise nicht weiter fallen?
Nvidia wird stattdessen wohl non LHR Chips für Mining verkaufen, AMD macht mit den Wafern vermutlich CPUs.

Orko
2021-08-02, 03:16:51
Sowohl Nvidia als auch AMD Verkaufszahlen seit Anfang Juli stark gefallen. Kann es sein, dass sowohl als auch AMD sich hier bewusst zurückhalten, damit die Preise weiter fallen?
Nvidia wird stattdessen wohl non LHR Chips für Mining verkaufen, AMD macht mit den Wafern vermutlich CPUs.

Ich nehme an du meinst:
Kann es sein, dass sowohl NV als auch AMD sich hier bewusst zurückhalten, damit die Preise NICHT weiter fallen?

Profitieren AMD und NV denn an den hohen Verkaufspreisen durch höhere Chippreise, oder profitieren nur die Händler und Graphikkartenhersteller? Es scheint in diesem Punkt unterschiedliche Ansichten zu geben.

Die Zahlen sprechen zumindest stark gegen die These dass NV mit Ampere auf eine unerwartet hohe Nachfrage getroffen ist.
edit: und das bis jetzt nicht hat fixen können

Irgendwie fehlt da noch mindestens ein Puzzlestück um die momentane Situation zu erklären. Auch enthält mir die momentane Gerüchte und Faktenlage zu viele Unstimmigkeiten bzw Widersprüche.

Orko
2021-08-02, 03:37:14
Die These dass AMD die verfügbaren Kontigente der TSMC 7nm Fertigung bevorzugt für Konsolenchips und CPU Chips nutzt wird insbesondere auch durch diese Zahlen weiter gestützt. Und old-gen Graphikchips der Navi 1x Serie weiter zu produzieren hilft auch nicht weiter, da die ebenfalls auf TSMC 7nm basieren.

Der exakte Grund für NVs offensichliche Zurückhaltung ist mir ein Rätsel.

Selbst wenn die Gerüchte stimmen das Samsungs 8nm Fertigung aus Yield- oder sonstigen Problemen einfach nicht genügend Ampere Chips ausspuckt, warum dann nicht weitere Turing Chips in Samsung 12nm produzieren? Verfügbare Turing Graphikkarten zu UVP Preisen würde der Gamer-Markt wohl aktuell mit Dank aufsaugen.

Leonidas
2021-08-02, 05:30:26
Ist das wirklich eine News wert?

Denk schon, eröffnet den Blick darauf, wie es wirklich bei den Händlern aussieht.

Nebenbei sagt das Fehlen von Mainstream-Modellen bei RX6000 nicht aus, dass man deswegen gar nix im Angebot haben muß. AMD könnte dort die Vorgänger-Generation verkaufen (bzw. ist dies völlig normal, das man dort Alt-Gen stehen hat). Der Markt ist aber leer gefegt davon.





Verfügbare Turing Graphikkarten zu UVP Preisen würde der Gamer-Markt wohl aktuell mit Dank aufsaugen.

Dieser Punkt irritiert mich genauso.

etp_inxession
2021-08-02, 07:25:00
AMD Karten werden aktuell auch quasi nur über den AMD eigenen Shop gekauft.
Dort lässt sichs aber ultra schwer abschätzen wie viele denn über die virtuelle Ladentheke gehen.

Bei allen Bildern und News, hab ich bisher noch keine "Mining-Farm" mit AMD Karten gesehen.

Die RX 6xxx Serie taugt einfach nicht zum minen.
Da sind die Ampere Karten doch um ein vielfaches besser geeignet.

Und da liegt auch der Hase im Pfeffer.

AMD kann einfach nicht mehr Stückzahlen liefern.
nVidia verkauft (wahrscheinlich) direkt ab Werk an Mining Farmen.

Der Gebrauchtmarkt nach (hoffentlich bald) Ende des Mining Booms wird von nV Karten bestimmt überschwemmt.

Ich bin mir ziemlich sicher, das AMD bei komplett gegebener Lieferfähigkeit, sogar einiges (!) an Marktanteilen hinzugewonnen hätte.

Dorn
2021-08-02, 08:17:59
Kurs von Ether ist innerhalb 2 Wochen von 1800 Dollar auf 2600 gestiegen....

Legendenkiller
2021-08-02, 08:52:02
Der "vergleichsweise" niedrige Durschnittspreis bei NVidia zeigt auch das viele alte Grakas wie die 1050ti, 1660 und 2060 dabei gewesen sein müssen.

konkretor
2021-08-02, 08:54:00
https://www.heise.de/news/Ethereum-Mining-Erster-Miner-umgeht-Nvidias-Hashrate-Bremse-6151593.html


Die 3060 Karten werden wohl weiterhin fürs Minen verwendet werden.

Lowkey
2021-08-02, 09:03:02
Irgendwer im hwluxx erfaßt und veröffentlicht die Verkaufsmengen von AMD Shop und Nvidia FE (NBB).

Leonidas
2021-08-02, 09:27:25
Irgendwer im hwluxx erfaßt und veröffentlicht die Verkaufsmengen von AMD Shop und Nvidia FE (NBB).

Link?




Der "vergleichsweise" niedrige Durschnittspreis bei NVidia zeigt auch das viele alte Grakas wie die 1050ti, 1660 und 2060 dabei gewesen sein müssen.

Exakt.

https://pbs.twimg.com/media/E7pWYUsXoAAsTIY?format=jpg&name=small

WedgeAntilles
2021-08-02, 10:27:14
Profitieren AMD und NV denn an den hohen Verkaufspreisen durch höhere Chippreise, oder profitieren nur die Händler und Graphikkartenhersteller? Es scheint in diesem Punkt unterschiedliche Ansichten zu geben.


Hier gibt es - zumindest bei Nvidia - eine 100% eindeutige Information.
Nein, sie profitieren nicht. Jedenfalls nicht mit den "normalen" Karten.
Bei den TI Varianten ist es anders, da hat Nvidia höhere Preise gesetzt (vor allem 3080TI) und profitiert ebenfalls.
Beweis: Die letzten Geschäftszahlen, in denen die TIs noch nicht enthalten sind.

Es mag sein, dass es unterschiedliche Ansichten gibt.
Es gibt vielleicht auch Leute, die der Ansicht sind, dass 1+1=3 ist.

Es ist keine Frage der Ansicht, ob Nvidia profitiert oder nicht ist eine mathematisch und bilanziell 100% verfizierbare Frage. Und die Geschäftszahlen beweisen eindeutig und ohne jeden Zweifel, dass Nvidia keinen Vorteil davon hatte, dass ihre 3070 für 1300 Euro verkauft wurden.

Meine Vermutung ist, dass es bei AMD nicht anders ist, da habe ich mir die Zahlen aber nicht angeschaut weil es mich nicht stark genug interessiert.

Rabiata
2021-08-02, 14:51:45
Nebenbei sagt das Fehlen von Mainstream-Modellen bei RX6000 nicht aus, dass man deswegen gar nix im Angebot haben muß. AMD könnte dort die Vorgänger-Generation verkaufen (bzw. ist dies völlig normal, das man dort Alt-Gen stehen hat). Der Markt ist aber leer gefegt davon.
Vermutung:
Der Fertigungsprozeß ist ähnlich genug, daß man aus denselben Wafern gleichermaßen RX 5000 und RX6000 machen kann. AMD hat die Fertigung von RDNA1 eingestellt und hortet gerade Dies für das Release der RX 6600 XT. Was an RX 5000 noch im Markt ist sind Restbestände.

Gast
2021-08-02, 17:21:30
Kaffeesatzleser at its best.

Jetzt mal aus dem Geschrei der letzten Monate gefolgert, würden beide mehr verkaufen, wenn sie denn mehr hätten. Auch retail. Aus dem stärkeren Ungleichgewicht kann mehr mehrere Schlüsse ziehen. U.a., dass AMD noch schlechter liefert oder unattraktiver ist. Ich tippe auf ersteres, wobei letzteres nicht von der Hand zu weisen ist (6600(XT) erst jetzt).

An mind. einer Stelle muss es 11400 statt 10400 heissen.
Dass die kleinsten Modelle überproportional von Übertaktung/Optimierung profitieren, war schon immer so.
Ohne Limit gleiche/schlechtere Werte als mit beim 10400, ist seltsam. Egal obs daran liegt, dass intel oder das Board sich verbessert hat. Oder der Test Murks ist.

iamthebear
2021-08-02, 21:04:03
Ich nehme an du meinst:
Kann es sein, dass sowohl NV als auch AMD sich hier bewusst zurückhalten, damit die Preise NICHT weiter fallen?

Ja sorry is korrigiert

Profitieren AMD und NV denn an den hohen Verkaufspreisen durch höhere Chippreise, oder profitieren nur die Händler und Graphikkartenhersteller? Es scheint in diesem Punkt unterschiedliche Ansichten zu geben.

Man darf hier nicht vergessen, dass Nvidias UVP bei Einführung einer neuen Generation immer gelogen ist. Das war bei Pascal und selbst bei Turing schon so. Ich darf hier einmal daran erinnern, dass der UVP der 2080 Ti bei 999 Euro gelegen ist. Real verkauft wurden die billigsten 2080 Ti (die qualitativ dem Referenzdesign entsprochen haben) wie die FE um 1200 Euro bis 2-3 Monate vor Ampere Launch. Ein Absinken auf den UVP war bei den Karten der ersten Generation so früh gar nie einbudgetiert.

Und ja Nvidia profitiert eindeutlich durch die erhöhten Verkaufspreise. Wenn man sich die Geschäftsergebnisse ansieht, dann sieht es so aus als wäre die sowieso schon sehr hohe Marge nicht weiter angestiegen. Dabei wird jedoch nicht berücksichtigt, dass es bei Einführung von Ampere ja eine sehr deutliche Senkung des UVP bei gleicher Performance/Transistoranzahl gegeben hat. Dies lässt sich meiner Ansicht nach nicht mit der Umstellung von 12nm auf 8nm begründen, da:
a) Ein Shrink in der Regel bereits dann durchgeführt wird wenn bei den Kosten/Transistor Gleichstand herrscht oder die neue Technologie minimal günstiger ist, da man die Vorteile bei Taktrate bzw. Verbrauch nutzen will
b) Durch die die allgemeine Chip Knappheit die Preise pro Wafer definitiv gestiegen sind (zumindest für alle nachgeorderten Wafer)

Gleichzeitig wurde auf teureren GDDR6X umgestellt und auch die Kosten von GDDR6 sind auf Grund der Knappheit gestiegen.

Trotz alldem bleibt der prozentuale Gewinn von Nvidia auf dem gleichen Niveau, was wohl darauf hindeutet, dass Nvidia die Karte deutlich über dem Preis verkauft, mit dem ein Erreichen des UVP überhaupt möglich wäre.

Die Zahlen sprechen zumindest stark gegen die These dass NV mit Ampere auf eine unerwartet hohe Nachfrage getroffen ist.
edit: und das bis jetzt nicht hat fixen können

Also wenn man bedenkt, dass sich der Umsatz der Gamingsparte bei Nvidia Q1 2020 vs. Q1 2021 in etwa verdoppelt hat, dann sieht das für mich nicht danach aus, als hätte Nvidia hier in etwa so viele Karten (Stückzahl) ausgeliefert wie Anfang 2020, jedoch waren die Karten im Schnitt ca. doppelt so groß. Mindfactory hat davon jedoch nur ca. die Hälfte gesehen, da der Rest schon früher Richtung Miner abgezweigt wurde (Nvidia direkt an Miner, AIBs/Distributoren an Miner oder Miner im asiatischen Handel aufgekauft).

Was das "fixen" der Produktion angeht:
Normalerweise bestellen Hersteller wie Nvidia oder AMD bei TSMC im Vorhinein führ mindestens das nächste Jahr die Anzahl an Wafern, die sie voraussichtlich brauchen. TSMC hatte eine Auslastung von 80-90%. Falls ein Hersteller einmal mehr benötigt, so kann er unter normalen Bedinungen ja jederzeit Wafer von den restlichen 10-20% Reserve dazubestellen.
Jetzt ist auf Grund der allgemeinen Chipknappheit TSMC bei 100% Kapazität d.h. man kann kurzfristig nichts mehr nachbestellen, nur den nächsten Rahmen etwas großzügiger auslegen, was aber erst in 1-2 Jahren wirksam wird. Deshalb rechnet Nvidia ja mit einem Ende der Knappheit Anfang 2022.

Die These dass AMD die verfügbaren Kontigente der TSMC 7nm Fertigung bevorzugt für Konsolenchips und CPU Chips nutzt wird insbesondere auch durch diese Zahlen weiter gestützt.

Ich denke das ist offensichtlich, den selbst Zen 3 sind wieder problemlos zur UVP lieferbar.
Weiters muss AMD Konsolen ja auch gegenüber den GPUs priorisieren. Damit verdienen sie zwar deutlich weniger, haben aber bestehende Verträge mit Sony bzw. Microsoft, die erfüllt werden müssen. Welche Klauseln genau drin stehen weiß ich nicht, aber Sony/Microsoft lassen sich sicher auf kein Geschäft mit nur einem Lieferanten ein ohne fast vollständig abgesichert zu sein. Da geht keiner das Risiko ein, dass der Mitbewerber eventuell besser beliefert wird.

Und old-gen Graphikchips der Navi 1x Serie weiter zu produzieren hilft auch nicht weiter, da die ebenfalls auf TSMC 7nm basieren.

Hinsichtlich des GPU Mangels würde es schon sehr viel weiter helfen wenn AMD statt einer 6700 XT 2-3 kleine 5500 XT auflegen würde. Es muss ja sowieso nicht jeder ein High End Modell haben (man denke an die ganzen Kids die bloß Fortnite zocken wollen).
Man hätte auch weniger Gegenwind, wenn man die Chips um den ursprünglichen UVP verkaufen würde.

Der exakte Grund für NVs offensichliche Zurückhaltung ist mir ein Rätsel.

Selbst wenn die Gerüchte stimmen das Samsungs 8nm Fertigung aus Yield- oder sonstigen Problemen einfach nicht genügend Ampere Chips ausspuckt, warum dann nicht weitere Turing Chips in Samsung 12nm produzieren? Verfügbare Turing Graphikkarten zu UVP Preisen würde der Gamer-Markt wohl aktuell mit Dank aufsaugen.

Weil man derzeit auch keine 12nm Wafer einfach so nachbuchen kann. Da bräuchte es auch wieder einen Rahmenauftrag etwas im Vorhinein.
Einige Wafer hat Nvidia ja anscheinend zusätzlich bekommen. Die wurden ja für ein paar 2060 und hauptsächlich die neue Serie verwendet, mit der man nur Ethereum minen kann.

Nebenbei sagt das Fehlen von Mainstream-Modellen bei RX6000 nicht aus, dass man deswegen gar nix im Angebot haben muß. AMD könnte dort die Vorgänger-Generation verkaufen (bzw. ist dies völlig normal, das man dort Alt-Gen stehen hat). Der Markt ist aber leer gefegt davon.

Also im Normalfall sollte es immer so sein, dass nur die Modelle eingestellt werden, die auch schon einen Nachfolger bekommen haben. Im Fall von Nvidia bedeutet dies, dass es immer noch GTX 1030er und sogar GT 710 neu zu kaufen gibt und in solchen Mengen wie die gerade weggehen (für die non Gamer) sind das bestimmt keine Restbestände der Händler.
Dass es bei Turing nicht so ist liegt einfach nur daran, dass die kleinen Ampere Karten ja schon längst am Markt sein sollten, nur mangels Lieferbarkeit nicht sind.

Wobei auch nicht gesagt ist, dass sofort die Produktion eingestellt werden muss nur weil Produkt einen Nachfolger hat.

Bei allen Bildern und News, hab ich bisher noch keine "Mining-Farm" mit AMD Karten gesehen.

Die RX 6xxx Serie taugt einfach nicht zum minen.
Da sind die Ampere Karten doch um ein vielfaches besser geeignet.

Ethereum skaliert ziemlich 1:1 mit der Speicherbandbreite, wobei hier der Infinity Cache nichts bringt. Hier hat AMD nur ca. 60% der Leistung von einer bei Gaming gleich starken Ampere Karte.
Zur Spitze des Booms war das jedoch egal. Da wurde alles gekauft, was da ist. Wenn eine 3080 2500 Euro kostet und eine 6080 unter 1500 Euro zu haben ist, dann nimmt man halt die.

AMD kann einfach nicht mehr Stückzahlen liefern.
nVidia verkauft (wahrscheinlich) direkt ab Werk an Mining Farmen.

Der Gebrauchtmarkt nach (hoffentlich bald) Ende des Mining Booms wird von nV Karten bestimmt überschwemmt.

Da würde ich mich nicht darauf verlassen. Selbst beim kompletten Crash 2018 hat es das nicht gegeben. Da werden einfach die bestehenden Karten mit günstigem asiatischen Indistriestrom weiter betrieben. Und wenn eine 3080 im Monat nur mehr 40 Euro statt 400 abwirft, dann betreibt man die eben mit etwas weniger Powerlimit 2 Jahre weiter, zahlt 10 Euro Stromkosten im Monat und kassiert so auch seine 700 Euro wieder ein.

Einzig bei der Abschaltung der chinesischen Miningfarmen wurden einige Karten verkauft. Diese kaufen dann eben Miner in anderen Ländern wieder auf. Im Iran lässt es sich z.B. auch wunderbar minen mit billigem Strom aus nicht verkaufbarem Öl (angeblich um die 2 Cent pro KWh)

Ich bin mir ziemlich sicher, das AMD bei komplett gegebener Lieferfähigkeit, sogar einiges (!) an Marktanteilen hinzugewonnen hätte.

Natürlich aber dann hätten sie im CPU Bereich keine Marktanteile dazugewonnen und das ist AMD wichtiger, denn da ist man derzeit bis Alder Lake kommt voll am Drücker und muss die Chance nutzen bei den OEMs rein zu kommen bzw. in den Servermarkt.
GPU Marktanteile kann man sich auch später noch holen. Gamer kaufen sowieso alles, was gerade das bessere P/L Verhältnis hat. OEMs vor allem im Businessbereich sind da schon weitaus schwieriger zu überzeugen.

Der "vergleichsweise" niedrige Durschnittspreis bei NVidia zeigt auch das viele alte Grakas wie die 1050ti, 1660 und 2060 dabei gewesen sein müssen.

Nicht nur das. Da sind auch alle GT 710er und 1030er dabei, die so in einem typischen PC ohne iGPU gesteckt werden, wenn man kein Gamer ist.

Hier gibt es - zumindest bei Nvidia - eine 100% eindeutige Information.
Nein, sie profitieren nicht. Jedenfalls nicht mit den "normalen" Karten.
Bei den TI Varianten ist es anders, da hat Nvidia höhere Preise gesetzt (vor allem 3080TI) und profitiert ebenfalls.
Beweis: Die letzten Geschäftszahlen, in denen die TIs noch nicht enthalten sind.

Es mag sein, dass es unterschiedliche Ansichten gibt.
Es gibt vielleicht auch Leute, die der Ansicht sind, dass 1+1=3 ist.

Es ist keine Frage der Ansicht, ob Nvidia profitiert oder nicht ist eine mathematisch und bilanziell 100% verfizierbare Frage. Und die Geschäftszahlen beweisen eindeutig und ohne jeden Zweifel, dass Nvidia keinen Vorteil davon hatte, dass ihre 3070 für 1300 Euro verkauft wurden.

Meine Vermutung ist, dass es bei AMD nicht anders ist, da habe ich mir die Zahlen aber nicht angeschaut weil es mich nicht stark genug interessiert.

Siehe meine Ausführungen oben. Du ignorierst hierbei, dass die UVP bei gleicher Leistung/Produktionskosten mit dem Ampere Launch massiv gesenkt wurde.

matty2580
2021-08-02, 23:09:30
Der i5 11400F ist schon sehr interessant vom Preis her.
Wenn nicht Alder Lake in 3 Monaten vorgestellt werden würde, hätte ich mir den gekauft.
Ich hoffe bei Alder Lake auf eine ähnlich günstige CPU, und werde dann Stück für Stück anfangen mir einen PC wieder aufzubauen.

Gut möglich das es dann sogar mit Intel GPU wird, wenn Koduris GPUs halbwegs günstig sind. ^^

iamthebear
2021-08-03, 00:47:00
Da musst du aber noch länger warten. 2021 kommt nur das Topmodell, der 12900K. Der Rest wird dann erst irgendwann 2022 angekündigt, bis die CPUs wirklich kaufbereit im Laden stehen wird es vermutlich Mitte 2022.

matty2580
2021-08-03, 01:37:07
Ich habe seit über 2 Jahren keinen funktionierenden PC mehr.
Erst habe ich nur mit der Switch meinen Spass, und jetzt mit der PS5 seit Release.
D.h. etwas Zeit, also bis zu einem Jahr, habe ich schon eingeplant.
Den PC komplett neu aufbauen heißt für mich fast alles neu zu kaufen, also zuerst Mainboard, CPU, RAM, dann neues Netzteil, GPU, und zuletzt Tastatur und Maus. Als Bildschirm dient mir ein 65 Zoll TV von LG, mit 2 HDMI 2.1 Anschlüssen in 4k mit 120Hz. Dazu kommen noch neue Lüfter und mein altes Gehäuse, plus Windows 11.

Das muss ich mir als EU Rentner auf Hartz IV Niveau aber stückchenweise vom Mund ansparen, immer in Schritten von 50€ pro Monat.
Also von der ersten Komponente bis zum fertigen PC wird noch einmal viel Zeit bei mir vergehen.

Gast
2021-08-03, 08:00:01
Ohne Limit gleiche/schlechtere Werte als mit beim 10400, ist seltsam. Egal obs daran liegt, dass intel oder das Board sich verbessert hat. Oder der Test Murks ist.

Nicht wirklich, es hat schon seinen Grund warum Intel die neue Architektur so lange nicht in 14nm bringen wollte, ein Teil der Mehrperformance wird definitiv durch einen höheren Verbrauch erkauft, was ja eigentlich geplant war dass dies durch 10nm ausgeglichen wird. Nur hat Rocket Lake eben kein 10nm.

Schon die bisherigen Rocket Lake Prozessoren haben gezeigt, dass man mit gleicher realer Leistungsaufnahme höchstens gleich auf liegt.
Rocket Lake kann sich nur dann absetzen, wenn die CPU entweder ein höheres Powerlimit hat, oder das Powerlimit in der gegebenen Situation bei beiden nicht ausgereizt wird.

Gast
2021-08-03, 08:17:14
Man darf hier nicht vergessen, dass Nvidias UVP bei Einführung einer neuen Generation immer gelogen ist. Das war bei Pascal und selbst bei Turing schon so. Ich darf hier einmal daran erinnern, dass der UVP der 2080 Ti bei 999 Euro gelegen ist.


UVP der 2080Ti FE waren 1200€, und daran haben sich eben auch die meisten Dritthersteller orientiert.


Und ja Nvidia profitiert eindeutlich durch die erhöhten Verkaufspreise. Wenn man sich die Geschäftsergebnisse ansieht, dann sieht es so aus als wäre die sowieso schon sehr hohe Marge nicht weiter angestiegen.

Wenn man höhere Stückzahlen verkauft steigt die Marge immer (außer natürlich wenn man unter Herstellungskosten verkaufen würde) schließlich bleiben die Fixkosten gleich und man kalkuliert die gewünschte Marge ja unter "normal" erwartbaren Verkaufszahlen.


a) Ein Shrink in der Regel bereits dann durchgeführt wird wenn bei den Kosten/Transistor Gleichstand herrscht oder die neue Technologie minimal günstiger ist, da man die Vorteile bei Taktrate bzw. Verbrauch nutzen will


Ein Shrink senkt bisher immer die Kosten/Transistor, selbst bei den teuren Prozessen unter 10nm war das bereits von Beginn an der Fall.

Und nein man steigt nicht schon bei Geleichstand in Kosten/Transistor um, man will den Shrink ja dazu benutzen deutlich mehr Transistoren zu verbauen. Insbesondere Nvidia ist in der Vergangenheit immer erst dann umgestiegen wenn bei den Kosten/Area annähernd Gleichstand geherrscht hat, wobei man mittlerweile wohl einsehen muss, dass dies nie mehr wieder eintreten wird, und wie in Zukunft immer mit steigenden Kosten pro Fläche rechnen müssen, bei weiterhin sinkenden Kosten pro Transistor.


Gleichzeitig wurde auf teureren GDDR6X umgestellt und auch die Kosten von GDDR6 sind auf Grund der Knappheit gestiegen.


Die dürften vermutlich nicht großartig höher sein, falls überhaupt. Was GDDR6X teurer macht ist das PCB, bei den Speicher selbst dürfte es für Nvidia aktuell sogar günstiger sein GDDR6X zu verwenden, da man darauf exklusiv Zugriff hat und nicht wie beim GDDR6 mit allen anderen streiten muss.

Vermutlich verwendet die 3070Ti ja GDDR6X weil es für NV mittlerweile günstiger ist, rein von der Performance benötigt sie diesen ja überhaupt nicht.


Trotz alldem bleibt der prozentuale Gewinn von Nvidia auf dem gleichen Niveau, was wohl darauf hindeutet, dass Nvidia die Karte deutlich über dem Preis verkauft, mit dem ein Erreichen des UVP überhaupt möglich wäre.


Wie gesagt, bei gleichbleibenden Fixkosten steigt der Gewinnanteil am Umsatz immer mit höheren verkauften Stückzahlen.

Dass das bei Nvidia kaum der Fall ist deutet gerade darauf hin, dass Nvidia von den hohen Verkaufspreisen quasi gar nicht profitiert, oder aber dass man von vorne herein mit geringeren Margen kalkuliert hat, die jetzt durch die hohen verkauften Stückzahlen aber egalisiert werden.

Nvidia profitiert natürlich, einerseits dadurch dass man 100% von dem was man produzieren kann auch verkauft, und andererseits dass man beispielsweise die 3080Ti höher als geplant ansetzen konnte.
Viel mehr allerdings nicht.


Ich denke das ist offensichtlich, den selbst Zen 3 sind wieder problemlos zur UVP lieferbar.


Was auch nicht normal ist, normal wäre UVP spätestens 1 Monat nach Vorstellung, und nach 3 bis spätestens 6 Monaten Straßenpreise die schon signifikant unter UVP liegen.

Leonidas
2021-08-03, 09:53:54
An mind. einer Stelle muss es 11400 statt 10400 heissen.

Gefixt.




Rocket Lake kann sich nur dann absetzen, wenn die CPU entweder ein höheres Powerlimit hat, oder das Powerlimit in der gegebenen Situation bei beiden nicht ausgereizt wird.

Gleiche Situation wie bei Grafikchips: Ohne mehr Power oder besseres Fertigungsverfahren kommt man nicht vom Fleck.

Gast
2021-08-03, 11:25:41
Gleiche Situation wie bei Grafikchips: Ohne mehr Power oder besseres Fertigungsverfahren kommt man nicht vom Fleck.

Jein, gerade bei Grafikchips gibt es deutlich abweichende Beispiele.

Kepler --> Maxwell gleiches Fertigungsverfahren deutlich mehr Leistung ohne großartigen Verbrauchsanstieg.

Noch drastischer:
Vega10 --> Vega20: Drastisch besseres Fertigungsverfahren trotzdem kaum mehr Leistung pro Verbrauch.
Vega20 --> RDNA2: Gleiches Fertigungsverfahren bei drastisch besserer Performance pro Verbrauch.

WedgeAntilles
2021-08-03, 12:00:04
J

Und ja Nvidia profitiert eindeutlich durch die erhöhten Verkaufspreise. Wenn man sich die Geschäftsergebnisse ansieht, dann sieht es so aus als wäre die sowieso schon sehr hohe Marge nicht weiter angestiegen. Dabei wird jedoch nicht berücksichtigt, dass es bei Einführung von Ampere ja eine sehr deutliche Senkung des UVP bei gleicher Performance/Transistoranzahl gegeben hat. Dies lässt sich meiner Ansicht nach nicht mit der Umstellung von 12nm auf 8nm begründen, da:
a) Ein Shrink in der Regel bereits dann durchgeführt wird wenn bei den Kosten/Transistor Gleichstand herrscht oder die neue Technologie minimal günstiger ist, da man die Vorteile bei Taktrate bzw. Verbrauch nutzen will
b) Durch die die allgemeine Chip Knappheit die Preise pro Wafer definitiv gestiegen sind (zumindest für alle nachgeorderten Wafer)

Gleichzeitig wurde auf teureren GDDR6X umgestellt und auch die Kosten von GDDR6 sind auf Grund der Knappheit gestiegen.

Trotz alldem bleibt der prozentuale Gewinn von Nvidia auf dem gleichen Niveau, was wohl darauf hindeutet, dass Nvidia die Karte deutlich über dem Preis verkauft, mit dem ein Erreichen des UVP überhaupt möglich wäre.

Du unterschlägst dabei, dass Nvidia zu Samsung gewechselt ist - was vermutlcih mit einem günstigen Angebot Samsungs zusammenhängt -> niedrigere Kosten für Nvidia.
Außerdem unterschlägst du, dass die Ram-Bestückung der 3070 und 3080 ziemlich gering ist. Auch das sorgt wieder für niedrigere Kosten.

Davon abgesehen: Was war denn der UVP der 2070?
Die 3090 hat einen UVP von 1500 Euro gehabt. Das ist höher als derjenige der 2080TI.
Die 2070 hatte afaik doch glaube ich 520 Euro oder so, das sind gerade mal 20 Euro Unterschied.
Der UVP der 2080 war - wenn mein erstes Google-Ergebnis stimmt - übrigens 699 Dollar.
Hey, genau wie die 3080.

Deine "sehr deutliche Senkung" existiert damit nicht. (und was wäre - um bei deiner Theorie zu bleiben - passiert, wenn die GraKa Preise nicht explodiert wären? Der Nvidia Gewinn hätte sich halbiert? Wow, klar, das war bestimmt Nvidias Ziel. Oder war die GraKa Preise Explosion Nvidia vorher bekannt? Das Mining ist eine Verschwörung von Nvidia? Oder haben die nen Hellseher? Sorry, das muss einem doch auffallen wie absurd das ist.)

Die minimal gestiegene Gewinnmarge ist - wie Gast ja schon schrieb - bei steigenden Zahlen zwangsläufig, da es eben Fixkosten gibt die nicht skalieren.

Es bleibt damit dabei: Die Geschäftszahlen belegen, dass Nvidia nicht profitiert.
Mehr schreibe ich jetzt zu diesem Thema nicht - Mathematik ist unbestechlich und beugt sich nicht der Weltanschauung die man gerne hätte.
Da kann man dann auch nicht drüber diskutieren, weil 1+1 halt 2 ist und nicht 2,05 oder 1,95, nur weil das jemand gerne so hätte.

Gast
2021-08-03, 20:12:39
Vorsicht bei den Werten die Computerbase zum 11400 und auch anderen RKL gemessen hat ( Die können da kaum was für durch das Launchchaos und die später verfügbarkeit bruachbarer Biosversionen ), s .

gemesen wurde mit einem Asrock board mit Beta Bios L1.16 mit Microcode 3Ch welcher zwar bessere Schreibwerte beim Speicher ermöglicht aber massive Latenzpenaltys für RKL beinhaltet ( das können bis zu 10 ns aufschlag schon im gear 1 mode sein ), es gab am 5.12 mit 1.80 dann ein Update auf eine neuere die das halbwegs ausbügelt.
Aufallen tut der Unterschied nur bei Latenzkritischer Software wie Spielen bei syntehtischen Test wie CB und Co merkt man das kaum .

Die von Computerbase gemessenen 48ns mit 3733 c17 erreiche ich z.B. schon bei 2933 C16 XMP ALSO DEN STOCK WERTEN .
Mit gefixten Bios und 3733 Gear 1 kommt man je nach Timings auf 38-42ns.
Was gerade bei spielen einiges bringt.
Das Problem gab es dank Intels Mülllaunch Herstellerweit, und ist auch zum teil dafür verantwortlich das Rocketlake selbst gegen einen non oc 10700 manchmal sehr dumm ausschaut.

Leonidas
2021-08-04, 04:47:27
Interessanter Einwurf @ Gast ... gibt es dazu irgendwo noch Belege oder anderes zum Nachlesen/Weiterlesen?



Kepler --> Maxwell gleiches Fertigungsverfahren deutlich mehr Leistung ohne großartigen Verbrauchsanstieg.

Stimmt - aber wie zu sehen die Ausnahme statt die Regel.

Gast
2021-08-04, 11:15:40
Einen wirklich Systematischen Nachtest über die Microcode Versionen kenn ich nur von Anandtech ,das war aber noch pre 3Ch ( Test erfolgte mit update auf 0x34 ) was quasi das Chaos gut aufzeigt aber nicht die aktuelle Problematik.

https://www.anandtech.com/show/16549/rocket-lake-redux-0x34-microcode-offers-small-performance-gains-on-core-i711700k?utm_source=twitter&utm_medium=social

Ansonsten gibt es nur im Linuxumfeld recht saubere Test welche aber durch andere Schwerpunkte am am Thema Win Spiele , etc vorbei gehen.
https://openbenchmarking.org/result/2106228-IB-ROCKETLAK24

Ich denke es wird hierzu auch nichts wirklich sauberes mehr geben, Alderlake steht vor der Tür und der Aufwand einer solchen Testreihe für eine CPU Reihe die eh kaum jemanden interessiert ist wohl zu hoch.

Am ehesten wird man in entsprechenden Foren wie OCN, Luxx etc. fündig wo das selbe Setup nach dem Update auf die neue Micocodeversion signifikat Latenz verliert ( oder eine penalty bekommt im fall von 3Ch) was sich auf die Spiele leistung im CPU limit mitunter deutlich auswirkt.

Im Endeffekt ist der Kunde der Dumme der vor dem Kauf nicht wirklich weiß wie sich seine jeweilige Board CPU Kombi nun je nach Updatewillen des Boardpartners verhält und auch in Zukunft verhalten wird.

Leonidas
2021-08-04, 11:18:34
Sieht so aus. Schade, das RKL damit so verbuddelt wird.

Gast
2021-08-04, 12:16:41
Da musst du aber noch länger warten. 2021 kommt nur das Topmodell, der 12900K. Der Rest wird dann erst irgendwann 2022 angekündigt, bis die CPUs wirklich kaufbereit im Laden stehen wird es vermutlich Mitte 2022.
Vielleicht sogar noch länger, wenn sie ihre 10-nm-Ausschussturnhallen nicht endlich nach bereits jahrelangem Drama wirklich zum Laufen bekommen. Können bis heute keine lächerlichen Tiger 4C in Massenproduktion liefern, geschweige denn den 8C. Außer in paar Laptops und in ihrem überteuren Kindersargprototypen, auch NUC Beast genannt. Bin mal gespannt, was das mit Ader Lake und noch mehr Siliziumfläche geben wird und ob good old 14 nm auf dem Desktop noch mal kredenzt wird.

WedgeAntilles
2021-08-04, 12:44:12
Da musst du aber noch länger warten. 2021 kommt nur das Topmodell, der 12900K. Der Rest wird dann erst irgendwann 2022 angekündigt, bis die CPUs wirklich kaufbereit im Laden stehen wird es vermutlich Mitte 2022.
Nur der 12900k? Quelle?

Igor erzählt nämlich was anderes.
https://www.igorslab.de/intel-alder-lake-s-launch-nur-enthusiasten-cpu-und-z690-chipset-zwischen-dem-25-oktober-und-19-november-2021-der-rest-kommt-spaeter/

Die anderen sollen bei der CES 2022 kommen.
Die ist Januar 2022.

Wie man da jetzt auf Verkauf Mitte 2022 kommt ist schon etwas abenteuerlich.

Oder auf welche Quelle beziehst du dich?

Leonidas
2021-08-04, 13:34:59
Ich denke schon, das Intel spätestens im Frühjahr liefern kann, möglicherweise aber auch direkt im Januar. Zu allem anderen liegen derzeit keine Infos vor, kann also nur Spekulation sein.

Gast
2021-08-04, 15:34:44
Vielleicht sogar noch länger, wenn sie ihre 10-nm-Ausschussturnhallen nicht endlich nach bereits jahrelangem Drama wirklich zum Laufen bekommen. Können bis heute keine lächerlichen Tiger 4C in Massenproduktion liefern, geschweige denn den 8C. Außer in paar Laptops und in ihrem überteuren Kindersargprototypen, auch NUC Beast genannt. Bin mal gespannt, was das mit Ader Lake und noch mehr Siliziumfläche geben wird und ob good old 14 nm auf dem Desktop noch mal kredenzt wird.

Zu der Triade passt nicht das laut letzten Zahlen die 10nm die 14nm Fertigung anteilig überholt hat.

https://www.pcgameshardware.de/CPU-CPU-154106/News/Mehr-10-als-14-Nanometer-Wafer-7-nm-kommt-gut-voran-1376479/

iamthebear
2021-08-05, 01:24:04
UVP der 2080Ti FE waren 1200€, und daran haben sich eben auch die meisten Dritthersteller orientiert.

Der Preis der FE Karten ist für die AIBs vollkommen irrelevant.

Die kalkulieren ihre Kosten:
.) Einkaufspreis von GPU Chip + RAM von Nvidia
.) Kosten für Board, Kühler, elektronische Komponenten von anderen Lieferanten
.) Aufwand für Zusammenbau (Personal + Maschinenzeiten etc.)
.) Statistischer Aufwand für Garantierücksendungen, usw.
.) Anteiligen Aufwand für Marketing etc.

Alle diese Preise werden aufsummiert.

Im Idealfall bei den höchpreisigeren Produkten kommen dabei dann noch 5-10% Gewinn dabei raus. Bei den billigsten Modellen steigen die Hersteller oft auch +/- 0 aus. Wenn nicht gerade Miningboom herrscht, so ist das ein Centgeschäft.

Welcher Preis hier am Ende für die Einsteigermodelle jeweils raus kommt legen im Normalfall Nvidia und AMD über den realen Verkaufspreis der Chips und VRAM fest.

Wenn man höhere Stückzahlen verkauft steigt die Marge immer (außer natürlich wenn man unter Herstellungskosten verkaufen würde) schließlich bleiben die Fixkosten gleich und man kalkuliert die gewünschte Marge ja unter "normal" erwartbaren Verkaufszahlen.

Bei einem normalen produzierenden Betrieb ist das in der Regel so.

Bei einem Gewinn von ca. 40% des Umsatzes und wenig Fixkosten, da alles extern produziert wird hat das jedoch nur mehr einen eher geringen Effekt.
Abgesehen davon steigen die Fixkosten bei Nvidia ja derzeit auch stark an, da in immer mehr Geschäftsfelder investiert wird. Im Datacenterbereich hat sich der Umsatz auch verdoppelt und da hat Mining keinen Einfluss. Von 2020 auf 2021 wurde z.B. die Mitarbeiteranzahl um knapp 40% erhöht.

Ein Shrink senkt bisher immer die Kosten/Transistor, selbst bei den teuren Prozessen unter 10nm war das bereits von Beginn an der Fall.

Du darfst hier nicht den Fehler machen die Preise am Beginn der 16nm Ära mit denen am Beginn der 10nm Ära zu vergleichen. Du musst hier 12nm (16nm++) am Ende der Ära mit 8nm (10nm+) in der Mitte der Ära vergleichen.
Unabhängig vom realen Aufwand bei der Herstellung:
.) Ist die Ausbeute von 12nm extrem hoch während Samsung mit 8nm erst seit kurzem so große Chips fertigt. Die Jahre davor waren es immer nur kleine Mobilchips um die 100mm²
.) Die 16/12nm Anlagen waren 2020 alle abgeschrieben. Die 10/8nm Anlagen mussten 2020 noch ihre Investition einspielen.

Und nein man steigt nicht schon bei Geleichstand in Kosten/Transistor um, man will den Shrink ja dazu benutzen deutlich mehr Transistoren zu verbauen. Insbesondere Nvidia ist in der Vergangenheit immer erst dann umgestiegen wenn bei den Kosten/Area annähernd Gleichstand geherrscht hat, wobei man mittlerweile wohl einsehen muss, dass dies nie mehr wieder eintreten wird, und wie in Zukunft immer mit steigenden Kosten pro Fläche rechnen müssen, bei weiterhin sinkenden Kosten pro Transistor.

Die Kosten/Fläche waren zum Zeitpunkt eines Shrinks noch nie annähernd gleich. Nur weil der Listenpreis über 1-2 Jahre oft nicht angetastet bleibt heißt das nicht, dass sich der Marktpreis für die Fertigung nich massiv nach unten ändert.
Grundsätzlich Sinn macht ein Shrink bereits bei Gleichstand Kosten/Transistor, da ein Shrink ja auch höhere Taktraten bei gleicher Verlustleistung ermöglicht. Die einmaligen Designkosten spielen auch keine Rolle, da diese sofern man die Fertigung nicht generell überspringen will dann eben 1 Jahr später bezahlt werden müssten.

Die dürften vermutlich nicht großartig höher sein, falls überhaupt. Was GDDR6X teurer macht ist das PCB, bei den Speicher selbst dürfte es für Nvidia aktuell sogar günstiger sein GDDR6X zu verwenden, da man darauf exklusiv Zugriff hat und nicht wie beim GDDR6 mit allen anderen streiten muss.

Diese Exclusivität hatte mit Sicherheit auch ihren Preis. Bei mehreren Lieferanten ist es immer einfacher einen günstigeren Preis zu bekommen und Nvidia ist bekannt dafür Preise sehr aggressiv zu verhandeln.

Vermutlich verwendet die 3070Ti ja GDDR6X weil es für NV mittlerweile günstiger ist, rein von der Performance benötigt sie diesen ja überhaupt nicht.

Es könnte auch einfach damit zu tun haben, dass GDDR6 derzeit einfach nicht am Markt in ausreichender Menge zu bekommen ist, Micron mit GDDR6X jedoch noch liefern konnte.

Dass das bei Nvidia kaum der Fall ist deutet gerade darauf hin, dass Nvidia von den hohen Verkaufspreisen quasi gar nicht profitiert, oder aber dass man von vorne herein mit geringeren Margen kalkuliert hat, die jetzt durch die hohen verkauften Stückzahlen aber egalisiert werden.

Der Listenpreis von Ampere ist von Nvidia für Nvidia Verhältnisse extrem niedrig kalkuliert. Das war ein Wettkampfpreis um AMD vom Markt fern zu halten, damit sie AMD zumindest nicht unterbieten kann.

Nvidia profitiert natürlich, einerseits dadurch dass man 100% von dem was man produzieren kann auch verkauft, und andererseits dass man beispielsweise die 3080Ti höher als geplant ansetzen konnte.
Viel mehr allerdings nicht.

Nvidia profitiert dadurch, dass man den AIBs die Chips weiterhin um 20% über Listenpreis wie bei Launch verkaufen kann, womöglich noch teurer. Ohne Miningboom und mit mehr Konkurrenz durch AMD hätte Nvidia tatsächlich um den Listenpreis verkaufen müssen.

*) Zum Listenpreis verkaufen meint: So verkaufen, dass mit üblichen Aufschlägen der AIBs/Handel am Schluss der Listenpreis entsteht.

Was auch nicht normal ist, normal wäre UVP spätestens 1 Monat nach Vorstellung, und nach 3 bis spätestens 6 Monaten Straßenpreise die schon signifikant unter UVP liegen.

Das kommt darauf an, wie der Listenpreis definiert ist.

a) Im regulären Handel bedeutet UVP:
Höchster Preis, den ein klassischer Händler mit Geschäft und Beratung zum teuersten Zeitpunkt ohne Rabattaktionen maximal verlangen sollte ohne den Kunden über den Tisch zu ziehen.
b) Im PC Komponenten Markt mit Einzelkomponenten üblich:
Geizhalspreis nach Einführung nachdem alle Händler ausreichend versorgt wurden. Nach einiger Zeit je nach Marktlage wird (ohne Veränderung des Listenpreises) durch Rabatte an die AIBs/Wiederverkäufer gesenkt.
c) Bei Nvidia bei einer neuen Generation:
.) Bei Release von neuen Generationen ca. 10-20% unter dem Geizhalspreis
.) Geizhalspreis der günstigsten AIB Karte in den letzten 2-3 Monaten vor Abkündigung oder bei Refreshkarten.

Du unterschlägst dabei, dass Nvidia zu Samsung gewechselt ist - was vermutlcih mit einem günstigen Angebot Samsungs zusammenhängt -> niedrigere Kosten für Nvidia.
Außerdem unterschlägst du, dass die Ram-Bestückung der 3070 und 3080 ziemlich gering ist. Auch das sorgt wieder für niedrigere Kosten.

Nvidia wurde von TSMC vor die Tür gesetzt, nachdem sich Jensen bei den Preisverhandlungen wieder einmal maßlos übertrieben hat und TSMC hat beschlossen, dass sie mitlerweile in einer Situation sind, wo sie sich das nicht mehr bieten lassen müssen.
Nachdem die Verhandlungen mit TSMC gescheitert sind hat Nvidia als Notfallplan nur mehr Samsung gehabt. Billig war das mit Sicherheit auch nicht. Da musste Nvidia das zahlen, was Samsung verlangt hat um überhaupt noch GPUs liefern zu können.

Davon abgesehen: Was war denn der UVP der 2070?
Die 3090 hat einen UVP von 1500 Euro gehabt. Das ist höher als derjenige der 2080TI.
Die 2070 hatte afaik doch glaube ich 520 Euro oder so, das sind gerade mal 20 Euro Unterschied.
Der UVP der 2080 war - wenn mein erstes Google-Ergebnis stimmt - übrigens 699 Dollar.
Hey, genau wie die 3080.

Und auf was soll der Vergleich dieser Karten abzielen außer dass der Name ähnlich ist?

Die 2080 ist ein 13.6Mrd Transistoren Chip, die 3080 ist ein 28,3Mrd. Transistoren Chip.

Deine "sehr deutliche Senkung" existiert damit nicht. (und was wäre - um bei deiner Theorie zu bleiben - passiert, wenn die GraKa Preise nicht explodiert wären? Der Nvidia Gewinn hätte sich halbiert? Wow, klar, das war bestimmt Nvidias Ziel. Oder war die GraKa Preise Explosion Nvidia vorher bekannt? Das Mining ist eine Verschwörung von Nvidia? Oder haben die nen Hellseher? Sorry, das muss einem doch auffallen wie absurd das ist.)

Natürlich hätte Nvidia noch genug Gewinn gemacht, nämlich im Datacenterbereich, der sich im übrigen unabhängig von Lockdownconsum, und Miningboom auch verdoppelt hat.
In der Gamingsparte wäre eine Halbierung des Gewinns wahrscheinlich noch sehr optimistisch gewesen, was aber auch irgendwie zu erwarten ist, da eben jetzt ein technologisch gleichwertiger Mitbewerber da ist, was die letzten Jahre eben nicht der Fall war. Du brauchst im Umsatzdiagramm in die vor Pascal Zeit zurückschauen. Damals hatte Nvidia auch keine 30-40% Gewinn.

Vielleicht sogar noch länger, wenn sie ihre 10-nm-Ausschussturnhallen nicht endlich nach bereits jahrelangem Drama wirklich zum Laufen bekommen. Können bis heute keine lächerlichen Tiger 4C in Massenproduktion liefern, geschweige denn den 8C. Außer in paar Laptops und in ihrem überteuren Kindersargprototypen, auch NUC Beast genannt. Bin mal gespannt, was das mit Ader Lake und noch mehr Siliziumfläche geben wird und ob good old 14 nm auf dem Desktop noch mal kredenzt wird.

Also ich habe nichts mitbekommen, dass es im letzten Jahr von Intel irgendwelche Lieferprobleme gegeben hätte. Das sind derzeit glaube ich die einzigen, wo es keine Einschränkungen gibt.
Und an der niedrigen Nachfrage liegt es mit Sicherheit nicht, denn der Notebookmarkt ist seit Corona explodiert mit allen Home Office und eLearninggeräten und dort ist AMD ja immer noch so gut wie gar nicht vertreten. Das sind ein paar Gaminggeräte und der übliche Ramsch von früher.

iamthebear
2021-08-05, 02:33:13
Nur der 12900k? Quelle?

Igor erzählt nämlich was anderes.
https://www.igorslab.de/intel-alder-lake-s-launch-nur-enthusiasten-cpu-und-z690-chipset-zwischen-dem-25-oktober-und-19-november-2021-der-rest-kommt-spaeter/

Die anderen sollen bei der CES 2022 kommen.
Die ist Januar 2022.

Wie man da jetzt auf Verkauf Mitte 2022 kommt ist schon etwas abenteuerlich.

Oder auf welche Quelle beziehst du dich?

OK ich muss mich korrigieren:

Gelauncht wird 2021 jeweils die K Serie von:
i9 (8+8)
i7 (8+4)
i5 (6+4)

Zusätzlich launched der High End Chipsatz Z690

Quelle ist Moores Law is dead: https://youtu.be/YCRoo0tqJL4

Rest dann Anfang 2021 unter anderem:
i5 non K mit 6 big Cores - das wäre die Alternative zum 11400
i3 non K mit 4 big Cores

Das mit Mitte 2022 war eine Schätzung von mir. Es geht ja hier nicht nur um die Lieferbarkeit der CPUs und Boards. Es muss ja auch DDR5 in bezahlbare Regionen kommen. Das wird sicher auch nicht am ersten Tag der Fall sein. Auch ist an der Plattform so viel neu, dass es wahrscheinlich sehr mutig wäre gleich die ersten Boards zu kaufen.

Gast
2021-08-05, 09:42:53
Der Preis der FE Karten ist für die AIBs vollkommen irrelevant.


Der Preis der FE-Karten ist für AIBs sogar sehr relevant, weil das ist der Preis über den sie nicht großartig drüber gehen können ohne was sehr exklusives zu bieten, oder sie bleiben auf ihrer Ware sitzen.

Das setzt natürlich voraus, dass man die FE tatsächlich kaufen kann, aber bei Turing war das ja auch der Fall.

Die aktuellen Mondpreise können nur verlangt werden weil es defakto keine FE zum UVP zu kaufen gibt.


Bei einem Gewinn von ca. 40% des Umsatzes und wenig Fixkosten, da alles extern produziert wird hat das jedoch nur mehr einen eher geringen Effekt.


Wie bitte kaum Fixkosten im Hardwarebereich, wo lebst du?
Die ganze Halbleiterfertigung ist darauf ausgelegt hohe Fixkosten auf eine möglichst hohe Stückzahl zu verteilen.
um knapp 40% erhöht.


Du darfst hier nicht den Fehler machen die Preise am Beginn der 16nm Ära mit denen am Beginn der 10nm Ära zu vergleichen. Du musst hier 12nm (16nm++) am Ende der Ära mit 8nm (10nm+) in der Mitte der Ära vergleichen.
Unabhängig vom realen Aufwand bei der Herstellung:
.) Ist die Ausbeute von 12nm extrem hoch während Samsung mit 8nm erst seit kurzem so große Chips fertigt. Die Jahre davor waren es immer nur kleine Mobilchips um die 100mm²


Weshalb Nvidia seit dem 130nm Debakel immer erst auf eine neue Fertigung umgestiegen ist wenn deren ausbeute der Vorgängerfertigung sehr nahe kommt.
Und Samsungs 8N ist ein 10nm Derivat und damit auch sehr ausgereift, weshalb Nvidia dieses wohl auch ausgewählt hat, man hätte ja auch 7nm von Samsung haben können.


Grundsätzlich Sinn macht ein Shrink bereits bei Gleichstand Kosten/Transistor, da ein Shrink ja auch höhere Taktraten bei gleicher Verlustleistung ermöglicht.


Nur wenn man den Shrink rein zum Kostensparen ohne Leistungserhöhung verwenden will, wie es beispielsweise bei den Konsolen üblich ist.
Nicht wenn man den Shrink dazu nutzen will auch eine ordentliche Mehrleistung zu liefern.


Die einmaligen Designkosten spielen auch keine Rolle, da diese sofern man die Fertigung nicht generell überspringen will dann eben 1 Jahr später bezahlt werden müssten.


Gerade diese sind ein riesiger Brocken.


Es könnte auch einfach damit zu tun haben, dass GDDR6 derzeit einfach nicht am Markt in ausreichender Menge zu bekommen ist, Micron mit GDDR6X jedoch noch liefern konnte.


Und was passiert wenn GDDR6 nicht verfügbar ist? Richtig er wird teurer, und damit potentiell GDDR6X das günstigere Produkt.



Nvidia profitiert dadurch, dass man den AIBs die Chips weiterhin um 20% über Listenpreis wie bei Launch verkaufen kann, womöglich noch teurer.


Dafür gibt es keinen einzigen Hinweis.


Nvidia wurde von TSMC vor die Tür gesetzt, nachdem sich Jensen bei den Preisverhandlungen wieder einmal maßlos übertrieben hat und TSMC hat beschlossen, dass sie mitlerweile in einer Situation sind, wo sie sich das nicht mehr bieten lassen müssen.


Nvidia dürfte viel mehr einfach nichts mehr bekommen haben. Wie bereits erwähnt ist Nvidia seit 130nm mit neuen Fertigungen extrem vorsichtig und steigt erst um wenn diese ausgereift sind.

Mit 7nm hat man wohl zu lange Zugewartet und die Konsolen/AMD haben die nötigen Kapazitäten weggenommen, Nvidia hatte damit gar keine andere Wahl als auf Samsung zu wechseln.

WedgeAntilles
2021-08-05, 12:11:46
Und auf was soll der Vergleich dieser Karten abzielen außer dass der Name ähnlich ist?

Die 2080 ist ein 13.6Mrd Transistoren Chip, die 3080 ist ein 28,3Mrd. Transistoren Chip.

Ernsthaft?
Der Vergleich beweist dir, dass deine Aussage: Niedrigere UVPs schlicht falsch ist.
Deine Aussage zu den Transistoren ist zwar richtig, aber trotzdem völlig lächerlich.
Natürlich hat die mehr Transistoren.
Schau mal nach wieviele Transistoren ein 4-86er hatte.

Nach dieser "Logik" müssten CPUs heute Millionen (oder Milliarden? Habe es nicht nachgerechnet) kosten.
Du darfst auch gerne die Transistoren-Entwicklung bei GPUs anschauen.
Wieviele hatte denn eine TNT2? Und wieviele eine Geforce 4?
Und Festplatten. Meine erste Festplatte hatte 500mb oder so. Meine aktuelle hat 3TB. Naja, die hat mich ja auch über 1 Million Euro gekostet, halt das 6000 fache von damals. Ist ja auch 6000 mal so groß. Ne halt, stimmt irgendwie nicht...

Sorry, aber wem da nicht auffällt dass diese Logik Schwachsinn ist, dem ist nicht zu helfen.


Die beinahe Verdreifachung der Umsatzrendite ignorierst du auch.


Entschuldige die Frage, aber wieviel Kohle zahlen Nvidia und AMD dir für deine Propaganda?
Oder bewirbst du dich aktuell in der Marketingabteilung und dieser Thread hier ist dein Bewerbungsschreiben?

iamthebear
2021-08-07, 01:11:15
Der Preis der FE-Karten ist für AIBs sogar sehr relevant, weil das ist der Preis über den sie nicht großartig drüber gehen können ohne was sehr exklusives zu bieten, oder sie bleiben auf ihrer Ware sitzen.

Noch einmal zur Erklärung:
AIBs kalkulieren ihre Verkaufspreise nach den Kosten. Die FE ist eine limitierte Auflage zu Marketingzwecken bzw. dass man den Reviewern was eigenes zu testen geben kann, mehr nicht. Die hat auf die Preise rein gar keine Auswirkung.
Die Konkurrenz sind hier die anderen AIBs. Hier wird ausschließlich nach Kosten kalkuliert und die bestimmt Nvidia. Der Unterschied ist nur, dass bei den Premiumprodukten etwas mehr Marge draufgeschlagen wird.

Das setzt natürlich voraus, dass man die FE tatsächlich kaufen kann, aber bei Turing war das ja auch der Fall.

Die aktuellen Mondpreise können nur verlangt werden weil es defakto keine FE zum UVP zu kaufen gibt.

Bei Turing war diese 20% teurer, deshalb wurden weniger gekauft. Wäre diese zum Listenpreis des Referenzmodells verkauft worden, hätte es auch keine gegeben und die gekauften wären genauso auf Ebay verkauft worden.

Um eine Konkurrenz zu den AIBs zu sein müsste Nvidia die in viel größeren Stückzahlen auflegen, was aber im Fall von Ampere auf Grund der viel zu teuren Kühlerkonstruktion (angeblich 150$) gar nicht möglich.

Wie bitte kaum Fixkosten im Hardwarebereich, wo lebst du?
Die ganze Halbleiterfertigung ist darauf ausgelegt hohe Fixkosten auf eine möglichst hohe Stückzahl zu verteilen.
um knapp 40% erhöht.

Nvidia ist aber kein Halbleiterfertiger.

Weshalb Nvidia seit dem 130nm Debakel immer erst auf eine neue Fertigung umgestiegen ist wenn deren ausbeute der Vorgängerfertigung sehr nahe kommt.
Und Samsungs 8N ist ein 10nm Derivat und damit auch sehr ausgereift, weshalb Nvidia dieses wohl auch ausgewählt hat, man hätte ja auch 7nm von Samsung haben können.

Sehr ausgereift für Mobile Chips mit 100mm² Dies vielleicht.
Wieviele 600mm² Produkte fallen dir bei Samsungs 10nm Fertigung denn spontan ein?


Nur wenn man den Shrink rein zum Kostensparen ohne Leistungserhöhung verwenden will, wie es beispielsweise bei den Konsolen üblich ist.
Nicht wenn man den Shrink dazu nutzen will auch eine ordentliche Mehrleistung zu liefern.

Den Herstellern geht es IMMER darum, die Kosten zu reduzieren.
Ob man diese Kostenreduktion (bzw. Mehrleistung zum selben Preis) dem Kunden sofort weitergibt oder auf den nächsten Generationssprung wartet ist eine rein kaufmännische Entscheidung.

Der Punkt ist:
Selbst wenn die Kosten gleich bleiben, so kann man schon mehr Performance zum selben Preis durch gesteigerte Taktraten (oder wahlweise geringere Verlustleistung) liefern.

Gerade diese sind ein riesiger Brocken.

Das habe ich auch nie bestritten. Dieser Brocken wird jedoch nicht größer oder kleiner nur weil man die Umstellung 1 Jahr früher oder später macht.
Hätte sich Nvidia z.B. entschieden Turing auch bereits in Samsung 8nm zu fertigen, dann hätten sie die Kosten eben schon 2018 gehabt und nicht erst 2020. An den Gesamtkosten hätte sich jedoch nicht viel geändert. Die Kosten hätten sich nur reduziert wenn Nvidia 8nm komplett übersprungen hätte und gleich auf 5nm gesetzt hätte, was aber sowieso keine Option gewesen wäre.

Und was passiert wenn GDDR6 nicht verfügbar ist? Richtig er wird teurer, und damit potentiell GDDR6X das günstigere Produkt.

Meine Argumentation war, dass der VRAM, den Nvidia bei Ampere in Q1 2021 verbaut hat deutlich teurer war als der GDDR6 VRAM, den Nvidia bei angeblich gleichem Verkaufspreis Anfang 2020 verkauft hat.




Dafür gibt es keinen einzigen Hinweis.

Du meinst abgesehen davon, dass der prozentuelle Gewinn trotz massiv gestiegener Fertigungskosten gleich geblieben ist?
Oder dass Nvidia haargenau dasselbe bei Turing (zu Zeiten ohne Miningboom) und zu etwas geringerem Grad auch bei Pascal gemacht hat?
Oder die Tatsache, dass der ganze Plan mit den ausverkauften FE Karten, den Preiserhöhungen kurz nach Launch (noch 2 Monate vor dem Miningboom) bereits alles von MLID 1:1 vorhergesagt wurde?



Nvidia dürfte viel mehr einfach nichts mehr bekommen haben. Wie bereits erwähnt ist Nvidia seit 130nm mit neuen Fertigungen extrem vorsichtig und steigt erst um wenn diese ausgereift sind.

Mit 7nm hat man wohl zu lange Zugewartet und die Konsolen/AMD haben die nötigen Kapazitäten weggenommen, Nvidia hatte damit gar keine andere Wahl als auf Samsung zu wechseln.

Auch hier gab es ja schon Leaks dazu und zwar lang bevor öffentlich bekannt wurde, dass Ampere mit Samsung 8nm gefertigt wird.
Die Tatsache, dass Ampere jetzt wirklich mit 8nm gefertigt wird bestätigt meiner Meinung nach diese Quelle, weshalb ich die Geschichte einmal glaube so lange bis ich Hinweise finde, die dagegen sprechen.

Aber anscheinend war das Zerwürfnis zwischen TSMC und Nvidia doch nicht so groß, dass sie gar nie mehr zusammenarbeiten und man sich bei 5nm doch noch einigen konnte, wahrscheinlich weil Nvidia eingesehen hat, dass sie nur mit Samsung auf Dauer keine Chance haben bzw. wenn sie sich nur von Samsung abhängig machen.


Ernsthaft?
Der Vergleich beweist dir, dass deine Aussage: Niedrigere UVPs schlicht falsch ist.
Deine Aussage zu den Transistoren ist zwar richtig, aber trotzdem völlig lächerlich.
Natürlich hat die mehr Transistoren.
Schau mal nach wieviele Transistoren ein 4-86er hatte.

Nach dieser "Logik" müssten CPUs heute Millionen (oder Milliarden? Habe es nicht nachgerechnet) kosten.
Du darfst auch gerne die Transistoren-Entwicklung bei GPUs anschauen.
Wieviele hatte denn eine TNT2? Und wieviele eine Geforce 4?
Und Festplatten. Meine erste Festplatte hatte 500mb oder so. Meine aktuelle hat 3TB. Naja, die hat mich ja auch über 1 Million Euro gekostet, halt das 6000 fache von damals. Ist ja auch 6000 mal so groß. Ne halt, stimmt irgendwie nicht...

1.) Es geht hier um einen Vergleich einer alten eingespielten 12nm (16nm+++) im Jahr 2020 mit einer deutlich neueren 8nm Fertigung (10nm+), mit der zum ersten Mal große Chips produziert wurden.

2.) Bis ca. 40nm waren die Fertigungskosten pro mm² wenn man sie im selben Stadium (z.B. 2 Jahre nach Einführung) verglichen hat relativ konstant.
Seither steigen mit jeder Generation die Fertigungskosten. Bis 14/16nm war das noch eher gemäßigt aber ab dann ist der Kostenanstieg enorm.

Der Grund dafür liegt daran, dass bei konventionellen Belichtungsverfahren viel mehr Durchläufe notwendig sind, da Transistoren schon deutlich kleiner sind als die Wellenlänge des verwendeten Lichts.
Die Alternative ist EUV, jedoch ist hier das Equipment extrem teuer.

AMD hat hier schön Folien dazu:
https://www.dvhardware.net/article71210.html

Lehdro
2021-08-07, 11:50:09
Also ich habe nichts mitbekommen, dass es im letzten Jahr von Intel irgendwelche Lieferprobleme gegeben hätte. Das sind derzeit glaube ich die einzigen, wo es keine Einschränkungen gibt.
Frag doch direkt mal bei Intel nach:
Substratknappheit bei Intel (https://www.pcgameshardware.de/CPU-CPU-154106/News/Intel-Berichte-ueber-Substrat-Knappheit-und-steigende-Preise-1369808/)
Lieferengpässe bei CPUs Q3 2021 (https://global.techradar.com/de-de/news/intel-warnt-vor-lieferengpassen-bei-cpus-in-naher-zukunft)

2020 war übrigens von Lieferproblemen seitens Intel geprägt:
Lieferengpass Intel 2020 (https://www.heise.de/newsticker/meldung/Lieferprobleme-bei-Intel-Engpaesse-betreffen-inzwischen-auch-Xeon-Prozessoren-4642191.html) (2 (https://www.computerbase.de/2020-01/lieferprobleme-intel-hp-xeon-2020/))
Google hat auch diverse Treffer (https://www.google.com/search?q=intel+lieferproblem+2020)

Leonidas
2021-08-08, 03:43:48
Naja, da gibt es schon eine Differenz zu den aktuellen Gfx-Engpässen. Intel ist faktisch lieferbar, AMD & NV nicht in dem Maßstab, wie man es bräuchte. Intel hat keine sorgenfreie Situation, ist damit aber weit von den Verwerfungen des Gfx-Marktes entfernt. Jammern auf hohem Niveau.

Troyan
2021-08-08, 08:42:52
Naja, da gibt es schon eine Differenz zu den aktuellen Gfx-Engpässen. Intel ist faktisch lieferbar, AMD & NV nicht in dem Maßstab, wie man es bräuchte. Intel hat keine sorgenfreie Situation, ist damit aber weit von den Verwerfungen des Gfx-Marktes entfernt. Jammern auf hohem Niveau.

Intel hat eigene Fabriken. nVidia und AMD müssen bei Fremdherstellern fertigen. Samsung und Apple verkaufen z.B. auch deutlich mehr Smartphones dieses Jahr als letztes Jahr. Auch ist es fragwürdig, ob Samsung nur wegen nVidia weitere 8nm Straßen hochgezogen hat.

Gast
2021-08-09, 09:52:44
Die FE ist eine limitierte Auflage zu Marketingzwecken bzw. dass man den Reviewern was eigenes zu testen geben kann, mehr nicht. Die hat auf die Preise rein gar keine Auswirkung.


Die FE setzt ein Maximum fest, was ein Dritthersteller für eine "normale" Grafikkarte verlangen kann, sofern sie verfügbar ist.


Bei Turing war diese 20% teurer, deshalb wurden weniger gekauft. Wäre diese zum Listenpreis des Referenzmodells verkauft worden, hätte es auch keine gegeben und die gekauften wären genauso auf Ebay verkauft worden.


Weshalb es auch kaum 2080Ti zum "Referenzpreis" von 999 gab und sich praktisch alle Hersteller am Premiumpreis der FE orientierten.


Nvidia ist aber kein Halbleiterfertiger.


Noch schlimmer, Nvidia ist ein Halbleiterdesigner, und ein GA102 kostet im Design bis zum Tape-Out und dem ersten voll funktionstüchtigen Stück Hardware genau gleich viel egal ob man eine einzelne GPU oder Millionen davon herstellt.



Den Herstellern geht es IMMER darum, die Kosten zu reduzieren.
Ob man diese Kostenreduktion (bzw. Mehrleistung zum selben Preis) dem Kunden sofort weitergibt oder auf den nächsten Generationssprung wartet ist eine rein kaufmännische Entscheidung.

Der Punkt ist:
Selbst wenn die Kosten gleich bleiben, so kann man schon mehr Performance zum selben Preis durch gesteigerte Taktraten (oder wahlweise geringere Verlustleistung) liefern.



Damit sind aber neue teure Designs notwendig. Die zahlen sich nur aus wenn man erwarten kann, dass man diese neuen Designs massenweise verkaufen kann.

Das ist aber nur der Fall wenn man ausreichende Fortschritte macht, dass potentielle Kunden auch zuschlagen weil es eine entsprechende Mehrperformance gibt.

Gleiche Performance zu günstigern Preisen auf den Markt zu werfen bringt bei den meisten Produkten nicht viel, weil diejenigen die jene Performance möchten eh schon das Vorgängerprodukt haben.


Das habe ich auch nie bestritten. Dieser Brocken wird jedoch nicht größer oder kleiner nur weil man die Umstellung 1 Jahr früher oder später macht.


Dann verstehst du anscheinend nicht die daraus entstehenden Implikationen.
Wenn ich für ein Produkt fix 1 Mrd. Investitionskosten habe um es überhaupt zur Marktreife zu bringen, und 300 um ein Produkt zu fertigen, das ich dann um 600 verkaufe macht es einen großen Unterschied ob ich von diesem Produkt 1000, 10000, 100000, 1000000 oder 100000000 Teile verkaufen kann.
Und je mehr ich davon verkaufe desto größer wird der prozentuale Gewinnanteil am Umsatz.


Du meinst abgesehen davon, dass der prozentuelle Gewinn trotz massiv gestiegener Fertigungskosten gleich geblieben ist?


Siehe oben, auch wenn die Fixkosten für ein Produkt sehr hoch sind, und das sind sie bei Halbleiterbausteinen nun mal weil ein Großteil der Kosten das Design und F&E sind und nicht die eigentliche Fertigung, ist es ganz normal dass der Gewinnanteil mit steigenden Verkaufszahlen immer höher werden.

Genau genommen ist der hohe Fixkostenanteil bei Halbleitern der Grund warum wir trotz massiv gestiegener Fertigungskosten immer noch relativ moderate Preissteigerungen bei den Endkundenpreisen (ohne Miningwahnsinn) haben, ganz einfach weil die Fertigungskosten am Gesamtprodukt nur einen relativ kleinen Anteil ausmachen.



Aber anscheinend war das Zerwürfnis zwischen TSMC und Nvidia doch nicht so groß, dass sie gar nie mehr zusammenarbeiten und man sich bei 5nm doch noch einigen konnte, wahrscheinlich weil Nvidia eingesehen hat, dass sie nur mit Samsung auf Dauer keine Chance haben bzw. wenn sie sich nur von Samsung abhängig machen.


Es gab kein Zerwürfnis, GA100 wird von TSMC in 7nm gefertigt. Zu dem Zeitpunkt als sich Nvidia für die Ampere-Generation auf eine Fertigung festgelegt hat konnte man einfach nicht mehr ausreichend Kapazitäten für die gesamte Reihe bekommen, also hat man nur das Teil mit der größten Marge und den niedrigsten Stückzahlen bei TSMC gefertigt.

Nvidia war nie weg von TSMC, der Grund warum TSMC 7N keine Option für die gesamte Ampere-Reihe sein konnte sind die Konsolendeals die wohl schon davor abgeschlossen wurden und einen großen Teil der Kapazitäten belegen.

Wären die Konsolen erst ein oder zwei Jahre später erschienen könnte es ganz anders aussehen.
Vielleicht hätte Nvidia trotzdem das Experiment Samsung gemacht, ganz einfach weil man nicht von einem Fertiger abhängig sein will. Aber man hätte bestimmt nicht die gesamte Consumerreihe von Samsung bezogen sondern die GPUs auf beide Fertiger aufgeteilt.