PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die Grafikchip- und Grafikkarten-Marktanteile im dritten Quartal 2022


Leonidas
2022-11-26, 14:23:34
Link zur News:
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2022

Timbaloo
2022-11-26, 14:42:13
3.8% intel ist mehr als ich erwartet habe. Sicher ist Q3 nicht sonderlich repräsentativ, aber immerhin.

MiamiNice
2022-11-26, 14:52:35
Ich empfinde die Zahlen als repräsentativer als sonst üblich. Spiegelt ziemlich genau die Situation unter den Gamern wieder, mit denen ich spiele.

L233
2022-11-26, 15:09:39
Krass, wie AMD abgeschmiert ist. Bei nVidia ist bei den Stückzahlen ein Rückgang von "nur" 40% zu verzeichnen. Bei AMD sind die Stückzahlen um 80% eingebrochen.

Ravenhearth
2022-11-26, 15:47:22
Dies ist dann der mit großem Abstand niedrigste Marktanteil, welchen AMD jemals in diesem Feld erzielte – der vorherige Minus-Rekord lag immerhin noch bei 18,8% (viertes Quartal 2018).
War das nicht Q4/2020 mit 17%?

Iscaran
2022-11-26, 16:10:06
Krass, wie AMD abgeschmiert ist. Bei nVidia ist bei den Stückzahlen ein Rückgang von "nur" 40% zu verzeichnen. Bei AMD sind die Stückzahlen um 80% eingebrochen.

AMD hat Absolut ca 1.4 Mio GPUs weniger verkauft, nVidia dagegen >2.3 Mio weniger.

Auffallend. Die Total Sales sind nun auf dem Niveau von 2019.
https://www.3dcenter.org/dateien/abbildungen/Stueckzahlen-Absatz-Desktop-Grafikkarten-2019-2022_v2.png

Also praktisch in etwa DA wo man OHNE Mining war in Absolutzahlen.

Iscaran
2022-11-26, 20:31:11
@Leonidas:

Man kann aus den Angaben sogar die noch fehlenden Anteile in Absolutzahlen für dGPU usw ermitteln.
Beispiel:
dGPU Midrange Consumer 12,2% 9,4% 78,4% (∑2,78M)
Da die GesamtSUMME bekannt ist (2.78 M) sind die Anteile AMD = 0.122*2.78 M = 0.296 M, Intel = 0.094*2.78 M= 0.261 M und nVidia 0.784*2.78 M = 2.180 M

usw.

Somit ergibt sich folgendes Gesamtbild an diskreten GPUs:
dGPU Workstation 5,5%=0.04 M —— 94,5%=0.69 M (∑0,73M)
dGPU HighEnd Consumer 5,4%=0.13 M —— 94,6%=2.29 M (∑2,42M)
dGPU Midrange Consumer 12,2%=0.34 M 9,4%=0.26M 78,4%=2.18 M (∑2,78M)
dGPU Entry-Level Consumer 18,8%=0.18 M —— 81,2%=0.78 M (∑0,96M)
Gesamtsumme dGPU AMD also 0.04+0.13+0.34+0.18 = 0.69 M GPUs was wiederum als Check zu den 10% an der Gesamtsumme von JPR von 6.89 M passt.

Jetzt kann man noch spekulieren was Workstation Entry usw. GPUs sind.
Workstation würde ich mal Radeon Pro und FirePro annehmen.
Highend = 6800 XT bis 6950 XT ?
Midrange = 6600 - 6800
Entry das darunter?
Könnte man ja dann wiederum mit den Verkaufszahlen von Mindfactory abgleichen.

paul.muad.dib
2022-11-26, 23:11:48
Wirklich erschreckend, die AMD Marktanteile.

7.6% dGPU, denn ich denke Laptop wird immer wichtiger und muss zum Gaming mitgerechnet werden.

Wäre um die Erklärung gespannt, die meisten AMD Karten haben ja ein ein besseres P/L Verhältnis (zumindest in Raster Grafik).

Mit unter 10 Prozent Marktanteil kann sich AMD fast verabschieden. Die Fixkosten bei Treiberentwicklung, Dev-Support, Chipentwicklung sind dann einfach zu hoch. Außerdem werden Spieleentwickler kaum noch Ressourcen in AMD-seitige Probleme investieren.

Der PC-Gaming Markt wird zum NV-Monopol, die 5000-Serie noch teurer und AMD immer schlechter.

Leider ein selbst verstärkender Effekt, denn mit diesen Zahlen vor Augen habe ich wirklich Bedenken, noch mal AMD zu kaufen.

Lyka
2022-11-26, 23:30:45
ja, wenn ich AMD Laptops sehe, die es für normal Geld gibt, die meistens irgendwelche aufgebohrte 4xxx CPUs haben (trotz 5xxx Bezeichnung), dann entscheide ich mich lieber dafür, gar keinen Laptop zu kaufen als Zweitgerät. Ist wirklich extrem schade.

auf der anderen Seite verstehe ich AMD so halb, wenn die meisten Laptop-Hersteller eh Intel-Hardware einbauen (aus Gründen der langjährigen Geschäftisverbindungen und weil AMD gebundene Notebooks früher eher mistig waren: https://www.notebookcheck.net/Ryzen-is-great-so-why-are-most-AMD-notebooks-embarrassingly-bad.237106.0.html)

Gast
2022-11-26, 23:44:49
Wirklich erschreckend, die AMD Marktanteile.

7.6% dGPU, denn ich denke Laptop wird immer wichtiger und muss zum Gaming mitgerechnet werden.

Wäre um die Erklärung gespannt, die meisten AMD Karten haben ja ein ein besseres P/L Verhältnis (zumindest in Raster Grafik).

Mit unter 10 Prozent Marktanteil kann sich AMD fast verabschieden. Die Fixkosten bei Treiberentwicklung, Dev-Support, Chipentwicklung sind dann einfach zu hoch. Außerdem werden Spieleentwickler kaum noch Ressourcen in AMD-seitige Probleme investieren.

Der PC-Gaming Markt wird zum NV-Monopol, die 5000-Serie noch teurer und AMD immer schlechter.

Leider ein selbst verstärkender Effekt, denn mit diesen Zahlen vor Augen habe ich wirklich Bedenken, noch mal AMD zu kaufen.

Da ist AMD weitgehend selber schuld.
Bessere P/L? Ja, aber nur minimal.
Je nach dem wie man RT und DLSS gewichtet ist da sehr schnell Gleichstand.
Und sorry, wenn AMD und Nvidia fast das Gleiche P/L Verhältnis haben kaufen die meisten halt Nvidia.
AMD muss sicher nicht nur die Hälfte kosten - wenn es aber fast identisch ist kann man auch gleich Nvidia nehmen.

Bei der neuen 7900XTX ist das doch wieder genau das gleiche.
Klar, rein Rasterleistung besser als die 4080.
Aber alles eingerechnet ist sie vielleicht 100 Euro besser als die 4080. Und das bei Produkten die 1200-1400 Euro kosten.
Das ist einfach zu wenig um auf AMD zu wechseln.
Gerade wenn man sich Spiele wie jetzt aktuell Spiderman anschaut. Es gibt einfach immer wieder Spiele, bei denen man bei AMD massiv an den Reglern drehen muss.
Weit stärker als bei Nvidia in der gleichen Preisregion.

Schön, wenn andere Spiele dann 180 Frames vs 150 Frames haben.
Oder 250 vs 200 Frames pro AMD.
Bei den Spielen wo AMD Nvidia schlägt, hat auch Nvidia genug Power für flüssiges spielen. Da ist es nicht schlimm Nvidia zu haben.
Aber es gibt genug Spiele bei denen hat AMD nicht genug Power während Nvidia das liefert.
Und sei es mit DLSS.
Und wenn man bei Nvidia flüssig spielen kann, bei AMD nicht, dann ist das eben ein Problem für AMD.
Auch wenn es nur relativ wenig Spiele sind.

Aber wieso AMD kaufen, wenn man kaum günstiger unterwegs ist und es diese Spiele eben gibt?

Nvidia bietet das unterm Strich bessere Paket an, das sicher ist - man kann alles zocken. Und für die Masse bedeutet Nvidia zusätzlich größere Sicherheit (Treiber) - ob das stimmt oder nicht spielt keine Rolle.
Dafür zahlen die meisten auch gerne 10, 20% mehr.

Wenn AMD das nicht kapiert wird AMD eben bei einem Marktanteil von 10-20% bleiben - falls Intel besser wird wohl eher deutlich weniger.

Leonidas
2022-11-27, 07:27:42
War das nicht Q4/2020 mit 17%?

In der Tat, übersehen. Fixe ich!



Auffallend. Die Total Sales sind nun auf dem Niveau von 2019.
Also praktisch in etwa DA wo man OHNE Mining war in Absolutzahlen.

Würde ich nicht sagen. 2019 war der Durchschnitt bei 9,6M/Quartal, heuer sind es 6,9M. Das ist schon ein Unterschied.




Man kann aus den Angaben sogar die noch fehlenden Anteile in Absolutzahlen für dGPU usw ermitteln.

Bei WCCF sind die Absolutzahlen in Original JPR-Angabe notiert. Ich habe sie in Prozente ungerechnet, weil ich die prozentuale Angabe für wichtiger hielt und über die Summen-Angabe man die Größe des Marktsegments auch so sieht. Aber alle Absolut-Zahlen hast Du dann bei WCCF. Sehr seltene Angaben in dieser Genauigkeit.

MiamiNice
2022-11-27, 09:11:55
Da ist AMD weitgehend selber schuld.
Bessere P/L? Ja, aber nur minimal.
Je nach dem wie man RT und DLSS gewichtet ist da sehr schnell Gleichstand.
Und sorry, wenn AMD und Nvidia fast das Gleiche P/L Verhältnis haben kaufen die meisten halt Nvidia.
AMD muss sicher nicht nur die Hälfte kosten - wenn es aber fast identisch ist kann man auch gleich Nvidia nehmen.

Bei der neuen 7900XTX ist das doch wieder genau das gleiche.
Klar, rein Rasterleistung besser als die 4080.
Aber alles eingerechnet ist sie vielleicht 100 Euro besser als die 4080. Und das bei Produkten die 1200-1400 Euro kosten.
Das ist einfach zu wenig um auf AMD zu wechseln.
Gerade wenn man sich Spiele wie jetzt aktuell Spiderman anschaut. Es gibt einfach immer wieder Spiele, bei denen man bei AMD massiv an den Reglern drehen muss.
Weit stärker als bei Nvidia in der gleichen Preisregion.

Schön, wenn andere Spiele dann 180 Frames vs 150 Frames haben.
Oder 250 vs 200 Frames pro AMD.
Bei den Spielen wo AMD Nvidia schlägt, hat auch Nvidia genug Power für flüssiges spielen. Da ist es nicht schlimm Nvidia zu haben.
Aber es gibt genug Spiele bei denen hat AMD nicht genug Power während Nvidia das liefert.
Und sei es mit DLSS.
Und wenn man bei Nvidia flüssig spielen kann, bei AMD nicht, dann ist das eben ein Problem für AMD.
Auch wenn es nur relativ wenig Spiele sind.

Aber wieso AMD kaufen, wenn man kaum günstiger unterwegs ist und es diese Spiele eben gibt?

Nvidia bietet das unterm Strich bessere Paket an, das sicher ist - man kann alles zocken. Und für die Masse bedeutet Nvidia zusätzlich größere Sicherheit (Treiber) - ob das stimmt oder nicht spielt keine Rolle.
Dafür zahlen die meisten auch gerne 10, 20% mehr.

Wenn AMD das nicht kapiert wird AMD eben bei einem Marktanteil von 10-20% bleiben - falls Intel besser wird wohl eher deutlich weniger.

Da bringt es tatsächlich jemand auf den Punkt.
:up: und +1


Der PC-Gaming Markt wird zum NV-Monopol, die 5000-Serie noch teurer und AMD immer schlechter.


Dein Post suggeriert, das es noch nicht so wäre. Defakto ist NV seit Jahren Monopolist auf den Markt. Man vergisst das ganz schnell in Foren wie diesem hier. Der Unterschied zu „sonst“ ist, das es jetzt schwarz auf weiß fest steht. Da kann kein roter Mob mehr kommen und es in den Boden relativieren.

Ätznatron
2022-11-27, 09:49:57
Man sollte das Ganze mal regional aufsplitten.

Weltweit mag JPR mit den Zahlen richtig liegen, in D (vermutlich auch in weiten Teilen Europas) sehe ich den Markt anders aufgeteilt.

Schaut man sich die Ergebnisse der Hardwareumfragen diverser HW-Magazine an (bspw. PCGH (https://www.pcgameshardware.de/hardwaredata/)), ist der Unterschied mit ungefähr 40 zu 60 Prozent zu Gunsten nVidias bei weitem nicht so krass, wie hier suggeriert wird.

Platos
2022-11-27, 11:04:24
Hardwaremagazine ;D

Ätznatron
2022-11-27, 11:34:43
Hardwaremagazine ;D


Und? Gibt's daran was auszusetzen?

Die sind ein guter Indikator.

Man kann gerne auch die Verkaufszahlen der Händler einbeziehen, z.B. die von MF.

Auf jeden Fall ist es nicht falsch, auch andere Quellen neben JPR zu nutzen.

Man findet beim googlen übrigens sehr wenig über Jon Peddie Research. Finde ich schon seltsam.

Leonidas
2022-11-27, 11:54:51
Bei der neuen 7900XTX ist das doch wieder genau das gleiche.
Klar, rein Rasterleistung besser als die 4080.
Aber alles eingerechnet ist sie vielleicht 100 Euro besser als die 4080. Und das bei Produkten die 1200-1400 Euro kosten.

Widerspruch: AMD scheint bei RX7000 das P/L-Verhältnis anhand der RT-Leistung ausgelegt haben. Es ist nicht besser als bei NV, aber auch nicht schlechter. Dafür ist dann aber alles, was Raster-Performance ist, beim P/L-Verhältnis satt 30% besser. Bei der 7900XT etwas weniger als bei der 7900XTX, aber das Prinzip bleibt bestehen. Beleg:
https://www.3dcenter.org/news/news-des-15-november-2022

Generell gebe ich Dir natürlich Recht: AMD hatte (bisher) nicht darauf geachtet, dass sie gegenüber dem Namen von NV deutlich bessere P/L bieten müssen.

Troyan
2022-11-27, 12:02:05
Hä? Die 4080 kostet 20% mehr, wird aber 30% mehr RT Leistung haben. Und das wird in Zukunft noch weiter auseinandergehen für die 4080.

Leonidas
2022-11-27, 12:10:19
Korrekt. Ich redete nicht von der absoluten Performance, sondern vom P/L unter RT.

Troyan
2022-11-27, 12:28:07
Und die ist schlechter, weil 30% > 20% ist - jedenfalls nach AMDs eigenen Zahlen.

MiamiNice
2022-11-27, 12:43:31
Man sollte das Ganze mal regional aufsplitten.

Weltweit mag JPR mit den Zahlen richtig liegen, in D (vermutlich auch in weiten Teilen Europas) sehe ich den Markt anders aufgeteilt.

Schaut man sich die Ergebnisse der Hardwareumfragen diverser HW-Magazine an (bspw. PCGH (https://www.pcgameshardware.de/hardwaredata/)), ist der Unterschied mit ungefähr 40 zu 60 Prozent zu Gunsten nVidias bei weitem nicht so krass, wie hier suggeriert wird.


Die Leute die sich auf HW Seiten bewegen, sind verschwindet gering. Für HW interessiert sich nicht jeder, fürs „gamen“ schon. Schau ins Steam Survey, da findest die selben Zahlen. Damals auf der Oculus Seite, das Survey, die selben Zahlen und das schon vor Jahren.
Wenn man sich unter Gamen bewegt, diverse Games und deren Discords, fast ausschließlich NV User, schon immer.
Unter Gamer sagt man: Ein Gaming PC hat eine G-Force - und das auch nicht erst seit gestern. Der Spruch höre ich achon deutlich über ein Jahrzehnt.
AMD Grafik hat auf dem gesamten Markt keinerlei Kunden abseits der Fanbois aus den HW Foren.
AMD muss DEUTLICH günstiger sein, damit es gekauft wird. Ein gutes Drittel günstiger würde ich schätzen.
NV hat einen viel zu krassen Ruf unter Gamern.

Prinzenrolle
2022-11-27, 14:07:44
Diese Zahlen bestätigen das was die Leute kaufen wollen.
Niemand will einen RT Schwächling, so schaut es wohl einfach aus.

Gast
2022-11-27, 14:15:41
Widerspruch: AMD scheint bei RX7000 das P/L-Verhältnis anhand der RT-Leistung ausgelegt haben. Es ist nicht besser als bei NV, aber auch nicht schlechter. Dafür ist dann aber alles, was Raster-Performance ist, beim P/L-Verhältnis satt 30% besser. Bei der 7900XT etwas weniger als bei der 7900XTX, aber das Prinzip bleibt bestehen. Beleg:
https://www.3dcenter.org/news/news-des-15-november-2022

Generell gebe ich Dir natürlich Recht: AMD hatte (bisher) nicht darauf geachtet, dass sie gegenüber dem Namen von NV deutlich bessere P/L bieten müssen.

Kommt eben darauf an, wie man es wertet.
1200 Dollar vs 1000 Dollar - Vorteil von 200 Dollar (oder 20%) für AMD.
Aber 4080 hat DLSS, das ist IMO locker 10% Aufpreis wert.
Raster ist AMD besser, RT ist Nvidia besser.
Mehrheit der Spiele braucht kein RT.
Aber jene Spiele die RT haben brauchen die Frames dafür um so nötiger.
Eine Karte die 20% bei Raster schneller ist und 20% bei RT langsamer ist, ist somit grob gesagt gleich schnell. Und wenn man sich z.B. Spiderman anschaut dürfte die 4080 da eher 40% vor der 7900XTX sein.
Und es gibt bei den RT Games noch sowas wie DLSS.

AMD hat mehr Ram, aber der bringt einem eher wenig. 16GB reicht.
Nvidia braucht weniger Strom, das ist ein Plus.

Je nach Gewichtung von RT sind also beide Karten relativ ähnlich bei der Performance.
AMD ist zwar 200 Dollar weniger, davon aber kann man mindentens 100 Dollar mit DLSS "ausgleichen".

Bleibt AMD 100 Dollar günstiger.
Dafür mehr (eher nutzloser) Ram und merklich mehr Stromverbrauch.

Klar kommt es auf die Bewertung an.
Wen RT nicht interessiert fährt mit AMD weit besser. Keine Frage.
(Nur: Brauche ich eine Grafikkarte für einen 4-stelligen Betrag dafür?)
Wer RT / Raster gleich bewertet ist fast identisch unterwegs.
Und wenn es einen stört, dass man vierstellig ausgibt und dennoch bei diversen Spielen RT deaktivieren muss disqualifiziert sich AMD sowieso.

Evt. bei AMD nen hunderter besser. Aber sorry, wen interessieren 100 Dollar wenn man über 1000 ausgibt?
4-stellig ist Enthusiast. Und welcher Enthusiast will schon so viel Geld ausgeben und Regler sofort bedienen müssen?
Wenn ich bereit bin Regler zu bedienen kaufe ich mir eher eine Karte 500 Dollar oder so, weil mir 1000+ schlicht zu teuer ist.
Oder ich lege eben noch mal paar Dollar drauf und kaufe Nvidia.

Es gibt einfach keinen wirklichen Anreiz auf AMD zu gehen, da Preis-Leistung wenn man alles einrechnet (Stromverbrauch, DLSS...) nur minimal besser ist.
Aber eben immer das Problem bleibt: Es gibt Spiele die mit AMD gar nicht erst auf Max spielbar sind.

Das ist es ja auch, was Intel disqualifiziert.
Ja, es gibt Titel die super laufen und wo die Karten phantastisches Preis-Leistungs-Verhältnis haben.
Aber es gibt eben auch Titel die nicht richtig laufen.
Das Problem ist bei Intel natürlich viel größer als bei AMD.
Aber dennoch bleibt: Ich muss Nvidia kaufen, wenn ich alles zocken will ohne Regler zu bedienen.
Und Regler wollen die meisten User nicht bedienen wenn sie 1000 Dollar ausgebe.

In der Eurozone könnte AMD attraktiv werden - wenn sie die 7900XTX für 1000, 1050 Euro, höchstens 1100 Euro anbieten.
Ist die Karte 400 Euro günstiger als die 4080 gewinnt AMD stark an Attraktivität und ist die klar bessere Wahl als die 4080.
Aber falls die Karte für 1200 Euro kommt?
Ne, attraktiver ist das höchstens in minimaler Dosis.

Iscaran
2022-11-27, 15:18:13
Würde ich nicht sagen. 2019 war der Durchschnitt bei 9,6M/Quartal, heuer sind es 6,9M. Das ist schon ein Unterschied.


Q2/2019 sind es laut deiner Grafi (https://www.3dcenter.org/dateien/abbildungen/Stueckzahlen-Absatz-Desktop-Grafikkarten-2019-2022_v2.png)k auch nur 7.4 M Chips. Das ist kaum mehr als die 6.9 M jetzt.

Der Durchschnitt pro Quartal ist doch nicht relevant, wenn JPR auch nur diese Quartal beurteilt.


Es gibt einfach keinen wirklichen Anreiz auf AMD zu gehen, da Preis-Leistung wenn man alles einrechnet (Stromverbrauch, DLSS...) nur minimal besser ist.
Aber eben immer das Problem bleibt: Es gibt Spiele die mit AMD gar nicht erst auf Max spielbar sind.

Das ist es ja auch, was Intel disqualifiziert.


So ein Schwachsinn "minimal besser" - das Problem ist das weitverbreitete Fanboytum SPEZIELL in diversen Ratgebern, Hardwaretestern usw. welche dann GENAU SO einen Rat raushauen:
"Wenn AMD nur minimal besser ist, dann nimm lieber gleich eine nVidia"...


Und dann noch sowas wie "es gibt Spiele die mit AMD gar nicht auf Max spielbar sind!...ahja, es gibt also Spiele die sind NUR mit einer 4090 spielbar oder wie? Denn die 4080 ist weitgehend bestenfalls gleichschnell wie 7900 XTX, außer wiederum im Nischen-Nischen-Markt: "Aber es MUSS RT auf Ultra stehen, weil sonst starte ich das Spiel gar nicht". Von "optischen Sichtbarkeitsdifferenzen" zwischen Ultra Setting und Ultra-1 Setting hat man aber keine Ahnung vermutlich.

Intel scheint gerade bei der P/L Kategorie sehr viele "mitgenommen" zu haben. Aus dem Stand hat man sich auf 1/3 des Marktanteils von AMD hochgeschoben. Ich bezweifle dass Intel hier sehr viele "Qualitätskunden" von nVidia abgeworben hat.

=> Rechne mal Intel + AMD Marktanteil und der "Markteinbruch" wäre insgesamt gesehen "nur" auf ~14% vs 86%

Offenbar ist es also Intel, welches hier AMD massiv unter Druck setzt, aber nicht nVidia, denn die schlecht "informierten" (siehe oben) bleiben halt bei nVidia, die, welchen die Marke aber egal ist, nehmen das P/L-Angebot und das hat eben in manchen Segmenten Intel.

Gastronom
2022-11-27, 16:55:00
Ich sehe das positiv :) Q2/22 lag der durchschnittliche GPU Preis wieder bei 529$, die Hälfte als ein Jahr zuvor. Das spiegelt m.M.n die die von Gamern bereit zu zahlende Preise eher wieder.

Coronakrise und Mining haben eine anormale Preisspirale in Gang gesetzt, die jetzt hoffentlich beendet ist. Besonders schade ist, das die Firmen scheinbar den Aktionären mehr gefallen möchten, als ihren Kunden. Deshalb ist Konkurrenz so wichtig, und ich drücke Intel beide Daumen, dass sie auch im CPU Bereich Erfolg haben werden.

AMD war für mich immer der sympathische Underdog. Eine 480er oder so war nicht High End, aber ein günstiger und guter Einstieg. Zuerst bei den CPUs, jetzt auch bei den GPUs sind sie einfach 200$ zu teuer. Bei den CPUs gab es ja schon eine Korrektur, das Image hat aber für mich selbst gelitten.
Etwas weniger Gier und AMD könnte nvidea so richtig bei den Marktanteilen angreifen.

MiamiNice
2022-11-27, 20:00:31
Offenbar ist es also Intel, welches hier AMD massiv unter Druck setzt, aber nicht nVidia, denn die schlecht "informierten" (siehe oben) bleiben halt bei nVidia, die, welchen die Marke aber egal ist, nehmen das P/L-Angebot und das hat eben in manchen Segmenten Intel.

Die Kunden die NV kaufen, kaufen ja auch keine AMD. Ergo wird AMD im unterem Segment von Intel und im oberen Segment von NV unter Druck gesetzt. Damit ist man mehr oder minder doppelt in Schwierigkeiten.
Abgesehen davon gibt es Intel Karten erst seit diesem Jahr. Diese Entwicklung ist aber nicht in diesem Jahr passiert. AMD Karten sind quasi seit Uhrzeiten eine Seltenheit in den Kisten der Gamern.
Ich würde eher argumentieren wollen, dass die Intel Kunden vorher NV Kunden waren und das AMD Kunden auf dem diesen Markt nie wirklich existiert haben. Es ist das erste mal seit Jahren, dass wir solcher Art Zahlen bekommen. Ein Blick in die Steam Charts reicht und zu sehen das AMD nie wirkliche Relevanz auf diesem Markt hatte über die letzten Jahre.

Iscaran
2022-11-27, 20:18:22
Abgesehen davon gibt es Intel Karten erst seit diesem Jahr. Diese Entwicklung ist aber nicht in diesem Jahr passiert. AMD Karten sind quasi seit Uhrzeiten eine Seltenheit in den Kisten der Gamern.
Ich würde eher argumentieren wollen, dass die Intel Kunden vorher NV Kunden waren und das AMD Kunden auf dem diesen Markt nie wirklich existiert haben.

Nein, der Marktanteilseinbruch von ~>20% auf 10% ist JETZT genau das erste Quartal wo auch ziemlich stark Intel vertreten ist.

wie gesagt Bilde die Summe aus Intel + AMD und du hast ziemlich genau den Marktanteil den AMD DAVOR alleine hatte.

ChaosTM
2022-11-27, 20:25:55
Ich bin grundsätzlich auch mit einem (schweren) AMD Bias behaftet, aber derzeit (bis RDNA3 rauskommt) bietet NV einfach mehr im High End Segment.

Für alle anderen ist AMD derzeit die bessere Wahl.

Ich hoffe sie können auch oben aufschließen..

Lehdro
2022-11-27, 20:58:48
AMD kann NV nur in einem Bereich wirklich hart treffen: Bei den Margen. Bevor AMD aber selber mit guten Margen und konkurrenzfähigen Preisen auftreten kann, muss der ganze Chipletkram halt gut skaliert werden, so wie bei Zen.

Also muss AMD:

- hohe Performance gegenüber NV forcieren um NV auf hohe Diegrößen zu zwingen
- d.h. man muss leistungsmäßig konkurrenzfähig bleiben im Highend
- gleichzeitig muss man wesentlich günstiger als NV fertigen -> Chiplets
- nur so kann man gleichzeitig hohe Margen und einen Preiskampf führen (siehe Zen)
- da AMD gleichzeitig auf hohe Margen fixiert ist, wird es keinen Preiskampf vorher geben, AMD braucht diesen Vorteil

Vorher wird das nix mit dem Angriff im Highend, da sehe ich eher Chance im Midrangebereich mit N33 und billigem N6 - kommt aber darauf an, was der dann kann und was NV dort bringen will. Und natürlich ob Intel da mitmischen möchte.

Gast
2022-11-27, 20:59:35
Denn die 4080 ist weitgehend bestenfalls gleichschnell wie 7900 XTX, außer wiederum im Nischen-Nischen-Markt: "Aber es MUSS RT auf Ultra stehen, weil sonst starte ich das Spiel gar nicht". Von "optischen Sichtbarkeitsdifferenzen" zwischen Ultra Setting und Ultra-1 Setting hat man aber keine Ahnung vermutlich.
Vor allem, wenn man sich mal das Ergebnis der RT Umfrage bei Computerbase anschaut. Gerade mal 14% ist RT sehr wichtig, alle anderen finden Raster wichtiger. Insofern ist der "Vorteil" bei NVidia kein wirklicher Vorteil, weil die Mehrheit lieber mehr Raster Leistung haben will.

paul.muad.dib
2022-11-27, 21:55:23
Also kurz zusammengefasst: Benchmarks sind egal, 90% kaufen ohnehin nur Nvidia? Aber was hat sich geändert?

Und P/L heißt ja eben nicht nur, eine 6700 XT ist 10% günstiger als eine 3060 ti, sie ist eben auch noch deutlich schneller.

Wenn man nur auf die Enthusiasten Karten ab 3080 schaut, ok, dann ist RT natürlich blöd, aber darunter ist RT auch bei NV immer weniger nutzbar, jedenfalls dann, wenn es auch im Blindtest besser als Raster aussehen soll.

Ich habe das aktuelle Portfolio im großen und ganzen ziemlich ausgeglichen empfunden. NV liegt nur mit der 3090 und der 3060 non-ti ganz vorne. Dazu kommt, dass sie darunter gar nichts wirklich anbieten. Auch wenn 6500/6400 Crap sind, es gibt preislich keine Alternativen. Alleine im Notebook sollte das AMD doch gewisse Anteile geben, bei Käufern die nicht spielen, aber dedizierte Grafik wollen.


Oder sind die allgemein hohen Preise ein Problem für AMD? Weil man bei mehr als 400 Euro Ausgaben unbedingt eine grüne Karte haben will?

Gast
2022-11-27, 21:57:05
Die Zahlen sind vermutlich richtig. Und mal von der extremen Marktanteil-Verlust nicht überraschend.

Die Analyse ist aber unbrauchbar. Je nach Glied in der Lieferkette ca Q3/19 bis Q1/22 sind von Cryptomining und dem Versuch geprägt, fehlende IT nachzurüsten. Unterhaltungsbedarf durch Corona spielt u.a. auch mit rein.
Aber auch wenn der Nachholbedarf nicht gedeckt ist, ist es einfach wegen der weltweiten Lage hirnrissig, mit dem Zeitraum zu vergleichen.

Wie oft muss man das schreiben, bis es durchdringt? Also nicht bei Aktionären. Speziell die bei Nvidiia haben total 'n Knall, aber der Markt ist dumm genug, trotzdem zu zahlen.

Leonidas
2022-11-28, 04:28:26
Q2/2019 sind es laut deiner Grafi (https://www.3dcenter.org/dateien/abbildungen/Stueckzahlen-Absatz-Desktop-Grafikkarten-2019-2022_v2.png)k auch nur 7.4 M Chips. Das ist kaum mehr als die 6.9 M jetzt.
Der Durchschnitt pro Quartal ist doch nicht relevant, wenn JPR auch nur diese Quartal beurteilt.

Wegen der stark schwankenden Werte halte ich es für sinnvoller, gegenüber einem Mittelwert zu vergleichen. Dieses schwache Q2'19 ist doch langjährig gesehen auch ein Ausreißer. Grob 10M pro Quartal als Mittelwert findet sich hingegen sehr oft in den Jahren vor 2020.

Iscaran
2022-11-28, 18:45:13
Wegen der stark schwankenden Werte halte ich es für sinnvoller, gegenüber einem Mittelwert zu vergleichen. Dieses schwache Q2'19 ist doch langjährig gesehen auch ein Ausreißer. Grob 10M pro Quartal als Mittelwert findet sich hingegen sehr oft in den Jahren vor 2020.


Dann wäre aber eine Vergleich 2019 vs 2022 sinnvoller:

9.6 M vs 10.96 M

Eigentlich ist 2022 also deutlich besser als 2019:cool::confused:

Finde da den Einzelquartalsvergleich wesentlich zielführender, denn gerade Q2 2019 war eine zeitlang fast KEIN Miningfieber, dann kam der Corona bedingt IT-Boom, danach dann der nächste Mininghype 2020/21.

Q2/19 mit dem Absatzminimum stellt somit eigentlich ziemlich gut den aktuellen "realen" Stand an GPU-Markt bzw. "Gaming" Markt dar. Alle anderen Quartale sind halt leider stark "biased".

TwoBeers
2022-11-28, 19:08:26
Wahnsinn, 10% für AMD ist echt bitter.

Mir ist eigentlich egal von welchem Hersteller meine Karte kommt, Hauptsache Leistung und Preis stimmen.

Ich bin nur ein Freund von Wettbewerb im Markt und greife deswegen oft zu AMD. Im CPU Markt hat das ja gut funktioniert, da gibt es wieder ordentlich Innovation seit Zen.

Im GPU Markt will das irgendwie nicht klappen. Wenn es irgendwann keine AMD GPUs mehr gibt, dann können wir uns auf re-re-Refresh Generationen einstellen und eine xx70 für >1500 €. :(

Leonidas
2022-11-28, 19:09:23
Finde da den Einzelquartalsvergleich wesentlich zielführender, denn gerade Q2 2019 war eine zeitlang fast KEIN Miningfieber, dann kam der Corona bedingt IT-Boom, danach dann der nächste Mininghype 2020/21.

Ist mir weiterhin ein etwas zu starker Ausreißer. Normalerweise schwankt die Marktzahl bedeutsam weniger um 8-11M pro Quartal.

IMO hatte Q2'19 auch einen Sondereffekt: RX5000 und RTX20 Super standen vor der Tür, da dürften in der Lieferkette einige die Altbeschleuniger nur noch abverkauft haben, aber nix mehr neues geordert haben. Auch im Einzelhandel werden die Konsumenten eher auf die neuen Karten gewartet haben. Typischer Effekt direkt vor einer neuen Gen - und damit eben nicht allgemeingültig.

Gast
2022-11-28, 22:00:47
Die sind ein guter Indikator.


Wie man sieht sind sie ein extrem schlechter, eigentlich komplett unbrauchbarer Indikator

Gast
2022-11-28, 22:28:55
Intel scheint gerade bei der P/L Kategorie sehr viele "mitgenommen" zu haben. Aus dem Stand hat man sich auf 1/3 des Marktanteils von AMD hochgeschoben. Ich bezweifle dass Intel hier sehr viele "Qualitätskunden" von nVidia abgeworben hat.

Vielleicht sollte AMD mal von seinem hohen Ross runterkommen?
Nvidia bietet fast das gleiche Preis-Leistungs-Verhältnis an, also wechselt davon keiner.
Intel bietet scheinbar für die Kunden was besseres an.

Aber bei AMD gilt halt auch nur: Gier.
Halten sich für Graf Protz persönlich und kapieren nicht, dass ihre Grafikkarten kein Premiumaufschlag hergeben wie es Nvidia tut.

Da kann man jetzt über die ungerechtigkeit des Marktes rumheulen.
Oder es akzeptieren und setzt seine Preise entsprechend.

Bei der 5700XT hat AMD ja schon gezeigt, dass sie Marktanteile bekommen.
Wenn sie denn mal ein attraktives Angebot haben.
Damals war RT und DLSS uninteressant und nicht weiter relevant.
Und die 5700XT war günstiger und effizienter als die 2070.
Und schon bekamen sie Marktanteile.
Es ist also ein Märchen, dass nie einer von Nvidia wechseln würde.

Nur kam dann halt die Gier und AMD dachte: Nö, wir setzen quasi die gleichen Preise wie Nvidia.
Dabei hat AMD nicht kapiert, dass im Laufe der Zeit ihre Gleichwertige Karte aus Sicht der Kunden minderwertig wurden. Weil bestimmte Dinge wichtig wurden fürs Marketing, bei denen AMD meilenweit hintendran ist.

Ob gerecht oder nicht ist egal - aber DLSS und RT zieht eben im Marketing.

Das AMD das nicht kapieren kann oder will ist deren Sache.
Wo es hinführt sieht man ja jetzt eindrucksvoll.

Lehdro
2022-11-28, 23:40:10
Und schon bekamen sie Marktanteile.
Die Statistik gibt diese Aussage nicht her - die RX 5000er reihen sich da ein wo Vega und RX 400/500 nach dem Miningslump aufgehört haben. Beispiele für "gelungene" Generationen die sich auch im Marktanteil wiederspiegelten sind:
ironischerweise nicht HD 5000 vs Fermi
- HD 7000 bis NV mit Kepler kam :freak:
- R300 Refresh mit agressiven Preisen + RX 400 gegen NVs Pascal Midrange
Die RX 6000 Generation hat kontinuierlich langsam Marktanteile zurückerknabbert, während des Mininghypes, aber von einer sehr niedrigen Basis aus. Es sieht wohl eher so aus, als das NV den Markt sonst einfach fluten kann und trotz hoher Preise lieber gekauft wird, quasi als erste Wahl. AMD kommt dann nur in Frage wenn es nichts anderes gibt (siehe Mining), oder das P/L Argument im relevanten Sektor (also nicht Highend) zu stark Richtung AMD ausfällt.

Konklusio: Wenn AMD Marktanteile haben will, brauchen sie entweder die absolute(!) Effizienz- und Leistungskrone im Highend, oder einfach unschlagbar gutes P/L im Midrange. Ansonsten kauft die Masse weiter NV, weil AMD, wie du schon festgestellt hattest, nicht willens ist größere Zugeständnisse im margenträchtigen Highendbereich zu machen.

igi666
2022-11-29, 00:00:00
Mit unter 10 Prozent Marktanteil kann sich AMD fast verabschieden. Die Fixkosten bei Treiberentwicklung, Dev-Support, Chipentwicklung sind dann einfach zu hoch. Außerdem werden Spieleentwickler kaum noch Ressourcen in AMD-seitige Probleme investieren.

Naja ganz so schwarz wuerde ich nicht sehen, die Konsolen Chips retten erstmal den Tag. Solange nicht Xbox und Playstation auf ne Nvidia APU wechseln sollte das save sein.

Platos
2022-11-29, 02:21:11
Bei den Preisen gibt es mit Sicherheit keine nvidia APUs für die 2 grossen Konsolen. Bei Nintendo passts ja, da hat die Hardware ja schon immer mehr gekostet, als sie eig. Wert war.