PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie gut/schlecht steht es um AMD?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35]

Skysnake
2025-10-28, 14:50:32
Naja, bei HPC Systemen bekommst du time slices einer Umgebung. Früher immer BareMetal heute auch in Containern. Aber du hast eratmal ein managed System. Quasi SaaS.

Bei Cloud gibt es halt alles mögliche an Zwischenstufen und du bekommst in der Regel VMs.

Zudem ist die Optimierung in einem HPC System halt in der Regel auf einem ganz anderen Level als in der Cloud.

Aber ao grob gesagt passt das schon, auch wenn die Umsetzung bezüglich Softwarestacks komplett anders aussieht.

Man muss aber auch sagen das zumindest icg den Eindruck habe das immer weniger Leute HPC wirklich verstehen. Was ich in den letzten Jahren alles an Müll von Herstellern gesehen habe geht auf keine Kuhhaut obwohl sich alle möglichen Firmen Cloud und HPC auf die Fahnen schreiben....

HPC ist aber eben ein3 FullStack Optimierung bei der du nie fertig bist und du immer an die neue HW Anpassungen vornehmrn musst. Es entscheidet halt das schwächste Glied in der gesamte Kette und wir HPCler seheb

MR2
2025-10-28, 15:02:02
Interessant ist vielleicht das hier:

"In Zukunft will das DOE viele weitere Systeme mit AMD-Chips „im ganzen Land“ errichten, heißt es zum Schluss."
Da kann man schon mal mit Musterbau betreiben.

Badesalz
2025-10-29, 11:32:48
@Skysnake
Kann es sein, daß die Leistung pro Node soweit gestiegen ist wie auch die Verbindungen zwischen den Nodes und Racks aufgebrezelt, daß man den Overhead einer Cloud für weniger störend hält und die Orchestrierung über den Rack hinweg weit wichtiger wird? (scale-out)

Irgendwas muss Oracle da wohl im Ärmel haben. Die gehören ja eher nicht zu denen welchen man für die Erhaltung eines diversen Ökosystem unter die Arme greifen müsste ;)

Da kann man schon mal mit Musterbau betreiben.Isso. Jensen hat sich jetzt auf der GTC in Washington viel Mühe gegeben zu unterstreichen wer auch hier Chef im Ring ist. Es gibt anscheinend schon 7 Aufträge mit NV-Hardware.
Ich fand da jedenfalls überraschend viele Sachen die man zu relativieren versuchte, die AMD in den letzten Monaten positiv für sich herausgestellt hat :wink:

Nvidia kriegt es halt auch so hin... Wogegen es aber auch ein Interesse zu geben scheint AMD mit oben zu halten und den Kuchen kleinwenig zu verteilen. Über mehrere Branchen und Institutionen hinweg. Über Bande wahrscheinlich auch wegen HPE. Die sind oft stark am ähh... Fluktuieren :usweet:

Wenigstens kommt AMD nun endlich in die Position wo man sich für die nicht nur aus rein taktischen Gründen entscheidet. Nächstes Jahr wird das auch praktisch vorgeführt. Ergo 6 Jahre lang irrer Vollgas in den Labs um ab Ende 2025 endlich als competetiv beachtet zu werden.
Schon Wahnsinn :usweet:

Skysnake
2025-10-29, 12:34:21
@Skysnake
Kann es sein, daß die Leistung pro Node soweit gestiegen ist wie auch die Verbindungen zwischen den Nodes und Racks aufgebrezelt, daß man den Overhead einer Cloud für weniger störend hält und die Orchestrierung über den Rack hinweg weit wichtiger wird? (scale-out)


Nö, aber im Zweifel wollen Sie einfach einen homogenen Ansatz beim Betrieb fahren um zum einen in die Cloud boosten zu können auf der anderen Seite aber auch Personalkosten zu sparen. Da ist ja Trump in letzter Zeit die Axt im Walde.

Ich kenne das durchaus, das man in den "HW" Kosten weiterr Kosten für Betrieb und allgemein Personal versteckt. Geld für Beschaffungen bekommst du halt viel einfacher als für Personal... das sind dann halt teils dir kleinen Tricksereien die man so macht.

Die Verbindung zwischen den Nodes wird auf jeden Fall immer schlechter im Vergleich zur Performance der nodes. Die Schere geht also immer weiter auf.

Was aber durchaus sein kann ist das man sich Ideen/Vorteile für den Betrieb bezüglich ausfällen verspricht. Bei solchen Systemen geht ja ständig was kaputt und gerade die SMX Systeme mit nVidia gehen reihenweise kaputt. Das macht echt keinen Spaß mehr. Ich hatte jetzt schon mehrere Systeme bei denen selbst das Tauschsystem binnen 3 Jahren hinüber war....

Für SMX Systeme von AMD kann ich nichts sagen. Hab da einfach keine vernünftige Menge in den Händen gehabt.

Badesalz
2025-10-29, 17:55:18
Die Verbindung zwischen den Nodes wird auf jeden Fall immer schlechter im Vergleich zur Performance der nodes. Die Schere geht also immer weiter auf.Das gleiche Thema also wie mit dem Netzwerk daheim :mad: (vs. SSDs). Wobei da haben sie uns auch extra am langen Arm verhungern lassen.

Wenigstens für sich selbst :mad: haben sie nun "200" Faser hinbekommen und wenigstens "400"/Faser (448G) scheint noch machbar. D.h. 8fach MTP schiebt dann 3.2 Tbit/s. Aktuell als neuster shit in 8x also 200 GB/s. Mit "448G" 8x, 400 GB/s.
Jetzt hör auf zu meckern :wink:

KP... Durchsatz am/im einzelnen Node so um die 8 TB/s? :usweet:

Skysnake
2025-10-29, 18:16:03
Ich habe jetzt auf die schnelle nichts gutes gefunden, aber schau dir eonfach mal den Graph hier an https://www.allaboutcircuits.com/news/startup-enfabricas-accelerate-compute-fabric-addresses-ai-ml-in-the-cloud/

Und ansonsten einfach mal nach compute vs memory bandwith schauen. Die entwickelt sich ähnlich zur Netzwerkbandbreite wobei ich sagen würde noch besser.

Badesalz
2025-10-30, 09:19:14
Wobei das aber auch irgendwie sehr ambitioniert ist compute bandwidth direkt mit network bandwidth zu vergleichen...

Wenn man sich genauer anschaut wie schnell CUs ihr Zeug aus dem L2 durchschiessen und das mit dem Durchsatz von Sysmem und vor allem Netzwerk vergleicht, dann bekommt man fast schon Schuldgefühle wegen Unfairness :usweet:

Skysnake
2025-10-30, 17:25:08
Ich meinte Flops mit compute.

Und ja wirkt heute Unfair. Früher gab es Vektorrechner die direkt auf dem Memory gearbeitet haben. Sprichvdu hattest noch nicht mal wirklich register außer für Counter usw.

Du hattest da pro Flop 24Byte memory bandwidth. 2x8 Byte read und 1x8Byte write.

Erst später kamen dann die mit nem Cache.

Das sieht nur heute als nicht vergleichbar aus weil wir eben schon soooo lange die Schere auseinander driften sehen weil Compute im Vergleich zu IO was Memory und Netzwerk im Endeffekt auch sind kack teuer ist.

Lehdro
2025-10-30, 19:20:19
FSR 4 auf RDNA 2 vom Tisch: AMD versetzt Radeon RX 5000 & 6000 in den Vorruhestand
AMD:
"RDNA-1- und RDNA-2-Grafikkarten werden weiterhin Treiber-Updates für kritische Sicherheits- und Fehlerbehebungen erhalten. Um sich auf die Optimierung und Bereitstellung neuer und verbesserter Technologien für die neuesten GPUs zu konzentrieren, versetzt AMD Software Adrenalin Edition 25.10.2 Grafikkarten der Serien Radeon RX 5000 und RX 6000 (RDNA 1 und RDNA 2) in den Wartungsmodus. Zukünftige Treiber-Updates mit gezielten Spieloptimierungen werden sich auf RDNA-3- und RDNA-4-GPUs konzentrieren."

Quelle: Computerbase (https://www.computerbase.de/news/grafikkarten/fsr-4-auf-rdna-2-vom-tisch-amd-versetzt-radeon-rx-5000-und-6000-in-den-vorruhestand.94862/)

Lächerlich. Das geleakte FSR4 für ältere RDNAs hat doch gezeigt was gehen würde. Und jetzt schiesst sich AMD wieder einmal ins Knie, in dem es nicht nur FSR4 auf RDNA2 eine Absage erteilt, sondern auch noch den Treibersupport abseits von Sicherheitsupdates praktisch einstellt. RDNA1 abzusägen kann ich noch halbwegs nachvollziehen, ist nun wirklich schon über 6 Jahre alt, aber RDNA2? Dasselbe RDNA2 was erst neulich bzw. jetzt immer noch in NEUEN Produkten (iGPUs + Handhelds) verkauft wird? Dasselbe RDNA2 was in Form von N21-N23 noch gut unterwegs ist? Uff, das sieht gar nicht gut aus.

Oranje7
2025-10-30, 20:02:26
Als RDNA2 nutzer sehe ich das entspannt.
Mein "neuestes" Spiel ist Kingdom Come 2 und das hab ich nur aus Support für den Entwickler gekauft. Zu viele Spiele zu wenig Zeit.
Aufrüsten hat ja auch noch einige Jahre zeit so hö

Badesalz
2025-10-31, 08:47:47
Lächerlich. Das geleakte FSR4 für ältere RDNAs hat doch gezeigt was gehen würde. Und jetzt schiesst sich AMD wieder einmal ins Knie, in dem es nicht nur FSR4 auf RDNA2 eine Absage erteilt, sondern auch noch den Treibersupport abseits von Sicherheitsupdates praktisch einstellt.Standard. Erstmal beschliessen was virtuell Geld spart und dann entspannt abwarten wie es mit dem Shitstorm aussieht, um entweder zum nächsten Punkt zu übergehen oder sich plötzlich doch noch als besonnener Gönner zu präsentieren :uup:

@Skysnake
Da wird sich ohne ganz neue Ansätze auch nichts ändern. Co-Opt (CPO) behandelt eher das Thema Energie. Da geht es bis zu 3x weniger. Speed gain ist aber <+40%.
WENN man das passende vergleicht :wink: Sonst kommt man auch auf zigfache Steigerungen :rolleyes:

Die Mär mit der "zumindest theoretisch nahezu unbegrenzt" Kapazität der Glasfaser und den 100 Tbit/s wird außer in Laienschrieben auch nicht mehr so oft erzählt. Wir haben uns jetzt mit 200G/Faser ordentlich einen abgeschwitzt und nach 3x duschen wird wohl auch noch 400G/Faser funktionieren, danach ist aber außer Fantasieroadmaps noch nichts klar.

Skysnake
2025-10-31, 08:58:53
Naja, mit Multicolor geht da schon noch sehr viel mehr. Dafür brauchst du aber eben die Lightsources und das wird recht schnell recht teuer. Mit Fibre to Chip kannst du ü er unterschiedliche Resonatoren die Signale recht einfach einkoppeln. Braucht halt "nur" paar ųm² bis mm² Platz.

Aber da verbrätst du auch einiges an Power obwohl es sehr effizient ist.

Wenn sehe ich das für Switche oder NV72 ähnliche große Systeme.

Ich könnte mir aber schon vorstellen das damit dann auch wieder große SMP Maschinen gebaut werden wie die SGI Ultra Violett Systeme von früher. Das wäre schon sehr nice. Nur das man den Speicher wie bei den alten Vektorrechnern von z.b. NEC gar nicht direkt an die CPU koppeln sondern ein Memory Network hat mit dem man auf den Speicher zugreift.

Wäre schon ziemlich nice in meinen Augen für Compute. Dann brachte man aber mal wirklich größere Vektoren als die kleinen 512er. So 8096+ wären da dann wohl angesagt. Im Prinzip könnte man die GPU ALUs dafür hernehmen.

AMD hatte das ja schon mal angefangen mit HSA, auch wenn die GPU cores da noch getrennte Einheiten waren und nicht wie eine FPU in den CPU core integriert waren.

Das sehe ich so als das Fernziel an.

Badesalz
2025-10-31, 13:07:58
Haha. NUMAlink :up:

HSA ist doch in AMD APUs mehr oder weniger aufgegangen (?) Ergo auch, MI300A :rolleyes:
Hat aber sonst allgemein einen schweren Stand gegenüber CUDA, da es auch die Compilerlandschaft zusammenzog und dabei halt OpenCL forcierte.

PS:
Tatsächlich ist der "Assistant" hier eine gute Infoquelle bei dem Thema
https://www.quora.com/What-is-the-maximum-capacity-of-a-single-fiber-optic-cable

dildo4u
2025-11-04, 08:53:57
Patent Klage gegen AMD. (3D Cache Bonding)

https://overclock3d.net/news/software/adeia-initiates-patent-infringement-litigation-against-amd

Lehdro
2025-11-04, 16:14:50
Am Tag vor den Earnings. :rolleyes:

DozerDave
2025-11-04, 20:03:05
Was sind Eure Prognosen?

Badesalz
2025-11-05, 07:55:58
Jene
https://ir.amd.com/news-events/press-releases/detail/1265/amd-reports-third-quarter-2025-financial-results

Hakim
2025-11-05, 12:42:30
1,3mrd fürs gaming ist gar nicht mal schlecht wenn man sieht wo man vorher war. Das wären etwa fast 1/3 von Nvidia in der Rubrik

Badesalz
2025-11-05, 12:52:18
Lass die Volldeppen doch weiter erzählen, NV hat 95% des Marktes :usweet:

Wobei AMD nicht erzählen will was davon Playstation abbekommt und ob der X3D da mit dabei ist :wink:

Badesalz
2025-11-17, 08:57:13
Ob die Idee mit den HPC APUs ein Fehlgriff war... Irgendwie scheint man die theoretischen Vorzüge jetzt erst so langsam praktisch zu verstehen :| (?)
https://insidehpc.com/2025/11/llnl-amd-and-columbia-report-record-protein-folding-workflow-on-el-capitan-supercomputer/

y33H@
2025-11-17, 11:54:26
Und wo geht aus dem Artikel jez hervor, dass der Workflow besonders stark vom APU-Aufbau profitier? sehe ich nicht ...

Badesalz
2025-11-17, 12:17:01
@y33H@
Ehrlich jetzt? Verdreh-Rhetorik? Wo steht das denn in meinem Beitrag? :|

Ich zitiere nochmal für dich :usad: Ich:
"Irgendwie scheint man die theoretischen Vorzüge jetzt erst so langsam praktisch zu verstehen"

Artikel:
"The team developed the LBANNv2 backend for PyTorch that allowed for unique optimizations targeting the AMD Instinct MI300A processor. The team also adopted advanced tools such as Triton (a PyTorch kernel language) and DaCe spatial optimization domain specific language, making their codebase more portable and easier to tune for future hardware. With all El Capitan’s available nodes running the job, the team reached a peak performance of 604 petaflops — far surpassing earlier runs.

“Originally, we thought it would take 6-8 days of El Capitan to generate the baseline 41 million structures,” Van Essen said. “With this speedup, we got that down to hours.”

Und jetzt? Klassich angefangen, 8 Tage. Für die APU umgeschrieben, nehme ich mal noch gut gemeinte 8h an. 24facher speedup.

Die meisten Schrauben wurden am LBANN bewegt. Das ist ""Livermore Big Artificial Neural Network" Toolkit". Artifical ist nur Schwerpunkt. Das ist das Backend für PyTorch. Alles was Pytorch mitbenutzt, sollte sich jetzt signifikant steigern lassen. Mit PyTorch geht auch Markov. Und Markov kann viel...
https://en.wikipedia.org/wiki/Hidden_Markov_model
Daher eben auch Protein Folding.

Wie es aber scheint, lernt AMD das auch noch :usweet: (mit der Hilfe des Labs auf der Columbia). Daher haben sie es auch beim 400er erst ausgelassen. Die Option halten sie sich im und durch das Design, angeblich aber immer frei.
Allgemein werden sich dafür erstmal alle interessieren die das eh schon nutzen.
Max Planck hat mittlerweile auch 300 Nodes mit 600x 300A ("Viper"). Da wird es bestimmt von deren Seite aus Fragen geben zu AMDs neuen Erfahrungswerten.

PS:
Das obige, mit UALink 2.0 und UltraEthernet könnte nicht nur schnell sein, sondern auch Hölle Perf/Watt haben :whistle:

edit:
Ja ich weiß. Skysnake kommt gleich und macht mich fertig. Ich muss da halt durch :D

Skysnake
2025-11-17, 19:57:41
Nö. Warum denn?

Der APU Ansatz von AMD bringt halt auch nur etwas wenn man ihn auch nutzt, was halt leider viel zu selten der Fall ist. Da müsste AMD mehr Geld in die Softwarehersteller reunbuttern und auch mehr an Libs arbeiten. Aber vielleicht haben Wie ja endlich mal die Kohle um da was zu bewegen. Wünschenswert wäre es auf jeden Fall. Die HW ist ja meist schon verdammt gut. Aber ohne Software hilft das halt nichts.

Badesalz
2025-11-17, 21:52:56
Vielleicht haben sie jetzt erst den Knoten gelöst :upara: Wir werden sehen.
Sie haben 11424 batch nodes und haben das auf 10800 gefahren. Das war nahezu die ganze Kiste. Das Interesse war wohl bis in die oberste Etage ziemlich groß =)

edit:
Der Hobel ist jetzt schon um einiges schneller geworden als zu Anfang
"The El Capitan system at Lawrence Livermore National Laboratory (LLNL) remains the undisputed leader of global HPC. Based on the HPE Cray EX255a architecture, powered by AMD 4th Gen EPYC CPUs and AMD Instinct MI300A accelerators, El Capitan achieved 1.809 Exaflops/s on the HPL benchmark. This significant remeasurement further strengthens its position as the world’s fastest computer. El Capitan also dominates the HPCG benchmark, delivering 17.41 HPCG-Petaflop/s, making it the #1 for real-world application performance. On the HPL-MxP mixed-precision benchmark, it recorded 16.7 Exaflop/s, confirming its versatility in AI and data-driven workloads. With 11.34 million cores and an energy efficiency of 60.9 GFlops/Watt, El Capitan exemplifies the current generation of exascale computing."
https://www.hpcwire.com/2025/11/17/top-500-jupiter-joins-the-exascale-club/

Badesalz
2025-11-19, 08:37:29
Kleckern
https://www.hpcwire.com/2025/11/18/amd-based-supercomputer-launches-as-europes-new-exascale-ai-factory/

Das hat sich davor aber irgendwie anders angehört...
https://www.nextplatform.com/2024/06/25/ruminations-about-europes-alice-recoque-exascale-supercomputer/

Badesalz
2025-11-22, 08:01:08
AMDs Cuda2HIP Tools scheinen wohl auch 1.0 erreicht zu haben.

HACC von Titan über Summit nach Frontier.
"to get about 37% of the Rmax HPL performance out of Frontier which is very impressive for a non-synthetic workload"
https://chipsandcheese.com/p/sc25-haccing-over-500-petaflops-on

OgrEGT
2025-11-22, 08:39:14
Das alles ist interessant nur ist es nicht etwas OT?
Es wäre für uns als Laien sehr hilfreich wenn Du diese Informationen in Zusammenhang mit dem Threadtitel bringen könntest... also wie und in welchem Umfang du meinst dass diese AMD voranbringen oder auch nicht... Merci Dir :)

Badesalz
2025-11-22, 09:25:47
Das alles ist interessant nur ist es nicht etwas OT?Geht es hier nur rein um den finanziellen Aspekt?
Oder auch darum was sie jeweils gesch... kriegen und was halt nicht? Beschreiben solche Geschichten nicht den Zustand, den Fortschritt oder auch die Rückschläge und damit wie es um die Firma steht?

Selbst ab dem ersten Post 2012 gab es bisher 55 Quartalsberichte. Und wir sind grad auf Seite 427. 7 Seiten pro earning call? Sportlich =) Oder haben wir hier doch paar Inhalte mehr? :wink: Der Titel des Threads gibt das eigentlich her...
Es wäre für uns als Laien sehr hilfreich wenn Du diese Informationen in Zusammenhang mit dem Threadtitel bringen könntest...Kein Ding.

Complicated
2025-11-22, 16:50:56
Es wäre für uns als Laien sehr hilfreich wenn Du diese Informationen in Zusammenhang mit dem Threadtitel bringen könntest... also wie und in welchem Umfang du meinst dass diese AMD voranbringen oder auch nicht... Merci Dir :)Ich finde das sollte jemand erklären der Ahnung hat und weiss warum das hier Offtopic ist. Hier lesen nicht nur Laien mit. Die Experten kommentieren das nur nicht mehr.

Skysnake
2025-11-22, 18:04:52
Naja, den Bell aware bekommen und eben keine schlechte Nettoperformance ist schon ein positives Zeichen.

Ich wäre mit einem generellen Rückschluss auf Hip aber vorsichtig. In solche Dinger wandern viele Ressourcen.

Aber sagen wir es mal so. Mit jedem weiteren System wird mehr damit entwickelt und damit mehr abgeklopft. Die Software hat also die Möglichkeit zu Reifen und das ist definitiv gut.

37% von HPL ist jetzt nicht schlecht wenn man IO usw mit dazurechnet.

Ich muss aber sagen ich sehe teils auch bei großen Anwendungen mehr. Würde ich sagen.

Ist dann aber am Ende halt einfach MKL die da aufgerufen wird. Ist aber natürlich auch viel kleiner....

Man sollte das also mit einer Prise Salz genießen. Schmälert die Leistung ber natürlich nicht.

Badesalz
2025-11-23, 08:11:48
Man sollte das also mit einer Prise Salz genießen.Danke :D
Schmälert die Leistung ber natürlich nicht.Ich hab es eigentlich auch als paar positive Punkte gesehen und nicht als einen Startschuss für die Juberlarie ;)
Konträr dazu kann man sich anschauen was ich am gleichen Tag im wie geht es NV gepostet habe (Kläckern <-> Klotzen) :wink:

Das mit HIP... Ja. Kann auch sein. Ich kann mir trotzdem nicht vorstellen, daß sie es nicht involviert haben. Sie waren ja direkt dabei. So ein Ding ist auch für AMD reines R&D.

@Complicated
War da paar mal wieder online. Man hätte auch einfach direkt "Ja. So gesehen hast du vielleicht auch Recht." antworten können, aber das siehst du so selten... Dafür sind wohl ausentwickelte Persönlichkeiten nötig und davon gibt es anscheinend sehr wenige. Weltweit :usweet:

Skysnake
2025-11-23, 08:40:43
R&D ist genau der richtige Punkt bei so was. Man lernt etwas und klopft die Software mehr ab was am Ende allen zugute kommt.

Das würde ich bei solchen Meldungen am ehesten sehen. Es reift halt alles und wird damit immer einfacher und besser einsetzbar.

Badesalz
2025-11-23, 10:52:43
Die Akteure dieses Artikels möchten AMD nicht erwähnen ;)

Woodie macht sich "Sorgen", weil auf der anderen Seite z.B. FP64 runterfährt. Deren Kommentar 1 über seine Aussage dazu
"AI has had many impacts on HPC, Gropp said. Some of it has been good, but some of it has not. The deemphasis of FP64 computing in recent Nvidia GPUs, in particular, is an area of concern for the HPC community, he said."

Deren Kommentar 2
"Nvidia’s deemphasis of 64-bit computing has created an opportunity for other vendors to fill the void. NextSilicon and Sambanova, among others, could step in to provide high-precision hardware for traditional modeling and simulation workloads. That would be beneficial to the HPC community, Gropp noted, but it comes with an asterisk."

Geschweige der 430X, aber im ganzen Artikel taucht nicht einmal "AMD" auf. Delta und DeltaAI ist Nvidia. Der Woodie möchte sich da wohl nichts verscherzen und möchte wohl auch nicht, daß der Interviewer es anspricht.
DAS ist Macht oder? :freak:
https://www.hpcwire.com/2025/11/21/whats-next-for-bill-gropp/

Badesalz
2025-11-23, 11:07:47
Letzter HPCwire Link. SC25 halt :rolleyes:
Dieser Artikel sagt mir, daß AMD sehr sehr spät mit UALink 1.0 (was halt auch nur Phase 1 ist beim Aufholen) und UltraEthernet ist.
Es fehlt quasi ein gutes Jahr.

https://www.hpcwire.com/2025/11/19/new-world-order-coming-with-new-doe-supercomputers/

Complicated
2025-11-23, 11:17:58
@Complicated
War da paar mal wieder online. Man hätte auch einfach direkt "Ja. So gesehen hast du vielleicht auch Recht." antworten können, aber das siehst du so selten... Dafür sind wohl ausentwickelte Persönlichkeiten nötig und davon gibt es anscheinend sehr wenige. Weltweit :usweet:
Habe ich dir geantwortet oder bist du jetzt der Lektor für meine Beiträge?
Du willst das sicher nicht auf Gegenseitigkeit in einem Forum, oder?

Complicated
2025-11-23, 11:26:19
Die Akteure dieses Artikels möchten AMD nicht erwähnen ;)

Woodie macht sich "Sorgen", weil auf der anderen Seite z.B. FP64 runterfährt. Deren Kommentar 1 über seine Aussage dazu
"AI has had many impacts on HPC, Gropp said. Some of it has been good, but some of it has not. The deemphasis of FP64 computing in recent Nvidia GPUs, in particular, is an area of concern for the HPC community, he said."

Beim Blick über den Tellerrand zeichnet sich eher der Trend ab, dass in 3 Jahren Genauigkeiten unter 16-bit nicht mehr auf GPUs ausgeführt werden. Daher wird der Markt für GPU-basierte Chips sich eher in die hohe Präzision zurück verlagern.

Der Grund: Analoge photonische NPUs als PCIe-Karte verfügbar ab 2026.
Ausführlicher Kontext dazu auf der SC 2025 18.11-21.11.2025: https://forum.planet3dnow.de/index.php?threads/q-ant-pr%C3%A4sentiert-seine-npu-2-f%C3%BCr-ki-workloads-auf-sc-2025.502795/
Diskussionsthema mit Zusammenfassung der diesjährigen Entwicklung und Marktüberblick der entstehende Foundries für den benötigten Fertigunsprozess mit TFLN (Thin-film lthium niobate) in Strukturgrößen 45nm und größer, ohne EUV und Advanced Packaging:
https://forum.planet3dnow.de/index.php?threads/q-ant-photonische-npu-f%C3%BCr-hpc.502793/
Edit: Der Hesteller kommt aus Stuttgart und das HPC Jülich verbaut diese Karten.

Complicated
2025-11-23, 11:37:02
Auch China hat hier plötzlich alle Karten in der Hand und die Sanktionen für ASML-Maschinen und NVIDIA/AMD-GPUs laufen bald ins leere. https://thequantuminsider.com/2025/11/15/chinas-new-photonic-quantum-chip-promises-1000-fold-gains-for-complex-computing-tasks/
The chip, developed by CHIPX and Turing Quantum, features dense optical integration, rapid design cycles, and a pilot production line capable of producing 12,000 six-inch wafers annually, positioning China to scale photonic hardware for data centers, AI workloads and quantum research.
Mir bisher bekannte Pilotfertigung in Stuttgart, Schweiz, China.

Complicated
2025-11-23, 11:43:09
Die Schwäche der analogen Chips ist die Fehlerkorrektur und daher hohe Präzision. Ein Problem, das vor allem beim Quantum-Computing adressiert wird und bei dem AMD und IBM einen Durchbruch erzielt haben mit FPGAs:
https://thequantuminsider.com/2025/10/24/forthcoming-ibm-paper-expected-to-show-quantum-algorithm-running-on-inexpensive-amd-chips/
Das veröffentlichte Paper konnte ich noch nicht sichten, doch solche Fehlerkorrekturen sind für analoge NPUs ebenfalls anwendbar um höhere Präzision zu erreichen. Hier liest man vielleicht nicht genauer, da es unter dem Hype-Begriff "Quantum" läuft. Doch dazu zählt eben auch native analoge Berechnung mit Licht anstatt digital mit Elektronen, nicht nur Quantencomputer (Qbits). Ich glaube diese Themen werden sich schärfen im nächsten Jahr.

Complicated
2025-11-23, 11:56:52
Ich habe mal einen neuen Spekulationsthread eröffnet zur Chipfertigung von analogen photonischen Prozessoren allgemein: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13843972#post13843972

Badesalz
2025-11-23, 12:50:27
Habe ich dir geantwortet oder bist du jetzt der Lektor für meine Beiträge?ROFL. Griesgrimmiger alter Mann, was interessiert mich das? Es ist ein Thread. Wenn du PNs haben willst, schreib PNs. Nach weit über 10000 Beiträgen seit 2010 müsste das Prinzip eines Forums langsam verstanden worden sein. Laangsaaam Rudolph, das ist alles bisschen complicated, laangsaaam...

Die Schwäche der analogen Chips ist die Fehlerkorrektur und daher hohe Präzision. Ein Problem, das vor allem beim Quantum-Computing adressiert wird und bei dem AMD und IBM einen Durchbruch erzielt haben mit FPGAs:Das hatten wir hier schon.

Complicated
2025-11-23, 16:58:08
Das hatten wir hier schon.
So ist das mit Kontext - den kennt man schon.
Deine Kommunikationsprobleme sind vielfältig, vor lauter Ad-hominem-Argumentation. Versuch es doch mal ausschließlich mit sachlichem Inhalt und ohne Provokation.

Badesalz
2025-11-23, 17:02:14
Ah? Den Spieß umdrehen? Und auch krüde Thesen als Fakten hinschwurbeln? Geniale Idee. Das macht den Badesalz bestimmt voll durcheinander. Gratuliere :up:

Komm wieder OnT. Oder geh.

Complicated
2025-11-23, 17:03:21
Du siehst einen Spieß, den du alleine die ganz Zeit auf dich selber richtest. Ich antworte lediglich höflich.

Denniss
2025-11-23, 23:54:10
Könnt ihr euren scheiß Feud mal woanders ausspielen gehen?
Langsam reichts. diskutiert sachlich oder lasst es einfach.

Complicated
2025-11-24, 21:07:46
Ein Meilenstein für AMD: https://ir.amd.com/news-events/press-releases/detail/1268/amd-powers-frontier-ai-training-for-zyphra
Zyphra ZAYA1 becomes the first large-scale Mixture-of-Experts model trained entirely on AMD Instinct™ MI300X GPUs, AMD Pensando™ networking and ROCm open software.
https://www.benzinga.com/markets/tech/25/11/49032254/amd-powered-zaya1-challenges-google-meta-and-alibaba-models
With only a fraction of active parameters, ZAYA1-Base (8.3B total, 760M active) matches or exceeds models including Alibaba Group's Qwen3-4B, Google’s Gemma3-12B, Meta’s Llama-3-8B and OLMoE.1.

Building on prior collaboration, Zyphra partnered with AMD and International Business Machines Corp (IBM) to design and deploy a high-performance training cluster.

Badesalz
2025-11-24, 21:18:48
IBM zeigt langsam seine Karten. Der 40jährige Grabenkrieg geht in die entscheidende offene Phase :rolleyes:

OgrEGT
2025-11-24, 23:31:23
Ein Meilenstein für AMD: https://ir.amd.com/news-events/press-releases/detail/1268/amd-powers-frontier-ai-training-for-zyphra

https://www.benzinga.com/markets/tech/25/11/49032254/amd-powered-zaya1-challenges-google-meta-and-alibaba-models

Hört sich gut an dass es da nun neben NV eine weitere Alternative gibt um solch große AI Modelle zu trainieren.
Ist da schon etwas bekannt wie schnell oder (energie)effizient das erreicht wurde?

Badesalz
2025-11-25, 07:01:19
Nehmen wir den Consumermarkt mal beiseite.

Wenn das mit den analog-photonic Chips zündet, sind diese GPUs obsolet.
(wobei das eh keine GPUs sind, weil sie kein G machen, sondern eher XPUs/xPUs, wie sie teils auch genannt werden)

Dann hat AMD noch das FP64 Geschäft, aber was spricht denn dagegen, daß NV da nicht auch wieder sehr stark nachziehen kann? Mal davon ab, daß jenes Geschäft dann im Vergleich zu jetzt nur noch ein Tropfen auf dem heißen Stein ist.
NV dagegen hat sich noch das Omniverse aufgebaut. Was für alles genutzt werden kann wofür man einen Rechner in der Entwicklung, Konstruktion und Wissenschaft benutzen kann. Dafür lassen sich auch GPUs und XPUs absetzen.

Was hat AMD dann noch, außer dem klassischen HPC wo NV jederzeit stark werden kann, wenn das mal so kommt und z.B. ARM über Hermann Hauser mit q.ant bereits in Gesprächen ist? Den Epyc?

Badesalz
2025-11-27, 10:50:37
Nur eine Randnotiz...
Die Vera Rubin Daten (Observatorium) gehen mit TB/s nach SLAC im Menlo Park. Die haben sich 2022 ein RZ dafür gebaut und der Auftrag ging an 2CRSi.

Und die boten "latest AMD technology". Es sieht also so aus, daß AMD da das Datenzentrum macht.

PS:
Grad irgendwie SEHR schwierig gewesen dazu überhaupt etwas zu finden. Für mich jedenfalls grad :usweet: Genauso wie über das RZ im Observatorium selbst :frown:

Badesalz
2025-12-02, 08:36:06
Für NV wird es ggf. bisschen schwieriger. Für AMD aber kann es wirklich schwer werden...
https://www.golem.de/news/konkurrenz-fuer-nvidia-google-verhandelt-mit-meta-ueber-tpu-einsatz-2511-202622.html

https://newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the

Complicated
2025-12-02, 21:15:09
Warum für AMD? Google ist ein Nvidia Großkunde.

Daredevil
2025-12-02, 21:26:00
Wenn man die besten GPUs nicht nimmt, weil TPUs für manche Anwendungen besser sind, sieht das für die zweitbesten GPUs nicht besser aus. Das TPU Ding wird aber imho zu hoch gehängt.

Complicated
2025-12-02, 22:44:33
Die Frage ist doch eher für wenn es schlimmer ist: einen Kunden verlieren oder einen Kunden nicht zu bekommen, den man eh nicht hatte. Die Auswirkungen sind nur bei einem in den Geschäftszahlen zu sehen.

Daredevil
2025-12-02, 23:18:28
Ne, das ist eigentlich keine Frage, die man sich stellen muss. :D
ASICs/TPUs sind kein Feind von Nvidia, sondern von GPUs allgemein, jene die AMD auch versucht zu verkaufen für den AI Markt. Es ist für beide gleich schlimm. Wenn Umsätze von Nvidia aufgrund der TPUs sinken, sinkt damit auch die Chance, das AMD damit überhaupt mal größeren Umsätze mit GPUs machen wird.

Skysnake
2025-12-03, 05:26:59
Oh man ich. Hatte langen Post verfasst warum es für nvidia schlimmer ist durch ihre größere Nähe an TPU als AI only Chip als an klassischen GPUs als General Purpose Chip.

Die werden da schon in deutlich größere Probleme laufen als AMD die sich mehr auf der GPU Seite bewegen bis jetzt. Wobei man sagen muss die Diversifikation in zwei Produktlinien könnte sie mit der stärker AI geriebenen genauso treffen da eben stärker aber nicht AllIn.

Ich gehe davon aus, das für nennenswerte AI Umsätze bei den Großen AllIn AI Lösungen in Zukunft gebracht werden uns ansonsten GeneralPurpose die zwar auch AI können aber wegen AI keine Kompromisse bei den anderen Dingen eingehen.

Und das bedeutet das AMD hier deutlich schwächer getroffen ist als nVidia, da ihr Portfolio eben die klassische GPU ist und Sie es in Richtung AI erweitern. Nvidia muss diesen Split erst noch zeigen und dann eben mit gleichen AllIn Waffen gegen die Konkurrent on ihrem Hauptgeschäftsfeld kämpfen das wird deutlich schwerer als in der Vergangenheit.

Am Ende ist es halt VIEL einfach nen AI only Chip zu bauen als nen General Purpose Chip wie GPU oder gar CPU. Und bei AI only Lösungen gibt es halt viel aggressivere Lösungen als das was AMD und nVidia anbieten.

Nvidia wird hier vermutlich das Opfer ihres eigenen Erfolges weil Sie einen riesigen Markt geschaffen haben der auf der einen Seite Speziallösungen rechtfertigt und auf der anderen Seite das von Ihnen amgestachelte Datenformat-Wettrennen sich dem Ende nähert. Womit kleinere Anbieter die einfach langsamer sind auch Produkte in den Markt bekommen weil Sie nicht mit moving targets kämpfen müssen.

Badesalz
2025-12-03, 06:32:36
@Daredevil
Korrekt. So war meine Überlegung dazu ;)
Die Frage ist doch eher für wenn es schlimmer ist: einen Kunden verlieren oder einen Kunden nicht zu bekommen, den man eh nicht hatte. Die Auswirkungen sind nur bei einem in den Geschäftszahlen zu sehen.Über die zwei Versionen (?) der kommenden v8 weiß ich grad nichts, aber wenn Google wie unter den Links erwähnt die v7 nun der Welt anbietet, dann ist eben ein Dritter Player auf dem Markt. Und der ist sogar potent.
AMD kommt kaum NV hinterher. Jetzt müssen sie auch noch schauen was Google macht.

@Skysnake
Wie lange dauert es, wenn NV befindet, es lohnt sich für sie sich auch wieder HPC zu nähern, zum fertigen Produkt? Wahrscheinlich halten sie sich das im Design eh weiterhin offen. Wenn AMD sich 2 Versionen leisten kann, dann sind das nicht 2 grundlegend andere Designs. Für solche Spielchen gibt Lisa das Geld nicht aus.

Ja den Post hast du im falschen Thread platziert (?) =)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13847652#post13847652

Skysnake
2025-12-03, 08:34:50
Ja habe ich -_-

Es wird seine 1-2 Jahre locker dauern. Auch die schütteln kein Design aus dem Ärmel.

Der wichtige Punkt ist aber das sie dann wieder direkt konkurrieren.

Aktuell schaffen Sie ja ihren eigenen Markt. Das fällt dann weg.

Wie gesagt nvidia kann eigentlich nur verlieren. Die Frage ist nur wie stark.

Complicated
2025-12-03, 10:00:33
Und die weitere Frage ist auch, welche Lösungen überhaupt zur Verfügung stehen. AMD hat mit FPGAs und SemiCustom in der Branche einzigartige Möglichkeiten sofort mit dem Prototyping zu beginnen.
Ein Beispiel hier ist die Kooperation mit IBM:
Bei der Fehlerkorrektur von Algorithmen, die mit Quantenberechnungen entstehen wird die Migration auf digitale Hardware ermöglicht.
https://de.marketscreener.com/boerse-nachrichten/ibm-herkoemmliche-amd-chips-koennen-algorithmus-zur-fehlerkorrektur-in-quantencomputern-ausfuehren-ce7d5dded889fe2c
Quantencomputer nutzen sogenannte Qubits, um Probleme zu lösen, für die herkömmliche Computer Tausende von Jahren benötigen würden - etwa die Simulation, wie Billionen von Atomen im Laufe der Zeit miteinander reagieren. Qubits sind jedoch fehleranfällig, was die nutzbare Rechenleistung eines Quantenchips schnell überfordern kann.

Im Juni hatte IBM einen Algorithmus vorgestellt, der parallel zu Quantenchips läuft und derartige Fehler adressieren kann. In einer von Reuters eingesehenen Forschungsarbeit, die am Montag veröffentlicht wird, zeigt IBM nun, dass sich diese Algorithmen in Echtzeit auf einem sogenannten Field Programmable Gate Array (FPGA) von AMD ausführen lassen.

Jay Gambetta, Forschungsdirektor bei IBM, erklärte, die Arbeit belege, dass IBMs Algorithmus nicht nur in der Praxis funktioniere, sondern auch auf einem handelsüblichen und nicht ,,unverschämt teuren" AMD-Chip laufe.
Es braucht nicht viel Phantasie wenn man die Fragestellung ändert von "Wann wird Quantencomputing digitales Computing ablösen können" zu "Wie trainiere ich digitale Hardware weniger schneller zum Ergebniss zu kommen?"
Die Skalierung dieser Methodik auf KI oder photonische Berechnungen ist einfach nur der nächste Schritt-> Die Hardware ist nur so gut wie die genutzten Algorithmen.

Badesalz
2025-12-03, 10:40:06
Noch einfacher kann ich bald nicht...

Wir reden von jetzt. Jetzt, ist grad eben jetzt
https://the-decoder.de/googles-ki-chips-tpu-v7-jetzt-allgemein-verfuegbar/

edit:
Die Nachricht hatten wir auch schon.

Complicated
2025-12-03, 11:33:44
Eben - das Prdokt ist ja jetzt fertig ->Kontext warum AMD da andere Optionen hat und möglicherweise eher profitiert als verliert von dem Transit zu ASICs/TPUs

Badesalz
2025-12-03, 11:46:09
Kann schon gut sein, daß du das meinst, aber mir ist der Kontext diesmal bisschen zu complicated.

Complicated
2025-12-03, 12:55:15
Einfach die Perspektive/Flughöhe aus "GPU-Markt" in "verfügbare Produktpalette" ändern.
Nvidia: GPU-Hersteller
AMD: Als einziger im Markt GPU, FPGA, Custom, CPU, HPC, Interconnect etc..
Weniger HPC-GPU Umsatz->Impact wenn dafür mehr FPGAs oder CPUs oder Custom Umsatz gemacht wird. Threadtitel Ist AMD als Gesamtkonzern :)

Badesalz
2025-12-03, 13:34:15
Bei meiner Flughöhe - also eben nicht gleich Mesosphäre - schätze ich vorerst ein, daß wenn der Markt für NV einbricht, dann ist er für AMD quasi ganz weg und dann macht NV noch zigfach mehr Speck als AMD mit FPGAs, Interconnect und CPUs. Vor allem, wenn NV sich dann dazu bewegt sieht mehr aus N1X zu machen... DIE haben die Fähigkeiten "arm" im RZ salonfähiger zu machen.

ARM ist übrigens schon im OCP Vorstand. FCSA haben sie nun auch. Mal sehen wie entspannt das für AMD sein wird...

Lehdro
2025-12-03, 13:38:21
Nvidia wird hier vermutlich das Opfer ihres eigenen Erfolges weil Sie einen riesigen Markt geschaffen haben der auf der einen Seite Speziallösungen rechtfertigt
Ich möchte mal erwähnt haben wie alt TPUs eigentlich sind und wer Tensor Kerne "erfunden" hat. Vor dem Hintergrund liest sich die Aussage schon ein wenig schräg. Plottwist: Die Speziallösung war vor der GPU da und stammte auch nicht von NV.

Complicated
2025-12-03, 14:02:58
Bei meiner Flughöhe - also eben nicht gleich Mesosphäre - schätze ich vorerst ein, daß wenn der Markt für NV einbricht, dann ist er für AMD quasi ganz weg und dann macht NV noch zigfach mehr Speck als AMD mit FPGAs, Interconnect und CPUs. Vor allem, wenn NV sich dann dazu bewegt sieht mehr aus N1X zu machen... DIE haben die Fähigkeiten "arm" im RZ salonfähiger zu machen.

ARM ist übrigens schon im OCP Vorstand. FCSA haben sie nun auch. Mal sehen wie entspannt das für AMD sein wird...
Die Logik ist für mich nicht Plausibel.
Ein Monopolist verliert Umsatz an Google und das ist viel schlimmer für den Konkurrenten der dort nur wenig Umsatz macht. Er verliert die Chance dort jemals Umsatz zu machen-> Die Flughöhe die ich meine, ist sich aus dem vertikalen Markt GPU raus zu bewegen und das mal aus der Sicht der Sparten der jeweiligen Unternehmen zu betrachten->Wo wird da plötzlich ARM-Potential mehr Wert als schon der vorhandene Marktanteil in anderen Sparten die Nvidia nicht mit konkurrenzfähigen Produkten beliefert derzeit.


Atmosphärenbilder führen hier zu falschen Schlüssen.

Skysnake
2025-12-03, 15:37:53
Ich möchte mal erwähnt haben wie alt TPUs eigentlich sind und wer Tensor Kerne "erfunden" hat. Vor dem Hintergrund liest sich die Aussage schon ein wenig schräg. Plottwist: Die Speziallösung war vor der GPU da und stammte auch nicht von NV.
Damals war aber der Markt klein und der Zusatz zur GPU der Treffer. Sie haben ihren Weg selbst gepflastert.

Und es macht nen riesen Unterschied ob die TPUs nur intern gedacht sind oder wirklich als offering nach außen getragen werden.

Auf dem Papier nur ein winziger Unterschied. Ökonomisch aber ein gewaltiger!

Badesalz
2025-12-03, 18:22:01
Die Logik ist für mich nicht Plausibel.Du versuchst dir das über logische Umwege zu erklären. Das versuch ich erst garnicht (wegen meiner unzähligen geistigen Handicaps). Ich geh einfach nur nach den Zahlen:
Ein Monopolist verliert Umsatz an Google und das ist viel schlimmer für den Konkurrenten der dort nur wenig Umsatz macht.AMD Aktie lag Q3/2025 zum Vorjahr bei +100%. Ich schätze da ging es nicht um Epycs.
Q3 diesjahr zum Vorjahr war eine Steigerung (GEWINN) +35,6%. Zum Quartal davor 20,3%. Ich schätze es ging nicht um Ryzen.

"AMD plant, seine Rechenzentrumsumsätze bis 2027 auf mehrere Dutzend Milliarden Dollar zu steigern – unterstützt durch neue GPUs und Helios-Rack-Systeme."

Falls das schiefgeht, werden viele KO gehen. AMD bleibt bei Bewusstsein, wird aber erstmal flach liegen. NV wird auf die Knie fallen, aufstehen, sich schütteln und dann die gleiche HW auf Omniverse und Kosmos ansetzen. AGI hin oder her.

Skysnake
2025-12-03, 20:32:04
Noch mein verlorener Post....

Nicht unbedingt. AMD und nVidia fahren bisher unterschiedliche Strategien.

Nvidia geht ganz klar immer stärker in Richtung AI und weg von General Purpose. Also opfert general purpose Fähigkeiten für eine höhere Leistung im AI Umfeld. Sprich Sie bewegen sich mehr in Richtung TPU und weg von GPU.

AMD auf der anderen Seite hat bis heute den General Purpoae Ansatz gefahren bei dem AI hinzugekommen ist, aber ohne den Rest zu vergrüppeln. Die sind da viel näher an der GPU dran als an der TPU.

Von daher trifft es nVidia da schon ganz klar stärker zumal der Buisness impact viel höher ist. Im Zweifel bei AMD nämlich gar nicht wenn Sie es schaffen eben die General Purpose GPU Story vernünftig zu erzählen und zu besetzen. Nvidia kann hier das Opfer ihres eigenen Erfolges werden, denn die Datenformat Schlacht in der Sie durch immer neue supportete Formate in kurzer Zeit die kleinen Anbieter an die Wand spielen durch ihre Größe sind absehbar vorbei. Und dann kann halt die kleine Konkurrenz nachziehen die sich zu 100% auf AI festlegen und schlicht etwas langsamer sind. Dafür aber eben auch in Nischen besser oder zumindest deutlich günstiger.

Die Nischen werden/sind halt voraussichtlich absolut groß genug um die Aufwände zu rechtfertigen.

Nvidia ist halt wie gesagt am Ende eventuell Opfer ihres eigenen Erfolges weil die sich zu sehr in Richtung TPU (AI speziallösung) und weg von GPU (General Purpose) entwickelt haben. Zumal ein AI Chip viel einfach zu realisieren ist als nen GeneralPurpose Chip wie ne GypU oder gar CPU die mit viel mehr random shit klarkommen müssen.

Wenn man so will hat man bei nVidia halt nichts halbes und nichts ganzes. Wobei man schauen muss ob Sie nicht doch noch diesen Split machen werden.

Bei AMD sehe ich den GPU Part als gut umgesetzt bei dem TPU Part müssen Sie im Split in zwei Produktlinien aber meiner Meinung nach mutiger werden. Wobei ich mich frage ob man das wirklich will/muss. Der Bereich sollte in absehbarer Zeit zum Schlachtfest für die Margen werden. Also zumindest sobald man nicht eh alles verkauft bekommt weil 100% vom Supply gekauft wird.

Das ist es halt auch was die AllIn Konkurrenz beflügeln wird. Wenn du dich auf eine Sache fokussiert dann kannst du aus ner gegebenen Wafermenge mehr Gesamtleistung rausbekommen und das wäre in den nächsten Jahren wohl ein ziemlich gutes Argument bis eben die Kapazitäten wieder ausreichend vorhanden sind bei den FABs.

Badesalz
2025-12-04, 06:50:50
@Skysnake
Wenn man es kann, 2 Hybride :rolleyes: zu bringen mit dem jeweiligen Schwerpunkt ist jetzt keine schlechte Idee. Daß beide bisher nicht gleich spezialisierte Fachidioten sind, kann die Kundschaft auch positiv aufnehmen. Da weißt du mehr...

Für Edge haben sie dann auch ein anderes Zeug (Versal usw.), aber gegenüber NV sind sie "nur" ein Hardwareanbieter. NVs softwarestack ist schon brutal.

Complicated
2025-12-04, 07:10:35
Du versuchst dir das über logische Umwege zu erklären. Das versuch ich erst garnicht (wegen meiner unzähligen geistigen Handicaps).
Es gibt keine logischen Umwege, nur Zusammenhänge.
Es gibt keine geistigen Handicaps, nur neurotypisch, neurodivers und neurodivergent.

Ich geh einfach nur nach den Zahlen:
Willkomen bei der logischen Denkweise

AMD Aktie lag Q3/2025 zum Vorjahr bei +100%. Ich schätze da ging es nicht um Epycs.
Q3 diesjahr zum Vorjahr war eine Steigerung (GEWINN) +35,6%. Zum Quartal davor 20,3%. Ich schätze es ging nicht um Ryzen.

"AMD plant, seine Rechenzentrumsumsätze bis 2027 auf mehrere Dutzend Milliarden Dollar zu steigern – unterstützt durch neue GPUs und Helios-Rack-Systeme."

Falls das schiefgeht, werden viele KO gehen. AMD bleibt bei Bewusstsein, wird aber erstmal flach liegen. NV wird auf die Knie fallen, aufstehen, sich schütteln und dann die gleiche HW auf Omniverse und Kosmos ansetzen. AGI hin oder her.
Erst sagst du an du gehst nach Zahlen und dann schätze du diese anstatt die Qu8artalsberichte zu lesen. AMD plante bei seinen Geschäftsprognosen Google nicht als Kunde ein und Googles TPUs sind keine Konkurrenz für die Helios-Systeme. Solche Vermutungen stellt man an, wenn man Geschäftsberichte nicht kennt und alles in einen Topf wirft.

Du überträgst Nvidias Geschäftsmodell auf AMD - das ist halt keine gute Methode an die Sache ran zu gehen. Ich finde du investierst sehr viel darin ein narrativ hier zu zeichnen das nur Bruchstücke und falsche Schlußfolgerungen enthält - üblicherweise verwenden wir Logik in der Technik um unterschiedliche Meinungen und Hypothesen zu belegen oder zu falsifizieren.

Ich weiss nicht welchen Sinn es macht, wenn man sagt, lass mal Logik weg und hör auf mich mit Fakten zu belästigen.

Badesalz
2025-12-04, 07:11:43
1. (ist korrigiert, man dankt ;) )

2. Möchtest du jetzt mit Kleinlich punkten? Die Zahlen sprechen eine Sprache. Zahlen und ihre Abhängigkeiten braucht man nicht übersetzen. Dahinter, steht jeweils ein Satz mit bisschen Ironie... toi toi toi

Ich finde du investierst sehr viel darin ein narrativ hier zu zeichnen Auch wenns natürlich Bullshit ist, damit wäre ich immer noch und immerhin wenigstens bei der Sache selbst. Du dagegen fängst ganz zart frontal draufzugehen und auch bisschen schon ad hominem zu stottern. toi toi toi

Badesalz
2025-12-04, 10:45:23
Helios ist wohl nicht so zugenagelt wie gedacht (?) :freak:
https://insidehpc.com/2025/12/hpe-to-offer-amd-helios-ai-rack-scale-architecture-with-ethernet/

Complicated
2025-12-04, 14:20:48
Ich lass mal deine Meinung stehen, fühle mich allerdings dabei von dir missverstanden.
Deine genutzten Begrifflichkeiten sind äußerst irritierend -> finde das Oxymoron in deinem Vorwurf ich würde "ad hominem stottern".

Lyka
2025-12-04, 23:52:05
Also Lisa sagt, dass AI keine Bubble ist.

https://www.wired.com/story/big-interview-event-lisa-su-amd/

:ulol: Na dann, man wird sich ja sicher nicht das Geschäft kaputtmanchen wollen

Daredevil
2025-12-05, 00:15:33
Und wo siehst du die Bubble? Aktuell werden Milliarden Dollar ausgegeben für eine Infrastruktur, die Chatbots betreibt. Der nächste große Schritt sind AI Agents, der nächste große Schritt sind World Models, der drauf folgende Schritt sind Autonome Autos, darauf folgen irgendwann mal immobile Roboter, darauf mobile Roboter und danach vielleicht eventuell die AGI in welcher Form auch immer, für diese brauchen wir aber vielleicht auch Quanten Computer, die ebenso nochmal eine enorme Leistung verfügbar macht. Wir haben also gerade vielleicht mal <1% an Compute für Basic Kram, was in 10 Jahren niemand mehr interessieren wird. Wir spielen quasi gerade Pong, der Weg zum Nintendo 64 ist aber sichtbar.

Was ist falsch daran, dass man diese Zukunft für eine wahre hält, wo wir nochmal 10-100x oder noch mehr Compute benötigen über die nächsten Jahre und Jahrzehnte? Demnach ist das halt nicht die Definition einer Bubble, denn die entlädt sich wie der Name schon sagt enorm schnell. Bitcoin war offenbar auch keine Bubble, sonst würde es den Spaß ja heute nicht mehr geben. Es muss schon realer Wert hinter dem Kram stehen und das ist hier ziemlich sicher der Fall. Bei der Dotcom Bubble waren Unternehmen ohne Umsätze enorm hoch bewertet, das ist heute nicht so. Da stehen Umsätze auf dem Auftragsbuch.

Lisa erzählt eigentlich relativ selten bzw. nie Mist, ich würde das eher als Indiz für die Positivität gegenüber der AI Entwicklung sehen, auch wenn sie natürlich im Spiel mitspielt. :)

Skysnake
2025-12-05, 05:59:07
Naja, was ich so an Analysen im Kopf haben sagt, dass die aktuellen Ausgaben den adressierbaren Markt übersteigt. Du kannst damit also kein Geld verdienen im Schnitt. Das ist für mich die Definition winw3 Bubblw bzw eines SchneeballSystems.

Badesalz
2025-12-05, 06:48:14
@Lyka
IBM sagt, es ist eine ;)

@Daredevil
Die Bubble wird nicht platzen. Sie wird stoppen. Vorerst. Nicht mit der Speicherkrise, sondern der Energiekrise. Das ist aktuell im kleineren Stadium vorentwickelt als post-LLM KI.

Das andere Problem was du zeichnest... Ist die Herrschaft der Hyperscaler unter der Aufsicht (noch) des DoE. Das ist eine Dystopie. Spätestens als selbst Google Dont be evil aufgeben musste. Und später das Problem damit, was passiert, wenn mal ein RZ platzt, was dann die gleiche Auswirkungen haben würde als wenn ein Kraftwerk weggebombt wird.

Was ist falsch daran, dass man diese Zukunft für eine wahre hältNaivität?

Complicated
2025-12-05, 07:00:06
Das vergleichen des TAM mit den Investitionen ist aber auch der falsche Analyseansatz. Ich habe da auch einige gelesen die das als Argument nehmen für eine KI-Blase. Der TAM ist allerdings jährlich, während die Investitionen im Serverbereich bisher in 3 Jahren abgeschrieben wurden. Hier wurden dieses Jahr Abschreibungszeiten fast Branchenweit für Server auf 6 Jahre erhöht.
Kann man als Buchhaltungstrick sehen, wie manche dass tun. Allerdings werden die alten Systeme in einer solchen Wachstumsphase auch vorhersehbar deutlich länger laufen müssen bis sie ersetzt werden. Effizientere Hardware wird erst dann die alte ersetzen, wenn das Energie-Nadelöhr erreicht ist. Das prognostizieren die meisten ab 2030. Dann kannst du damit rechnen wieder in den 3 Jahres-Zyklus zurück zu gehen, was weiteren Hardware-Umsatz bedeutet wegen Effizienz und TCO.
Open AI hat nicht umsonst die Porno-Industrie "freigeschaltet" um Einnahmen zu generieren.

Badesalz
2025-12-05, 07:06:42
Effizientere Hardware wird erst dann die alte ersetzen, wenn das Energie-Nadelöhr erreicht ist.Das wäre übrigens ab Montag :wink:

Wenn weder SMR noch Fusion bald was wird. Wonach es überhaupt nicht aussieht.

Skysnake
2025-12-05, 07:34:38
Ne du kannst die HW nicht einfach weiterbetreiben. Insbesondere die SXM GPUs verrecken am laufenden Band. Was ich da in überschaubaren Stückzahlen an Ausfällen sehe geht auf keine Kuhhaut...

Und es sieht nicht nur IBM so sondern auch Banken die davor warnen. Das ist es halt was due Sache durchaus ernst macht. Du hast nicht nur den einen Mahner sondern gleich einige aus komplett unterschiedlichen Bereichen die teils auch noch unterschiedliche Schwerpunkte für die Existenz einer Blase setzen die platzen wird. Einer kann immer irren, aber viele mit leicht unterschiedlichen Schwerpunkten? Eher unwahrscheinlich.

Badesalz
2025-12-05, 08:19:35
Es sieht so aus als wenn das große Ziel dieser Übung eben größer ist als rein wirtschaftliche Denke.

Nur was ist das? :| Vom Bauchgefühl her läuft irgendwas im Hintergrund. DoE ist nicht benagelt. DARPA ist nicht benagelt. Die Schattenhirne hinter den Ministerien sind nicht benagelt. Das Topend des Kapitals mit ihrer eigene Riege sind nicht benagelt. Was läuft also ab?
Auch wenn man das nicht glauben mag, die Leute hinter denen die an den Redenpults stehen sind meist top-end.

Das ist nicht wie 2007/2008, als sich Fäulnis erstmal unbemerkt verbreitete und dann in wenigen Tagen den Deckel sprengte. Diesmal ist eigentlich alles im besten Licht zu sehen.

"Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %."
"Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen:
caveat emptor."

https://www.finanzwelt.de/post/ki-hype-mittel-bis-langfristiger-weg-zur-monetarisierung-noch-unklar

Daredevil
2025-12-05, 11:38:45
Ich finde die Bedeutung der „Token Fabrik“ da schon ziemlich passend, den Jensen angesetzt hat. Man gibt Energie rein und bekommt Token raus, wie wertvoll die sind entscheidet das Modell, die Software und die Daten und natürlich auch die Nachfrage. Ein GPT3 Token wäre heute nur ein Bruchteil das Wert, was ein GPT5 Token heute wert ist weil es mehr Probleme löst, selbst wenn die Rechenkapazität sich nicht verändert hätte.

Perspektivisch wird es imho keinen stillenden Hunger geben weil wir wie bereits gesagt im Pong Zeitalter sind. Token werden in der Zukunft immer wertvoller und deswegen sind diese Token Fabriken der Schlüssel für Wertschöpfung. Daten und Modelle werden besser und die Energie Effizienz steigt weiter an. Das erhöht die Möglichkeit des ROI nicht linear, sonst exponentiell. Ich sehe keine technischen Fakten ausser Marktanalysen, die das Gegenteil zeigen. Lisa offensichtlich auch nicht. Die hat aber bestimmt keine Ahnung.

Analog dazu könnte man vielleicht Bitcoin als Vergleich sehen. Das ist seit 2017 auch schon eine „Blase“ und die Block Fabriken aka Miner haben sich mehr und mehr professionalisiert und der Wert und die Adoption von Bitcoin ist heute an einem Punkt, wo er noch nie in der Geschichte gewesen ist. Ein Miner baut den Block und jemand kauft ihn teuer ab, das ist die Block Fabrik und das Business. 2020 hatte ein Block einen Wert von 120.000€, heute sind es 285.000€. Es ist allerdings heute auch doppelt so schwer einen Block zu fertigen als noch früher, die Anforderungen haben sich verdoppelt. Die Nachfrage ist aber auch 5 Jahre später größer als das Angebot, sonst wäre der Preis heute auch nicht höher.
Ein Block der heute gebaut wird, ist deutlich wertvoller als ein Block vor 5 Jahren. Die Token die heute kreiert werden, sind enorm billig als die Token, die in 5 Jahren produziert werden.

Nur gibt es heute keine andere Methode um SHA256 bei Bitcoin zu lösen als mit Brute Force. Bei KI entscheiden die Modelle aka die Software und die haben unabhängig von den Maschinen aka Hardware einen enormen Hebel.

Badesalz
2025-12-05, 12:37:46
Token werden in der Zukunft immer wertvoller und deswegen sind diese Token Fabriken der Schlüssel für Wertschöpfung. Ich weiß, daß es nicht deine Idee ist und auch nicht irgendwie deine Agenda...

...aber wenn ich sowas lese krieg ich das Kotzen.

Daredevil
2025-12-05, 12:49:03
Naja. Wenn eine Firma nun KI nutzt um personalisierte Medikation anzubieten, was Menschen länger leben lässt, dann zahlen die Millionäre und Milliardäre auf diesem Planeten halt ordentlich Asche dafür. Dementsprechend haben diese generierten "Token" einen deutlich höheren wirtschaftlichen, ja sogar sozialen Wert als eben "Kreiere mir ein Anime Girl mit Hasenohren und Fuchsschwanz am Rücken". Oder nicht?

Ist das nicht die "Veredelung" von Rohstoffen, wie wir schon seit je haben?
Du kannst aus Titan ein iPhone herstellen, oder ein Hüftgelenk. Einer wird dir für den gleiche Rohstoff mehr zahlen als der andere, weil das Endprodukt ein völlig anderes ist.
Und wie du sagtest ist auch bei KI Leistung das Angebot theoretisch begrenzt durch Energie, ist halt die Frage wer den Preis für das Produkt zahlt. Google reaktiviert Atom Reaktoren, die sehen offenbar die Nachfrage und wollen ein Angebot machen.

https://www.zeit.de/wirtschaft/unternehmen/2025-10/google-atomkraftwerk-stromversorgung-rechenzentren-kuenstliche-intelligenz
Google will neue Atomkraftwerke entwickeln lassen

Die Infrastruktur für künstliche Intelligenz hat sich zu einem bedeutenden Faktor des Energiebedarfs entwickelt. Im April prognostizierte die Internationale Energieagentur (IEA), dass sich der Stromverbrauch von Rechenzentren bis 2030 mehr als verdoppeln werde. Mit der verstärkten Nutzung von KI ist der Energiebedarf zuletzt schnell angestiegen, den die Techkonzerne mit Atomenergie decken wollen.

Zuvor hatte Google bereits weitere Projekte zur Sicherung des Energiebedarfs angekündigt, darunter die Entwicklung von drei modernen Kernkraftwerken in den USA. Außerdem will der Konzern ab 2030 Energie aus neuartigen kleinen Reaktoren des Entwicklers Kairos Power einkaufen.

Auch andere Konzerne greifen auf Atomenergie zurück. So sicherte sich der Facebook-Konzern Meta kürzlich die gesamte Energieproduktion eines Kernkraftwerks im Bundesstaat Illinois für 20 Jahre. Vor einem Jahr hatte Microsoft angekündigt, einen Reaktor des stillgelegten US-Atomkraftwerks Three Mile Island wieder hochzufahren, um seine Rechenzentren mit Strom zu versorgen.

Lisa denkt halt relativ vorausschauend, das spricht auch für ihren Erfolg als CEO.
Oder wie der Google CEO sprichwörtlich gesagt hat "Das Risiko nicht zu investieren ist größer als das Risiko, in eine Blase zu investieren". Eine rein rationale Abwägung.

Badesalz
2025-12-05, 12:57:17
Ja das von Three Miles hab ich schon gehört...
http://blog.fefe.de/?ts=9813b736

Tokens sollen jetzt also der heiße Shice sein wie davor die Blockchain... Na dann bin ich mal gespannt.

Daredevil
2025-12-05, 13:06:03
Ich bin ja auch kein Fan von dem Marketingsprech, aber ich kann es mir so zumindest besser erklären, warum es einen Bedarf an Rechenzentren gibt. Weil die Bros das als Fabrik sehen und das ist es irgendwie ja auch, sofern man wie gesagt mit Energie eine gewisse Wertschöpfung hat und dafür gibt es halt ziemlich viele gute Beispiele in der heutigen Zeit und perspektivisch auch in den nächsten Jahren und Jahrzehnten.

Populären Beispiel: COVID Impfung
Würdest du die Kosten von allen AI-Rechenzentren von heute zusammen zählen, wäre die deutlich schnellere Entwicklung von dem Impfstoff dank KI das ganze schon alleine Wert gewesen, weil damit enorme wirtschaftliche und soziale Kosten vermieden worden sind.
Das waren ziemlich wertvolle Token. :D

Sorry für OT. Hoffe AMD bekommt auch was vom Kuchen ab. ^^
Wir brauchen einen Wiedersacher gegen Jensennet. :D

Badesalz
2025-12-05, 13:34:31
Wenn du mich fragts ist das größtenteils als Übung dafür gedacht, was später die Optimuse dieser Welt in ihren Tätigkeiten unterstützen soll. Die werden nämlich auf einen 6G Link nicht wirklich verzichten können. Sonst wären sie selbst ein RZ. Was noch zig Jahre eher nicht gehen wird.

Das ist also ein Invest in Infrastruktur, für eine Infrastruktur die erst noch kommt. Die Racks sind ratzfatz getauscht oder geupgradet.

Es wird grad etwas vorgeplant, wofür erstmal aktuelle schwachsinns LLMs als Ausrede herhalten sollen.

Der aktuelle reale Nutzen mit realen Mitteln ergibt sich für das Business erst, wenn jeder seinen eigenen spezifischen Datensatz trainiert und verwaltet. Superintelligente Datenbanken (aber halt nur als Datenbanken zu verstehen). Das ja. Wer macht das grad?
Kann aber sein, daß die Vercloudung des Ganzen eben darauf zielt. Wenn Netflix auf AWS läuft, kann BASF seine eigene KI für alles mögliche nutzen, die aber ebenfalls beim Dritten als Clouddienst läuft.

Das ist übrigens der bisherige Ansatz von IBM und Watson. Den Leuten die Möglichkeit und die Unterstützung zu geben sich selbst zu helfen. Während OpenAI brute-force einen Gott zu erschaffen versucht den man einfach nur zu fragen braucht, wenn man grad ratlos ist.

Complicated
2025-12-05, 16:13:54
Lisa denkt halt relativ vorausschauend, das spricht auch für ihren Erfolg als CEO.
Oder wie der Google CEO sprichwörtlich gesagt hat "Das Risiko nicht zu investieren ist größer als das Risiko, in eine Blase zu investieren". Eine rein rationale Abwägung.
Ich denke du bringst das genau auf den Punkt, was ich ausdrücken wollte. Auch mit deinen gesamten Ausführungen zuvor. Das meinte ich mit die richtige Flughöhe um es bewerten zu können. Der Zustand des Marktes wird wirklich am besten mit dem Vergleich zu Bitcoin und dessen Entwicklungsphasen betrachtet - nicht identisch aber mit am meisten Überschneidungen bei den Dynamiken der Player, Hardware und Hürden bzgl.Energiebedarf.

Edit:
Was auch anders als bei Blasen üblich ist: Das Geld ist in Cash vorhanden und die Unternehmen warten darauf wo sie es investieren sollen anstatt zu versteuern oder auszuschütten. Noch nie waren die "Kriegskassen" so gefüllt

Badesalz
2025-12-05, 19:22:22
@Complicated
Ja ist genauso wie Bitcoin. Bis auf den Invest der Börsenakteure ODER? Wie vergleichbar sind nun die Auswirkungen, wenn KI-Blase platzt vs. Bitcoin-Blase platzt?

Skysnake
2025-12-05, 19:44:35
Edit:
Was auch anders als bei Blasen üblich ist: Das Geld ist in Cash vorhanden und die Unternehmen warten darauf wo sie es investieren sollen anstatt zu versteuern oder auszuschütten. Noch nie waren die "Kriegskassen" so gefüllt

Wie kommst du darauf? Google usw haben das Geld und investieren. OpenAI usw haben es aber nicht und verbrennen das Geld von anderen und das macht der Großteil der Firmen und die Ringgeschäfte mit den HW Herstellern sind einfach extrem bedenklich

Complicated
2025-12-06, 07:19:59
Ich rede auch von Google und anderen. OpenAI ist Kunde und nutzt Herstellerfinanzierung. Ein breit übliches Konzept, das in diesem Fall ohne Kreditkosten von Banken auskommt.
https://markteinblicke.de/125925/2025/10/nvidia-wird-zum-bankier-der-ki/
Mit mehr Geldzuflüssen pro Quartal als die meisten Konkurrenten in einem Jahrzehnt sehen, steht der KI-Riese nun vor einem seltenen Problem: Was tun mit fast 100 Mrd. US-Dollar an jährlichem Free Cashflow? Für die meisten Unternehmen wäre das ein Traum. Für NVIDIA ist es zu einer strategischen Herausforderung geworden: Zu vorsichtig investieren und Stagnation riskieren, zu leichtsinnig investieren und Blasen riskieren. Die Antwort? Geld als Waffe einsetzen – um Kunden zu finanzieren, sich bei Wettbewerbern einzukaufen und sich in allen Bereichen der Datenverarbeitung zu etablieren.

Zu viel Geld zu haben, bringt jedoch ein einzigartiges Dilemma mit sich. Wenn das Geld einfach in Rückkäufe oder Dividenden investiert wird, besteht die Gefahr, dass NVIDIA dafür kritisiert wird, nicht aggressiv genug zu investieren. Eine unüberlegte Ausgabe birgt das Risiko, den Unternehmenswert zu gefährden. Der weltweit wichtigste Hersteller von KI-Chips steht nun vor einer Frage, mit der sich nur wenige Unternehmen jemals auseinandersetzen mussten: Wie setzt man Geld in einem so großen Umfang ein, dass es ganze Branchen verändern kann?

Badesalz
2025-12-06, 21:53:34
Hier beschäftigt sich jemand damit. Mit paar interessanten Docs im ersten Drittel was Googles Strategie angeht...
(ggf. die Sprache auf nativ umstellen)

https://www.youtube.com/watch?v=ZZ2nWg1QhR4

Complicated
2025-12-07, 07:22:27
Eigentlich ist die Zielrichtung recht einfach zusammengefaßt:
Jeder will in seinem Markt oder einem neuen Markt Monopolist werden, den man nicht zerschlagen kann und für die nächsten 5 Jahre die Auftragsbücher voll haben.
Beispiel: ASML mit EUV-Belichtern.
anderes Branchenbeispiel und der noch andauernde Kampf ums Monopol: Airbus gegen Boeing.
Oder eben TSMC bei der Chipfertigung

Dazu passend hat ja Nvidia schon verlautet, dass sie an das Limit der herstellbaren Stückzahlen kommen (Speicherkrise verstärkt das). Jetzt wird man sehen wie sie Vorbestellungen in die Pipeline bringen werden. Aber hier ist eben auch der Punkt wann die anderen Hersteller und in diesem Fall AMD, um die Kurve mal zu kriegen, mit Lieferzeit und Preis dann Marktanteile erobern können. AMD muss halt nur nah genug dran sein und seine Open Source Strategie gegen den ungewünschten Vendor Lockin stellen.
AMD ist mit seinen breit diversifizierten Produkten auch in allen Chipmärkten als Hersteller vertreten, die GPUs ablösen könnten bei KI-Workloads.

Badesalz
2025-12-07, 09:28:16
Eigentlich ist die Zielrichtung recht einfach zusammengefaßt:i Hast du aber nicht, im Kontext des Videos.

Complicated
2025-12-07, 09:54:23
Stimmt, das war nicht mein Kontext.
Zu dem Video habe ich auch eine Meinung, die ich hier aber als Offtopic sehe (AMD)
Mein Ziel war die Thematik mit Skysnake zurück zu AMD Kontext zu bringen.

Badesalz
2025-12-07, 10:02:52
Das Video ist OnT. So wie du das grad meinst ist es, wenn Kleinkinder die Augen zukneifen und denken, daß sie keiner sieht.

Complicated
2025-12-07, 12:02:43
Den Topic bestimmt der Threadtitel - dass ander Peer Unternehmen da auch eine Rolle spielen ist richtig, doch wie weit man dies im Detail hier diskutieren muss ist fraglich.
Ich habe es gesehen und es geht um Google - ein Kommentar der meine Meinung dazu zusammenfaßt ist unter dem Video:
Just marketing fluff to offset Google's cost for their gamble on TPUs. ASICs are common for decades. They are one hit wonders, designed to do only a few operations repeatedly. Same as when ASICs were made for cryto mining and now they are either abandoned or still running for narrow focused operation. Thus they have no flexibility in AGI development and research. If you went down the wrong path, it's back to redesigning a new ASIC. So, anyone who is dumb enough to buy Google's AI offering deserve to lose their money FOMOing. Yes, I'm an EE, and was part of start ups that designed programmable DSPs and ASICs.
Gerne können wir unsere in einem Thread dazu austauschen, der nicht den Focus auf AMD hat. AMD baut keine ASICs genau aus dem genannten Grund. AMD hat Xilinx gekauft um FPGAs anzubieten (Rapid Prototyping Fähigkeit) und dann eine Semi-Custom Unit die spezifische Aufträge für einen Kunden umsetzt (Konsolen) - da kann auch ein ASIC raus kommen. Nur macht AMD keine ASICs für Märkte. Google hat nun einen ASIC der möglicherweise auch für andere interessant werden kann, das wird es aber nur wenn Googles KI-Software Ökosystem ebenfalls adaptiert wird. Die Entscheidung für die TPUs von Google bedeutet lediglich die Wahl von Nvidias Ökösystem zu Googles Ökosystem zu wechseln.

AMDs Produkt im Markt auf der Ebene ist ROCm und OpenSource ohne Vendor Lockin. Warum das so ist - das ist AMDs Unternehmenskultur, weil es die Diversifizierung der Produktpalette stärkt, was AMDs Alleinstellungsmerkmal ist. Warum das die richtiger Strategie für AMD ist und nicht für Google oder Nvidia? Das zeigt eine einfache SWOT-Analyse der Unternehmen und an welchem Punkt die Märkte sich gerade in der Entwicklung befinden.

Für Kontext zur SWOT-Analyse reicht diese Beschreibung um meine Meinung einzuordnen:
https://karrierebibel.de/swot-analyse/
Daraus ergeben sich strategische Entscheidungen in den 4 Quadranten und ich sehe alle Entscheidungen, die Lisa Su trifft hier mit Leichtigkeit zuzuordnen und das "Warum jetzt dies?" oder "wann das?" zugeordnet. Auch wann der Fokus der Ressourcen aufgeteilt werden muss und wann der Fokus nach oben links gehen kann.

1. Stärken + Chancen: Ausbauen! (SO-Strategie)
Der Idealfall – Stärken treffen auf Chancen. Hier können Sie alle Fähigkeiten gewinnbringend einsetzen, Marktanteile ausbauen und sich zusätzliche Vorteile verschaffen. Tipp: Stellen Sie Ihre Qualitäten den Chancen gegenüber und finden so weitere Anschlusspunkte (sog. Matching-Strategie).
2. Stärken + Risiken: Absichern! (ST-Strategie)
In diesem Fall bestehen ernstzunehmende Bedrohungen. Nutzen Sie jetzt Ihre Stärken, um die Risiken abzumildern oder Gefahren zu kompensieren (sog. Neutralisierungsstrategie). Der Fokus liegt darauf, das Unternehmen oder dessen Position abzusichern.
3. Schwächen + Chancen: Aufholen! (WO-Strategie)
Sie haben zwar einige Schwächen – der Markt entwickelt sich aber gerade zu Ihren Gunsten. Das lässt sich nutzen, indem Sie gezielt an Ihren Schwächen arbeiten, diese permanent verbessern und so aufholen (sog. Umwandlungsstrategie). Dank dieser Strategie können Sie die sich bietenden Chancen besser ausnutzen und den Vorsprung der Konkurrenz verkleinern. Im besten Fall verwandeln sich Ihre Schwächen in Stärken.
4. Schwächen + Risiken: Vermeiden! (WT-Strategie)
Achtung: Fallen Schwächen und Risiken zusammen, droht Gefahr! Dieses Szenario gilt es unbedingt zu vermeiden (deshalb auch: Vermeidungsstrategie). Einen möglichen Schaden verhindern Sie, indem Sie rechtzeitig an den Schwächen arbeiten und Stärken wie Alleinstellungsmerkmale entwickeln.

ROCm zu entwickeln gehört z.B zur WO-Strategie. Xilinx zu kaufen zur SO-Strateie (Alleinstellungsmerkmal: Diversifizierung der Märkte (CPU/GPU/APU/FPGA/Semi-Custom/HPC/embedded/OpenSpource). Intel scheiterte hier aufzuholen bei GPUs, FPGAs und Semi-Custom (WO)

Edit: Intels Fabs waren mal SO, bis TSMC bei EUV davongezogen ist. AMD hat sich davon getrennt weil sie Globalfoundries bei WT eingeordnet haben und nie im SO-Bereich etabliert waren - eigene Fabs von Intel sind mittlerweile zur Belastung geworden.

Complicated
2025-12-07, 12:25:30
Das Video ist OnT. So wie du das grad meinst ist es, wenn Kleinkinder die Augen zukneifen und denken, daß sie keiner sieht.Ich frage mich immer wieder warum du abwertende Sprache benutzt - ad hominem kritisiert du wenn deine Meinung widerlegt wird. Das signalisiert mir dass du entweder versuchst hier eine Meinungshierachie zu etablieren (wessen Meinung ist mehr Wert) oder deine Meinung gar keine ist. Unterschied zwischen Meinung und Ideologie:
Meinung: sind Hypothesen die man gerne ändert durch neue Perspektiven -> dafür wurden Foren erfunden (Zweck)
Ideologie: eine Meinung die man nicht mehr ändert und zu seinem Wertesystem zufügt->dafür gibt es Parteien oder Religion die man wählen kann

ChaosTM
2025-12-07, 12:35:31
Ich frage mich immer wieder warum du abwertende Sprache benutzt - ad hominem kritisiert du wenn deine Meinung widerlegt wird. Das signalisiert mir dass du entweder versuchst hier eine Meinungshierachie zu etablieren (wessen Meinung ist mehr Wert) oder deine Meinung gar keine ist. Unterschied zwischen Meinung und Ideologie:
Meinung: sind Hypothesen die man gerne ändert durch neue Perspektiven -> dafür wurden Foren erfunden (Zweck)
Ideologie: eine Meinung die man nicht mehr ändert und zu seinem Wertesystem zufügt->dafür gibt es Parteien oder Religion die man wählen kann


Sehr gut erkannt. Danke für den Beitrag!


Er geht immer so vor. Findet er witzig oder eloquent, nur ist es das eher nicht.

Nightspider
2025-12-07, 12:45:54
Del

Complicated
2025-12-07, 12:46:52
Kontext und Schlußwort von mir.
Sehr gut erkannt. Danke für den Beitrag!
Interessant hierbei ist, dass Kleinkinder sich genau Gegenteilig verhalten: sie habe einen völlig offenen Verstand, denn alles ist neu. Diese Abwertung erfolgt lediglich zwischen Erwachsenen als Kompetenz-Referenz. Ich habe mir schon lange vorgenommen die Eigenschaft des offenen Verstandes von Kleinindern als Ideologie in mein Wertesystem zu integrieren.

Daher diskutiere ich auch etwas länger, als es für Mitleser hier noch relevant ist: Also ein Sorry an alle die, das aushalten müssen und danke an dich ChaosTM, dass ich das nicht im Dialog weiterführen muss :) Vor allem mit Rücksicht auf Leo und seine Moderatoren die das einordnen müssen.

Complicated
2025-12-07, 13:14:36
Ich glaube aus dem Austausch der letzten Seiten würde ich folgendes Fazit als Hypothese formulieren:

Eine KI-Blase gibt es nicht, Agentic AI ist die Zukunft. Da sind sich alle CEOs einig in der Branche.
Es gibt derzeit Warnzeichen für eine Blase die ernst zu nehmen ist, doch die Blase ist thematisch präziser zu bennen: GPU-Hardware für KI

Gerne verifizierende oder falsifizierende Meinungen zu meiner Hypothese.

Daredevil
2025-12-07, 13:20:02
Das gute an GPUs ist ja, sie sind flexibel, selbst wenn TPUs nun einen Zacken aus der Krone brechen. TPUs sind das nicht, also ist die Wette hier etwas riskanter. Kann man mit TPUs Quanten Computer Fehlerkorrekturen durchführen? I don’t know, mit GPUs geht das. Das ist ja immer der Kampf Allrounder vs. Spezialist.

Badesalz
2025-12-07, 13:46:31
@Chaos
Tat da in der letzten Zeit irgendwas weh? Kann mich absolut nicht erinnern. Dein Urteil ist natürlich dein Urteil :rolleyes: Hilft nur dem anderen stärker eine unbequeme Meinung weiter zu relativieren.
Ohne eine eigene Meinung zu haben - oder Interesse... - hilfst du jemanden, weil er halt eine konträre Meinung zu meiner hat? Wegen meiner Nase? 2025 neigt sich dem Ende. Ggf. wäre das jetzt der Zeitpunkt für paar vernünftige Vorsätze für nächstes Jahr. Mal so ganz uneloquent gesagt.

Ich verschiebe dich bis dahin von einer der oberen in die unterste Schublade, ok? Danke.

Ich frage mich immer wieder warum du abwertende Sprache benutzt Ich finde "Kinder" nicht abwertend. Bist halt jung geblieben. Respekt.
Du hast gelegentlich irgendwie nur diesen seltsamen Fokus, statt die Punchlines zu besprechen lieber/eher auf ihren Formulierungen rumzureiten. Desto öfters imho, je öfters sie den Kern treffen...
Ich schätze du hältst das irgendwie für trickreich oder sowas :| Was dich schwierig macht. Ich verfolge das sehr wohl. Und bin diesjahr bei weitem nicht der erste der dir gegenüber eher vorsichtig waltet, damit sich seine Zündschnur nicht entzündet.
Und dann wie aus dem Nichts folgst du in "2." meinem Narrativ? Die Diskussion macht trotzdem irgendwie Spaß :freak:

@daredevil
Korrekt. Durch das Gequatsche ging vielleicht unter, daß ich halt erwähnte, die TPUs werden nun signifikant im Kommen sein und das AMD ggf. mehr weh tun kann als NV. Da wo NV wegen Dritter federt, kann für AMD gleich ganz aus sein (stellenweise, nicht streckenweise).
Das ist schon die ganze These.

Hier überlegt man schonmal nicht, ob wenn nicht NV, dann halt AMD...
https://www.manager-magazin.de/unternehmen/tech/meta-bericht-ueber-milliardeninvestition-in-google-chips-statt-nvidia-a-91e81979-f46c-4fa1-8860-48201c72e631

Skysnake
2025-12-07, 14:34:14
Also bezüglich TPU und ASIC.

Auch GPUs sind ASICs genau wie CPUs. Heißer Scheiß. Ganz echt ey.

Ne Spaß beiseite. Ist halt wirklich so. TPUs sind halt "nur" mit konkreteren Problemstellungen konzipiert womit Sie etwas stärker in die Nische zielen. Das heißt aber nicht, das man Sie für nichts anderes verwenden kann innerhalb von AI. Die Frage ist halt nur wie Flexibel Sie sind in der Programmierung. Oder wie viele Datenformate Sie zum Beispiel unterstützen.

Wie sehr das einschränkt kann man erst sagen wenn man sich das explizit anschaut. Ganz dumm werden Sie aber auch nicht sein und es zu spezifisch implementieren. Und ein weiteres Datenformat ist schnell in einer neuen Auflage erledigt. Man sollte sich jetzt nicht der Vorstellung hingeben, dass die Designs jetzt 30 Jahre gebaut werden müssen bis sich das wirklich gelohnt hat und man ein weiteres Design auflegen kann. Google ist allein schon so groß, dass das nach 1-2 Jahren ein ROI sein wird wenn Sie es allein verwenden.

Ich würde daher diese Argumentation mit einer riesigen Schippe Salz genießen.

Ich glaube aus dem Austausch der letzten Seiten würde ich folgendes Fazit als Hypothese formulieren:

Eine KI-Blase gibt es nicht, Agentic AI ist die Zukunft. Da sind sich alle CEOs einig in der Branche.

Also wenn sich auf der Kostenseite nicht gewaltig was tut, dann ist es ne Blase in dem Umfang. Klar wird etwas bestehen bleiben aber auf viel viel viel niedrigerem Niveau.

Aber so wie es aktuell läuft wird selbst im Best Case ein Großteil der Firmen vom Markt verschwinden. Was man an sich schon als Blase bezeichnen könnte.


Es gibt derzeit Warnzeichen für eine Blase die ernst zu nehmen ist, doch die Blase ist thematisch präziser zu bennen: GPU-Hardware für KI

Gerne verifizierende oder falsifizierende Meinungen zum meiner Hypothese.

Das ist jetzt ein sehr fokusierterer Blick auf die HW Hersteller. Und da ist es schon schwer vorstellbar das nVidia nicht massiv einbrechen wird. Ganz egal was mit dem.Markt passiert.

Es gibt seit Jahren Bestrebungen aus dem nVidia Ökosystem auszubrechen und ich sehe das immer stärker als gegeben an. Meinem Eindruck nach weiß ein signifikanter Teil der AI Leute heute doch gar nicht mehr was Cuda ist weil Sie auf einem Abstraktionlayer ein oder gar zwei Ebenen drüber arbeiten.

Das ist dann auch die Chance für andere Hersteller sich Marktanteile zu sichern weil Sie eben nur Schnittstellen bedienen müssen. Aber klar wenn man generelle Schnittstellen bedient die aber für nvidia in der Nutzung optimiert sind hat man es am Anfang schwer. Wer aber mal weg ist, der kommt auch nicht mehr so schnell zurück.

Und da die jeweiligen Nischen verdammt riesig werden kann man auch viele andere Firmen mit eigenen Entwicklungen am Markt bedienen ohne das Sie an den Kosten für die Designs zugrunde gehen. Nvidia ist hier wie gesagt auch das Opfer ihres Erfolgs. Durch die große Marge sehen andere genug Potenzial.

Dad könnte zu einem gewissen Teil nvidia unterbinden indem Sie Ihre Marge reduzieren und es daher für die Konkurrenz unattraktiver machen, aber das schaffen Sie aus der Position der Stärke heraus nicht.

Complicated
2025-12-07, 14:35:42
Ich finde "Kinder" nicht abwertend. Bist halt jung geblieben. Respekt.
Du hast gelegentlich irgendwie nur diesen seltsamen Fokus, statt die Punchlines zu besprechen lieber/eher auf ihren Formulierungen rumzureiten. Desto öfters imho, je öfters sie den Kern treffen...
Ich schätze du hältst das irgendwie für trickreich oder sowas :| Was dich schwierig macht. Ich verfolge das sehr wohl. Und bin diesjahr bei weitem nicht der erste der dir gegenüber eher vorsichtig waltet, damit sich seine Zündschnur nicht entzündet.

Nur um deine Wahrnehmung einzuordnen im Sinne der Transparenz und dem Angebot alternativer Schlußfolgerungen:


Ich habe nicht "Kinder" als abwertend identifiziert, sondern deine Verwendung der Analogie zur Hierarchiebildung in einem Forum. (Methodik)
Punchlines von dir treffen leider nicht so oft wie du denkst. So geht's uns aber allen. Das ist menschlich. Wie du damit umgehst ist schwierig. (Methodik und Selbstwahrnehmung)
Formulierungen sind für mich wichtig, da ich kein Deutsch Muttersprachler bin. Ich möchte nicht mißverstanden werden und prüfe gerne ob ich etwas mißverstehe. (Sorgfalt)

Badesalz
2025-12-07, 16:24:55
@Skysnake
Laut dem Link in #8604 hat man sich das bereits angesehen.

@Complicated
Sehr knuffig. Passt zum Sonntag :ulove:

Das war nur eine Empfehlung.
Ich bin im Grunde genommen der gleiche Klugscheisser wie Du und darum wollte ich dir den Prozess zur Selbsterkennung verkürzen..

Wir haben nicht immer recht, auch wenn wir das glauben..Quotest mich, redest - und das glasklar - zu Complicated... Das ist irgendwie nicht dein Tag heute :wink:

Complicated
2025-12-07, 22:39:53
@Skysnake
Absolute Zustimmung von mir zum Google-Kontext. Google sucht lediglich Skalierungsmöglichkeiten für ein Produkt, das seine Wertschöpfung intern in jedem Fall schon leistet->Auf der Suche nach anderen Problemen für diese spezifische Hardware-Lösung.

Ich finde diesen Aspekt sehr wichtig, da es auch dazu ganz aktuelle Entwicklungen gibt:

Es gibt seit Jahren Bestrebungen aus dem nVidia Ökosystem auszubrechen und ich sehe das immer stärker als gegeben an. Meinem Eindruck nach weiß ein signifikanter Teil der AI Leute heute doch gar nicht mehr was Cuda ist weil Sie auf einem Abstraktionlayer ein oder gar zwei Ebenen drüber arbeiten.

Das ist dann auch die Chance für andere Hersteller sich Marktanteile zu sichern weil Sie eben nur Schnittstellen bedienen müssen. Aber klar wenn man generelle Schnittstellen bedient die aber für nvidia in der Nutzung optimiert sind hat man es am Anfang schwer. Wer aber mal weg ist, der kommt auch nicht mehr so schnell zurück.

Nvidia ist hier nicht nur ein Opfer seines eigenen Erfolges, sondern ist mit seiner Strategie auch der größte leidtragende der globalen politischen Entwicklung beim Thema China.

China ist gezwungen Alternativen bei Hardware und Software zu entwickeln, obwohl sie das gar nicht vor hatten. Das öffnet die Tore für den OpenSource-Ansatz. Hier sind viele Dinge in Bewegung:
Empowering AI Acceleration: openEuler Unveils First SuperPoD-Ready OS and Welcomes AMD, Inspur Cloud, and Digital China (https://laotiantimes.com/2025/11/29/empowering-ai-acceleration-openeuler-unveils-first-superpod-ready-os-and-welcomes-amd-inspur-cloud-and-digital-china)
BEIJING, Nov. 29, 2025 /PRNewswire/ — The OpenAtom openEuler community (“openEuler”) successfully concluded the Operating System Conference & openEuler Summit 2025 in Beijing on November 14–15. Under the theme “Intelligence Unbounded, Open Source Beyond”, the two-day event gathered global industry leaders, open source contributors, and ecosystem partners to advance innovation in OSs and accelerate the development of an open global software infrastructure.
Since its open source launch in 2019, openEuler has grown rapidly, now encompassing over 2,100 member organizations and more than 23,000 global contributors. The installed base of openEuler-based OSs is expected to exceed 16 million deployments by the end of 2025, making it one of the preferred choices for digital transformation across China’s internet, telecommunication, finance, utilities, and energy sectors.


AMD hat auch die Export-Lizenz für MI308 erhalten und beliefert den chinesischen Markt mit Hardware im Gegensatz zu Nvidia:
https://www.ad-hoc-news.de/boerse/news/ueberblick/amd-secures-key-export-license-for-ai-chips-in-chinese-market/68409888

OpenSource AI Week in San Francisco im Oktober: https://www.amd.com/en/developer/resources/technical-articles/2025/open-source-ai-week-recap.html

ChaosTM
2025-12-07, 22:54:33
@Skysnake
Laut dem Link in #8604 hat man sich das bereits angesehen.

@Complicated
Sehr knuffig. Passt zum Sonntag :ulove:

Quotest mich, redest - und das glasklar - zu Complicated... Das ist irgendwie nicht dein Tag heute :wink:


ist ein ziemlich klarer Tag -> nimm dich nicht so wichtig wie du glaubst zu sein

Complicated
2025-12-07, 23:58:44
Kann man mit TPUs Quanten Computer Fehlerkorrekturen durchführen? I don’t know, mit GPUs geht das.
AMD hat für IBM die erste Hardware für Echtzeit-Korrektur gefertigt - es ist ein FPGA, Meldung am 30.10.2025:
https://www.elektronikpraxis.de/ibm-demonstriert-quantencomputer-fehlerkorrektur-auf-amd-fpgas-a-5753bfba791d7282b26c1ea9b1ce03d2/
IBM ist es gelungen, einen entscheidenden Fortschritt in der Quantenfehlerkorrektur zu erzielen. Die neue Lösung nutzt gängige Field Programmable Gate Arrays (FPGAs (https://www.elektronikpraxis.de/fpga-a-a268262ca8ddb28f7772140c85f76d2d/)) von AMD anstelle spezieller Quantenhardware. Damit wird die Fehlerkorrektur erstmals deutlich kosteneffizienter und schneller umsetzbar.

Die Entwicklung ist Teil von IBMs Projekt „Starling“, mit dem bis 2029 ein großskaliger Quantencomputer (https://www.elektronikpraxis.de/ibm-will-bis-2029-skalierbaren-quantencomputer-realisieren-a-73d8ae1c9a34d8780e058fde30adfecd/) entstehen soll. Das neue Fehlerkorrekturverfahren wurde dabei bereits ein Jahr früher als geplant erfolgreich umgesetzt.
[...]
Konkret kam ein AMD Virtex UltraScale+ VU19P FPGA zum Einsatz, der mit 9 Millionen Logikzellen der derzeit größte programmierbare Baustein im Sortiment des Herstellers ist. Die Forscher haben Ihre Ausführungen in einer auf arXiv.org offen einsehbaren Studie (https://arxiv.org/abs/2510.21600) publiziert.

Skysnake
2025-12-08, 05:08:49
Also daraus würde ich jetzt kein Ding machen...

IBM wird vermutlich schon lange mit Xillinx FPGAs arbeiten. Da ist das einfach die natürlichste Sache der Welt.

Complicated
2025-12-08, 06:52:00
Ja, nur wird das kein Markt für TPUs wenn FPGA dort zum Einsatz kommen.

Badesalz
2025-12-08, 06:59:13
nimm dich nicht so wichtig wie du glaubst zu seinDas sieht von hier oben überhaupt nicht gut aus, Chaos. Nerv einfach nicht mit der ungefragten Show um deinen vermeintlich ausgeprägten Gerechtigkeitssinn, dann läuft das schon. Je stiller, desto besser. DANKE.

@Skysnake
Wobei das auch Peanuts sind. HPC ist ok und bisschen Geld liegt da schon rum, aber die Stückzahlen gibt es imho an der anderen Stelle. Und die TPUs sind dann - wie theorisiert - nicht nur für NV ein Problem.

@Complicated
man ej... OK. Auf wieviel Gulden schätzt du den Markt für FPGAs und die Fehlerkorrektur für Quantencomputer? Wieviel davon braucht EIN Quantenrechner? Gerne auch angesichts dessen was Meta jetzt bei Google bestellen will...

edit um 07:!8:
Das war mal eine miese Frag was?

Complicated
2025-12-08, 12:03:48
@Complicated
man ej... OK. Auf wieviel Gulden schätzt du den Markt für FPGAs und die Fehlerkorrektur für Quantencomputer? Wieviel davon braucht EIN Quantenrechner? Gerne auch angesichts dessen was Meta jetzt bei Google bestellen will...
Deine Fragen an mich ergeben keinen Sinn.
Eine an dich: Was kostet ein FPGA und was kostet eine TPU? Aus dem Stückpreis und der benötigten Anzahl kannst du den Markt abschätzen (TAM)
Das kann für TPUs, GPUs und FPGA um den Faktor 10 auseinander gehen->
Deswegen offenbart deine Fragestellung schon deine Unkenntnis.

Badesalz
2025-12-08, 12:15:02
Deine Fragen an mich ergeben keinen Sinn.Das ist mir grad auch sehr klar geworden.
Das kann für TPUs, GPUs und FPGA um den Faktor 10 auseinander gehen->
Deswegen offenbart deine Fragestellung schon deine Unkenntnis.Tipp des Tages: Leute die etwas fragen, wissen etwas nicht. Ja, das kann man auch als Unkenntnis betiteln (Deutsch nicht nativ, wie du sagst). Das wäre noch nichts gleich generelles wofür man sich schämen muss. Meine Unkenntnis in dem Fall bestand aber real daran, daß ich jemanden diese Frage stellte, der ebenfalls keinen Schimmer hat - trotz dies üppig andeutenden Theorien - und um das zu kaschieren, lieber direkt dem Fragenden selbst Unkenntnis vorwirft.

Dezember ist eindeutig irgendwie nicht dein Monat.

@all
Warum ich das brachte (außer, weil ich naturblöde bin): Die News über Meta will TPUs von Google kaufen, zieht am Tag 1 ihren Kreis. Kurze Zuckungen an den Börsen bei NV und AMD, deswegen, am Tag 1 und Tag 2.
NV fällt um 4%, AMD fällt um 7%. Alle capiche was ich meinte? Jetzt außer Complicated, weil wohl viel zu einfach von mir gedacht...

Skysnake
2025-12-08, 13:51:16
Die Fehlerkorrektur für QC ist doch völlig Lack egal. So lange das in Entwicklung ist nimmt man gerne nen FPGA und wenns fertig entwickelt ist nimmt man entweder noch immer nen FPGA oder baut halt nen ASIC je nachdem was günstiger ist. Bei den zu erwartenden geringen Stückzahlen würde ich weiterhin von FPGAs ausgehen es sei denn Sie wollen den höheren Speed von nem ASIC.

Lehdro
2025-12-08, 16:07:17
@all
Warum ich das brachte (außer, weil ich naturblöde bin): Die News über Meta will TPUs von Google kaufen, zieht am Tag 1 ihren Kreis. Kurze Zuckungen an den Börsen bei NV und AMD, deswegen, am Tag 1 und Tag 2.
NV fällt um 4%, AMD fällt um 7%. Alle capiche was ich meinte?
Ich verstehe sehr gut was du meinst, möchte aber noch anmerken: Der Markt reagiert nicht rational, weil viele den Markt gar nicht verstehen (also die Börsianer im besonderen, aber auch viele Analysten). Ich erinnere daran wie alle Semi Aktien mit NV mitfiebern, egal wie weit deren tatsächliche Verbindungen wirklich gehen. Für die Börsianer/Analysten ist NV das Fieberthermometer, an dem alles in dem Bereich ("AI") gemessen wird. Darauf würde ich nicht allzu viel geben, die Quartalszahlen sind da für das Thema ("Wie geht es AMD") viel eher relevant und eben nicht nur der Aktienkurs.

Badesalz
2025-12-08, 17:11:15
@Skysnake
So sehe ich das auch. Das ist gut für die Galionsfigur und so, aber nichts für den Quartalsbericht.

@Lehdro
Ob das dann AMD was hilft, wenn die Börse wie so oft schon davor, frei dreht, weiß ich nicht.

Lehdro
2025-12-09, 14:49:35
@Lehdro
Ob das dann AMD was hilft, wenn die Börse wie so oft schon davor, frei dreht, weiß ich nicht.
Natürlich nicht, das wissen wir doch alle. Die AMD Aktie ist sowieso Banane was die Logik angeht, da prinzipiell pessimistisch nach einem Quartalsergebnis - völlig egal wie jenes und die Prognosen dazu ausfielen. Ich sag nur AMD - "Advanced Money Destroyer".

Badesalz
2025-12-13, 09:28:15
Sherlock Holmes aka George Cozma versucht auf die FP64 der 430X zu kommen.
Sieht mir bisschen ZU schräg aus :freak:
https://chipsandcheese.com/p/sc25-estimating-amds-upcoming-mi430xs

davidzo
2025-12-17, 18:11:38
Wieso, 211Tflops FP64 sind doch nicht abwegig?

Dass sich die Arithmetikleistung mehr als verdoppelt ist doch sehr wahrscheinlich, da sich auch die Speicherbandbreite mehr als verdoppelt.

Mi-300X hat 81.72 TFLOPS und Mi355X war in Bezug auf DP eine Regression. Zudem war Mi-300X auch eine Hybridarchitektur die auch für low precision AI Leistung viel performance bringt während Mi430X in erster Linie ein DP Beschleuniger ist und es für low precision ja noch Mi455X gibt.

Mi355X hat Faktor 128x zwischen FP64 und FP4/6. Wenn die 430X+455x ein Chip wären und nach dem Schema der 355X aufgebaut wäre, dann hätten sie 27Tflops FP4/6, nicht 20 bzw. 40.
Wobei unklar ist ob AMDs Werte wie bei NV mit sparsity sind oder nicht. Mi 355X hat 5Pflops FP8 ohne sparsity, 20PF FP8 bzw 40 FP4 wäre also eine Vervierfachung. Einige Medien sprechen aber nur von einer Verdopplung, möglicherweise schwenkt AMD hier also ebenfalls auf sparsity Angaben um besser gegenüber nvidia dazustehen.

Wie dem auch sei bietet der shrink von 3nm auf 2nm nicht so viel mehr an Density und noch weniger an Kosten pro Transistor. Eine Vervierfachung ist also sehr optimistisch, aber nicht im Rahmen des unmöglichen wenn AMD durch den Wegfall von 64bit präzision nennenswert Die-Area einsparen kann.


Sorry, gerade gesehen dass wir nicht im Speku Forum sind.

Badesalz
2025-12-18, 09:55:07
Wieso, 211Tflops FP64 sind doch nicht abwegig?Ja. Sonst hätte er das nicht zu Papier gebracht ;) Mich hats aber trotzdem erstmal leicht ungläubig zurückgelassen. Ja kann auch sparsity sein. Wären sonst weniger spektakuläre 78.6 zu 105.
Nach wessen Angaben geht er das aber durch? Imho nich nach AMDs oder?

Complicated
2025-12-21, 09:34:43
https://www.heise.de/news/HPE-Erstes-AMD-basiertes-KI-Turnkey-System-11121642.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag
HPE hat auf der jüngsten Kundenveranstaltung Discover sein erstes Turnkey-System auf Grundlage von AMDs KI-Rack-Scale-Architektur „Helios“ mit Ethernet-Scale-Up-Netzwerk angekündigt. Das System nutzt speziell entwickelte Juniper Networking-Hardware und -Software sowie Broadcoms Tomahawk-6-Netzwerkchip. Es basiert auf dem offenen UALoE-Standard (Ultra Accelerator Link over Ethernet) und die auf den ORW-Spezifikationen (Open Rack Wide) des Open Compute Project (OCP) basierende Rack-Scale-Lösung ist für optimierten Energieverbrauch, moderne Flüssigkeitskühlung und einfache Wartung ausgelegt. Damit bietet es eine Alternative zu proprietären GPU-Verbindungen wie Nvidias NVLink.

Durch die Einbindung von 72 AMD-GPUs des Typs Instinct MI455X pro Rack bietet das System eine aggregierte Scale-up-Bandbreite von 260 TByte/s und bis zu 2,9 KI-Exaflops FP4-Leistung. Dazu gehören 31 Terabyte HBM4-Speicher und eine Speicherbandbreite von 1,4 PByte/s. Ergänzt wird das durch einen neuen Scale-Up-Ethernet-Switch, der optimierte Leistung für KI-Workloads über Standard-Ethernet bietet und in Zusammenarbeit mit Broadcom entwickelt wurde. Der Switch nutzt HPEs KI-native Automatisierungs- und Qualitätssicherungsfunktionen, um den Netzwerkbetrieb zu vereinfachen und zielt auf eine schnellere Bereitstellung und Kosteneinsparungen ab. Abgerundet wird das System durch die Open-Source-Software AMD ROCm und die Netzwerktechnologie AMD Pensando.

Badesalz
2025-12-25, 13:10:47
Aus dem gleichen NV-Thread. Betrifft halt nicht nur NV...

https://medium.com/@jengas/torchtpu-is-googles-most-dangerous-weapon-yet-85202daf356e

Jetzt wo sie den gleichen Zugang zu UltraEthernet und UAlink haben wie alle anderen, können sie es auch selbst brauchbar aufziehen.
Die Blase wird wohl anders platzen als viele gedacht haben.

Complicated
2026-01-14, 09:42:37
Angeblich sind AMDs Server-CPUs Kapazitäten für 2026 komplett aufgekauft von Hyperscalern wie Google, Amazon und Meta. Es sollen Preiserhöhungen um ca. 10% folgen:
https://invezz.com/news/2026/01/13/amd-stock-surges-7-after-bullish-analyst-call-heres-what-keybancs-upgrade-means/
KeyBanc’s upgrade came after a supply-chain trip to Asia, where Vinh documented what he called “outsized hyperscaler demand” for AMD’s data-center and AI products.

The upgrade marks a dramatic reversal from his April 2025 downgrade when he worried about an “air pocket” in demand between product cycles.

The latest findings suggest that major cloud providers like Amazon, Google, and Meta are ramping AI infrastructure investments so aggressively that they have effectively cornered AMD’s supply of high-end server CPUs for the entire year.​

Eine weitere Partnerschaft mit Ziel der KI-Skalierung:
https://www.investing.com/news/company-news/tcs-and-amd-form-strategic-alliance-to-accelerate-ai-adoption-93CH-4446057
As part of the collaboration, the companies will develop generative AI frameworks for specific sectors including life sciences for drug discovery, manufacturing for quality engineering, and financial services for risk management.
[...]
The partnership will leverage AMD’s Ryzen CPUs for workplace transformation solutions and utilize AMD EPYC CPUs, Instinct GPUs, and AI accelerators to modernize hybrid cloud environments. The companies will also work with AMD’s embedded computing portfolio to drive edge innovation through adaptive System on Chips and Field Programmable Gate Arrays.

TCS, which reported consolidated revenues exceeding $30 billion for the fiscal year ended March 31, 2025, employs approximately 590,000 people across 55 countries. AMD is a provider of high-performance computing and AI solutions.

Badesalz
2026-01-14, 10:11:48
So kann man als Cloud Hyperscaler natürlich auch on premise jeglicher Couleur aufhalten. Man kauft einfach den Markt leer.
"Landes-Cloud" am A...

Jetzt können sie untereinander mit Warentausch handeln. Google tauscht dann bei OpenAI Epycs gegen DIMMs.
Was kaufen sie als nächstes leer? Zement? Wasserpumpen?

Diesjahr wird Oracle dann DukeEnergy kaufen und AWS die Exelon Corp. Und Google kauft dann Corning... Hoffentlich kann Softbank noch schnell Daikin kaufen.
Hoffentlich reagieren Bull-Eviden schnell genug und schaffen es noch schnell Schneider Electric zu kaufen.

MSABK
2026-01-14, 10:15:28
So kann man als Cloud Hyperscaler natürlich auch on premise jeglicher Couleur aufhalten.
Man kauft einfach den Markt leer.

Jetzt können sie untereinander mit Warentausch handeln. Google tauscht bei OpenAI Epycs gegen DIMMs.

Das ist ja das Ziel, alles soll bei den Techgiganten laufen. Sonit kontrollieren sie alles von Wafer bis hin zum Abo. Der Consumer wird in Zukunft zu Abos genötigt oder er muss sich mit 8gb ram begnügen offline.

Complicated
2026-01-14, 10:36:37
Wenn sie anfangen eigene private Söldnertruppen zu entsenden, zum Schutz von Ressourcen, wird es zu spät sein.

Badesalz
2026-01-14, 10:39:37
:D Ja genau.

Es wird wohl nochmal eine Blütezeit für Constellis kommen.

][immy
2026-01-14, 10:44:39
Angeblich sind AMDs Server-CPUs Kapazitäten für 2026 komplett aufgekauft von Hyperscalern wie Google, Amazon und Meta. Es sollen Preiserhöhungen um ca. 10% folgen:
https://invezz.com/news/2026/01/13/amd-stock-surges-7-after-bullish-analyst-call-heres-what-keybancs-upgrade-means/


Eine weitere Partnerschaft mit Ziel der KI-Skalierung:
https://www.investing.com/news/company-news/tcs-and-amd-form-strategic-alliance-to-accelerate-ai-adoption-93CH-4446057
Aber wieso?
Die Server CPUs (oder allgemein CPUs) eignen sich nicht wirklich gut für AI. Und außerhalb der AI bubble gibt es nicht diesen mega Wachstum.

Badesalz
2026-01-14, 10:46:09
@immy
Ich glaub die Nodes laufen nicht gut ohne CPUs

][immy
2026-01-14, 10:48:34
@immy
Ich glaub die Nodes laufen nicht gut ohne CPUs

Das ist klar, aber du brauchst nur sehr wenige CPUs für eine ganze Menge GPUs.
Aktuell scheinen sich einfach alle großen Anbieter von allen etwas ins Lager zu legen, nur um es später nicht vermissen zu müssen. Das ist nicht wirtschaftlich

Badesalz
2026-01-14, 10:52:50
[immy;13868366']Das ist klar, aber du brauchst nur sehr wenige CPUs für eine ganze Menge GPUs.Ich mein 1 zu 8 oder? Jetzt mal davon ab, daß dies die Infrastruktur im Hintergrund ist. Die Opf..., die Benutzer, docken nicht direkt an NVL oder Helios Racks an.

Man braucht also noch eine Infrastruktur davor die das verwaltet. Und man braucht noch das gewöhnliche Zeug damit Insta läuft :usad: D.h. man kauft in einem Rutsch gleich komplett für sich für alles.

Badesalz
2026-01-14, 12:23:50
ODER, es gab ein gemeinsames Meeting mit Langley und Darpa und die haben angesagt, daß es wohl bald zu einem sehr starken Engpass kommen wird und man sich eindecken sollte.

Arizona und Rapidus können das ja nicht alles abfangen und Intel ist noch bisschen von entfernt. Falls nicht eh plötzlich auch noch Okinawa ein Thema wird...

Complicated
2026-01-14, 12:58:53
Das entscheidende ist was alles mit einem Helios-Rack zur Skalierung mit kommt:
https://www.amd.com/en/blogs/2025/amd-helios-ai-rack-built-on-metas-2025-ocp-design.html
The “Helios” rack is more than a hardware reference — it’s a collaboration blueprint for the AI ecosystem.

Built on the ORW specification submitted by Meta to OCP, “Helios” enables OEM and ODM partners to:

Adopt and extend the “Helios” reference design, accelerating time-to-market for new AI systems.
Integrate AMD Instinct™ GPUs, EPYC™ CPUs, and Pensando™ DPUs with their own differentiated solutions.
Participate in an open, standards-based ecosystem that drives interoperability, scalability, and long-term innovation.

By aligning around the ORW specification, the industry gains a shared, open foundation for rack-scale AI deployments — reducing fragmentation and removing the inefficiencies of proprietary, one-off designs.

Der_Korken
2026-01-14, 13:15:56
Was kaufen sie als nächstes leer? Zement? Wasserpumpen?

Diesjahr wird Oracle dann DukeEnergy kaufen und AWS die Exelon Corp. Und Google kauft dann Corning... Hoffentlich kann Softbank noch schnell Daikin kaufen.
Hoffentlich reagieren Bull-Eviden schnell genug und schaffen es noch schnell Schneider Electric zu kaufen.

Am besten irgendetwas, das in allen Anlagen zur Stromerzeugung benötigt wird und in hinreichend geringem Maße vorhanden ist, dass man alle Quellen dicht machen kann. Würde mich nicht wundern, wenn es dann irgendwann Anschläge auf fremde Strominfrastruktur gibt, um die Konkurrenz auszubremsen. Es wird immer mehr in die Spirale reingezogen, solange noch jemand an die AI-Dollars glaubt, die gerade zu hunderten Milliarden aus heißer Luft produziert werden. Entsprechend schnell könnte der Spuk natürlich auch vorbei sein.

Badesalz
2026-01-14, 13:24:43
Das entscheidende ist was alles mit einem Helios-Rack zur Skalierung mit kommt:
Wer soll da sonst mit rein außer noch Broadcom? :rolleyes: Das ist AMD-Terrain. Der Rest sind nur theoretische Möglichkeiten.

Complicated
2026-01-14, 13:32:34
Man sollte sich nicht nur auf die 7 TOP-Player konzentrieren. Die neue Partnerschaft mit TCS gibt einen Eindruck über das Potential:
https://www.investing.com/news/company-news/tcs-and-amd-form-strategic-alliance-to-accelerate-ai-adoption-93CH-4446057
TCS CEO K. Krithivasan stated the collaboration is "a significant step in scaling AI for the enterprise" and advances the company’s ambition to become "the world’s largest AI-led technology services company."

The partnership will leverage AMD’s Ryzen CPUs for workplace transformation solutions and utilize AMD EPYC CPUs, Instinct GPUs, and AI accelerators to modernize hybrid cloud environments. The companies will also work with AMD’s embedded computing portfolio to drive edge innovation through adaptive System on Chips and Field Programmable Gate Arrays.

TCS, which reported consolidated revenues exceeding $30 billion for the fiscal year ended March 31, 2025, employs approximately 590,000 people across 55 countries. AMD is a provider of high-performance computing and AI solutions.

Badesalz
2026-01-14, 17:32:13
Das ist eine (typische) Inderbude oder? Kostet der Epyc denn in Indien genausoviel wie in USA?

Complicated
2026-01-14, 20:09:05
employs approximately 590,000 people across 55 countries*Seufz*

Badesalz
2026-01-15, 06:28:26
Das spielt keine Geige in wie vielen Ländern. Jetzt mal von ab, daß die Verteilung nicht erwähnt ist. Es sind garantiert nicht 10720 pro Land ;)

Complicated
2026-01-15, 09:32:25
Ich weiss gar nicht was dein Diskussionspunkt ist. Indien? Region des Umsatzes? Wie viel Umsatz 590.000 Angestellte bei TCS für AMD Hardware/Ökosystem (Helios/RocM) in der Beratung generieren können in 55 Ländern?

AMD Pressemiteilung ist auch raus:
https://ir.amd.com/news-events/press-releases/detail/1274/tcs-and-amd-announce-strategic-collaboration-to-drive-ai-adoption-at-scale
TCS will also rapidly upskill and certify its associates on cutting-edge AMD hardware and software technologies. The two companies plan to jointly invest in talent that will help build a deep pool of experts who can co-innovate and deliver next-generation AI solutions. Additionally, industry-specific GenAI frameworks will be developed for sectors such as life sciences (drug discovery), manufacturing (cognitive quality engineering and smart manufacturing), and BFSI (intelligent risk management). Finally, the collaboration plans to deliver tailored accelerators, frameworks, and best practices to boost AI performance across both training and inference workloads, helping ensure organizations can fully harness the power of AI.
Tata Group: https://de.wikipedia.org/wiki/Tata_Consultancy_Services
In Deutschland und Österreich ist TCS seit 1991 aktiv.[7] Die Deutschland-Zentrale befindet sich in Frankfurt am Main, zudem besitzt TCS in Düsseldorf ein regionales Delivery Center. Es dient als Schnittstelle zum Global Network Delivery Model (GNDM). Berater im In- und Ausland betreuen über 100 deutsche und österreichische Firmen, darunter 20 DAX-40-Unternehmen und einige große mittelständische Firmen sowie Familienunternehmen. Die Leistungen reichen von Anwendungsentwicklung, Systemintegration und Beratung bis hin zu Digital Business Transformation. Zu den wichtigsten Kunden zählen die Deutsche Bank, Bayer, SAP und Siemens.

Badesalz
2026-01-15, 09:56:32
Sehr gut :)

Badesalz
2026-01-15, 12:24:02
Wenn die Blase mit dem GPU-like Unsinn sich aufzulösen anfängt - mit TPUs, ASICs und dem hier https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13868778#post13868778 - bleibt Nvidia noch das Omniverse. Die Abbildung der Projekte im digitalen Zwilling. Dann noch Cosmos für die Robotik und paar Sachen mehr.

AMD landet aber wieder in bestenfalls 2018 oder?

Lehdro
2026-01-15, 14:47:35
AMD landet aber wieder in bestenfalls 2018 oder?
AMD hat ASICs, TPUs/NPUs wären auch kein Problem. Sie müssten sich halt nur mal positionieren in der Hinsicht. Und genau da sehe ich das Problem bei AMD, sie laufen immer noch hinterher, könnten aber viel mehr aktiv tun. Geld + Fähigkeiten sind da, es mangelt an der Vision.

Complicated
2026-01-15, 15:03:38
Ich denke da vergleicht man Äpfel mit Birnen. Die beiden Unternehmen fahren so grundverschiedene Geschäftsmodelle, dass sich gar nicht die selben Strategien anwenden lassen.

Badesalz
2026-01-15, 17:51:12
@Lehdro
Momentan fahren sie auf komplett sichere Sicht, da sie einfach nachahmen was bei NV davor funktionierte. Oder was bei NV als glasklar gute Idee erscheint. Fertig.
Aktuell lässt sich in jenem Kielwasser gut leben. Das sind aber nur die Anfänge der Story. Das GPU-like Zeug wird das Thema nicht ewig tragen, weil es dafür garnicht optimal ist.

@Complicated
Ich denke das tut man keineswegs. Das Produkt ist das gleiche. Gar gleich das Produktportfolio (Hardware). Das GeschäftsFELD ist übrigens auch das gleiche.
Unterschiede im GeschäftsMODELL machen draus also nicht gleich Äpfel und Birnen. Ja, hier werden Zwetschgen mit Mirabellen verglichen. Ist das sachlich unzulässig?

Complicated
2026-01-15, 18:45:47
Der gleiche Markt und das gleiche Produkt macht nicht das selbe Geschäftsmodell.
Open Souce und möglichst breite Industriestandards zu unterstützen vs. proprietäre Hardware mit geschlossenem Ökosystem zu monetarisieren erfordert völlig andere strategische Entscheidungen, Investitionen und Partnerschaften. Custom Designs ist ebenfalls ganz etwas anderes.

Tidus
2026-01-16, 08:45:22
Tragt das via PN aus, ansonsten bekommt ihr beide eine Abkühlung.

Badesalz
2026-01-16, 09:35:37
Absolut keine Ahnung wie ich das in Gewinne umrechnen soll. Völliger Blödsinn imho. Man ist ins Open gegangen, damit man sich Unterstützung gegen NV ranholen kann. 10 gegen 1. Der Rest, den NV ebenfalls vom Markt drängt.

Wenn #8644 eintreten sollte, ist nichts mehr davon von der aktuellen Wichtigkeit. NV bleibt da noch was aufgezählt wurde. AMD bleibt... Open :uup:

Complicated
2026-01-16, 09:55:00
Nein, da bleiben AMD reichlich Produkte, die Nvidia nicht hat.

Skysnake
2026-01-16, 10:04:46
Absolut keine Ahnung wie ich das in Gewinne umrechnen soll. Völliger Blödsinn imho. Man ist ins Open gegangen, damit man sich Unterstützung gegen NV ranholen kann. 10 gegen 1. Der Rest, den NV ebenfalls vom Markt drängt.

Wenn #8644 eintreten sollte, ist nichts mehr davon von der aktuellen Wichtigkeit. NV bleibt da noch was aufgezählt wurde. AMD bleibt... Open :uup:
Man könnte auch sagen Sie haben auch einfach auf die Wünsche Ihrer potenziellen Kunden gehört.

Dir Cloud Provider sind nämlich absolut unzufrieden damit in nem Vendorlockin mit nVidia zu stecken und sind daher auch bereit Alternativen zu pushen. AMD hat die Chance halt wie andere auch versucht zu nutzen.

Badesalz
2026-01-16, 10:14:55
Nein, da bleiben AMD reichlich Produkte, die Nvidia nicht hat.Nicht daß einer auf die Idee kommt ich rante einfach nur stumpf wegen fehlender Inhalte rum, obwohl sie da wären... :rolleyes:

@Skysnake
Das ist klar. Bisher. Die Frage bzw. Abwägung zielt aber SAMT dem Inhalt aus #8644 drauf. Das ist der Kontext meinerseits.
Der Markt steht jetzt schon durch Memory-IceAge komplett auf dem Kopf und er wird sich ändern und auch verändert bleiben, wenn die Blase sich langsam auflöst und die Kräfte bei KI sich doch verschieben (entsprechend #8644, wenn denn).

PS:
Man hat gerne auf die Wünsche gehört, weil man dem alleine eh nicht gewachsen war, sich auf die gleiche NV-Art dagegen zu stemmen. Auch Open ist nur eine Geschäftsidee ;) Für alternative Wege war man nicht mächtig genug. Das Problem ist hier aber, daß frühere Partner ne Weile später auch Konkurrenten sein können. Dann kann Oracle auch mal dank all dem früheren Einsatz von AMD, TPUs von Broadcom betreiben.

Open ist immer schön, wenn jeder seine Nische hat. Hier haben wir aber viele Überschneidungen.

Complicated
2026-01-16, 11:28:19
Nicht daß einer auf die Idee kommt ich rante einfach nur stumpf wegen fehlender Inhalte rum, obwohl sie da wären... :rolleyes:Ich bin nicht für dein Wissen zuständig. Du findest das selber raus. Deine Behauptung ist damit ja widerlegt, da du nicht mal AMDs Produktpalette kennst. Aber versuch mal den Suchbegriff CPU...als Einstieg und arbeite dich von dort aus zu den anderen Produkten vor.

Badesalz
2026-01-16, 12:12:19
Ich bin nicht für dein Wissen zuständig.Dir ist das mit dem Sinn eines Forums sowieso noch ziemlich suspekt oder?

Ja. CPUs. Mega Einfall deinerseits. Du hast von den lauten Inhalten meinen Kontext wieder brav ad acta gelegt.

Complicated
2026-01-16, 14:11:47
Brauchst du meine Aufmerksamkeit?
Tragt das via PN aus, ansonsten bekommt ihr beide eine Abkühlung.

Badesalz
2026-01-16, 17:02:21
Brauchst du meine Aufmerksamkeit?Ja? #8644 enthält keine Quotes.

Lass es einfach :wink:

dildo4u
2026-02-04, 08:58:33
Geschäftsbericht 10 Milliarden Umsatz im Q4 2025

https://www.computerbase.de/news/wirtschaft/quartalszahlen-amd-macht-bei-10-3-mrd-usd-umsatz-8-prozent-mit-gaming.96021

Badesalz
2026-02-04, 09:11:56
8% von 10 Mrd., da würde ich nicht gleich sagen, kann man bald auch weglassen :usweet: Der Punkt ist eher was davon übrig bleibt, wenn man Playstation abzieht.

dildo4u
2026-02-04, 09:20:50
Werden X3D CPU nicht auch unter Client gezählt?
Die Dinger machen doch bei 500€ massiv mehr Gewinn als eine 9070.

reunion
2026-02-04, 09:53:34
Geschäftsbericht 10 Milliarden Umsatz im Q4 2025

https://www.computerbase.de/news/wirtschaft/quartalszahlen-amd-macht-bei-10-3-mrd-usd-umsatz-8-prozent-mit-gaming.96021

AMD dürfte Intel dieses Jahr beim Umsatz überholen. Vor wenigen Jahren noch unvorstellbar.

Complicated
2026-02-04, 09:59:36
Interessantes Detail zu Konsolen-Plänen mit Microsoft:
Winfuture: AMD-Chefin bestätigt: Neue Xbox könnte schon 2027 kommen (https://winfuture.de/news,156600.html)


Technisch dürfte die neue Konsole einen signifikanten Sprung darstellen. Berichten zufolge deutet vieles auf eine leistungsstarke APU hin, die unter dem vermuteten Codenamen "Magnus" entwickelt wird. Experten gehen davon aus, dass hier Prozessorkerne der Zen-6-Architektur mit einer Grafikeinheit auf Basis von RDNA 5 kombiniert werden. Die Konfiguration wäre notwendig, um die gestiegenen Anforderungen an Raytracing, Auflösung, Framerate und Grafikqualität lokal zu bewältigen.

Ein wesentlicher Aspekt der nächsten Generation ist Microsofts Vision einer "hybriden Spielplattform". Ziel ist es, lokale Rechenleistung nahtlos mit Cloud-Gaming-Ressourcen zu verknüpfen. Eine potente RDNA-5-Grafikeinheit könnte hierbei komplexe Darstellungen übernehmen, während physikalische Berechnungen oder KI-NPCs in die Cloud ausgelagert werden.
[...]
Die Hardware-Strategie von Microsoft orientiert sich zudem zunehmend am Erfolg moderner Handheld-PCs. Xbox-Präsidentin Sarah Bond hatte in der Vergangenheit angedeutet, dass kommende Hardware-Generationen gemeinsam mit AMD entwickelt werden, um verschiedene Formfaktoren zu bedienen. Dies nährt Spekulationen, dass die nächste Xbox-Familie nicht nur aus einer stationären Konsole bestehen könnte, sondern auch ein natives Handheld-Gerät oder eine modulare Lösung ähnlich der Nintendo Switch 2 umfasst.
Semi-Custom könnte hier mehrere Chips bekommen: Konsole, Server und Handheld. Das sind erste Synergieeffekte für die Semi-Abteilung.

dargo
2026-02-04, 11:44:47
Ich bin echt gespannt wie Sony auf die aktuelle Lage reagiert? Könnte mir durchaus vorstellen, dass Sony bei der PS6 zwei Konsolen rausbringt. Einmal eine Sparversion und einmal die "normale". Also ähnlich womit jetzt Microsoft fährt. Die Sparversion dann irgendwo bei ca. 500$, die normale bei 800$ oder sogar noch leicht drüber.

Badesalz
2026-02-04, 11:46:13
Das könnte einfacher funktionieren als bisher. Einfach halber Speicher, halber Preis :uup:

Lehdro
2026-02-04, 11:46:34
Klassischer AMD Move: Alle Prognosen klar übertroffen, auch die der Analysten und Aktie geht direkt auf Tauchstation mit -8%. Man muss es mittlerweile lieben. :freak:

Complicated
2026-02-04, 11:59:13
Die Leute triggern auf das sequentielle Minus von 3% im Q1 (Prognose) - die sind alle auf dem Trichter ohne Steigerung jedes Quartal ist die KI-Blase am Platzen. AMD hat das Thema eigentlich immer in Q4 mit den Q1 Prognosen. Ich denke Ende 2026 wird das anders aussehen, wenn die Umsatzanteile bei Server/Helios/MI4xx groß genug sind die Consumer-Jahreszyklen zu glätten für die Berichtszahlen. Wer die Branche kennt, weiß das. Doch wieviele Anleger wissen so was nicht, die gerade den KI-Hype reiten.

Complicated
2026-02-04, 12:07:04
Hier kommen schon die ersten positiven Nachrichten, mal sehen wie das bis Ende der Woche auf den Kurs wirkt: https://de.investing.com/news/analyst-ratings/keybanc-hebt-amdkursziel-auf-300-usdollar-an--starkes-rechenzentrumswachstum-als-treiber-93CH-3328281
KeyBanc merkte an, dass die Zahlen von AMD für das vierte und erste Quartal Umsätze mit dem MI308 in Höhe von 390 Millionen US-Dollar bzw. 100 Millionen US-Dollar an China beinhalten, es wird jedoch nicht erwartet, dass sich diese Verkäufe fortsetzen werden.

Laut KeyBanc deutet die Prognose von AMD für das erste Quartal auf ein Wachstum des Umsatzes im Rechenzentrumsgeschäft gegenüber dem Vorquartal hin, während saisonal üblicherweise ein Rückgang im hohen einstelligen Prozentbereich zu verzeichnen ist. Für die anderen Segmente wird hingegen ein Rückgang im Vergleich zum Vorquartal erwartet.

Das Analysehaus betonte zudem, dass die Einführung der MI450/Helios-Produkte von AMD weiterhin für das dritte Quartal 2026 geplant sei, wobei ein signifikantes Volumen für das vierte Quartal 2026 erwartet wird.

Hier ist als Detailinfo vielleicht wichtig diese überspezifische Erwähnung von MI308 zu beachten - AMD will stattdessen die MI325 nach China verkaufen.
https://www.tomshardware.com/tech-industry/artificial-intelligence/u-s-posts-official-h200-and-mi325x-ai-gpu-export-rules-to-china-but-with-plenty-of-caveats-a-string-of-requirments-greatly-limits-the-total-number-of-gpus-that-can-be-shipped-to-china
The U.S. Department of Commerce has unveiled new export rules for shipments of advanced AI and HPC processors designed in America to China and Macau. However, while the new rules permit limited exports of specific accelerators — most notably AMD's Instinct MI325X, Nvidia's H200, and comparable lower-performance products — on a case-by-case basis, licenses are granted only if the products are readily available in the U.S. and if shipments to the People's Republic remain capped relative to U.S. volumes, which effectively rules out China-only SKUs.
H200 von Nvidia ist immer noch nicht genehmigt, bei AMD kenne ich den aktuellen Stand für MI325 nicht.

reunion
2026-02-04, 12:13:49
Die Leute triggern auf das sequentielle Minus von 3% im Q1 (Prognose) - die sind alle auf dem Trichter ohne Steigerung jedes Quartal ist die KI-Blase am Platzen. AMD hat das Thema eigentlich immer in Q4 mit den Q1 Prognosen. Ich denke Ende 2026 wird das anders aussehen, wenn die Umsatzanteile bei Server/Helios/MI4xx groß genug sind die Consumer-Jahreszyklen zu glätten für die Berichtszahlen. Wer die Branche kennt, weiß das. Doch wieviele Anleger wissen so was nicht, die gerade den KI-Hype reiten.

Auch die Prognose war über dem Konsens der Schätzungen. Außerdem schätzt Lisa immer sehr konservativ und übertrifft eigentlich immer die eigenen Angaben.

Complicated
2026-02-04, 12:24:30
Auch die Prognose war über dem Konsens der Schätzungen. Außerdem schätzt Lisa immer sehr konservativ und übertrifft eigentlich immer die eigenen Angaben.Ja, waren Top-Zahlen. Ich glaube das war ein Move von Lisa um etwas nachschieben zu können Ende Q1, da erwartet wird bis dahin die Lieferkette nach den neuen Regeln etabliert und Sicherheit zu haben für Bestellungen. Dann werden die Umsätze für China schnell steigen. Es wird abzuwarten sein ob AMD dann einen größeren Anteil als bisher erreichen kann bei dem Neustart im chinesischen Markt.

Leonidas
2026-02-04, 14:37:45
Die AMD-Geschäftsergebnisse im vierten Quartal sowie Gesamtjahr 2025
https://www.3dcenter.org/news/die-amd-geschaeftsergebnisse-im-vierten-quartal-sowie-gesamtjahr-2025
https://i.postimg.cc/ncLzvGSz/AMD-Geschaeftsergebnisse-2007-bis-2025.png

Badesalz
2026-02-04, 17:46:49
Was war da eigentlich 2022-2023 los?? Was gekauft oder was ist das?

(da sieht man wieder, daß ich keineswegs deren Fanboy bin)

Th3o
2026-02-04, 17:52:28
Fast -20% ist schon sick. Was haben die ganzen Spekulanten erwartet?

Badesalz
2026-02-04, 17:55:07
Das muss irgendein Naturgesetz sein. Das hat wohl mit den Börsen nichts zu tun.

Gelegentlich sieht es wie irgendwelche illegalen Machenschaften aus :|

Palpatin
2026-02-04, 20:33:58
Was war da eigentlich 2022-2023 los?? Was gekauft oder was ist das?

(da sieht man wieder, daß ich keineswegs deren Fanboy bin)
Ja vor ein paar Jahren gab es ne größere Übernahme. Name und Summe habe ich nicht mehr im Kopf, ging um Hardware für Rechenzentren glaube ich. Jedenfalls nix was man vom Consumer Markt kennt.

GBWolf
2026-02-04, 20:38:31
Xilinx oder so war das glaube ich.

Skysnake
2026-02-04, 21:01:34
Ja die hatten Xillinx gekauft nachdem sich Intel Altera gekauft hatte.

Bei AMD hat die Integration scheinbar ziemlich gut geklappt während Intel daran gescheitert ist.

basix
2026-02-04, 22:48:49
Xilinx war allerdings etwas überteuert eingekauft worden ;)

Aber insgesamt passt Xilinx recht gut rein (machen einfach ihr Business weiter). Wie gross die Synergie-Effekte insgesamt sind (XDNA, IP-Portfolio) ist für mich aber nur schwer beurteilbar.

AMDs Zahlen sind ziemlich solide und AMD hat >60% Umsatzsteigerung im Datacenter Bereich angekündigt. Basierend auf den 16 Mrd. USD für 2025 wäre das >25 Mrd. USD oder +10 Mrd. für 2026. Und da AMD immer etwas konservativ schätzt und MI400 schon sehr gut aussieht, wäre evtl. noch etwas mehr drin. Bei Ryzen wollen sie auch wachsen. Ich schätze ~50 Mrd. USD Umsatz für 2026 könnte drin liegen. Und wenn MI400 wirklich sehr gut ist und der AI Hype anhält, dürfte 2027 nochmals gut was drauf legen. Das wird spannend.

Insgesamt schon verrückt, AMD hat ihren Umsatz ausgehend von fast bankrott innerhalb von 10 Jahren in etwa verzehnfacht (klar, bei Nvidia ist die Steigerung noch krasser).

Badesalz
2026-02-05, 07:14:30
Pensando war da übrigens auch dabei. Auch wenn für einen Bruchteil von Xilinx.
Die Übernahme von Xilinx hat man imho ZEITLICH leicht versemmelt (des Einkaufs wegen). Angefangen mit 35Mrd. viel zu lange geschludert und wenn es soweit war, waren es 49Mrd. (?)

Leonidas
2026-02-05, 17:31:31
Die Übernahme von Xilinx hat man imho ZEITLICH leicht versemmelt (des Einkaufs wegen). Angefangen mit 35Mrd. viel zu lange geschludert und wenn es soweit war, waren es 49Mrd. (?)

War klar zu teuer. Aber langfristig geht das womöglich sogar in Ordnung. So lange AMD derart wächst, stellt das niemand groß in Frage.


Ich schätze ~50 Mrd. USD Umsatz für 2026 könnte drin liegen.

Das wäre direkter Dunstkreis Intel - Wahnsinn, welche gegensätzliche Entwicklung beide Unternehmen genommen haben.

Denniss
2026-02-05, 23:35:44
Gute Unternehmensführung vs schlechte.

Pirx
2026-02-06, 09:35:44
Pensando war da übrigens auch dabei. Auch wenn für einen Bruchteil von Xilinx.
Die Übernahme von Xilinx hat man imho ZEITLICH leicht versemmelt (des Einkaufs wegen). Angefangen mit 35Mrd. viel zu lange geschludert und wenn es soweit war, waren es 49Mrd. (?)
Sie erfolgte aber durch Aktientausch https://www.boerse-online.de/nachrichten/aktien/amd-aktie-grosser-sprung-nach-vorn-dank-der-xilinx-uebernahme-20309335.html

Complicated
2026-02-06, 10:00:17
Viele vergessen, dass AMD diese 50 Mrd. Aktienübernahme bis 2030 Abschreiben. Das macht eine große Differenz in den GAAP zu Non-GAAP Reports. Dort sieht den buchhalterischen Unterschied im Gewinn.

Badesalz
2026-02-06, 11:16:03
War klar zu teuer. Aber langfristig geht das womöglich sogar in Ordnung. So lange AMD derart wächst, stellt das niemand groß in Frage.Das wird nicht weiter so gehen. Irgendein Überbegabter hat das vorher weggemacht, aber ich sprach gestern NextSilicon an.
Zu Laufzeit selbstprogrammierbare FPGAs.

Und Cerebras.

NV bleibt dann die humanoide Robotik (die Punchline hinter der KI-Blase, während alle auf AGI warten :hammer:). Was AMD bleibt weiß ich noch nicht...

Complicated
2026-02-06, 11:46:23
https://www.rte.ie/news/business/2026/0206/1557084-intel-amd-notify-china-customers-of-long-waits-for-cpus/
Server CPU Wartezeit für chinesische Kunden bei Intel 6 Monate, bei AMD 2,5 Monate.
In China, which accounts for more than 20% of Intel's overall revenue, its fourth- and fifth-generation Xeon CPUs are in particularly short supply, with Intel rationing deliveries, two of the people said.

Intel has a substantial backlog of unfulfilled orders for these models, with delivery times extending as long as six months, they added.

AMD has also informed clients of supply constraints, said one of the people and a third source. Delivery lead times for some AMD products have been pushed out to eight to 10 weeks, the third source said.

The extent of the supply contraints in China is being reported by Reuters for the first time.
Für Kontext: Während AMD sein Inventar erhöht hat im Jahresvergleich, um genug zu liefern für die KI Nachfrage, hat Intel aggressiv seinen Lagerbestand reduziert um Cashflow in der Bilanz zu erhöhen. Beide fahren da gerade unterschiedliche Strategien.

Th3o
2026-02-06, 12:43:30
Oder die Ausbeute ist bei Intel so schlecht, dass es so lange dauert

Complicated
2026-02-06, 14:19:44
Könnte ebenfalls ein Faktor sein, doch Intel hatte schon kommuniziert, dass sie die Nachfrage bei Server-CPUs aufgrund der hohen Nachfrage bei KI unterschätzt haben und die Produktion nicht hochgefahren haben. Ob wegen Yields oder Kapazität nicht oder wegen beiden, wer weiss.
Intel kann allozierte Wafer für Consumer nicht so einfach zur Server-Sparte verschieben, wie AMD mit ihren Chiplets und Fertigung ausschließlich bei TSMC.

Badesalz
2026-02-06, 16:51:14
Ob wegen Yields oder Kapazität nicht oder wegen beiden, wer weiss.Das interessante ist auch, daß die Nachfrage nach vorherigen Xeons größer ist als nach Xeon 6. Wogegen das bei AMD direkt nach dem Launch anfängt sich zu verschieben (Richtung dem Neuen).

Complicated
2026-02-09, 12:28:39
Interessantes Detail zu Konsolen-Plänen mit Microsoft:
Winfuture: AMD-Chefin bestätigt: Neue Xbox könnte schon 2027 kommen (https://winfuture.de/news,156600.html)

Zur PS6 gibt es wohl auch mehr Details - keine Ahnung wie korrekt/bestätigt das ist, Mark Cerny wird zwar erwähnt, nur ist nicht klar welche Infos von ihm stammen in dem Artikel:
https://www.allround-pc.com/news/playstation-6-erhaelt-amd-magnus-chip-mit-next-gen-radeon-und-ram-hammer
8xZen6+2xZen6c+RDNA5+NPU+12 MB L3Dem Chip scheinen zudem 30 GB GDDR7-RAM zur Seite zu stehen, die über ein 160-Bit-Speicherinterface mit 640 GB/s angebunden sein sollen. Der Speicher wird dabei zwischen CPU und GPU geteilt. Ältere Gerüchte gingen von 24 GB Arbeitsspeicher aus.
[...]
Die ersten Gerüchte gehen zudem davon aus, dass der Playstation 6 SoC über einen 3D-Cache verfügen wird, womit Sony die Technik des Ryzen 7 9800X3D übernehmen würde. Bei dieser Technik wird der L3-Cache gestapelt, wodurch der Speicher deutlich vergrößert werden kann. Der zusätzliche 3D-Cache sorgt in Spielen dann für deutlich mehr Leistung.

mboeller
2026-02-09, 14:40:22
Dem Chip scheinen zudem 30 GB GDDR7-RAM zur Seite zu stehen, die über ein 160-Bit-Speicherinterface mit 640 GB/s angebunden sein sollen. Der Speicher wird dabei zwischen CPU und GPU geteilt. Ältere Gerüchte gingen von 24 GB Arbeitsspeicher aus.

Schräg... 5 x 32bit -> 48Gbit-GDDR7

aceCrasher
2026-02-12, 09:54:28
https://videocardz.com/newz/amd-surpasses-40-server-cpu-revenue-share-for-the-first-time

AMD erreicht erstmal >40% Revenue Share bei Server CPUs.

Badesalz
2026-02-13, 11:23:28
Mit dem enttäuschenden Zen5% und gegenüber dem Vorgänger eigentlich unnötigem 9800X3D usw. usf. blahForengelaberblah, ist man im Clientmarket innerhalb eines Quartals mit +3.8% dabei

https://www.tomshardware.com/pc-components/cpus/30-percent-of-x86-cpus-sold-are-now-made-by-amd-as-companys-market-share-grows-thanks-to-a-flagging-intel-enjoys-growth-across-all-segments-as-competition-intensifies

Und das trotz Intels Core Ultra (!) :uconf3:

Lehdro
2026-02-13, 15:15:15
Immerhin bot AMD Mehrperformance anstatt Leistungsregression gegenüber dem sich selbst zerstörenden Vorgängern. Ein kleines Plus statt zweimal Minus.

Badesalz
2026-02-13, 16:57:02
Ou... Ok -> Ich meinte das in einem überaus positiv-sarkastischen Ton :rolleyes:

+3,8% innerhalb eines Quartals ist eine gigantische Zunahme (!)

basix
2026-02-16, 15:40:09
Schräg... 5 x 32bit -> 48Gbit-GDDR7

Nö, 5x 32 bit mit jeweils 2x 24 Gbit im Clamshell-Modus ;)

Zum Thema X3D bei PS6:
Niemals.

dargo
2026-02-16, 16:02:59
Zum Thema X3D bei PS6:
Niemals.
Wer kommt denn auf so eine Schnapsidee? :freak: Ich sehe zumindest bei Kosten/Nutzen den Sinn bei einer Konsole nicht.

Badesalz
2026-02-16, 19:01:55
Wer kommt denn auf so eine Schnapsidee? :freak: Müsste man Sony fragen. Schätze AMD hat das mal mit ins Angebot genommen um Intel vom Verhandlungstich wegzuflexen...

Warum nochmal sollte das sinnlos sein? (sorry, ich hab kurz nicht aufgepasst)

Daredevil
2026-02-16, 19:14:41
Wer kommt denn auf so eine Schnapsidee? :freak: Ich sehe zumindest bei Kosten/Nutzen den Sinn bei einer Konsole nicht.
Nutzen ist nicht immer nur Leistung, sondern die Energieeffizienz kann einen enormen Vorteil haben, mal davon ab, dass man langsameren Speicher benötigt für das selbe Ergebnis. X3D macht imho enorm Sinn für ne Konsole, weil man den Mehrpreis zu einem guten Teil in Ersparnissen durch andere Komponenten erwirken kann. Eine sparsame CPU/GPU macht sie zudem noch kleiner, man kann also pro Schiff mehr um die Welt segeln lassen.

Das Volumen einer PS5 Pro Verpackung liegt ungefähr bei.... 10 iPad Verpackungen?
Da kann man schon ne gute Ecke optimieren und damit > Sparen für ein Massenprodukt.

Nightspider
2026-02-16, 19:20:13
Wenn man den L3 komplett vom teuren Chip runterholt wäre das auch eine Ersparnis von Faktor 2-4. Ein V-Cache Chip ist deutlich günstiger in der Herstellung.

Und neben dem L3 könnte man eben gleich noch diversen IO Kram in ein billigeres Chiplet verlagern.

Aber das sehe ich eher bei der PS7. Für die PS6 gibts dank AI Hype nicht genügend Advanced Packaging Kapazitäten zu annehmbaren Preisen.


Die Zukunft wird sowieso vertikal. Auch bei Konsolenchips.

dargo
2026-02-17, 00:15:35
Nutzen ist nicht immer nur Leistung, sondern die Energieeffizienz kann einen enormen Vorteil haben, mal davon ab, dass man langsameren Speicher benötigt für das selbe Ergebnis. X3D macht imho enorm Sinn für ne Konsole, weil man den Mehrpreis zu einem guten Teil in Ersparnissen durch andere Komponenten erwirken kann..
Wat? :freak: Dir ist schon klar, dass eine Konsole gemeinsamen Speicher hat? :uconf3: Wir bremsen den Speicher also für die GPU aus weil X3D das nicht mehr braucht? :ulol: Gerade eine Konsole mit gemeinsamen Speicher ist von sich aus schon sehr effizient weil wesentlich weniger hin und her kopiert werden muss. Konsole ist kein PC.

Daredevil
2026-02-17, 00:32:28
Eine PS5 oder eine PS5 Pro ist alles, aber nicht effizient. Säuft im Idle wie bescheuert (50-70w) und im Gaming pustet das Ding tüchtig und hörbar aus mehreren Metern, wenn sie gefordert wird. Das ist okay, aber kein sexy Produkt.
Zudem braucht eine CPU ne niedrige Latenz, eine GPU braucht dafür ne hohe Bandbreite, das eine schließt das andere nicht unbedingt aus je nach breite der Anbindung. Man könnte also theoretisch mehr lahmen Speicher verbauen, der breiter angebunden ist und macht das Latenzmanko mit dem Cache wett, in der Theorie.

Dieses Zen2 Scheißding in der Pro ist aber auch lahmer als mein iPhone von vor 2 Jahren. CPU Leistung ist vermutlich auch einfach grundsätzlich nicht so wichtig... in Zeiten von AI Upscaling/Raytracing und co. Die GPU regelt das Spielerlebis.

Gerade eine Konsole mit gemeinsamen Speicher ist von sich aus schon sehr effizient weil wesentlich weniger hin und her kopiert werden muss.]
Ist halt die Frage, ob wir von gemeinsamen Arbeitsspeicher reden oder geteiltem, soweit ich weiß haben die aktuellen Konsolen nicht den "Unified Memory", wie wir ihn von Apple kennen und insofern ist das nicht "Zero Copy".

dargo
2026-02-17, 03:35:40
Eine PS5 oder eine PS5 Pro ist alles, aber nicht effizient. Säuft im Idle wie bescheuert (50-70w) und im Gaming pustet das Ding tüchtig und hörbar aus mehreren Metern, wenn sie gefordert wird. Das ist okay, aber kein sexy Produkt.

Ich sprach von Effizienz beim Datenverkehr zwischen CPU und GPU. Je weniger hin und her kopiert werden muss umso effizienter.

Badesalz
2026-02-17, 06:23:58
@dargo
Wenn die beiden sich über den V-Cache austauschen könnten... Wer weiß :wink: Ist halt eine APU. Da kann man bisschen was anders machen...

Badesalz
2026-02-17, 11:46:49
Softbank mag eher Instinct, in CPX
https://www.igorslab.de/softbank-setzt-auf-amd-instinct-divide-and-conquer-als-strategische-kampfansage-im-ki-siliziumkrieg/

dildo4u
2026-02-17, 12:05:31
Eine PS5 oder eine PS5 Pro ist alles, aber nicht effizient. Säuft im Idle wie bescheuert (50-70w) und im Gaming pustet das Ding tüchtig und hörbar aus mehreren Metern, wenn sie gefordert wird. Das ist okay, aber kein sexy Produkt.

Idle ist nicht ideal aber 230 Watt Last sind ok für eine PS5 Pro, 9060 XT sind alleine 160 Watt ohne Mainboard/Ram/CPU.

PCGH Modell war leiser als die Standard PS5

https://www.pcgameshardware.de/Playstation-5-Pro-Konsolen-280829/Tests/FAQ-Infos-Thermal-Noise-Sone-1458951/2/

reunion
2026-02-17, 12:58:27
Dieses Zen2 Scheißding in der Pro ist aber auch lahmer als mein iPhone von vor 2 Jahren.

Dafür braucht dieses "Scheißding" auch nur einen Bruchteil der Transistoren deiner fetten iPhone-CPU und schafft dabei sogar noch 2 Threads pro Kern. Für Konsolen war es damals die ideale Lösung.


Ist halt die Frage, ob wir von gemeinsamen Arbeitsspeicher reden oder geteiltem, soweit ich weiß haben die aktuellen Konsolen nicht den "Unified Memory", wie wir ihn von Apple kennen und insofern ist das nicht "Zero Copy".

LOL, natürlich haben die Playstation-APUs "Unified Memory". Schon die Kaveri-APU 2014 mit Steamroller-Kernen beherrschte hUMA (Heterogeneous Uniform Memory Access), ein cache-kohärentes Unified-Memory-System. AMD war hier Jahre voraus.

Badesalz
2026-02-17, 13:00:44
Vielleicht gibt es nun auch unified v-cache :usweet:

The_Invisible
2026-02-17, 13:43:19
Dieses Zen2 Scheißding in der Pro ist aber auch lahmer als mein iPhone von vor 2 Jahren.

Nö lahm war Jaguar in der PS4 und zwar schon bei Release, Zen bei der PS5 war dagegen ja ein quantensprung

Badesalz
2026-02-17, 16:47:46
war dagegen ja ein quantensprungWieviele Leute im Forum wissen eigentlich sonst noch, daß dies der kleinste mögliche Sprung ist?

dargo
2026-02-17, 18:08:09
Vielleicht gibt es nun auch unified v-cache :usweet:
Willst du da jetzt mehrere GB reinquetschen? X-D Spaß bei Seite... ich möchte gerne daran erinnern, dass eine Konsolen-APU ein kostenoptimiertes Ding ist und keine "verrückten" PC Sachen mit dann entsprechenden Preisen.

aufkrawall
2026-02-17, 18:18:48
Wieviele Leute im Forum wissen eigentlich sonst noch, daß dies der kleinste mögliche Sprung ist?
Not a single F is given outside Autismusspektrum.

Badesalz
2026-02-17, 20:05:12
Not a single F is given outside Autismusspektrum.Wie ich sehe macht dich das Prompten langsam zum Überfleiger :wink:

@dargo
Ich erkenne weiterhin keine Widersprüche. Die PS6 kommt wann? 2027/2028? Und soll wieder 5-6 Jahre halten?

dargo
2026-02-17, 20:22:20
@dargo
Ich erkenne weiterhin keine Widersprüche. Die PS6 kommt wann? 2027/2028? Und soll wieder 5-6 Jahre halten?
Das wird sie auch spielend ohne X3D.

Badesalz
2026-02-18, 06:25:34
Was soll ich tun dargo? Das war nicht meine Entscheidung :wink:

basix
2026-02-18, 13:04:41
Softbank mag eher Instinct, in CPX
https://www.igorslab.de/softbank-setzt-auf-amd-instinct-divide-and-conquer-als-strategische-kampfansage-im-ki-siliziumkrieg/

Hmm komisch. Nvidias MIG wird funktionell ja so ziemlich das selbe sein.

E39Driver
2026-02-19, 08:50:16
Eine PS5 oder eine PS5 Pro ist alles, aber nicht effizient. Säuft im Idle wie bescheuert (50-70w) und im Gaming pustet das Ding tüchtig und hörbar aus mehreren Metern, wenn sie gefordert wird. Das ist okay, aber kein sexy Produkt.

Hast du einfach ein defektes Modell erwischt oder bezieht sich diese Aussage nicht auf eigene Erfahrungen? Ich habe hier eine PS5 direkt vom Release. Also die erste und schwerste Version. Diese ist egal bei welchem Spiel flüsterleise. Und Idle 70 Watt ist auch unsinnig, wenn damit dieser StandBy Modus mit gelbem Licht und aktiven Updates gemeint ist, womit man direkt zum Spiel zurück kehren kann. Die Lüfter sind dabei aus, die Konsole bleibt kalt. Lass das mal maximal 5 Watt sein in dem Modus.

Badesalz
2026-02-19, 09:03:14
Hmm komisch. Nvidias MIG wird funktionell ja so ziemlich das selbe sein.Warum ist das komisch? Jeder hat mittlerweile geschnallt, daß es keine gute Verhandlungsbasis ist, wenn man einem einzigen Technologiehegemon gegenüber steht.

Wenn man nicht zwingend etwas aus dem Omniverse braucht bzw. sich etwas davon lieber selbst bastelt, ist AMD keine zweite Wahl (mehr).

@E39Driver
Die schwerste? Hat die erste etwa keinen kostenoptimierten Kühler? :tongue: Mehr Metall, weniger Lüfterdrehzahl :wink:

Daredevil
2026-02-19, 09:31:16
Ich sprach von Effizienz beim Datenverkehr zwischen CPU und GPU. Je weniger hin und her kopiert werden muss umso effizienter.
Is richtig. Ich habe seit 6 Jahren in meinen Produktivgeräten keine andere Technologie im Einsatz, weil sie am Effizientesten arbeitet, im Leerlauf als auch unter Last. Trotzdem bleibt mein Argument bestehen, auf das du nicht eingegangen bist. Ein teurerer(+effizienterer) Chip senkt die Kosten für die restlichen Komponenten des Systems und für das Shipping. Ich habe nicht Excel studiert, aber jemand wird diese Rechnung schon aufgemacht haben. Vielleicht habe ich recht, vielleicht auch nicht.

Da AMD im Notebooksektor Stückmäßig mit ihren "LowCost" Produkten von Unified Memory Produkten von Apple nahezu überholt wird, die ein mehrfaches kosten und dabei kleiner, leichter und einfacher zu shippen sind, scheint irgendjemand anderes hier auch Excel aufgemacht zu haben. Nutzer entscheiden sich öfter für Premium Produkte und zahlen dementsprechend auch den Preis.

Idle ist nicht ideal aber 230 Watt Last sind ok für eine PS5 Pro, 9060 XT sind alleine 160 Watt ohne Mainboard/Ram/CPU.

PCGH Modell war leiser als die Standard PS5

https://www.pcgameshardware.de/Playstation-5-Pro-Konsolen-280829/Tests/FAQ-Infos-Thermal-Noise-Sone-1458951/2/
Idle ist ein Witz, das ist weit weg von Ideal. Mein M3 Ultra verbraucht 7w, eine PS5Pro über 50w. Last ist okay, dafür ist die Kühlung aber zu schwach, weil sie nicht wirklich leiser ist. Eine Series X hat das ganze eleganter gemacht, die hat aber weniger Bumms wie eine Pro. Für Konsolen Verhältnisse mag das aber auch egal sein, ich vergleiche mit Hardware auf dem Markt. Ich mag die Kiste ja trotzdem.

Dafür braucht dieses "Scheißding" auch nur einen Bruchteil der Transistoren deiner fetten iPhone-CPU und schafft dabei sogar noch 2 Threads pro Kern. Für Konsolen war es damals die ideale Lösung.



LOL, natürlich haben die Playstation-APUs "Unified Memory". Schon die Kaveri-APU 2014 mit Steamroller-Kernen beherrschte hUMA (Heterogeneous Uniform Memory Access), ein cache-kohärentes Unified-Memory-System. AMD war hier Jahre voraus.
Trotzdem war FF 16 eine Katastrophe mit Drops auf um die 40fps, weil die CPU einfach zu lahm war. Das war ganz objektiv ein schlechter Erlebnis für den Gamer, weil Zen2 ein Lahmarsch ist. Meinetwegen ist dies die beste Lösung gewesen, das spreche ich ja auch nicht ab, es ist aber trotzdem objektiv schlecht, wenn ein Spiel von 60fps um 33% in der Leistung dropped oder gar nur 30fps schafft. Die Base PS5 mit FF VII Rebirth war ein einziger Alptraum.
Und Shared Memory ist wie gesagt nicht das gleiche wie Unified Memory. Strix Halo hat ja auch Unified Memory, trotzdem kann ich dort nicht 115/128GB für die GPU nutzen, warum nicht?

Nö lahm war Jaguar in der PS4 und zwar schon bei Release, Zen bei der PS5 war dagegen ja ein quantensprung
Beide waren bei ihrem erscheinen Lastgen und das hat man an Spielen enorm gemerkt. FF VII Remake war selbst auf der PS4 Pro ein Fiebertraum, das wurde erst auf der PS5 ein Genuss. FF VII Rebirth war auf der PS5 eine Frechheit, hier hat man erst auf der PS5 Pro ein schönes Erlebnis gehabt in 4K. Die Hardware hinkt der Software hinterher, das ist sehr ärgerlich und beflügelt eher das "PC Master Race".
Das bedeutet nicht, das ich meine PS5 Pro nicht mag, für 600€ die ich gezahlt habe ist das eine gute P/L. Ich hätte aber lieber 1000€ gezahlt und mehr Leistung, eine bessere Kühlung, ein kompakteres Design und einen effizienteren SoC gehabt. Ist nur mein persönlicher Wunsch.
Ich würde die PS5 Pro auch gerne als TV Streaming Kiste benutzen, aber die Verbraucht beim Streamen soviel wie mein Kühlschrank im Schnitt. Wtf?

Hast du einfach ein defektes Modell erwischt oder bezieht sich diese Aussage nicht auf eigene Erfahrungen? Ich habe hier eine PS5 direkt vom Release. Also die erste und schwerste Version. Diese ist egal bei welchem Spiel flüsterleise. Und Idle 70 Watt ist auch unsinnig, wenn damit dieser StandBy Modus mit gelbem Licht und aktiven Updates gemeint ist, womit man direkt zum Spiel zurück kehren kann. Die Lüfter sind dabei aus, die Konsole bleibt kalt. Lass das mal maximal 5 Watt sein in dem Modus.
Ich habe lange Erfahrung mit der PS5 Pro in Kombination mit FF VII Rebirth, wo die Kiste mit PSSR an jeder Ecke wahrscheinlich alles leistet, was sie leisten kann. Und dort ist der Lüfter selbst aus 2-3m hörbar, wenn es mal leise Szenen im Spiel gibt. Eine Series X war in dem Moment unhörbar, die hatte aber auch keine Pro Leistung. Das ist kein Gamebreaker für mich, weil es zu der Zeit keine bessere Lösung gab dieses Spiel zu spielen, das macht es für mich persönlich allerdings auch zu keinem guten Produkt, was Begeisterung in mir auslöst.

reunion
2026-02-19, 10:10:39
Trotzdem war FF 16 eine Katastrophe mit Drops auf um die 40fps, weil die CPU einfach zu lahm war. Das war ganz objektiv ein schlechter Erlebnis für den Gamer, weil Zen2 ein Lahmarsch ist. Meinetwegen ist dies die beste Lösung gewesen, das spreche ich ja auch nicht ab, es ist aber trotzdem objektiv schlecht, wenn ein Spiel von 60fps um 33% in der Leistung dropped oder gar nur 30fps schafft. Die Base PS5 mit FF VII Rebirth war ein einziger Alptraum.

Was willst du mir damit sagen? Die HW der PS5 steht seit vielen Jahren, davor gab es Dev-Kits. Wenn es da ein Entwickler nicht schafft ein flüssiges Spielerlebnis sicherzustellen hat er schlicht versagt. Wäre die CPU doppelt so schnell könnte man trotzdem Software schreiben, welche sie in die Knie zwingt, das ist kein Argument. Auf einer Konsole ist es die Aufgabe der Devs ein flüssiges Spielerlebnis zu garantieren, nicht die der HW. Selbst auf einem Gameboy war das möglich.


Und Shared Memory ist wie gesagt nicht das gleiche wie Unified Memory. Strix Halo hat ja auch Unified Memory, trotzdem kann ich dort nicht 115/128GB für die GPU nutzen, warum nicht?


Natürlich kannst du das. Warum behauptest du ständig Sachen die nicht stimmen? 96GB ist nur das Maximum was man im BIOS fix zuordnen kann, und vielleicht auch das Maximum was Windows adressieren kann, aber keineswegs das Maximum was man für die GPU verwenden kann. Unter Linux verwendet Strix Halo keinen fix zugeteilten VRAM, sondern die Unified Memory Architecture (UMA), was es ermöglicht praktisch den gesamten RAM nur für die GPU zu verwenden. Ich habe schon LLM inference auf Strix Halo laufen sehen mit 124GB+ für GPU Tasks.

Daredevil
2026-02-19, 10:27:00
96GB ist nur das Maximum was man im BIOS fix zuordnen kann, und vielleicht auch das Maximum was Windows adressieren kann, aber keineswegs das Maximum was man für die GPU verwenden kann.
Was ist denn nun der Haken? Das Bios oder Windows?
Weil wenn es das Bios ist, bringt mir UMA recht wenig, wenn ich nicht das maximale rausholen kann. Wenn es nur Windows ist, geschenkt, aber trotzdem ärgerlich.
Ein theoretisch verfügbares Unified Memory System ist leider in der Praxis weniger wert, wenn es durch Bios Restriktionen oder durch eine eingeschränkte OS Auswahl limitiert ist. Ich bin allerdings trotz dessen ziemlich froh, das AMD dieses Produkt anbietet, auch wenn es nieschig ist. Ist einfach eine gute Technologie die Effizienz fördert, was für mich persönlich viel Wert ist.
In Konsolen wird das dann wohl schon besser umgesetzt sein, auch wenn hier der Speicher nicht direkt neben die DIE geplanzt ist.

Wenn es da ein Entwickler nicht schafft ein flüssiges Spielerlebnis sicherzustellen hat er schlicht versagt.
Das ist wohl richtig. Wo da der Haken war, frage ich mich auch bis heute. Sony hat andersrum ja FF VII Rebirth als einer der Pro Vorzeigetitel genommen mit PSSR und co., so ala "Ey, jetzt läufts auch wirklich gut".

Badesalz
2026-02-19, 10:40:01
Sony hat andersrum ja FF VII Rebirth als einer der Pro Vorzeigetitel genommen mit PSSR und co., so ala "Ey, jetzt läufts auch wirklich gut".Was eigentlich auch absolut logisch erscheint :wink:

reunion
2026-02-19, 10:44:57
Was ist denn nun der Haken? Das Bios oder Windows?
Weil wenn es das Bios ist, bringt mir UMA recht wenig, wenn ich nicht das maximale rausholen kann. Wenn es nur Windows ist, geschenkt, aber trotzdem ärgerlich.
Ein theoretisch verfügbares Unified Memory System ist leider in der Praxis weniger wert, wenn es durch Bios Restriktionen oder durch eine eingeschränkte OS Auswahl limitiert ist. Ich bin allerdings trotz dessen ziemlich froh, das AMD dieses Produkt anbietet, auch wenn es nieschig ist. Ist einfach eine gute Technologie die Effizienz fördert, was für mich persönlich viel Wert ist.
In Konsolen wird das dann wohl schon besser umgesetzt sein, auch wenn hier der Speicher nicht direkt neben die DIE geplanzt ist.


Welcher Haken? Im BIOS kannst du nur festlegen wie viel RAM exklusiv für die GPU verwendet werden soll. Wenn du UMA fahren willst legst du diesen Wert nahe der 0. Dann gibt es einen RAM-Bereich den CPU, GPU, NPU, etc. gemeinsam ansprechen können, das ist der klassische UMA-Bereich. Und dann gibt es noch einen Bereich den exklusiv die CPU ansprechen kann. Die exklusiven Bereiche hast du hauptsächlich wegen Kompatibilität mit alter Software. Nur weil du im BIOS maximal 96GB exklusiv für die GPU reservieren kannst heißt das nicht, dass die GPU nur 96GB maximal verwenden kann. Es gibt auch immer noch einen UMA-Bereich zusätzlich. Theoretisch verfügbar ist da nix, auch Windows unterstützt natürlich UMA und zeigt das auch im Task-Manager an, siehe dedicated bzw. shared GPU memory:

https://i.postimg.cc/Wzv6mHqZ/FAQ-6.jpg (https://postimg.cc/qh134QLB)

Daredevil
2026-02-19, 10:54:21
Alles klar, Danke für Info. Ich wusste dies tatsächlich nicht, ich hab ja auch nicht so ein System, sondern so ne Apple Kiste hier. Da muss ich ja weder was priorisieren, noch gibt es ein Bios.
Ich habe mir nur ein paar Vergleichstests angeschaut explizit mit AI Workloads unter Windows und dort war immer mal wieder die Rede darüber, das man eben nicht den kompletten Speicher nutzen kann, wie es z.B. bei Apple der Fall ist, was mich irritiert hat. Man will ja die 128GB auch nutzen, wenn man dafür zahlt, nech. ^^

Badesalz
2026-02-20, 06:41:59
Da muss ich ja weder was priorisieren, noch gibt es ein Bios.Muss man das?

Th3o
2026-02-24, 13:13:59
Meta and AMD announce 6-gigawatt GPU deal as part of AI buildout (https://finance.yahoo.com/news/meta-and-amd-announce-6-gigawatt-gpu-deal-as-part-of-ai-buildout-120013754.html)

+15%. Nächstes Luftschloss?

Badesalz
2026-02-24, 13:54:45
(Hauptsache ihr lacht nicht, daß es Meta und nicht OpenAI ist)

von Richthofen
2026-02-24, 13:56:42
Erscheint als grob der gleiche Deal wie mit OpenAI. Meta bekommt im "Erfolgsfall" 10% der AMD-Anteile. Der gemeine Anleger bekommt eine insgesamt 2-fache Verwässerung und AMD läge zu 20% in den Händen dieser 2 Großkunden.
Nebenbei bemerkt dürfte die Ankündigung eine Absage an die vor kurzem aufkommenden Gerüchte um eine Verschiebung der MI450-Serie auf 2027 sein: Zuckerberg wirbelt bestimmt nicht mit 2-stelligen Mrd.-Summen wenn er fürchten muss seine Chips später als abgemacht zu bekommen.

Complicated
2026-02-24, 14:13:39
10% der Aktienanteile bedeute eine Verwässerung der Aktien um 10%. Nicht zweifach.
Nimmt man den selben Deal an wie bei OpenAI gibt es diese ganzen 10% des Unternehmens nur wenn der Aktienkurs sich auf 600$ verdreifacht.
Daher bekommt der gemeine Anwender Kurs heute ca 200$x3=600$
-20% Verwässerung=480$ eine Rendite von 140% in 3-4 Jahren

Der OpenSource Ansatz ist für die großen nun mal entscheidend und AMDs CPUs sind das stabile Kerngeschäft, das Nvidia nie bei solchen Deals macht.

Kaufen Meta und OpenAI bei Intel oder Nvidia wird AMD keine 600$ Aktienkurs erreichen - man kann sich ja überlegen welche Effekte da in der Beschaffung entstehen, wenn auf 160 Mio Bonus in Form von Anteilen an einem strategischen Partner hin gearbeitet wird.

Th3o
2026-02-24, 14:30:11
Sollte die AMD Aktie wieder über die 200€ steigen, dann werde ich den größten Teil verkaufen. Das Ganze wird mir langsam zu heiß und ich will nicht später dumm aus der Wäsche schauen. Und wenn man ETFs hat, dann ist man so und so an diesen ganzen KI Firmen beteiligt.

Lehdro
2026-02-24, 14:34:32
10% der Aktienanteile bedeute eine Verwässerung der Aktien um 10%. Nicht zweifach.
Die Aktien wurden (werden, whatever) damit zwei mal verwässert. 2-fach Verwässerung. Die Verwässerung ist doppelt, nicht vom Faktor, sondern der Anzahl der Verwässerungen her. Ergibt sich auch logisch aus dem weiterführenden 20% im selben Satz, das genau das gemeint war. :P

BTT:
Diese Deals stinken. AMD setzt sich ohne Not massiv und vor allem langfristig dem AI Hype und damit auch dem Absturz aus. Kein Fan davon, dass die immer gleich mit den Aktien angekrochen kommen. Die Xilinx Acquisition war schon grenzwertig was das anging, aber da war es primär der Zeitpunkt, aber das hier? Puh...

Complicated
2026-02-25, 07:45:05
Der Custom-Bonus hat wohl den Ausschlag gegeben.
https://www.taipeitimes.com/News/biz/archives/2026/02/25/2003852829
Su said that Meta, which has already helped influence the design of AMD’s chips, will get custom versions of its forthcoming accelerator, the MI450, and successor products. That ability to define more closely what it needs was part of the reason for committing to AMD, Janardhan said.

Badesalz
2026-02-25, 07:48:31
Was kann es da so außer like a 300C und 300A noch geben?

reunion
2026-02-25, 09:47:57
Die Aktien wurden (werden, whatever) damit zwei mal verwässert. 2-fach Verwässerung. Die Verwässerung ist doppelt, nicht vom Faktor, sondern der Anzahl der Verwässerungen her. Ergibt sich auch logisch aus dem weiterführenden 20% im selben Satz, das genau das gemeint war. :P

BTT:
Diese Deals stinken. AMD setzt sich ohne Not massiv und vor allem langfristig dem AI Hype und damit auch dem Absturz aus. Kein Fan davon, dass die immer gleich mit den Aktien angekrochen kommen. Die Xilinx Acquisition war schon grenzwertig was das anging, aber da war es primär der Zeitpunkt, aber das hier? Puh...

Da gehts doch um viel mehr als "nur" den "AI-Hype" (der IMO kein Hype ist), da gehts um das gesamte Cloud-Geschäft. OpenAI und Meta sind dann direkt an AMD beteiligt, aber sie bekommen die volle Beteiligung nur, wenn der Aktienkurs deutlich höher steht als heute. OpenAI und Meta haben damit also ein doppeltes Interesse daran, dass es AMD gut geht:
- Ihre Beteiligung wird dann mehr wert
- Sie bekommen mehr AMD-Aktien (umgekehrt gilt die 10% sind nur das Maximum was möglich ist)

Man darf auch nicht vergessen im Cloud-Geschäft gibt es nur ein paar ganz wenige Großkunden. OpenAI und Meta sind für 40%(!) des gesamten Quartalsumsatzes von Nvidia verantwortlich, das sollte man nicht unterschätzen. Google hat ihre eigenen TPU-Chips und ist damit weitgehend raus. Bleiben im wesentlichen noch OpenAI und Meta und mit Abstriche noch Microsoft, die sich aber auch an OpenAI bedienen. Könnte mir durchaus vorstellen, dass mit MS auch noch ein Deal ansteht und dann hat man einen Großteil des Markets abgedeckt.

Complicated
2026-02-25, 09:57:33
Käuferfinanzierung sind in verschieden Varianten im Gange derzeit: Ein weiteres Modell um Umsatz zu generieren, das von Nvidia schon angewendet wird. KI-Chips werden von Banken als Sicherheit akzeptiert. Weitere 400 Mio. Umsatz für AMD:
https://www.stock-world.de/amd-aktie-kredit-garantie-fuer-kunden/
Wie The Information am 19. Februar berichtete, hat AMD eine Kreditgarantie für das AI-Infrastruktur-Startup Crusoe übernommen. Goldman Sachs stellt 300 Millionen Dollar bereit, mit denen Crusoe AMD-Beschleuniger für ein Rechenzentrum in Springfield, Ohio kaufen soll. Die Besonderheit: AMDs Chips dienen als Sicherheit. Sollte Crusoe nicht genügend Kunden finden, least AMD die Prozessoren zurück.

Diese Absicherung drückte den Zinssatz auf rund 6 Prozent – deutlich unter Marktniveau. AMD kopiert damit eine Strategie, die Nvidia bereits erfolgreich anwendet: Der Konkurrent nutzte H100-GPUs als Sicherheit für CoreWeaves 2,3-Milliarden-Dollar-Kreditlinie. Crusoe-Chef Chase Lochmiller hatte zuvor angekündigt, AMD-Chips im Wert von 400 Millionen Dollar erwerben zu wollen.
Das Geschäftsmodell der Käuferfinanzierung ist bekannt und in der Autoindustrie normal, sowie in anderen Branchen auch verbreitet.

Badesalz
2026-02-25, 10:38:32
@reunion
Mal sehen wie das alles Oracle bekommt... Google Such-KI

"Massives Finanzierungsvorhaben: Oracle plant im Kalenderjahr 2026 die Aufnahme von 45 bis 50 Milliarden US-Dollar an Fremd- und Eigenkapital. Ziel ist der rapide Ausbau von Rechenzentren, um Rückstände (Backlog) abzuarbeiten, die durch KI-Deals auf über 523 Milliarden Dollar explodiert sind.

Finanzielle Risiken und Klagen: Die hohen Investitionen haben zu einem Anstieg der Schulden geführt, was Investoren skeptisch macht. Es wurden Sammelklagen eingereicht, die dem Konzern vorwerfen, die Notwendigkeit dieser Schuldenaufnahme verschwiegen zu haben. Analysten warnen vor einem negativen freien Cashflow bis 2030.
Starke Cloud-Zahlen: Trotz der Kritik wächst der Cloud-Bereich rasant. Im zweiten Quartal des Geschäftsjahres 2026 stieg der Umsatz mit Cloud-Infrastruktur um 68 % auf 4,1 Milliarden Dollar.

Zusammenfassend: Oracle transformiert sich aggressiv vom Datenbank-Anbieter zum führenden KI-Infrastruktur-Player, nimmt dafür jedoch massive finanzielle Risiken in Kauf."

Lehdro
2026-02-25, 16:10:24
Das Geschäftsmodell der Käuferfinanzierung ist bekannt und in der Autoindustrie normal, sowie in anderen Branchen auch verbreitet.
Das macht es halt nicht besser. Sind halt Riesen auf tönernen Füßen. Ist mir alles zu wenig Substanz.
Aktienrückkäufe sind übrigens auch erlaubt/normal, waren aber aus guten Gründen lange verboten und selbst dann noch verpönt.
OpenAI und Meta sind dann direkt an AMD beteiligt, aber sie bekommen die volle Beteiligung nur, wenn der Aktienkurs deutlich höher steht als heute. OpenAI und Meta haben damit also ein doppeltes Interesse daran, dass es AMD gut geht:
- Ihre Beteiligung wird dann mehr wert
- Sie bekommen mehr AMD-Aktien (umgekehrt gilt die 10% sind nur das Maximum was möglich ist)

Skizziere doch mal den Deal anhand der geleakten(?) Kenndaten, mit Umsatz und Einfluß auf den Aktienkurs, bzw. dessen genormten Wert (sind ja dann mehr Aktien). Das sieht gar nicht mal so gut aus, zumindest wenn man selber Shareholder wäre. AMD verschenkt hier long term um heute den Deal zu haben. Entweder bekommt man keinen Fuß in den Markt (Gründe kann sich jeder selber zusammenreimen) oder man sieht sich selber nicht im Markt, zumindest nicht konkurrenzfähig mit derzeitigen Produkten, will aber den jetzigen Zyklus der massiven Ausgaben von Seiten OpenAI/Meta mitmachen.

Wo das allerdings richtig gut aussieht, wie eben angeschnitten: Faktor Zeit. Du ziehst halt das Wachstum enorm vor, und wenn die Produkte gut genug sind und OpenAI/Meta gleich (aka so schnell wie möglich) all in für ihre maximal angestrebte Kapazität gehen gibt es sogar noch krassere Effekte. Das kann dann sogar zu einem Squeeze führen, je nach dem wie der Markt das aufnimmt.
Mir wäre es allerdings lieber wenn AMD organisch in den Markt eintreten würde - aus eigener Kraft und nicht mit eigenem Geld. Scheint aber unmöglich zu sein wenn jeder irgendwelche Deals abschließt.

reunion
2026-02-25, 16:22:33
Skizziere doch mal den Deal anhand der geleakten(?) Kenndaten, mit Umsatz und Einfluß auf den Aktienkurs, bzw. dessen genormten Wert (sind ja dann mehr Aktien). Das sieht gar nicht mal so gut aus, zumindest wenn man selber Shareholder wäre. AMD verschenkt hier long term um heute den Deal zu haben. Entweder bekommt man keinen Fuß in den Markt (Gründe kann sich jeder selber zusammenreimen) oder man sieht sich selber nicht im Markt, zumindest nicht konkurrenzfähig mit derzeitigen Produkten, will aber den jetzigen Zyklus der massiven Ausgaben von Seiten OpenAI/Meta mitmachen.

Wo das allerdings richtig gut aussieht, wie eben angeschnitten: Faktor Zeit. Du ziehst halt das Wachstum enorm vor, und wenn die Produkte gut genug sind und OpenAI/Meta gleich (aka so schnell wie möglich) all in für ihre maximal angestrebte Kapazität gehen gibt es sogar noch krassere Effekte. Das kann dann sogar zu einem Squeeze führen, je nach dem wie der Markt das aufnimmt.
Mir wäre es allerdings lieber wenn AMD organisch in den Markt eintreten würde - aus eigener Kraft und nicht mit eigenem Geld. Scheint aber unmöglich zu sein wenn jeder irgendwelche Deals abschließt.

Ich kann deine Schlussfolgerungen nicht nachvollziehen. Selbst Nvidia als unangefochtener Marktführer tritt nicht "organisch in den Markt ein - aus eigener Kraft und nicht mit eigenem Geld". Nvidia verteilt dutzende Milliarden an Cash um ihre GPUs zu verkaufen. Der Unterschied ist nur AMD schwimmt im Gegenteil zu Nvidia nicht in Geld, also verteilen sie Aktien statt Cash.

Das halte ich für nicht ungeschickt, kann sich sogar zu einem WinWin entwickeln, da sie die Aktien nicht einfach verteilen sondern jeweils feste Milestones daran gebunden sind. Zudem haben dann wie schon gesagt die größten Kunden auch ein inhärentes Interesse die AMD-Aktie zu pushen. Worst case was AMD passieren kann ist, dass Meta und OpenAI die Aktien einfach wieder verkaufen. Dann würde halt der Kurs etwas verwässert, dafür bekommt man langfristig einen Fuß in die Tür in diesem enorm wichtigen Markt. IMO ein vertretbares Risiko im Vergleich zu dem was man gewinnen kann.

Complicated
2026-02-25, 19:09:23
+1 Da gibt es wohl nichts hinzuzufügen.

Skysnake
2026-02-25, 20:14:48
Ja ich empfinde den Ansatz von AMD auch als geschickter und deutlich weniger risikobehaftet an.

Erbsenkönig
2026-02-26, 09:42:46
Gestern beim Einkaufen beim Hofer einen Skoda mit Kennzeichen "WL-AMD64" gesehen. Na - wer von euch war das? :D

Badesalz
2026-02-26, 09:43:30
Kann nur vinci gewesen sein.

Lehdro
2026-02-26, 16:22:30
Ich kann deine Schlussfolgerungen nicht nachvollziehen.
Wie ich schon sagte: Rechne es nach, anhand von den prognostizierten Aktienkursen, Umsätzen (bedenke die Rabatte) und normiere dass dann auf die unverwässerten Werte. Da muss AMD aus Shareholdersicht dann zurückstecken, rein kurstechnisch, weil es halt rein logisch mehr Aktien sind.

Selbst Nvidia als unangefochtener Marktführer tritt nicht "organisch in den Markt ein - aus eigener Kraft und nicht mit eigenem Geld". Nvidia verteilt dutzende Milliarden an Cash um ihre GPUs zu verkaufen.
Richtig, das macht NV jetzt. Die sind aber schon im Markt und brauchten das früher eben nicht machen. Die geben jetzt das Geld damit man bei ihnen weiterhin viel kauft und das möglichst schnell um den Umsatz zu sichern und die Margenmaschine am laufen zu halten.

Das ist zwar auch bescheuert, aber wie du schon feststellst: Im Gegensatz zu AMD hat NV das Geld dafür und auch etwas zu verlieren: Marktanteile + den Nimbus der immer weiter wachsenden Umsätze. Deswegen ist AMD ja jetzt im Zugzwang und geht diese Deals ein.

Worst case was AMD passieren kann ist, dass Meta und OpenAI die Aktien einfach wieder verkaufen. Dann würde halt der Kurs etwas verwässert, dafür bekommt man langfristig einen Fuß in die Tür in diesem enorm wichtigen Markt. IMO ein vertretbares Risiko im Vergleich zu dem was man gewinnen kann.
Ich skizziere mal den Worstcase, wenn der Plan aufgeht:
AMD geht geschäftstechnisch ab -> Kurs geht auf 600 -> Meta/OpenAI brauchen Cashflow, wollen verkaufen -> AMD kauft seine Aktien zurück um den Kurs zu stützen -> Meta/OpenAI hatten vergleichsweise günstige Hardware + Influx von massiven Kapital durch die AMD Aktie (Optisch: für lau) -> AMD gibt seinen gerade erst dazugewonnen Cashflow für bereits verdientes Geld aus um die Aktie zu schützen (10% der Aktien sind ein verdammt fetter Batzen)
Dann steht AMD danach immer noch mit einem gutem Kurs da, aber mehr Knöppe haben sie auch nicht in der Tasche. Der Plan funktioniert nur wenn AMD die Umsätze deutlich über die Deals hinaus steigern kann (oder keine Rabatte mehr einräumen muss) und/oder die Kursziele trotzdem möglichst knapp nicht erreicht, aber das steht wirklich in den Sternen. Wenn AMD die Kursziele erreicht, aber quasi nur die Deals vollendet, ist das ein Big L. Zudem wird jeder andere Hyperscaler, der eventuell vor oder vielleicht nur wegen der Deals an AMD interessiert ist, einen ähnlichen Deal (& Rabatte :rolleyes: ) verlangen. Warum für weniger verhandeln? Warum mehr zahlen? Der Präzedenzfall ist da, sogar zwei mal.

Und jetzt der Worstcase wenn es nicht aufgeht: Meta und OpenAI ordern nach dem initialem GW nichts mehr nach und das wird sowieso auch ohne böswilliges zutun ziemlich schnell publik: Oof. Dann hat der Markt halt gesagt: "AMD taugt nix, selbst geschenkt" und Lederjacke hätte Recht behalten ("selbst geschenkt ist noch zu teuer"). Das wäre katastrophal. Und da ist es dann auch egal ob die Hardware wirklich etwas taugt oder nicht, alleine das Signal des Nichtkaufs entscheidet dann alles.

reunion
2026-02-26, 16:44:43
Wie ich schon sagte: Rechne es nach, anhand von den prognostizierten Aktienkursen, Umsätzen (bedenke die Rabatte) und normiere dass dann auf die unverwässerten Werte. Da muss AMD aus Shareholdersicht dann zurückstecken, rein kurstechnisch, weil es halt rein logisch mehr Aktien sind.

Das ist unmöglich, da niemand die genauer Konditionen weiß. Daher auch keine Ahnung was du mit den angeblichen Rabatten meinst. Aber selbst wenn: Auch der Xilinix-Deal war unter diesem Gesichtspunkt teuer. Solange AMD weiter wächst und der Aktienkurs damit weiter steigt werden die Shareholder das akzeptieren. AMD kann beliebig neue Aktien ausgeben und so strategisch bedeutende Deals abschließen, das ist auch langfristig für das Unternehmen und die Shareholder besser als diese Deals nicht zu machen und damit abgehängt zu werden.



Richtig, das macht NV jetzt. Die sind aber schon im Markt und brauchten das früher eben nicht machen. Die geben jetzt das Geld damit man bei ihnen weiterhin viel kauft und das möglichst schnell um den Umsatz zu sichern und die Margenmaschine am laufen zu halten.

Das ist zwar auch bescheuert, aber wie du schon feststellst: Im Gegensatz zu AMD hat NV das Geld dafür und auch etwas zu verlieren: Marktanteile + den Nimbus der immer weiter wachsenden Umsätze. Deswegen ist AMD ja jetzt im Zugzwang und geht diese Deals ein.

Es spielt keine Rolle was vor Jahren war. Heute zahlt Nvidia dutzende Milliarden um ihre GPUs zu verkaufen. Warum sollte irgendjemand etwas anderes kaufen ohne ein solches Mitgift? Man sollte schon ein bisschen realistisch sein, wenn man in diesem Markt rein will reicht ein gutes Produkt nicht.


Ich skizziere mal den Worstcase, wenn der Plan aufgeht:
AMD geht geschäftstechnisch ab -> Kurs geht auf 600 -> Meta/OpenAI brauchen Cashflow, wollen verkaufen -> AMD kauft seine Aktien zurück um den Kurs zu stützen -> Meta/OpenAI hatten vergleichsweise günstige Hardware + Influx von massiven Kapital durch die AMD Aktie (Optisch: für lau) -> AMD gibt seinen gerade erst dazugewonnen Cashflow für bereits verdientes Geld aus um die Aktie zu schützen (10% der Aktien sind ein verdammt fetter Batzen)

Wenn der Kurs von den nötigen 600 USD durch Verkäufe dann wieder etwas fällt ist das kein Beibruch. Vor dem OpenAI-Deal stand der Kurs bei 150 USD. AMD wird da sicher kein Geld das man anderweitig besser einsetzen kann dafür aufwenden um den Aktienkurs zu stützen.


Dann steht AMD danach immer noch mit einem gutem Kurs da, aber mehr Knöppe haben sie auch nicht in der Tasche. Der Plan funktioniert nur wenn AMD die Umsätze deutlich über die Deals hinaus steigern kann (oder keine Rabatte mehr einräumen muss) und/oder die Kursziele trotzdem möglichst knapp nicht erreicht, aber das steht wirklich in den Sternen. Wenn AMD die Kursziele erreicht, aber quasi nur die Deals vollendet, ist das ein Big L. Zudem wird jeder andere Hyperscaler, der eventuell vor oder vielleicht nur wegen der Deals an AMD interessiert ist, einen ähnlichen Deal (& Rabatte :rolleyes: ) verlangen. Warum für weniger verhandeln? Warum mehr zahlen? Der Präzedenzfall ist da, sogar zwei mal.

Der Präzedenzfall wurde durch Nvidia geschaffen, AMD hat gar keine andere Wahl als mitzugehen. Zudem sind es eben solche Deals welche das Software-Ecosystem pushen und Entwickler auf AMD-HW schulen und damit erst Folgeaufträge ermöglichen.


Und jetzt der Worstcase wenn es nicht aufgeht: Meta und OpenAI ordern nach dem initialem GW nichts mehr nach und das wird sowieso auch ohne böswilliges zutun ziemlich schnell publik: Oof. Dann hat der Markt halt gesagt: "AMD taugt nix, selbst geschenkt" und Lederjacke hätte Recht behalten ("selbst geschenkt ist noch zu teuer"). Das wäre katastrophal. Und da ist es dann auch egal ob die Hardware wirklich etwas taugt oder nicht, alleine das Signal des Nichtkaufs entscheidet dann alles.

Immer noch besser als den Deal nicht gemacht zu haben. Zumal OpenAI und Meta auch von Nvidia das Geld bekommen, es gibt also wenig Gründe AMD zu nehmen wenn das Produkt nicht zumindest konkurrenzfähig wäre. Und ein Kursziel von 600USD ist noch immer Faktor 3 von heute. Da werden die zwei Deals wohl nicht reichen (diese sollten zudem bereits eingepreist sein, da bekannt), also entweder kommt da noch mehr von Meta und OpenAI, oder die 10% Aktien sind eh nur ein theoretischer Wert der nie erreicht wird. Und genau das macht diese Deal nicht ungeschickt für AMD. Es ist jedenfalls schon ein großer Erfolg, dass Meta mehr AMD als Nvidia-Chips einkauft.

Badesalz
2026-02-26, 16:51:56
Irgendwie hab ich da grad keine Meinung zu, weil ich mir denke, daß Lisa bisher alles was irgendwie nach zu viel Seilakt aussah, kontinuierlich bei AMD abgebaut hat. Andererseits wird da auch mehr hinter den Überlegungen sein (an Personal) als nur der Vorstand.

reunion
2026-03-04, 13:00:49
Auch interessant: Agentic AI erhöht die Bedeutung von CPUs bei AI-Worklouds. Dementsprechend haben sowohl AMD als auch Intel Probleme die Nachfrage nach CPUs zu befriedigen:

https://wccftech.com/amd-witnesses-unexpected-cpu-demand-from-ai-customers/
https://www.computerbase.de/news/prozessoren/riesige-cpu-nachfrage-amd-ceo-lisa-su-jeder-will-venice.96398/

Lisa Su meint jeder will Venice ("best technology out there"), es wird bis weit ins Jahr 2027 dauern die Nachfrage zu befriedigen.