Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie gut/schlecht steht es um AMD?
Skysnake
2025-10-28, 14:50:32
Naja, bei HPC Systemen bekommst du time slices einer Umgebung. Früher immer BareMetal heute auch in Containern. Aber du hast eratmal ein managed System. Quasi SaaS.
Bei Cloud gibt es halt alles mögliche an Zwischenstufen und du bekommst in der Regel VMs.
Zudem ist die Optimierung in einem HPC System halt in der Regel auf einem ganz anderen Level als in der Cloud.
Aber ao grob gesagt passt das schon, auch wenn die Umsetzung bezüglich Softwarestacks komplett anders aussieht.
Man muss aber auch sagen das zumindest icg den Eindruck habe das immer weniger Leute HPC wirklich verstehen. Was ich in den letzten Jahren alles an Müll von Herstellern gesehen habe geht auf keine Kuhhaut obwohl sich alle möglichen Firmen Cloud und HPC auf die Fahnen schreiben....
HPC ist aber eben ein3 FullStack Optimierung bei der du nie fertig bist und du immer an die neue HW Anpassungen vornehmrn musst. Es entscheidet halt das schwächste Glied in der gesamte Kette und wir HPCler seheb
Interessant ist vielleicht das hier:
"In Zukunft will das DOE viele weitere Systeme mit AMD-Chips „im ganzen Land“ errichten, heißt es zum Schluss."
Da kann man schon mal mit Musterbau betreiben.
Badesalz
2025-10-29, 11:32:48
@Skysnake
Kann es sein, daß die Leistung pro Node soweit gestiegen ist wie auch die Verbindungen zwischen den Nodes und Racks aufgebrezelt, daß man den Overhead einer Cloud für weniger störend hält und die Orchestrierung über den Rack hinweg weit wichtiger wird? (scale-out)
Irgendwas muss Oracle da wohl im Ärmel haben. Die gehören ja eher nicht zu denen welchen man für die Erhaltung eines diversen Ökosystem unter die Arme greifen müsste ;)
Da kann man schon mal mit Musterbau betreiben.Isso. Jensen hat sich jetzt auf der GTC in Washington viel Mühe gegeben zu unterstreichen wer auch hier Chef im Ring ist. Es gibt anscheinend schon 7 Aufträge mit NV-Hardware.
Ich fand da jedenfalls überraschend viele Sachen die man zu relativieren versuchte, die AMD in den letzten Monaten positiv für sich herausgestellt hat :wink:
Nvidia kriegt es halt auch so hin... Wogegen es aber auch ein Interesse zu geben scheint AMD mit oben zu halten und den Kuchen kleinwenig zu verteilen. Über mehrere Branchen und Institutionen hinweg. Über Bande wahrscheinlich auch wegen HPE. Die sind oft stark am ähh... Fluktuieren :usweet:
Wenigstens kommt AMD nun endlich in die Position wo man sich für die nicht nur aus rein taktischen Gründen entscheidet. Nächstes Jahr wird das auch praktisch vorgeführt. Ergo 6 Jahre lang irrer Vollgas in den Labs um ab Ende 2025 endlich als competetiv beachtet zu werden.
Schon Wahnsinn :usweet:
Skysnake
2025-10-29, 12:34:21
@Skysnake
Kann es sein, daß die Leistung pro Node soweit gestiegen ist wie auch die Verbindungen zwischen den Nodes und Racks aufgebrezelt, daß man den Overhead einer Cloud für weniger störend hält und die Orchestrierung über den Rack hinweg weit wichtiger wird? (scale-out)
Nö, aber im Zweifel wollen Sie einfach einen homogenen Ansatz beim Betrieb fahren um zum einen in die Cloud boosten zu können auf der anderen Seite aber auch Personalkosten zu sparen. Da ist ja Trump in letzter Zeit die Axt im Walde.
Ich kenne das durchaus, das man in den "HW" Kosten weiterr Kosten für Betrieb und allgemein Personal versteckt. Geld für Beschaffungen bekommst du halt viel einfacher als für Personal... das sind dann halt teils dir kleinen Tricksereien die man so macht.
Die Verbindung zwischen den Nodes wird auf jeden Fall immer schlechter im Vergleich zur Performance der nodes. Die Schere geht also immer weiter auf.
Was aber durchaus sein kann ist das man sich Ideen/Vorteile für den Betrieb bezüglich ausfällen verspricht. Bei solchen Systemen geht ja ständig was kaputt und gerade die SMX Systeme mit nVidia gehen reihenweise kaputt. Das macht echt keinen Spaß mehr. Ich hatte jetzt schon mehrere Systeme bei denen selbst das Tauschsystem binnen 3 Jahren hinüber war....
Für SMX Systeme von AMD kann ich nichts sagen. Hab da einfach keine vernünftige Menge in den Händen gehabt.
Badesalz
2025-10-29, 17:55:18
Die Verbindung zwischen den Nodes wird auf jeden Fall immer schlechter im Vergleich zur Performance der nodes. Die Schere geht also immer weiter auf.Das gleiche Thema also wie mit dem Netzwerk daheim :mad: (vs. SSDs). Wobei da haben sie uns auch extra am langen Arm verhungern lassen.
Wenigstens für sich selbst :mad: haben sie nun "200" Faser hinbekommen und wenigstens "400"/Faser (448G) scheint noch machbar. D.h. 8fach MTP schiebt dann 3.2 Tbit/s. Aktuell als neuster shit in 8x also 200 GB/s. Mit "448G" 8x, 400 GB/s.
Jetzt hör auf zu meckern :wink:
KP... Durchsatz am/im einzelnen Node so um die 8 TB/s? :usweet:
Skysnake
2025-10-29, 18:16:03
Ich habe jetzt auf die schnelle nichts gutes gefunden, aber schau dir eonfach mal den Graph hier an https://www.allaboutcircuits.com/news/startup-enfabricas-accelerate-compute-fabric-addresses-ai-ml-in-the-cloud/
Und ansonsten einfach mal nach compute vs memory bandwith schauen. Die entwickelt sich ähnlich zur Netzwerkbandbreite wobei ich sagen würde noch besser.
Badesalz
2025-10-30, 09:19:14
Wobei das aber auch irgendwie sehr ambitioniert ist compute bandwidth direkt mit network bandwidth zu vergleichen...
Wenn man sich genauer anschaut wie schnell CUs ihr Zeug aus dem L2 durchschiessen und das mit dem Durchsatz von Sysmem und vor allem Netzwerk vergleicht, dann bekommt man fast schon Schuldgefühle wegen Unfairness :usweet:
Skysnake
2025-10-30, 17:25:08
Ich meinte Flops mit compute.
Und ja wirkt heute Unfair. Früher gab es Vektorrechner die direkt auf dem Memory gearbeitet haben. Sprichvdu hattest noch nicht mal wirklich register außer für Counter usw.
Du hattest da pro Flop 24Byte memory bandwidth. 2x8 Byte read und 1x8Byte write.
Erst später kamen dann die mit nem Cache.
Das sieht nur heute als nicht vergleichbar aus weil wir eben schon soooo lange die Schere auseinander driften sehen weil Compute im Vergleich zu IO was Memory und Netzwerk im Endeffekt auch sind kack teuer ist.
Lehdro
2025-10-30, 19:20:19
FSR 4 auf RDNA 2 vom Tisch: AMD versetzt Radeon RX 5000 & 6000 in den Vorruhestand
AMD:
"RDNA-1- und RDNA-2-Grafikkarten werden weiterhin Treiber-Updates für kritische Sicherheits- und Fehlerbehebungen erhalten. Um sich auf die Optimierung und Bereitstellung neuer und verbesserter Technologien für die neuesten GPUs zu konzentrieren, versetzt AMD Software Adrenalin Edition 25.10.2 Grafikkarten der Serien Radeon RX 5000 und RX 6000 (RDNA 1 und RDNA 2) in den Wartungsmodus. Zukünftige Treiber-Updates mit gezielten Spieloptimierungen werden sich auf RDNA-3- und RDNA-4-GPUs konzentrieren."
Quelle: Computerbase (https://www.computerbase.de/news/grafikkarten/fsr-4-auf-rdna-2-vom-tisch-amd-versetzt-radeon-rx-5000-und-6000-in-den-vorruhestand.94862/)
Lächerlich. Das geleakte FSR4 für ältere RDNAs hat doch gezeigt was gehen würde. Und jetzt schiesst sich AMD wieder einmal ins Knie, in dem es nicht nur FSR4 auf RDNA2 eine Absage erteilt, sondern auch noch den Treibersupport abseits von Sicherheitsupdates praktisch einstellt. RDNA1 abzusägen kann ich noch halbwegs nachvollziehen, ist nun wirklich schon über 6 Jahre alt, aber RDNA2? Dasselbe RDNA2 was erst neulich bzw. jetzt immer noch in NEUEN Produkten (iGPUs + Handhelds) verkauft wird? Dasselbe RDNA2 was in Form von N21-N23 noch gut unterwegs ist? Uff, das sieht gar nicht gut aus.
Oranje7
2025-10-30, 20:02:26
Als RDNA2 nutzer sehe ich das entspannt.
Mein "neuestes" Spiel ist Kingdom Come 2 und das hab ich nur aus Support für den Entwickler gekauft. Zu viele Spiele zu wenig Zeit.
Aufrüsten hat ja auch noch einige Jahre zeit so hö
Badesalz
2025-10-31, 08:47:47
Lächerlich. Das geleakte FSR4 für ältere RDNAs hat doch gezeigt was gehen würde. Und jetzt schiesst sich AMD wieder einmal ins Knie, in dem es nicht nur FSR4 auf RDNA2 eine Absage erteilt, sondern auch noch den Treibersupport abseits von Sicherheitsupdates praktisch einstellt.Standard. Erstmal beschliessen was virtuell Geld spart und dann entspannt abwarten wie es mit dem Shitstorm aussieht, um entweder zum nächsten Punkt zu übergehen oder sich plötzlich doch noch als besonnener Gönner zu präsentieren :uup:
@Skysnake
Da wird sich ohne ganz neue Ansätze auch nichts ändern. Co-Opt (CPO) behandelt eher das Thema Energie. Da geht es bis zu 3x weniger. Speed gain ist aber <+40%.
WENN man das passende vergleicht :wink: Sonst kommt man auch auf zigfache Steigerungen :rolleyes:
Die Mär mit der "zumindest theoretisch nahezu unbegrenzt" Kapazität der Glasfaser und den 100 Tbit/s wird außer in Laienschrieben auch nicht mehr so oft erzählt. Wir haben uns jetzt mit 200G/Faser ordentlich einen abgeschwitzt und nach 3x duschen wird wohl auch noch 400G/Faser funktionieren, danach ist aber außer Fantasieroadmaps noch nichts klar.
Skysnake
2025-10-31, 08:58:53
Naja, mit Multicolor geht da schon noch sehr viel mehr. Dafür brauchst du aber eben die Lightsources und das wird recht schnell recht teuer. Mit Fibre to Chip kannst du ü er unterschiedliche Resonatoren die Signale recht einfach einkoppeln. Braucht halt "nur" paar ųm² bis mm² Platz.
Aber da verbrätst du auch einiges an Power obwohl es sehr effizient ist.
Wenn sehe ich das für Switche oder NV72 ähnliche große Systeme.
Ich könnte mir aber schon vorstellen das damit dann auch wieder große SMP Maschinen gebaut werden wie die SGI Ultra Violett Systeme von früher. Das wäre schon sehr nice. Nur das man den Speicher wie bei den alten Vektorrechnern von z.b. NEC gar nicht direkt an die CPU koppeln sondern ein Memory Network hat mit dem man auf den Speicher zugreift.
Wäre schon ziemlich nice in meinen Augen für Compute. Dann brachte man aber mal wirklich größere Vektoren als die kleinen 512er. So 8096+ wären da dann wohl angesagt. Im Prinzip könnte man die GPU ALUs dafür hernehmen.
AMD hatte das ja schon mal angefangen mit HSA, auch wenn die GPU cores da noch getrennte Einheiten waren und nicht wie eine FPU in den CPU core integriert waren.
Das sehe ich so als das Fernziel an.
Badesalz
2025-10-31, 13:07:58
Haha. NUMAlink :up:
HSA ist doch in AMD APUs mehr oder weniger aufgegangen (?) Ergo auch, MI300A :rolleyes:
Hat aber sonst allgemein einen schweren Stand gegenüber CUDA, da es auch die Compilerlandschaft zusammenzog und dabei halt OpenCL forcierte.
PS:
Tatsächlich ist der "Assistant" hier eine gute Infoquelle bei dem Thema
https://www.quora.com/What-is-the-maximum-capacity-of-a-single-fiber-optic-cable
dildo4u
2025-11-04, 08:53:57
Patent Klage gegen AMD. (3D Cache Bonding)
https://overclock3d.net/news/software/adeia-initiates-patent-infringement-litigation-against-amd
Lehdro
2025-11-04, 16:14:50
Am Tag vor den Earnings. :rolleyes:
DozerDave
2025-11-04, 20:03:05
Was sind Eure Prognosen?
Badesalz
2025-11-05, 07:55:58
Jene
https://ir.amd.com/news-events/press-releases/detail/1265/amd-reports-third-quarter-2025-financial-results
Hakim
2025-11-05, 12:42:30
1,3mrd fürs gaming ist gar nicht mal schlecht wenn man sieht wo man vorher war. Das wären etwa fast 1/3 von Nvidia in der Rubrik
Badesalz
2025-11-05, 12:52:18
Lass die Volldeppen doch weiter erzählen, NV hat 95% des Marktes :usweet:
Wobei AMD nicht erzählen will was davon Playstation abbekommt und ob der X3D da mit dabei ist :wink:
Badesalz
2025-11-17, 08:57:13
Ob die Idee mit den HPC APUs ein Fehlgriff war... Irgendwie scheint man die theoretischen Vorzüge jetzt erst so langsam praktisch zu verstehen :| (?)
https://insidehpc.com/2025/11/llnl-amd-and-columbia-report-record-protein-folding-workflow-on-el-capitan-supercomputer/
y33H@
2025-11-17, 11:54:26
Und wo geht aus dem Artikel jez hervor, dass der Workflow besonders stark vom APU-Aufbau profitier? sehe ich nicht ...
Badesalz
2025-11-17, 12:17:01
@y33H@
Ehrlich jetzt? Verdreh-Rhetorik? Wo steht das denn in meinem Beitrag? :|
Ich zitiere nochmal für dich :usad: Ich:
"Irgendwie scheint man die theoretischen Vorzüge jetzt erst so langsam praktisch zu verstehen"
Artikel:
"The team developed the LBANNv2 backend for PyTorch that allowed for unique optimizations targeting the AMD Instinct MI300A processor. The team also adopted advanced tools such as Triton (a PyTorch kernel language) and DaCe spatial optimization domain specific language, making their codebase more portable and easier to tune for future hardware. With all El Capitan’s available nodes running the job, the team reached a peak performance of 604 petaflops — far surpassing earlier runs.
“Originally, we thought it would take 6-8 days of El Capitan to generate the baseline 41 million structures,” Van Essen said. “With this speedup, we got that down to hours.”
Und jetzt? Klassich angefangen, 8 Tage. Für die APU umgeschrieben, nehme ich mal noch gut gemeinte 8h an. 24facher speedup.
Die meisten Schrauben wurden am LBANN bewegt. Das ist ""Livermore Big Artificial Neural Network" Toolkit". Artifical ist nur Schwerpunkt. Das ist das Backend für PyTorch. Alles was Pytorch mitbenutzt, sollte sich jetzt signifikant steigern lassen. Mit PyTorch geht auch Markov. Und Markov kann viel...
https://en.wikipedia.org/wiki/Hidden_Markov_model
Daher eben auch Protein Folding.
Wie es aber scheint, lernt AMD das auch noch :usweet: (mit der Hilfe des Labs auf der Columbia). Daher haben sie es auch beim 400er erst ausgelassen. Die Option halten sie sich im und durch das Design, angeblich aber immer frei.
Allgemein werden sich dafür erstmal alle interessieren die das eh schon nutzen.
Max Planck hat mittlerweile auch 300 Nodes mit 600x 300A ("Viper"). Da wird es bestimmt von deren Seite aus Fragen geben zu AMDs neuen Erfahrungswerten.
PS:
Das obige, mit UALink 2.0 und UltraEthernet könnte nicht nur schnell sein, sondern auch Hölle Perf/Watt haben :whistle:
edit:
Ja ich weiß. Skysnake kommt gleich und macht mich fertig. Ich muss da halt durch :D
Skysnake
2025-11-17, 19:57:41
Nö. Warum denn?
Der APU Ansatz von AMD bringt halt auch nur etwas wenn man ihn auch nutzt, was halt leider viel zu selten der Fall ist. Da müsste AMD mehr Geld in die Softwarehersteller reunbuttern und auch mehr an Libs arbeiten. Aber vielleicht haben Wie ja endlich mal die Kohle um da was zu bewegen. Wünschenswert wäre es auf jeden Fall. Die HW ist ja meist schon verdammt gut. Aber ohne Software hilft das halt nichts.
Badesalz
2025-11-17, 21:52:56
Vielleicht haben sie jetzt erst den Knoten gelöst :upara: Wir werden sehen.
Sie haben 11424 batch nodes und haben das auf 10800 gefahren. Das war nahezu die ganze Kiste. Das Interesse war wohl bis in die oberste Etage ziemlich groß =)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.