PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 26./27. August 2023


Leonidas
2023-08-28, 08:11:14
Link zur News:
https://www.3dcenter.org/news/news-des-2627-august-2023

Gast
2023-08-28, 09:23:16
Anders formuliert bezog sich die "komplett"-Aussage in erster Linie auf RDNA3-Grafikchips, nicht hingegen auf RDNA3-basierte Grafikkarten. Die Möglichkeit dazu, dass auf Basis der bekannten RDNA3-Grafikchips also noch andere Grafikkarten erscheinen, hat sich AMD hier sehr wohl offengelassen.

Was effektiv quasi das selbe ist. Alles was noch an Grafikkarten kommen könnte, kann und wird effektiv mit Custom-Lösungen bestehender Grafikkarten abgedeckt werden. Eine GPU mit einer signifikanten Anzahl noch nicht aktiver Einheiten in Hardware, die tatsächlich etwas bewegen könnte existiert nicht.

Dies gilt insbesondere dann, wenn von der RDNA4-Generation tatsächlich die Spitzenchips gestrichen sein sollten.

Sehe ich nicht so, eher das Gegenteil sollte der Fall sein. Die Spitzenchips einer neuen Generation sollten üblicherweise wenig bis gar keine Überschneidungspunkte zur alten Generation haben.
Es ist eher zu vermuten, dass die zukünftigen Mainstream-Chips vorgezogen wurden und zu einem Zeitpunkt launchen für welchen eigentlich der neue Top-Dog geplant war, und aufgrund der Performanceüberschneidungen mit dem bestehenden Portfolio damit eine direkte Ablösung von diesem darstellen.

Complicated
2023-08-28, 10:47:19
Was effektiv quasi das selbe ist.
Würde ich nicht behaupten:
Ein jegliches Fehlen von Navi 41 & 42 sowie eventueller (RDNA4-basierter) Ersatzlösungen würde den Verkaufszeitraum von RDNA3 sogar deutlich erweitern, womit auch zukünftige Programmergänzungen wie eventuell sogar ein "50er" Refresh zur Radeon RX 7000 Serie wahrscheinlicher werden würden. Die AMD-Aussage ist somit wirklich nur streng auf Chip-Ebene zu verstehen, denn auf Grafikkarten-Ebene kann die Zukunft viele, jetzt noch nicht absehbare Anforderungen bringen – bis hin auch zu weiteren RDNA3-basierten Grafikkarten.
Keine neuen ASICs könnte nach wie vor die Option offen halten ein Mulit-GCD mit N32/31 als neue Grafikkarte nachzuschieben. Das streichen der N41/42 AISCs könnte auch darauf hindeuten, dass AMD jetzt zuerst das Multi-GCD Problem lösen möchte. Packaging oder Anbindung/Interconnect könnten die Baustelle sein und bei Lösung mit als Spitzenlösung funktionieren.

Gastone
2023-08-28, 11:08:23
Falls das Namensschema von Navi die Leistungklassen weiterhin beibehält wäre doch mit N44/N43 die aktuelle N33/N32 zu ersetzen.
Da wäre in sehr ähnlichen Leistungsklassen einfach mehr RT-Leistung zu erwarten, zu einem besseren Preis.
Dass man jetzt noch multi GCD nach der langen Zeit von N31 mit den alten Chiplets versucht würde ich als Wunschdenken abtun.

Wenn ich mir die RDNA2 "Abverkaufpreise" ansehe denke ich wer will den ernsthaft über 600€ noch für ne ältere Gen ausgeben. Nee danke.
Bei Nvidia das Gleiche, die Preise für 3070 -80 und -90 sind noch bescheuerter, vor allem wenn nicht genug VRAM verbaut ist.

Mal sehen ob sich mit den neuen AMDs und Nvidias aktueller Midrange eine Preiskorrektur einstellt. Hoffentlich bleibt die 7800XT 16gb in hohen Stückzahlen verfügbar, das müsste alles alte dann auch um und unter die 550€ drücken.

Gastronom
2023-08-28, 11:20:33
Ich bleibe bei meiner These: ein fehlen von Navi 41/42 wäre kein Fauxpas, sondern fatal für AMD! Und würde, wenn Intel denn liefert, AMD zur Nummer 3 am GPU Markt degradieren!

Leonidas
2023-08-28, 11:27:43
Was effektiv quasi das selbe ist. Alles was noch an Grafikkarten kommen könnte, kann und wird effektiv mit Custom-Lösungen bestehender Grafikkarten abgedeckt werden. Eine GPU mit einer signifikanten Anzahl noch nicht aktiver Einheiten in Hardware, die tatsächlich etwas bewegen könnte existiert nicht.

Nein. Du mißverstehst den Unterschied zwischen Chip und Grafikkarte. Man kann jederzeit aus den vorhandenen Chips noch weitere GPU-Varianten schnitzen. Das mit dem "existiert nicht" ist eine diametral falsche Beschreibung der Situation. Solcherart GPU-Varianten werden erzeugt - aus vorhandenen Chips. Die Voraussetzung dafür ist nur der vorhandene Chip, sonst gar nichts. Man muß es nur wollen.

Gast
2023-08-28, 11:33:47
Keine neuen ASICs könnte nach wie vor die Option offen halten ein Mulit-GCD mit N32/31 als neue Grafikkarte nachzuschieben.


Sehr unwahrscheinlich, dass Navi31/32 dazu fähig sind, und selbst wenn würde es in unterirdischer Effizienz enden.

Wenn man Multi-GCD mit neuer Technik von Navi4x nicht in den Griff bekommen hat ist es nicht anzunehmen, dass dies mit alter Technik in irgendeiner Form besser läuft.

Gast
2023-08-28, 11:38:21
Nein. Du mißverstehst den Unterschied zwischen Chip und Grafikkarte.


Macht trotzdem keinen signifikanten Unterschied, nur weil das Ding dann einen anderen Namen bekommt. Siehe 6700GRE, ist einfach das selbe wie die 6700XT, das ist keine neue Karte nur weil vielleicht ein klein wenig am Powerlimit oder an den freigeschalteten Einheiten gedreht wird.

Das bewegt sich alles in dem Rahmen den Custom-OC-Karten schon heute in die Lücken der "offiziellen" Karten schieben können.

Nach oben hat man nix mehr zum freischalten, nach unten könnte man freilich sehr viel weniger freischalten, nur wen interessiert das?

Leonidas
2023-08-28, 11:39:02
Wenn man Multi-GCD mit neuer Technik von Navi4x nicht in den Griff bekommen hat ist es nicht anzunehmen, dass dies mit alter Technik in irgendeiner Form besser läuft.

Genau das @Gast. AMD hat es aus technischen Problemen liegengelassen. Damit dürfte dieser Weg auch für N31 verbaut sein.

Wenn, dann muß AMD tatsächlich N36 realisieren - einen größeren Einzel-GCD. Andererseits könnte man das dann auch gleich im Rahmen von RDNA4 machen, Zeit kostet es sowieso.

Dino-Fossil
2023-08-28, 12:25:41
Ich rechne da jetzt nicht mit viel - jedesmal wenn es in den Vorjahren hieß, AMD läge weit vor nVidia war dann doch nVidia mit der neuen Generation deutlich schneller. Wird auch diesesmal so sein.

Glaubwürdig erscheint mir maximal folgende Lösung: RDNA4 wird eine Generation mit evolutionären Fortschritten, die sich auf die kleineren Chips beschränkt, ähnlich wie Polaris. Einige Zeit später (nachdem nVidia das neue Portfolio ebenfalls längst entrollt hat) kommt dann ein großer Chip der nächsten Generation, wie auch Vega damals deutlich später als Polaris kam.

Leonidas
2023-08-28, 14:02:13
Nach oben hat man nix mehr zum freischalten, nach unten könnte man freilich sehr viel weniger freischalten, nur wen interessiert das?

Im Fall der 6750GRE aka N22 - richtig. Aber im Fall von N32 und N33? Da sind noch viele Möglichkeiten offen. N32 als starker Salvage und N33 hat noch gar kein Salvage. Alles möglich, alles ohne neuen ASIC nur als neue Grafikkarten-Version. Ergo jederzeit realisierbar.

Entscheidender Punkt hierbei ist: Der Spruch, man bräuchte eine neue "GPU-Version" ist grundfalsch. Braucht man nicht. GPU-Versionen erzeugt man nach Gusto durch Cuts des vorhandenen ASICs. Die Wortwahl "GPU-Version" tut hingegen so, als wäre da eine andere Technik am werken, irgendwas was man erst entwicklen und auflegen muß. Das ist eben grundfalsch. Und je länger die große Magazine den falschen Sprachgebrauch der Grafikchip-Entwickler mitgehen, eine "GeForce RTX 4090" wäre eine eigenständige GPU (ist es nicht, es ist nur eine AD102-Variante, "GeForce RTX 4090" bezeichnet eher die komplette Grafikkarte), um so mehr setzt sich auch diese technisch falsche Auslegung durch - die dann eben den Fehlglauben befördert, neue GPU-Versionen wären irgendwie ein Wunderwerk. Sie sind beliebig erzeugbar, zu jederzeit.

Complicated
2023-08-28, 15:31:35
Genau das @Gast. AMD hat es aus technischen Problemen liegengelassen. Damit dürfte dieser Weg auch für N31 verbaut sein.

Wenn, dann muß AMD tatsächlich N36 realisieren - einen größeren Einzel-GCD. Andererseits könnte man das dann auch gleich im Rahmen von RDNA4 machen, Zeit kostet es sowieso.
Das wäre nur dann der Fall, wenn das technische Problem bei den GCDs liegen würde. Ist es der Unterbau/Anbindung der N31/N32 bremst, dann würde es keinen Zweck haben N41/N42 auf den selben Unterbau zu schnallen.

Es wäre die selbe Entscheidung und man nimmt gut funktionierende N31/N32, die keine weiteren Variablen einbringen, um Dual-GCD umzusetzen. Das Portfolio nach oben zu erweitern ist damit ebenso möglich und es ist die günstigere Variante, wenn man die Ursache dort gefunden hat.

Für mich ist da der Weg für N31 noch nicht verbaut - ist aber wie gesagt eine Spekulation. AMDs vorgehen mit N41/N42 allerdings am ehesten plausibel in so einem Fall.

Leonidas
2023-08-28, 15:35:55
Natürlich wissen wir nicht, wo genau die Probleme lagen. Die Chance ist aber klar am höchsten beim komplizierten Aufbau. Sprich, wenn man das auf die Komplexität von RDNA3 runterbricht (ein GCD, mehreren MCD), wäre ein hypothetischer N45 lösbar. Und natürlich würde man lieber N45 als N36 machen. Stand jetzt wird das zum gleichen Zeitpunkt fertig, aber wenn N43+N44 schon Tape-Out hatten, wäre ein schnellerer RDNA4-Chip besser als ein schnellerer RDNA3-Chip.

Gast
2023-08-28, 16:06:35
Du mißverstehst den Unterschied zwischen Chip und Grafikkarte.
Wie soll das denn gehen, die Aussage ist klar es gibt keinen weiteren Asic. Was ist denn bei dir eine GPU Variante als Grafikkarte? Was will man denn noch für einen Asic schnitzen wenn es keinen Asic mehr gibt? Er meinte nicht GDC sondern das komplette Package inklusive MCD.

Sorry was soll denn dabei rumkommen? Noch eine blödsinnige Bezeichnung einer Karte die sie überhaupt nicht ist, die 7800xt ist nicht mal ein Sidegrade. Das ist ein einfacher Refresh der 6800xt auf Basis von MCM mit fast zu gleichen Leistungsdaten, nach 2,5 Jahren Entwicklungszeit. Lächerlich ist sowas. Dann hätte AMD eine 7700xt draus machen sollen und die 7800xt dann mit dem Asic für eine weitere GPU Variante/Grafikkarte, den sie deiner Meinung noch haben - launchen. Haben sie doch längst. Sie haben aus der 7800xt eine 7900GRE gemacht, die man mit einem OEM PC kaufen soll. Vermutlich mit noch mehr AMD Krempel.

RDNA3 ist bisher gescheitert, Navi 32 besonders und warum soll man daran noch Entwicklungsressourcen verschwenden? Was AMD macht ist vollkommen richtig, nach vorne schauen. Das passt doch nur wieder nicht in die Köpfe einiger Fanbojs und ein paar 3dcenter Verbohrten die immer was anderes sehen, vor allem weil sie bevor es losging einen riesen Humbug drumherum vermeldet haben. Wir wissen ja wie das ausgeht, endlose Diskurse...die letztlich nichts an dem Fakt ändern das AMD sein Pulver verschossen hat und nicht viel dabei rumkommt. Ob es dann noch eine 7850xt in naher oder ferner Zukunft gibt, die auf Basis einer Ausschuss N31 GPU basiert ist doch schei*egal, das macht den Kohl auch nicht mehr fett.

Entschuldige wir haben eine klare Aussage von AMD, dass das RDNA3 GPU Portfolie raus ist und komplett, was soll da noch groß kommen? Ich würde behaupten nichts was es derzeit nicht schon gibt und damit bedeutungslos. Vermutlich meinte er auch nur die 6750GRE die noch auf RDNA2 basiert. Ob noch eine Variante mit 10-12-16 oder 20GiB ist auch bedeutungslos, kann man alles schon kaufen.

Ich kann dir nicht folgen...ehrlicherweise brauchen wir und auch AMD keine weitere Karte die nur frustriert. Weder leistungstechnisch noch preislich ist RDNA3 besonders und gut aufgestellt.

Gast
2023-08-28, 16:15:08
Laut dem normalerweise recht kundigen Twitterer Kepler_L2 sollen Navi 43 & 44 aus der RDNA4-Generation ihren Tape-Out (angeblich) bereits hinter sich gebracht haben. Dies würde dann auf einen Release schon im ersten Halbjahr 2024 hindeuten, möglicherweise sogar schon im ersten Quartal 2024.

Aktuell hat AMD nur den Navi 33 auf RDNA 3-Basis in 6nm im mobilen Segment. Dieser wird 2024 durch Navi 43 und 44 im mobilen Segement ersetzt. Im Desktop passiert erst mal nichts.

Später, wenn größere Chips für Desktop gelauncht sind, kann man Navi 43 und 44 auch im Deskop starten, aber erst mal bleiben diese mobile only. Hat man ja mit Navi 33 auch so gemacht. Der wurde auch erst nur im im mobilen Segment vorgestellt. Im Desktop kam der viel später.

Gast
2023-08-28, 16:38:31
@Leo fabuliert...N45. AMD darf sich in einem Jahr darauf einstellen das es dann bald die 5060ti gibt, die mit 16GiB kommen und so schnell wie eine 4080 wird. N45 in MCM...ja klar. Was soll das Ding denn kosten, soviel wie eine 7900xtx? genau da liegt der Hund begraben, den Kosten die niemand sieht und die ein MCM Package entwickelt. Da muss nur einer in dieser Kette straucheln, und schon ist es vorbei. Die sitzen zudem alle in China und da soll niemand mehr USD verdienen! Der Output ist dabei viel zu gering, damit gewinnt man keine Marktanteile weil die Masse fehlt.

Nvidia lässt sich den ADA gleich von TSMC ins Package pressen. Da veranstaltet AMD eine Partnerpressorgiesammelsorium und karrt das Ding zig mal durch die Gegend bis es ins Package kommt, einschließlich der Selektion aller Chiplets. MCM ist einfach viel zu kostenintensiv, was man an Wafern spart verpulvert mal in dreifacher Höhe an den Aufbau, der noch nicht mal schneller als die Konkurrenz ist. Wer ständig in diesem Testballon leben will, soll es tun.

Complicated
2023-08-28, 16:38:50
Ein schneller RDNA4 Chip muss nicht besser sein als ein schon fertiger N3x-Chip - wo kommt deine Bewertung denn her? Stand jetzt ist der eine schon fertig und der andere kommt nicht zum Einsatz weil zusätzliche Anpassung für den Unterbau nötig wären.

Die Komplexität auf 1 GCD herunterzubrechen, ist doch schon in der Annahme an dem vorbei was ich schreibe. Lass das doch bitte mal weg, da ich eindeutig schrieb es gehe um 2 oder mehr GCDs, wo das plausibel wäre.

Gast
2023-08-28, 16:55:33
Ich vermute sogar eine optimierte 5-6nm 6800xt wäre schneller gewesen als die 7800xt. Einzige Schwäche war ja ihre 4K Eignung, bzw. hat ihr 2k besser gelegen. Aber da geht es N32 nicht besser.

RDNA4..puh, ich vermute da kommt nichts mehr in MCM für den Consumer. Hat man damals bei RNDA alias 5700xt auch so gemacht, eine Gen ohne Highend. Na dann...das sieht düster aus, die nächsten 4 Jahre.

Complicated
2023-08-28, 16:57:07
Wie soll das denn gehen, die Aussage ist klar es gibt keinen weiteren Asic. Was ist denn bei dir eine GPU Variante als Grafikkarte? Was will man denn noch für einen Asic schnitzen wenn es keinen Asic mehr gibt? Er meinte nicht GDC sondern das komplette Package inklusive MCD.
Da liegst da aber komplett daneben - ein ASIC ist ein Einzelchip und nichts anderes. Eine Grafikkarte besteht bei AMD aus mehreren ASICs (GCD und MCDs). Und jeder ASIC (GCD) bestückt mehrere Grafikkarten. Bestes aktuelle Beispiel sind die GRE-Modelle die mit den selben ASICs eine GRE-Grafkkarte zusätzlich in das Portfolio bringen.

Das zu erreichende optimale Ziel ist ein ASIC für GCD und diesen auf allen Grafikkarten in der Generation zu verwenden. 1x, 2x, 3x und 4x. Siehe Zen Chiplets.

Gast
2023-08-28, 17:24:00
application specific integrated circuit - ist eine spezialisierter chip und gpus sind keine asic. schon die aussage von dem amd heini ist deshalb peinlich. es gibt noch eine form von asip auf basis spezieller cpus, aber auch die sind eigentlich keine asic.

sku? unit, unified, programable?

asic haben die eigenschaft das interne schaltungen nicht mehr beeinflusst werden können. sie sind also in gewisser weise auch nicht programmierbar.
was sie sind ist gezielt und kostengünstig herzustellen, dabei oftmals sehr einfach und effizient, weil sie auf ein bestimmtes aufgabenfeld beschränkt werden, das trifft auf eine moderne gpu kaum noch zu.

rdna3 enthält einen oder mehrere asic was aber mit dem mcm aufbau nichts tun hat, das ist aber ein anderes thema.

ich halte die aussage von amd daher eher als marketinggründen relevant, als denn technisch richtig. in einem forum wie 3dc sollte man das tunlichst unterlassen.

Gast
2023-08-28, 17:33:18
achso, es wird kein rdna3 dual gcd oder was immer dir vorschwebt geben. die entwicklung wurde eingestellt. amd geht es wohl nur noch noch um apus und da passt die mcm fähigkeit von rdna3 gut dazu. "advanced"... apu?

Gast
2023-08-28, 22:06:23
Es wäre die selbe Entscheidung und man nimmt gut funktionierende N31/N32, die keine weiteren Variablen einbringen, um Dual-GCD umzusetzen.


Für den Fall dass Navi31/32 überhaupt die notwendigen Interfaces besitzen, was man mit an Sicherheit grenzender Wahrscheinlichkeit ausschließen kann, warum soll das jemals funktionieren?

Nachdem die Single GPU RDNA4 augenscheinlich funktionieren und nur die MultichipRDNA4 nicht kann man ausschließen dass es ein Problem mit der RDNA4 Architektur gibt. Und wenn die Interfaces mit RDNA4 nicht wie gewünscht funktionieren, werden sie, für den unwahrscheinlichen Fall dass sie in RDNA3 überhaupt existieren, auch nicht wie gewünscht funktionieren.

Rabiata
2023-08-28, 22:44:41
Ich bleibe bei meiner These: ein fehlen von Navi 41/42 wäre kein Fauxpas, sondern fatal für AMD! Und würde, wenn Intel denn liefert, AMD zur Nummer 3 am GPU Markt degradieren!
Dazu müßte Intel aber auch größere Chips bringen, was sie im Moment haben ist deutlich kleiner/schwächer als Navi 32. Ich unterstelle hier mal, daß AMD mit Navi 43 zumindest annähernd die Leistung von Navi 32 bringen kann.

Leonidas
2023-08-28, 23:26:56
Wie soll das denn gehen, die Aussage ist klar es gibt keinen weiteren Asic. Was ist denn bei dir eine GPU Variante als Grafikkarte? Was will man denn noch für einen Asic schnitzen wenn es keinen Asic mehr gibt? Er meinte nicht GDC sondern das komplette Package inklusive MCD.

Man kann aus N31, N32 und N33 nun mit geringen Aufwand (Validierung) nun noch dutzende Grafikkarten formen mit jeweils abgespeckten oder zwischenliegenden Specs. N31 mit 90CU, 78 CU, 70CU, N32 mit 48CU, 40CU, N32 mit 28CU, 24CU, 20CU.

All dies wird bereits durch die AMD-Aussage impliziert. Er sagt klar, er hat keine weiteren Chips - aber weitere Varianten basierend auf den vorhandenen Chips wären denkbar. Dazu darf man natürlich nicht fehldeuten, was ein Chip ist. Ein N32 ist ein Chip. Eine "Radeon RX 7900 XTX GPU" ist es nicht (im eigentlichen Wortsinn).





@Leo fabuliert...N45.

Bitte in komplett lesen. Dies war eine Hypothese, welche rein darstellte, was für Möglichkeiten AMD an der Hand hat.





application specific integrated circuit - ist eine spezialisierter chip und gpus sind keine asic. schon die aussage von dem amd heini ist deshalb peinlich. es gibt noch eine form von asip auf basis spezieller cpus, aber auch die sind eigentlich keine asic.

In gewissem Sinne ja, Grafikchips sind keine ASICs. Er verwendet den Begriff, um klar zu sagen, dass er die Chip-Ebene meint und nicht das, was man gern als "GPU" bezeichnet. Das sollte eigentlich auch einen Grafikchip bezeichnen, wird aber zugern für Grafikchip-Varianten verwendet.

iamthebear
2023-08-28, 23:31:31
1.) ASIC dürfte die AMD interne Bezeichnung sein. Das sieht man auch an diversen Messwerten wie ASIC Power oder ASIC Quality, die von diversen Tools ausgelesen werden können. Das hat mit Marketing relativ wenig zu tun.
Ich vermute einmal, dass AMD hier intern bei seinen Dies einfach nur zwischen ASIC und FPGA unterscheidet.

2.) Wenn das mit dem Tape Out stimmt und ein Release in Q1 2024 kommt, dann habem Navi32 und Navi33 nur eine Lebensdauer von weniger als einem Jahr.

Meine Vermutung ist folgende:
Man hat Ende 2021/Anfang 2022 schon absehen können, dass der ganze Corona/Kryptoboom ein Ende haben wird und dass man 2024 ausreichend 5nm Kapazität haben wird.
Zusätzlich hat sich auch schon abgezeichnet, dass das Chipletkonzept nicht aufgeht, da man zwar kompakte Shader Engines hat, jedoch viel zu viel Energie und und Platz für die Die zu Die Kommunikation drauf geht (sowohl auf den MCDs als auch auf dem GCD).
Deswegen hat man beschlossen die Entwicklung der monolithischen Dies zu beschleunigen und hat die High End Dies geopfert:
.) Bei der Umstellung Navi33 => 44 geht es primär im den Shrink auf 5nm
.) Bei der Umstellung Navi32 => 43 geht es darum das ineffiziente Chipletkonstrukt los zu werden. Wenn man mit gesamt 350mm² für Navi32 gegen 200mm² AD106 in der selben Preisklasse antreten muss dann wird das bitter.

Complicated
2023-08-29, 05:32:30
Für den Fall dass Navi31/32 überhaupt die notwendigen Interfaces besitzen, was man mit an Sicherheit grenzender Wahrscheinlichkeit ausschließen kann, warum soll das jemals funktionieren?
Welche Interfaces sollen denn da fehlen, die notwendig sind?

Gast
2023-08-29, 10:42:36
AMD verstrickt sich mal wieder in undurchsichtige Aussagen, um nicht zugeben zu müssen das RDNA3 ein kompletter Flop ist und man vermutlich davon nichts mehr gross weiterentwickeln wird. Seit Lauch dieser Gen gibt es erhebliche Probleme, ob technisch, bei der Qualität (MBA) oder auf Treiberebene sei dahingestellt. Wir kennen diese Aussagen seitens AMD schon, die gibt es 1000-fach von denen und kommen wird dann gar nichts. Still ruht der See, manchmal für Jahre.

MCM brauch viel zu viel Platz, zuviel Energie und das GCD ist zu klein um jemals NVidia schlagen zu können. Das wusste jeder, der die Specs gesehen hat und daran wird auch ein 90CU Dices nichts ändern. Keine Ahnung was man geglaubt hat womit NVidia um die Ecke kommt, wenn die einen Fertigungssprung von 3 Gens machen?

Für mich sind die Chiplets übrigens auch keine Asic, denn sie funktionieren nicht allein oder in irgendeiner Weise selbstständig. Im Gegenteil, die Aussage ist diesbezüglich verwirrend und verschleiernd. RDNA3 ist eine GPU im Chipletdesign und keines dieser Dices ist ein Asic. Die Aussage seitens Henkelmann ist aus meiner Sicht absolut unrichtig.

Ob es noch Abwandlungen des GCD geben wird ist kaum von Belang, denn schon in der Vergangenheit hat sich ein höherer CU Ausbau, ausgehend von einem bestimmten Verhältnis aus daraus resultierender Leistung und Energieaufnahme nie wirklich gelohnt. Entweder man muss den Takt aus Temperaturgründen senken oder der Verbrauch ufert exorbitant aus, was bekannt auch zu höherer Abwärme führt und damit viel schneller an ein Limit führt.

Ich glaube der Grossteil hat RDNA3 schon längst enttäuscht abgeschrieben, und Henkelmann versucht mit seiner Aussage bei Ankündigung davon abzulenken das die 7800xt einfach kein Upgrade ist. Um die Leute bei der Stange zu halten erfindet er irgendeine Konstellation, in der er behauptet das RDNA3 GPUs besonders flexibel sind und man mit Austausch bestimmter Dices das Leistungsvermögen unendlich variieren könnte. Kann man aber nicht, das ist kompletter Unsinn und unnütz. Es lohnt sich schlicht nicht.

Man bewirbt also wieder mal Chiplets und damit MCM innovativ als Feature, anstatt Leistung, Effizienz und daraus resultierende Preise. Ein typischer Passus in der Industrie um nicht zugeben zu müssen, was man Jahre lang fehlentwickelt hat. Man sucht sich dann etwas grundlegend Positives oder Frotschrottliches, um es dann marketingtechnisch auszuschlachten. NVidia tut es gerade auf Basis von AI/KI.

Chiplets hilft keinem Anwender etwas und kann ihm getrost egal sein. Es hilft nur AMD um die Margen und Gewinne zu steigern. Ich halte es im Consumerbereich für reichlich gewagt und vermute es wird in Form von GPUs so nie auf die Konkurrenz aufschließen. Wie immer ist AMD in den Fall technisch um Jahre voraus, von der Leistung her gewinnen sie aber auch damit keinen Blumentopf. Siehe HBM usw., was hatte man dort alles versprochen. Gibt es im Consumerbereich nicht mehr und es war von vornherein klar das es scheitern wird.

So sucht man sich bei AMD jeden Strohhalm um was Gutes nach aussen hin promoten zu können. Das zeigt klar auf, dass man intern RDNA3 längst abgeschrieben hat und nur noch versucht das Zeug loszuwerden und gefragt danach, behauptet man könnte diesen Aufbau noch endlos variieren und liefern was der vermeintliche Kunde sich wünscht.

Blubb Blubb...Innovation ist ein Ding, nur muss es auch konkurrenzfähig, leistungstechnisch und dem Aufwand nach funktionieren. Das tut es bei AMD selten bis gar nicht. Ich bin ja mal gespannt, was man den Aktionären dgzgl verkaufen will. Die Ankündigung von N32 hat die Aktie schon mal knapp 10% gekostet.

Gast
2023-08-29, 12:20:05
Welche Interfaces sollen denn da fehlen, die notwendig sind?

Na jene zur Inter-GCD-Kommunikation.

Gast
2023-08-29, 12:41:30
Macht trotzdem keinen signifikanten Unterschied, nur weil das Ding dann einen anderen Namen bekommt. Siehe 6700GRE, ist einfach das selbe wie die 6700XT, das ist keine neue Karte nur weil vielleicht ein klein wenig am Powerlimit oder an den freigeschalteten Einheiten gedreht wird.

Das bewegt sich alles in dem Rahmen den Custom-OC-Karten schon heute in die Lücken der "offiziellen" Karten schieben können.

Nach oben hat man nix mehr zum freischalten, nach unten könnte man freilich sehr viel weniger freischalten, nur wen interessiert das?
Naja, die Turing Super Modelle waren auch keine wirklich neuen Chips, hatten trotzdem gut Absatz. Die TI Modelle von Ampere auch. Man kann da schon noch was machen, nur kann man davon nicht viel erwarten. Und das "nach unten" ist die eigentlich noch interessantere Richtung. Da kann man dann weiter am Preis drehen. Klar, wem eine 4090 zu langsam ist, den interessiert das nicht. Aber wer von einer 1060 oder RX480 aufrüsten will, den interessiert vielleicht eine 7700 (ohne XT), weil die dann vielleicht nur 180W Boardpower hat und entsprechend noch mal weniger kostet.
Gerade AMDs RDNA3 Portfolio hat ja mehr Löcher als Schweizer Käse... z.B. wenn man zwischen 7600 und 7700XT schaut, da fehlt mindestens eine Karte.

Gast
2023-08-29, 12:47:02
Wenn man Multi-GCD mit neuer Technik von Navi4x nicht in den Griff bekommen hat ist es nicht anzunehmen, dass dies mit alter Technik in irgendeiner Form besser läuft.
Und woher weiß man, dass es mit Navi 4x nicht funktioniert? Wegen einem Gerückt, welches besagt, dass man Navi 41 und Navi 42 gestrichen hat?
Das ist zum einen ein Gerücht und kann zum anderen auch das Gegenteil bedeuten. Vielleicht waren Navi 41 und Navi 42 single Chiplet Alternativen, die man jetzt nicht mehr braucht, weil man mehrere Navi 43 zusammen packt.
Was dieses Gerücht besagt, weiß man erst, wenn RDNA4 auf dem Markt ist.

Ich halte es zwar auch für unwahrscheinlich, dass man so etwas bei RDNA3 bringt, aber dieses eine Gerücht kann halt alles mögliche bedeuten und auch durchaus falsch sein.

Gast
2023-08-29, 13:01:22
RDNA3 ist bisher gescheitert, Navi 32 besonders und warum soll man daran noch Entwicklungsressourcen verschwenden? Was AMD macht ist vollkommen richtig, nach vorne schauen. Das passt doch nur wieder nicht in die Köpfe einiger Fanbojs und ein paar 3dcenter Verbohrten die immer was anderes sehen, vor allem weil sie bevor es losging einen riesen Humbug drumherum vermeldet haben.
Cool, jetzt ist Navi32 schon vor den ersten Tests gescheitert... Bisher weiß man doch gar nichts von der Karte. Man kennt grob die technischen Daten und die offiziellen Board Power angaben. Aber wie das gesamtpaket dann funktioniert, weiß man eben nicht.
Und was durchaus noch kommen kann, ist eine Karte zwischen 7700XT und 7600. Dafür braucht man nicht einmal irgend etwas entwickeln, man könnte Package, PCB und Ram von der 7700XT nehmen und mit weniger TDP sowie vielleicht weniger Phasen im VRM eine 7700 draus machen. Eventuell noch ein MCD weg lassen und auf 10GB Ram reduzieren. Nicht viel Aufwand und man hat das Loch zwischen 7700XT und 7600 gestopft. Eine 7500 wäre auch noch denkbar, im Mobile gibt's ja eine reduzierte Navi33.

Gast
2023-08-29, 13:34:40
Für mich sind die Chiplets übrigens auch keine Asic, denn sie funktionieren nicht allein oder in irgendeiner Weise selbstständig. Im Gegenteil, die Aussage ist diesbezüglich verwirrend und verschleiernd. RDNA3 ist eine GPU im Chipletdesign und keines dieser Dices ist ein Asic. Die Aussage seitens Henkelmann ist aus meiner Sicht absolut unrichtig.
Mal fernab von deinem restlichen Post:
Ein GCD hat eine ganz spezifische Aufgabe (nämlich Berechnungen durchführen), ist daher application specific. Und dass es ein integrierter Schaltkreis ist, darüber müssen wir wohl nicht mehr reden, oder? Und auf den MCD trifft das auch zu. Insofern ist die Aussage durchaus korrekt. Vielleicht mal mehr als die deutsche Wikipedia Seite lesen, das hilft oft schon.
Und ein kleiner Hinweis noch: Es gibt kein "Dices". Es gibt einen die und die Mehrzahl davon ist dies oder dice. Dices wäre dann die Mehrzahl von der Mehrzahl, gibt wenig Sinn.

Und bezüglich deiner restlichen Aussagen: Die im Vergleich zu Ada mäßige Performance von RDNA3 kreidest du alleine dem Chiplet Design an. Das ist schlicht falsch. RDNA3 hat einige Punkte, die dazu beitragen, z.B. auch die ineffizienten DualIssue Shader und ein massiv verkleinerter Infinitycache. Navi33 ist ja auch kein Effizienz-Wunder als Monolith.
Daher ist dein Urteil über Chiplets schlicht verfrüht, weil RDNA3 nicht daran krankt, sondern an einigen anderen Design Entscheidungen und an einem Konkurrenzprodukt, welches einen gewaltigen Sprung im Vergleich zum Vorgänger gemacht hat (während RDNA3 nur kleine Fortschritte gemacht hat).

Complicated
2023-08-29, 14:43:15
Na jene zur Inter-GCD-Kommunikation.
Die hat jeder GCD, da die Kommunikation über skalierbare MCDs läuft (was sowieso nur ein Zwischenschritt zu AIDs ist). Was soll da fehlen? Du zeigst allein mit deinen Bezeichnungen und Ausführungen wenig Kenntnisse zu technischen Details, über die du her ziehst.
https://www.computerbase.de/2022-07/amd-patentantrag-gpu-chiplet-auslastung/#
Wann der von AMD beschriebene Ansatz zur optimierten Auslastung der Shader auf Multi-Chiplet-GPUs in Spielen in der Praxis relevant wird, darüber herrscht aktuell noch keine Klarheit. AMD hat inzwischen zwar bestätigt, dass RDNA 3 als Basis von Radeon RX 7000 Ende des Jahres auf einen Chiplet-Ansatz setzen wird, nicht aber, dass es mehrere GPU-Chiplets geben wird. Zuletzt hieß es, es werden zwar mehrere Speicher-Controller mit Infinity-Cache-Chiplets, aber nur ein GPU-Chiplet zum Einsatz kommen. Ob diese Gerüchte am Ende zutreffen, bleibt abzuwarten.

Bereits heute auf zwei GCDs (Graphics-Compute-Dies) setzt CDNA 2 für die HPC-Grafikkarten der Instinct-MI200-Serie, CDNA 3 wird darauf aufbauen. Verbunden werden die Chiplets über den „AMD Infinity Interconnect“.

Gast
2023-08-29, 15:19:07
Die hat jeder GCD, da die Kommunikation über skalierbare MCDs läuft (was sowieso nur ein Zwischenschritt zu AIDs ist).


Nur weil RDNA2 Interfaces für MCDs hat, sagt das nichts darüber aus ob ein Interface für die Multi-GCD-Kommunikation hat. Mit ziemlicher Sicherheit nicht, das dieses einiges an Platz benötigen würde den man nicht verschwendet wenn man keine entsprechenden Produkte geplant hat, andererseits auch sehr unwahrscheinlich dass sich dieses in DIE-Shots verstecken könnte.


Was soll da fehlen? Du zeigst allein mit deinen Bezeichnungen und Ausführungen wenig Kenntnisse zu technischen Details, über die du her ziehst.
https://www.computerbase.de/2022-07/amd-patentantrag-gpu-chiplet-auslastung/#

Das sind Patente die überhaupt nichts darüber aussagen was davon in welchen Produkten verwendet wird, falls überhaupt.

Gast
2023-08-29, 16:22:50
Asic hat tatsächlich erst AMD eingeführt, ATI hat es nie so genannt. Nvidia nutzt es auch nicht, jedenfalls im Bereich GPU. Network und Co Interconnects schon. Was AMD angeht, die entwickeln sich immer mehr zum Lieferant für OEM Produkte. Sieht man doch an der 7900GRE und der 7800xt, das waren doch bestimmt Wunschbestellungen von irgendwelchen Systemintegratoren.gerade in dem Segment ist AMD doch gar nicht gefragt oder grpß ausgestellt. Noch vorne mit dabei zu sein, scheint denen egal zu sein, weil sie sowieso nichts haben was das auf Dauer bedienen könnte. So quetschen sie zumindest noch Kohle aus dem was sie haben.

Komsicherweise nennen sie GPUs auf ihrer Hompage auch GPUs und Asic so wie den Alveo MA35D eben Aisc. Da sie größtenteils OEM Produkte auf Wunsch mit einer bestimmten Zielrichtung fertigen wird Asic für die schon schon hinhauen, nur will ich keinen AMD Asic. Das sind alles Nischenprodukte wie deren GPUs mittlerweile. Nein Danke AMD. So wie man gerade Starfield bewirbt, wird das wahrscheinlich der nächste Rohrkrepierer. Also eine rx7800xt zum Preis einer 6800xt bei gleicher Leistung innerhalb von 2 Jahren zu entwickeln ist schon eine Meisterleistung, vor allem spült das Teil mehr Geld in AMDs Taschen, weil sie nicht mehr N21 verwenden müssen. Hurra, die Profitgier hat gewonnen. Den Rest ignorieren sie wie immer gekonnt oder gucken sich von Nvidia ab. AMD spielt schon seit Jahren keine Rolle mehr für mich. 2 defekte Zen CPUs eingeschlossen. Irgendwann ist mal gut mit Mitleid (1800x und 5800x den Rest hatte ich ausgelassen). Nun habe ich einen 13700k und Ruhe ist. Komischerweise sind in einigen Spielen auch die onbord Soundprobleme und FPS Stuttern unter hoher CPU Last verschwunden. Woran das wohl liegt?:freak:

Insgesamt ist mir der Treibersupport zu lahm, bis die mal was gelöst bekommen ist 1 Jahr vorbei.

Gast
2023-08-29, 18:12:51
Das ist kein Asic, da kann man noch so viel herum schwafeln:

What is a CPU?
The central processing unit (CPU) is the main chip in your computer, phone, tv, etc., that is responsible for distributing instructions throughout the components on the motherboard. The CPU is considered to be the “brain” of the computer and is the most versatile of the chips we are covering. However, this versatility does come at a cost, and because it is meant to be the “jack of all trades” it will consume more power and be slower at some functions over the more specialized chips.

What is a GPU?
The graphics processing unit (GPU), i.e. graphics card, while similar to the CPU in that it is a silicon chip on a board, has a very different purpose and function. The GPU is typically looked at to simply process graphics and output them to a screen. However, in recent years due to their parallel processing and high throughput capabilities they have been incorporated into many other functions. To break that down a little further, the GPU will divide complex problems into millions of separate tasks to solve them at the same time. Because of its architecture, it cannot replace the CPU, but it can work along side it. When cryptocurrency mining gained popularity, the GPU was used as a means of solving the complex mathematical algorithms used. More recently, GPUs are leading the charge in AI, computer vision, and super computing.

What is an FPGA?
The Field Programmable Gate Array (FPGA) is also a silicon based semiconductor, but it is based on a matrix of configurable logic blocks (CLB) that are connected by programmable interconnects. This means that the FPGA can be programmed and then reprogrammed to a desired application or function. The programming of the FPGA actually defines the hardware function of the device. When the function needs to change, the FPGA can be simply reprogrammed. Because the FPGA is programmed / customized to the exact specifications of an algorithm, it can be faster and consume less power than processors with higher clock speeds. However, any time the function needs to change it must be reprogrammed.

What is an ASIC?
The Application-Specific Integrated Circuit (ASIC) is a silicon chip designed for one specific logic function. Unlike many of the other chips we have discussed here, the ASIC can only perform the task it was built to perform. It cannot be changed. Because of this, ASICs are typically used in a product that will have large production numbers, and is not used for debugging a system. The ASIC enables a significant amount of circuitry to be incorporated onto a single chip. This keeps the cost lower, on bulk runs, over using other technology. The ASIC will also consume less power for the computing capability when compared to the aforementioned chips, and have a much smaller size. An ASIC will also be cheaper to assemble and more reliable (because there are fewer parts).

Frage beantwortet? Wie AMDs Management das nennen sei mal dahingestellt. Sonst gäbe es diese spezifischen Unterschiede nicht.

Vielleicht ist RDNA3 ja doch ein Asic, das würde zumindest erklären warum das Ding so lahm und buggy ist. Ich könnte mich ja nun auch hinstellen und sagen, da es Aufgaben für die CPU übernimmt, ist es eine CPU oder ein FPGA ist doch schei*egal, neuerdings...sorry wozu gibt es diese Unterscheidungen. Nur um die AMD Fanboj Welt neu zu erfinden?

Seit wann ist ein GCD = Graphics Chiplet Die ein Asic? Das Teil ist ein GPU Die nur die MCDs und damit die MCs + bestimmte Caches sind ausgelagert. Genauso hat es auch AMD vorgestellt. Eher würde das MCD Die inklusive IF Cache als Asic durchgehen und wenn er das gemeint hat, kommt da nicht mehr viel. Dann soll er sich konkretisieren was von solchen Leuten auch erwartet werden kann, denn so ist das nur dummes Geschwätz.

Hier könnt ihr nachlesen, dass das GCD kein Asic ist - sondern ein GPU Compute Die mit vielfachen Funktionen, frei programmierbar: https://www.amd.com/content/dam/amd/en/documents/radeon-tech-docs/instruction-set-architectures/rdna3-shader-instruction-set-architecture-feb-2023_0.pdf

Rabiata
2023-08-29, 19:15:26
Chiplets hilft keinem Anwender etwas und kann ihm getrost egal sein. Es hilft nur AMD um die Margen und Gewinne zu steigern.
Margen und Gewinne lassen sich ein Stück weit gegen Performance oder Effizienz tauschen. Das ist letztlich ein Dreieck Marge <=> Performance <=> Effizienz in dem sich der Hersteller positionieren kann.

Ein größerer Chip kostet normalerweise mehr in der Herstellung, aber das läßt sich vielleicht per Chiplet Design ausgleichen. Für eine frühe Ryzen Generation hat AMD mal vorgerechnet, daß Chiplet Design wesentlich billiger kommt als ein Monilith.
Größerer Chip zum selben Preis => mehr Performance, speziell bei GPUs (bei CPUs ist es komplizierter).
Zu schlechte Effizienz? Verbrauchslimit runtersetzen, das opfert Performance für Effizienz. Kann sehr effektiv sein, der Eco-Mode bei Zen 4 zeigt es. Ca. 30% weniger Verbrauch für 10% weniger Performance.

Größerer Chip zum selben Preis mit Verbrauchsdrosselung? Sollte immer noch schneller sein als der Monolith, sonst rechnet sich der Chiplet-Ansatz nicht.

gastello
2023-08-29, 23:13:42
Das ist kein Asic.
Doch ist es. Moderne ASIC werden auch als SiP (System-in-Package) bezeichnet und dazu zählen auch MCM (Multi-Chip-Module). Im Sinne einer Familie von ASIC/SoC/SiP und deren Skalierbarkeit der Leistung über einzelne Module hatte er es gemeint. In dem Fall gilt es als allgemeiner Oberbegriff einer Prozessfamilie.

Leonidas
2023-08-30, 03:25:16
Im Endeffekt war es sowieso nur eine Wortwahl, die er schlicht benutzt hat. Wir wissen, was gemeint war (echte Grafikchips) und die Wortklauberei, was ASIC eigentlich ist, spielt für die eigentliche Geschichte keine Rolle. Wichtig war, das er damit sagte: Es gibt keine neuen Silizium-Stücken - aber natürlich sind trotzdem Varianten auf Basis der vorhandenen Silizium-Stücke möglich.

Complicated
2023-08-30, 05:36:51
MCM bestehen aus mehreren ASICs. Ein SiP ist auch kein ASIC sondern ein Package aus ASIC, Speicher und sonstigen Komponenten. "Moderne" ASICs hast du gerade erfunden.

Und wie Leonidas schreibt ist es für die Aussage nicht wichtig im Kontext. Was gemeint war ist eindeutig.

Gast
2023-08-30, 07:27:14
Margen und Gewinne lassen sich ein Stück weit gegen Performance oder Effizienz tauschen. Das ist letztlich ein Dreieck Marge <=> Performance <=> Effizienz in dem sich der Hersteller positionieren kann.



Chiplet verringert aber beides, Performance und Effizienz, dies müsste durch andere Maßnahmen wieder ausgeglichen werden.


Generation hat AMD mal vorgerechnet, daß Chiplet Design wesentlich billiger kommt als ein Monilith.


Das war eine Marketing-Folie um das Chiplet-Design möglichst vorteilhaft dastehen zu lassen.

Die Rechnung geht nämlich nur auf, wenn man ausschließlich voll funktionsfähige Produkte vergleicht.
Real hat man aber ein Produktportfolio mit vielen verschiedenen Leistungsklassen, und ob man nun 1/4 vom Gesamtprodukt von vorne herein aussortiert und in den Müll wirft, oder dem Kunden ein Produkt verkauft auf dem 1/4 deaktiviert ist macht jetzt am Ende keinen großen Unterschied. Der einzig reale Vorteil der den Chiplets noch bleibt ist weniger Verschnitt am Wafer und damit eine bessere Flächenausnützung. Ob das den Verlust an Performance und Effizienz wert ist muss jeder Hersteller für sich entscheiden.

Leonidas
2023-08-30, 08:14:25
Muß dem Gast diesbezüglich zustimmen. Ob Chiplets wirklich günstiger sind, ist eine reine Hersteller-Aussage - von einem Hersteller, der Chiplets herstellt. Das kann locker Marketing-verbrämt sein. Hier sind nach wie vor alle Möglichkeiten noch offen.

Gast
2023-08-30, 09:43:47
Muß dem Gast diesbezüglich zustimmen. Ob Chiplets wirklich günstiger sind, ist eine reine Hersteller-Aussage - von einem Hersteller, der Chiplets herstellt. Das kann locker Marketing-verbrämt sein. Hier sind nach wie vor alle Möglichkeiten noch offen.
Dem kann ich so nicht zustimmen. AMD stellt keine Chiplets her, AMD lässt die herstellen. Das ist ein Riesen Unterschied! Natürlich könnte es auch sein, dass AMD hier die Chiplet Technologie besser dastehen lassen will, um eine Management-Entscheidung schönzureden. Das wäre dann aber eine kostspielige Sache, die später - sollte es publik werden - auch rechtliche Folgen haben könnte. Denn das Management ist den Anlegern verpflichtet. Ein schönen der Entscheidung zu Chiplets würde daher den Gewinn der Anleger schmälern und entsprechende Klagen wären die Folge. Halte ich daher eher für unwahrscheinlich.
Und auch die Aussage mit den Cut-Down Chips ist so nicht richtig. AMD nutzt auch cut-down Chiplets, ist also kein Vorteil von Monolithen.
AMD tauscht große Chipfläche gegen Packaging Mehraufwand. Was davon besser ist, kann man als Außenstehender schlecht sagen, dafür fehlen uns die Einblicke.
Was man aber mit Sicherheit sagen kann: Die Fertigungskosten für den Top Node steigen seit Jahren massiv. Daher ist es nicht unwahrscheinlich, dass eine geringere Chipfläche im Top Node und dafür aufwändigeres Packaging kosteneffizienter ist als einfacheres Packaging und weniger Interfaces auf Monolithen-Seite.

Complicated
2023-08-30, 10:51:40
Muß dem Gast diesbezüglich zustimmen. Ob Chiplets wirklich günstiger sind, ist eine reine Hersteller-Aussage - von einem Hersteller, der Chiplets herstellt. Das kann locker Marketing-verbrämt sein. Hier sind nach wie vor alle Möglichkeiten noch offen.
Es geht aber nicht darum ob Chiplets heute günstiger sind, sondern wie man monolithische Chips noch herstellen kann wenn die Kosten der Nodes und die Größe der Dies wachsen. Es wird einen vorhersehbaren Breakeven-Punkt geben. Den hat sich AMD sicherlich früher gewünscht. Doch er wird kommen und das ist allen bewusst.

Nvidia kann als Marktführer sich leisten jetzt die gereifte Technologie bis zum Ende auf kostengünstig zu trimmen - AMD muss sich eben etwas ausdenken und die Strategie ist ja nicht GPU-basierend, sondern nimmt seinen Ursprung bei CPU. Dort hatte AMD von den Fertigungsproblemen mit den monolithischen Designs bei Intel profitiert.

Nvidia versteht es besser als Intel AMD im Schach zu halten und man kann sehen, dass sie eigentlich auch bereit sind für Chiplets. Nur AMD muss diesen Weg jetzt einfach beschleunigt beschreiten, da die Strategie nach wie vor die einzige ist wenn man 5 Jahre in die Zukunft schaut.

Dass AMD CPUs und GPUs als Chiplets herstellen und kombinieren kann ist AMDs großer Vorteil -der nun mal erst Auswirkungen haben kann wenn beides dann skalierbar ist und problemlos kombinierbar. Diese Strategie zum jetzigen Zeitpunkt aufzugeben, wäre wohl nicht besonders klug.

Leonidas
2023-08-30, 11:03:49
Es geht aber nicht darum ob Chiplets heute günstiger sind, sondern wie man monolithische Chips noch herstellen kann wenn die Kosten der Nodes und die Größe der Dies wachsen. Es wird einen vorhersehbaren Breakeven-Punkt geben. Den hat sich AMD sicherlich früher gewünscht. Doch er wird kommen und das ist allen bewusst.

Stimme ich genauso zu. Beide Aussagen schließen sich ja auch nicht aus. Nur weil wir nicht wissen, wie aktuell die Kalkulation ausgeht, bedeutet dies nicht, dass es in Zukunft nicht faktisch Bedingung wird.

Gast
2023-08-30, 11:59:13
MCM bestehen aus mehreren ASICs. Ein SiP ist auch kein ASIC sondern ein Package aus ASIC, Speicher und sonstigen Komponenten. "Moderne" ASICs hast du gerade erfunden.

Und wie Leonidas schreibt ist es für die Aussage nicht wichtig im Kontext. Was gemeint war ist eindeutig.
Hat der gast-gastello doch so geschrieben oder auf welche Post beziehst Du dich jetzt? Schon blöd wenn man sowas ohne Kommentar schreibt und man sich dann aussuchen kann wer gemeint war. Deutsche Sprache schwere Sprache? Du behauprest ja einfach nur es wären Asic, sind sie aber nicht. Wurde ja nun 100 mal wiederlegt. Aber es gibt immer die gleichen Unbelehrbaren die sich als Experten outen, aber gar keine sind.

Was ist denn nun an "modern" wieder falsch oder erfinderisch?
Asic ist ein Asic und GPU Chiplet ist ein GPU Chiplet, da gibt es deutliche Unterschiede. SiP, System i a Package aus Chiplets scheint mir dabei gar nicht schlecht gewählt, nur passt das halt nicht zu deiner Asic Aussage.

Manchmal kommt es mir hier so vor, als wolltet ihr nur Recht haben wo ihr gar keins habt und vertretet diese falsche Meinung als fundierte Aussage, anstatt mal zurück zu rudern und den Quatsch den Manager behaupten genauso so zu kommentieren. Der hat doch eh keine Ahnung wovon er faselt.

Das sich 3dcenter dabei schon mindestens 100 mal vertan hat ist auch nicht neu. Hier wurden schon Dinger rausgehauen, naja. Und dabei wurde auch vehement gegen Aussagen und deren Informanten vorgegangen, die sich dann doch bewahrheiteten.

Bei euch ist es dann eben einfach nur ein Asic, laienhafter kann man es nicht darstellen. Faselt immer nach, was AMD euch vorplappert. Das kommt besonders interlektuell rüber.

Wie hier schon geschrieben, ist es ein GPU Chiplet als Compute Die und warum kann man dann statt Chiplet wie man es vorgestellt hat, nicht auch Chiplet sagen anstatt Asic?

Bullshit hoch drei...und diesen Mist dann auch noch so zu kommentieren anstatt es richtig zu stellen. Kommt dann bitte nicht mit der dreisten Erkenntnis jeder wusste was gemeint war. Das ist nämlich nur eine dämliche Schutzbehauptung, sich nicht korrigieren zu müssen.

Überhaupt. Niemand hat verstanden was AMD gemeint hat und das war eigentlich für eine Vielzahl von Informationen auf der Gamescon gleichbedeutend. Die haben nur geplappert ohne wirklich nachhaltige Aussagen. Das üben die Manager um sich nicht auf ihren Aussagen festnageln zu lassen.

Von Rdna 3 kommt nichts mehr, wer das glaubt ist ziemlich naiv. 14 Prozent Anteil im 2.Q 23, davon wurden zum Grossteil RDNA2 Beschleuniger aus der letzten Gen abgesetzt. RDNA3 ist gemessen an den Verkaufszahlen ein absoluter Flopp, schlimmer noch als Vega. Liegt halt daran das die vermeintlichen Käufer sich nicht wiederholt veräppeln lassen. Wozu also das Portfolie nochmals um sinnlose Konstellationen erweitern. Mir fällt echt nichts dazu ein, ausser nur wie immer beruhigendes Gefasel von irgendwelchen AMD Managern die nur versuchen das Image vom AMD Messias aufrecht zu erhalten und was man alles kann, aber gar nicht kann.

Gast
2023-08-30, 12:06:45
Natürlich könnte es auch sein, dass AMD hier die Chiplet Technologie besser dastehen lassen will, um eine Management-Entscheidung schönzureden. Das wäre dann aber eine kostspielige Sache, die später - sollte es publik werden - auch rechtliche Folgen haben könnte. Denn das Management ist den Anlegern verpflichtet. Ein schönen der Entscheidung zu Chiplets würde daher den Gewinn der Anleger schmälern und entsprechende Klagen wären die Folge. Halte ich daher eher für unwahrscheinlich.
Und da kommen wir der Sache immer näher. Wird das nämlich ein Flop, kann sich AMD auf ein Gewitter einstellen, das schon längst aufgezogen ist.

Wer das zu verantworten hätte würde wohl. Mit einem Tritt in den Allerwertesten entsorgt werden. Da faselt man lieber irgendetwas unverständliches ohne technischen Bezug. Paar Nebelkerzen werfen im Vorfeld.

Gast
2023-08-30, 12:35:24
Und auch die Aussage mit den Cut-Down Chips ist so nicht richtig. AMD nutzt auch cut-down Chiplets, ist also kein Vorteil von Monolithen.


Aber es egalisiert weitestgehend den YIELD-Vorteil der und vom Marketing immer so schön vorgerechnet wird.

Gast
2023-08-30, 12:41:47
Es geht aber nicht darum ob Chiplets heute günstiger sind, sondern wie man monolithische Chips noch herstellen kann wenn die Kosten der Nodes und die Größe der Dies wachsen.

Das ist aber ein komplett anderer Ansatz. Auch andere Hersteller außer AMD verwenden Multi-Chip-Verfahren, allerdings um am oberen Ende der Skala noch mal Produkte zu kreieren die Single-Die einfach nicht mehr herstellbar waren.

Was AMD allerdings versucht, und vor allem bei den CPUs auch praktiziert, sind auch Produkte die problemlos als Single-DIE realisierbar wären mit möglichst kleinen Chiplets herzustellen.

Bei den CPUs funktioniert das ja auch recht gut, bei den GPUs offenbar nicht so wirklich.

Gast
2023-08-30, 13:51:45
Aber es egalisiert weitestgehend den YIELD-Vorteil der und vom Marketing immer so schön vorgerechnet wird.
Nur, wenn man die Chipgröße komplett ignoriert. Man bekommt dadurch trotzdem viel mehr Chips aus einem teuren Wafer. TSMC verlangt ja je 5nm Wafer angeblich grob 17k$. Für 7nm sind es 9k$, für 10nm 6k$. Da sieht man schön, wie stark die Wafer Preise gestiegen sind. Und wenn ich nun aus einem Wafer 30% mehr Chips heraus hole, weil ich dank Chiplets den GCD entsprechend kleiner bekomme und mit deutlich billiger zu fertigenden MCDs ergänze, dann ist das auch ein wichtiger Faktor. Dazu dann noch der bessere Yield. Damit hat man mehr gute Chips, die man teuer verkaufen kann, als beim Monolithen. Vielleicht ist das ja auch der Grund, warum die 7700XT preislich so nahe an der 7800XT liegt. Es gibt einfach nicht so viele defekte Chips.
Das Thema Yield hat man immer, größere Chips sind halt anfälliger. Vermutlich auch ein Grund, warum NVidia bei der 4090 so viel deaktiviert. Wenn die Fertigung mal ausgereifter ist, kann man die TI mir mehr Shadern problemlos nachschieben.
Bei den Chiplets muss man halt in die Rechnung noch die Packaging Kosten und dort entstehende Fehler mit in die Gleichung nehmen.
Letzten Endes ist das Ergebnis aber immer grob folgendes:
- Kleine Chips: Monolithisch, da das Packaging zu teuer ist und die Vorteile der höheren Chipzahl sowie der niedrigeren Fehlerrate das nicht ausgleichen (da bei kleinen Chips nicht so relevant).
- Große Chips: In Chiplets, weil der Verschnitt am Wafer und Yield gegen Monolithen sprechen, die Zusatzkosten durch das Packaging sind bei den Preisen der Klasse deutlich weniger Relevant. Das machen AMD, Intel und NVidia auch alle, da sind sich also alle einig (HPC-Chips).
- Mittlere Chips: Da ist beides denkbar. Wo der Break Even ist, können wir hier nicht beurteilen, da fehlen uns die Daten. Ist ein fließender Übergang und es kann auch durchaus sein, dass man politische Entscheidungen trifft und dafür ein etwas schlechteres/teureres Produkt in Kauf nimmt.

Man sollte jetzt auch nicht den Fehler machen, Probleme der Architektur mit Problemen durch das Chiplet Design gleichzusetzen. RDNA3 hat einige Baustellen. Das muss aber bei Navi31/32 nicht an den Chiplets liegen. Der im Vergleich zu RDNA2 halbierte IC kann da schon einiges ausmachen.

Exxtreme
2023-08-30, 14:11:58
Ja, aber es gibt Dinge, die skalieren nicht mehr sehr gut mit der Strukturverkleinerung. Cache ist z.B. sowas, was kaum skaliert. Hat man einen Monolithen dann muss man auch den Cache mit kleineren Strukturen produzieren, man gewinnt kaum Platzersparnis und zahlt trotzdem einen viel höheren Preis weil der Prozess teurer ist.

Hat man Chiplets dann kann man den Cache in einem älteren und viel billigeren Prozess herstellen und die Teile der GPU, die von den kleineren Strukturen stark profitieren in dem aktuellen Prozess produzieren. Man kann also Prozesse und Strukturbreiten und auch Taktdomänen viel einfacher mischen.

Der Nachteil ist, man fängt sich u.U. höhere Latenzen und niedrigere Bandbreiten ein.

Complicated
2023-08-30, 14:26:48
Deutsche Sprache schwere Sprache?
Da Deutsch nicht meine Muttersprache ist, sind solche Sprüche immer problematisch!

Ich denke aber eher du hast grundsätzlich Verständnisprobleme und definierst dir die Begriffe sehr großzügig. Es spielt aber keine Rolle für den weiteren Verlauf der Diskussion hier.

Complicated
2023-08-30, 14:42:34
Stimme ich genauso zu. Beide Aussagen schließen sich ja auch nicht aus. Nur weil wir nicht wissen, wie aktuell die Kalkulation ausgeht, bedeutet dies nicht, dass es in Zukunft nicht faktisch Bedingung wird.Die schließen sich nicht aus, doch das immer wiederkehrende "Monolithisch wären sie günstiger" von manchen potentiellen Käufern suggeriert hier immer wieder AMD sei unternehmerisch auf der falschen Spur.

Grober Vergleich der Kosten-Aufteilung zwischen Packaging/Dies/Speicher und der Gesamtkosten für das fertige Package: https://www.semianalysis.com/p/ada-lovelace-gpus-shows-how-desperate
https://substackcdn.com/image/fetch/w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2Fbf202911-e5ce-4590-9261-f7dd1b136e72_1113x537.png

Da AMD auf der Packaging-Seite mehr Kosten hat, ist auch die Qualifizierung des Samsung-Packaging mit HBM3 sehr wichtig, da TSMC durch die Nachfrage von Nvidia die Preise anzieht:
https://www.kedglobal.com/korean-chipmakers/newsView/ked202308220027

Samsung’s HBM3, a fourth-generation HBM chip model, and packaging services have recently passed a quality test by AMD, which plans to use the chips and services for its Instinct MI300X accelerators.
[...]
Samsung is the only company that can provide advanced packaging solutions together with HBM products, according to industry sources.

AMD previously considered using packaging services of Taiwan Semiconductor Manufacturing Company (TSMC), but has altered its plan as the Taiwanese foundry giant’s supply of advanced packaging couldn’t meet the US firm’s demand.

Auch Nvidia qualifiziert Samsung gerade.

Gast
2023-08-31, 07:26:42
Nur, wenn man die Chipgröße komplett ignoriert. Man bekommt dadurch trotzdem viel mehr Chips aus einem teuren Wafer.


Wenn man dafür dann 4 Chips braucht um das Äquivalent eines großen zu erreichen bringt das aber auch nix.

Gast
2023-08-31, 07:44:37
Grober Vergleich der Kosten-Aufteilung zwischen Packaging/Dies/Speicher und der Gesamtkosten für das fertige Package: https://www.semianalysis.com/p/ada-lovelace-gpus-shows-how-desperate
https://substackcdn.com/image/fetch/w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2Fbf202911-e5ce-4590-9261-f7dd1b136e72_1113x537.png


Und jetzt noch mal umgerechnet pro Transistor:


Rel BOM 10^9T BOM / Transistor
AD102 2,2 76,3 0,028833552
N31 1,8 57,7 0,031195841
AD103 1,4 45,9 0,030501089



Also viel an Ersparnis hat AMD definitiv nicht.

Complicated
2023-08-31, 10:47:31
Du solltest die Werte nehmen die auch in der Tabelle für den Chip stehen in der ersten Spalte - nur dann hast du die Transistorkosten.
AD102: 2,3
N31: 1,7
AD103: 1,4
N32: schön weg gelassen

Zumal das irrelevant für die unternehmerische Entscheidung ist - die Gesamtkosten zählen. Daher eine sinnlose Vergleichszahl in unserem Kontext.

Gast
2023-08-31, 11:43:05
Du solltest die Werte nehmen die auch in der Tabelle für den Chip stehen in der ersten Spalte - nur dann hast du die Transistorkosten.


Nein, es müssen ja genauso die Nachteile von Chiplets mit betrachtet werden.

Es nützt wenig wenn der einzelnen DIE billiger ist, aber das gesamte Produkt nicht.


Zumal das irrelevant für die unternehmerische Entscheidung ist - die Gesamtkosten zählen.

Genau deshalb muss man auch die Gesamtkosten zählen und nicht nur jene vom DIE.

Gast
2023-08-31, 12:37:54
Nur, wenn man die Chipgröße komplett ignoriert. Man bekommt dadurch trotzdem viel mehr Chips aus einem teuren Wafer. TSMC verlangt ja je 5nm Wafer angeblich grob 17k$. Für 7nm sind es 9k$, für 10nm 6k$. Da sieht man schön, wie stark die Wafer Preise gestiegen sind. Und wenn ich nun aus einem Wafer 30% mehr Chips heraus hole, weil ich dank Chiplets den GCD entsprechend kleiner bekomme und mit deutlich billiger zu fertigenden MCDs ergänze, dann ist das auch ein wichtiger Faktor. Dazu dann noch der bessere Yield.
Die 5nm Yield ist 80% höher als unter 7nm. Daher geht es nicht auf was du preislich darstellst. Das AMD in 6nm fertigt liegt einfach daran das sie wohl nicht aussreichend Wafer Kapazitäten in 5nm zu buchen oder diese preislich ausserhalb ihrer Reichweite liegen. Es macht das Design pro Stck gemessen an der Yield und Waferpreisen also teurer, und hat auch noch technische Nachteile. Taktdomäne bei VID x y z usw.. Genau das ist doch was RDNA3 bremst.

Du kannst den Fertigungsvorteil unterschiedlich nutzen. Bei einem Monolyth hast du dieses Problem nicht und bei einem MCM lohnt es irgendwie nicht, weil da noch andere Kosten dazukommen. In gleicher "Größe" gefertigt ist MCM also auch teurer.

AMD hat es in diesem Fall komplett verwachst und es liegt an der Mischung unterschiedlicher Fertigungsgrößen der Chiplets, es geht halt nicht nur um ein I/O Die. Bei AMD kracht vermutlich die Serienstreuung auch noch extrem rein. Da 6nm nichts anderes ist als 7nm, liegt der Hund genau da begraben. Dabei wird die Fläche auch noch viel größer als es eigentlich sein muss. Beispiel planare Oberfläche oder Auflage.

MCM lohnt sich also nur wenn Chiplets in unterscheidlicher Fertigungsgröße verwendnet werden, was aber klare Nachteile hat und anderen Aufwand nach sich zieht. Das verschweigt AMD gekonnt. Auf der anderen Seite steigert es die verfügbaren Mengen, um nichts anderes geht es dabei, weil nicht alle Hersteller auf einen Prozess zugreifen.

Wenn man sieht das Nvidia klar höhere Margen fährt und AMD identische Preise bei deutlich geringerer Marge verlangt, liegt das eigentlich auf der Hand. MCM ist in dieser Form einfach Müll und auch noch teurer zu fertigen bei einem Taktratennachteil zusammengewürfelter Fertigungsgrößen, nur waren wohl nicht für alle ausreichend Prozesskapazitäten verfügbar. Bei der Abnahmemenge die AMD im Bereich dGPU anstrebt, lohnt es sich für TSMC eher nicht da groß was aufzulegen oder den 5nm Knoten dafür zu erweitern. Die Investitionen muss ja auch jemand tätigen, wobei das lukrativ bleiben muss.

Lehdro
2023-08-31, 15:01:46
Die 5nm Yield ist 80% höher als unter 7nm.
Quelle? So beschissen waren sicherlich nicht einmal Intels 10nm yields.

Daher geht es nicht auf was du preislich darstellst. Das AMD in 6nm fertigt liegt einfach daran das sie wohl nicht aussreichend Wafer Kapazitäten in 5nm zu buchen oder diese preislich ausserhalb ihrer Reichweite liegen. Es macht das Design pro Stck gemessen an der Yield und Waferpreisen also teurer, und hat auch noch technische Nachteile. Taktdomäne bei VID x y z usw.. Genau das ist doch was RDNA3 bremst.


AMD hat es in diesem Fall komplett verwachst und es liegt an der Mischung unterschiedlicher Fertigungsgrößen der Chiplets, es geht halt nicht nur um ein I/O Die.
Siehe N33, es liegt nicht an den Chiplets, es ist ein architektonischer Fail der Microarchitektur oder halt der vielbeschworene Bug, der RDNA3 einbremst. Völlig egal ob monolithisch oder MCM - beide haben annähernd dieselben Charakteristika. Somit kannst du MCM als Ursache ausschließen. Einzig beim Verbrauch und den Fertigungskosten kann MCM dann noch negativ reinfunken.

Bei AMD kracht vermutlich die Serienstreuung auch noch extrem rein. Da 6nm nichts anderes ist als 7nm, liegt der Hund genau da begraben. Dabei wird die Fläche auch noch viel größer als es eigentlich sein muss. Beispiel planare Oberfläche oder Auflage.
Was willst du immer mit 6nm und 7nm? RDNA3 in MCM ist 5nm + 6nm und RDNA 3 in monolithisch ist nur 6nm. Was hat das mit Serienstreuung zu tun?

MCM lohnt sich also nur wenn Chiplets in unterscheidlicher Fertigungsgröße verwendnet werden, was aber klare Nachteile hat und anderen Aufwand nach sich zieht. Das verschweigt AMD gekonnt.
Nee, genau das hat AMD in den Vordergrund gestellt, das es eben Gründe gibt zwei unterschiedliche Verfahren zu nutzen. RDNA3 Performance krankt nicht am MCM, der Preis vielleicht schon eher, wissen wir aber nicht genau. AMD hat das MCM Design als vorteilhaft bei der Fertigung dargestellt, also MUSS AMD von einem Kostenvorteil ausgegangen sein. Kann sein dass dieser (Preis-)Vorteil durch die erzielte Performance gegenüber der projizierten Ziele nicht eintreten konnte, weil die Produkte nicht kompetitiv genug sind.

Auf der anderen Seite steigert es die verfügbaren Mengen, um nichts anderes geht es dabei, weil nicht alle Hersteller auf einen Prozess zugreifen.
Und 6nm ist viel billiger als 5nm. Aber auch das hat AMD impliziert.

Wenn man sieht das Nvidia klar höhere Margen fährt und AMD identische Preise bei deutlich geringerer Marge verlangt, liegt das eigentlich auf der Hand.
NV hat quasi schon immer viel höhere Margen bei den dGPUs gehabt. Kann man sich halt leisten wenn man NV ist. AMD muss zwangsläufig über den Preis kommen, da man bei Features und Performance hinten ist. Klar lässt sich der Marktführer das bezahlen. Daraus Fertigungskosten abzuleiten kannst du maximal dann, wenn es einen regelrechten Preiskrieg gibt (siehe RV670/RV770 vs G92b/GT200(b))

MCM ist in dieser Form einfach Müll und auch noch teurer zu fertigen bei einem Taktratennachteil zusammengewürfelter Fertigungsgrößen, nur waren wohl nicht für alle ausreichend Prozesskapazitäten verfügbar.
Nochmal, RDNA3 hat Performanceprobleme, die NICHT am MCM Design liegen. Siehe N33, der hat dieselben "Probleme" und ist monolithisch gefertigt.

Bei der Abnahmemenge die AMD im Bereich dGPU anstrebt, lohnt es sich für TSMC eher nicht da groß was aufzulegen oder den 5nm Knoten dafür zu erweitern. Die Investitionen muss ja auch jemand tätigen, wobei das lukrativ bleiben muss.
Das ist halt pure Spekulation deinerseits. TSMC hat laut Berichten erst gegen Mitte 2023 annähernde Vollauslastung in 5nm erreicht. (https://www.digitimes.com/news/a20230525PD216/5nm-nvidia-tsmc.html) Vorher waren da Kapazitäten frei, die erst im Laufe des KI-Wahns aufgebraucht wurden. RDNA3 wurde Jahre vorher konzipiert und die Kapazitäten dementsprechend auch früher gebucht. Da ist nix von wegen einfach mal so umschwenken. AMD hat das von Anfang an so geplant, aus gewollten Kostengründen und nicht weil TSMC nix mehr frei hatte.

Gast
2023-08-31, 15:19:16
AMD sagt ja selbst das MCM klar Leistung kostet, gegenüber Monolithen. Daher verstehe ich nicht warum sie das unbedingt durchziehen müssen. In 5nm monolith wäre RDNA3 wohl konkurrenzfähiger. AMD nimmt wohl an, das aufgrund der dann gestiegenen Kosten dafür, es ihnen niemand abkauft oder aber sie bekämen geringere Margen.

MCM dient bei AMD also nur der Gewinnmaximierung auf Kosten der abrufbaren Leistung der eigenen IP. Das ist nicht nutzerfreundlich, weil die Preise dafür extrem angestiegen sind. Der Vorteil der geringeren Kosten bei der Fertigung von MCM wird dabei kaum an die Kunden weitergegeben. Sie sind noch schlimmer als Nvidia. Wenn Gier den Verstand vernebelt...seit Zen fahren sie diese Scheine und pressen die Interessenten immer weiter aus oder wirklichen Mehrwert zu liefern.

So kauft das wieder kein Schwein und man muss im Nachgang die Preise extrem anpassen um es los zu werden oder fährt dann letztlich Verluste ein. Das Marketing und die BWLer dieser Firma sind einfach Deppen und bilden sich ein genauso gut wie der Marktführer zu sein. Da liegt der Hund begraben.

Exxtreme
2023-08-31, 15:49:39
AMD sagt ja selbst das MCM klar Leistung kostet, gegenüber Monolithen. Daher verstehe ich nicht warum sie das unbedingt durchziehen müssen. In 5nm monolith wäre RDNA3 wohl konkurrenzfähiger. AMD nimmt wohl an, das aufgrund der dann gestiegenen Kosten dafür, es ihnen niemand abkauft oder aber sie bekämen geringere Margen.


Die Frage ist, wieviel leistungsfähiger sie wären. Es ist so, N33 ist jetzt auch kein Effizienzwunder obwohl das ein Monolith ist. Es sieht für mich so aus, dass es andere und bessere Stellschrauben gibt wenn man mehr Effizienz will. RDNA3 ist halt nicht wirklich auf Strom-Effizienz getrimmt. Und das zieht sich durch das gesamte Portfolio so durch.

Lehdro
2023-08-31, 15:55:03
Die Frage ist, wieviel leistungsfähiger sie wären. Es ist so, N33 ist jetzt auch kein Effizienzwunder obwohl das ein Monolith ist. Es sieht für mich so aus, dass es andere und bessere Stellschrauben gibt wenn man mehr Effizienz will. RDNA3 ist halt nicht wirklich auf Strom-Effizienz getrimmt. Und das zieht sich durch das gesamte Portfolio so durch.
Und ich bezweifle dass das so gewollt ist. Klar ist ein MCM Design nie auf maximale Effizienz getrimmt, rein designtechnisch geht das halt auch nicht, aber RDNA3 ist sicherlich auch in den Augen von AMDs Ingenieursteam ein Fail auf ganzer Linie. Performance stimmt nicht und Strom frisst er auch noch. Quasi der Doppelwhopper. Bei Fermi & Hawaii hat immerhin die Performance gestimmt.

Gast
2023-08-31, 16:25:01
@Lehdro
Will dich jetzt nicht direkt ansprechen, aber die Fanboys erfinden immer irgendwas, was AMD abhält besser zu sein.

N33 wird zu 100% durch den VRAM Ausbau und das SI limitiert. Damit ist er mit den üppig ausgestatteten Varianten nicht vergleichbar.

MCM ist so gewollt, weil es mehr Marge in AMDs Kassen spült und damit die Gewinne der Aktionäre maximiert, dann halt zu Lasten der Preissteigerung beim Anwender. Es gibt dort kein Leistungsproblem, weil etwas vermeintlich schief gelaufen ist. Man kann dann kurz vor Launch nochmal etwas mit dem PT spielen, was AMD wohl auch gemacht hat um irgendwie mit Nv mitzuhalten. Ist in der Branche die letzten Jahre so üblich, dann die Brechstange auszupacken.

MCM dient einfach der Gewinnmaximierung auf Kosten der Leistung der eigenen IP und des Nutzers. Mehr melken, für billiger produzierte Produkte zahlt sich sofort aus. Das hat sich schon bei Launch von Zen4 abgezeichnet was da passieren wird. Alles für die Aktionäre, komme was da wolle. Nur hat der Ukrainekrieg und die Umweltdiskussionen dazu geführt, das die Leute dafür immer weniger Geld übrig haben, weil sich der Lebensunterhalt usw. verteuert. Das dürfte AMD einen dicken Strich durch die Rechnung gemacht haben. Gekauft wird dann vor allem Highend aufwärts, das lange hält und das Meiste verspricht, das AMD leider nicht wirklich im Programm obwohl sie es selbst so nennen. Premium GPUs...

Wenn Intel derzeit nicht so schlecht wäre, hätte man längst schon gesehen das auch dort MCM kaum eine Chance gegen monolithische Designs hat.

RDNA3 als MCM ist so gewollt um die Gewinne zu maximieren, es gibt dort kein Fertigungsproblem oder etwas anderes, das diese Architektur künstlich ausbremst. Das ist genauso gewollt. Sowas wird immer wieder von Fanboys erfunden, um sich das schön zu reden. AMD ist schon lange kein Samariter mehr. Die wollen dein Geld für den geringsten Aufwand, genauso wie andere Firmen. Gleichzeitig bedeutet Gewinnmaximierung automatisch, dass die Manager bei AMD über den Firmananteil in Aktien immer reicher werden.

Es gibt dort also keinen FEHLER im Design...

Complicated
2023-08-31, 17:26:18
Nein, es müssen ja genauso die Nachteile von Chiplets mit betrachtet werden.

Es nützt wenig wenn der einzelnen DIE billiger ist, aber das gesamte Produkt nicht.

Genau deshalb muss man auch die Gesamtkosten zählen und nicht nur jene vom DIE.
Die Nachteile bei den Kosten für Chiplets liegen beim Packacking - du kannst das gerne auch in Fussballfelder umrechnen. Danach entscheidet nur niemand welchen Node und welche Transistordichte man für das Chiplet wählen muss um die Designziele zu erreichen. Korrekte Kennzahlen sind nicht dein Ding, das sieht man deutlich. Die Speicherkosten rechnen wir auch mit rein pro Transistor. So etwas würde sich ja nicht mal Computerbild trauen öffentlich zu machen, als "Gast" geht das natürlich ;D

Lehdro
2023-09-01, 14:10:15
@Lehdro
Will dich jetzt nicht direkt ansprechen, aber die Fanboys erfinden immer irgendwas, was AMD abhält besser zu sein.
Stimmt, Firmen machen nie Fehler. Aber gleichzeitig sind sie absolut dumm. Sorry, dieser geistige Spagat ist mir zu heftig.

N33 wird zu 100% durch den VRAM Ausbau und das SI limitiert. Damit ist er mit den üppig ausgestatteten Varianten nicht vergleichbar.
Absoluter Quatsch was du erzählst. Schau dir einfach mal N33 vs N23 an. Sind absolut vergleichbar, selbe Anzahl CUs, selber IF$, selbe I/O, selber Speicherausbau. (https://www.computerbase.de/2023-05/amd-radeon-rx-7600-test/4/#abschnitt_rdna_3_vs_rdna_2_auf_der_rx_7600_und_rx_6650_xt)

RDNA3 ist architektonisch kaputt, das kann niemals so gewollt sein, schon alleine das die Architektur schlechter skaliert als RDNA2 ist ein starkes Indiz dafür. Da hätte man auch N23 einfach in N6 neu auflegen können (so wie damals Zen 1 auf Zen+), das wäre DEUTLICH billiger für AMD gewesen und die +5-10% Leistung hättest du damit ebenso gehabt. Nur für einen neuen Encoder braucht man da keinen solchen Aufwand betreiben, weil darauf läuft es im Endeffekt hinaus.

MCM ist so gewollt, weil es mehr Marge in AMDs Kassen spült und damit die Gewinne der Aktionäre maximiert, dann halt zu Lasten der Preissteigerung beim Anwender.
Duh. Hat nie jemand in Abrede gestellt. Nicht einmal AMD hat verneint das es letztendlich um Kosten geht.

Es gibt dort kein Leistungsproblem, weil etwas vermeintlich schief gelaufen ist.
Ach, ist das so? Na dann, aber nur weil du es sagst.

Man kann dann kurz vor Launch nochmal etwas mit dem PT spielen, was AMD wohl auch gemacht hat um irgendwie mit Nv mitzuhalten. Ist in der Branche die letzten Jahre so üblich, dann die Brechstange auszupacken.
Wenn du wirklich glaubst, dass das alles ist, dann gute Nacht. RDNA3 ist nicht einmal wirklich geprügelt, da würde noch viel mehr gehen. Es ist eher so das AMD nicht den kompletten Weg gegangen ist, weil es eben sowieso nicht reichen würde. RDNA3 in seiner jetzigen Form ist das Beste was man aus dem vorliegenden Materialien irgendwie zimmern konnte. Niemals war das so von Anfang an geplant.

MCM dient einfach der Gewinnmaximierung auf Kosten der Leistung der eigenen IP und des Nutzers. Mehr melken, für billiger produzierte Produkte zahlt sich sofort aus. Das hat sich schon bei Launch von Zen4 abgezeichnet was da passieren wird. Alles für die Aktionäre, komme was da wolle.
Komisch das Zen 4 durchaus deutlich Performance- und Effizienssteigerungen hatte. RDNA3 aber im Vergleich quasi nicht. RDNA3 ist "the odd one out".

Wenn Intel derzeit nicht so schlecht wäre, hätte man längst schon gesehen das auch dort MCM kaum eine Chance gegen monolithische Designs hat.
Ist halt eine der lächerlichsten Aussagen ever, wenn man sich ansieht was AMD gerade mit Intel in dem Bereich abzieht, wo MCM seine Stärken hat. Die Desktopcpus sind da nur noch der "Abfall", weil kann man easy aus denselben Chiplets herstellen. Und was wird Intel in Zukunft machen? Oh, auch MCM. Was hat NV dazu gesagt? Oh, die gehen auch irgendwann auf MCM.
Was aber auch egal ist, weil RDNA3 auch OHNE MCM einfach nur hochnotpeinlich nach und vor allem gegen RDNA2 ist.

RDNA3 als MCM ist so gewollt um die Gewinne zu maximieren, es gibt dort kein Fertigungsproblem oder etwas anderes, das diese Architektur künstlich ausbremst.
Niemand außer dir sprach von einem Fertigungsproblem. RDNA3 ist als Microarchitektur einfach ein Flop, aus welchen Gründen auch immer. Ich sprach von der Theorie des Bugs, habe das aber nicht als einzigen Grund genannt. Genaueres weiß nur AMD.

Das ist genauso gewollt. Sowas wird immer wieder von Fanboys erfunden, um sich das schön zu reden. [...]

Es gibt dort also keinen FEHLER im Design...
Achso, AMD haut einfach mal Millionen in den Sand für vergleichsweise mickrigste Performancesteigerungen und reduziert dann kontinuierlich, aber schlussendlich massiv die Preise, damit sich der Kram überhaupt verkauft. Das muss echt der Megabrainmove sein. Anstatt einfach weiter RDNA2 zu verkaufen, was sicherlich billiger wäre, weil man damit nix neues braucht. Weder 5nm, noch MCM oder neue Masken...genial!