PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMDs "Navi 33" soll genauso im Chiplet-Design antreten


Leonidas
2021-06-09, 12:24:03
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-amds-navi-33-soll-genauso-im-chiplet-design-antreten

Gast
2021-06-09, 12:39:36
Dann würde AMD wirklich die allermeisten seiner wirklich performanten RDNA3-Chip im Chiplet-Ansatz konzipieren und sich somit vollkommen dieser Idee verschreiben – sprich, dass muß dann auch funktionieren und darf nicht nur sporadisch zu Mehrperformance führen.

Die Performance sollte nicht das große Problem sein. Viel wichtiger ist aber die Frage wie viel an Energieeffizienz man durch das Chiplet-Design aufgibt, denn diese müsste man dann anderwertig im Design aufholen und kann diese auch nicht zur Performancesteigerung verwenden.

Gast Ritis
2021-06-09, 15:55:52
man hat jetzt so lange schon mit Ryzen Core und IO Chiplets Erfahrungen gesammelt wie da der IF optimiert werden muss.
Es wäre die logische Konsequenz. Im Prinzip hat man die gleichen Vor und Nachteile wie bei den CPUs.
Grosse Caches verringern die Latenzen beim immer gleichen Speicherzugriff und die kleineren Dies können bissl mehr Takt bei weniger Volt. Wenn salvage Chiplets nur für die Mittelklasse Kombi genügen sollen passt das zu den Yield Erwartungen die TSMC schürt.
Am Ende ist die Frage wie AMD die Render Batches bzw Compute Threads mit ihrem HW Scheduler und ACEs auf mehrere Compute Chiplets verteilen. Aber man ist allemal nicht von einem Microsoft Scheduler abhängig wie bei den CPUs. Von daher hat man selbst die Zügel in der Hand.
Vermutlich rennt man in ein FPS Limit in niedrigen Auflösungen. Da muss man aufpassen dass man nicht wie Kyro damals von den Antitechnikern als zu langsam bei 640x480 dargestellt wird.

Leonidas
2021-06-09, 17:13:00
aufpassen dass man nicht wie Kyro damals von den Antitechnikern als zu langsam bei 640x480 dargestellt wird.

;)

Rabiata
2021-06-09, 17:53:56
Dann würde AMD wirklich die allermeisten seiner wirklich performanten RDNA3-Chip im Chiplet-Ansatz konzipieren und sich somit vollkommen dieser Idee verschreiben – sprich, dass muß dann auch funktionieren und darf nicht nur sporadisch zu Mehrperformance führen.Die Performance sollte nicht das große Problem sein. Viel wichtiger ist aber die Frage wie viel an Energieeffizienz man durch das Chiplet-Design aufgibt, denn diese müsste man dann anderwertig im Design aufholen und kann diese auch nicht zur Performancesteigerung verwenden.
Es gibt noch einen anderen Grund für den Chiplet-Ansatz:
Geringere Herstellungskosten. AMD hat an anderer Stelle mal erklärt, daß Zen 2 ohne Chiplet-Ansatz teurer zu fertigen wäre. Ein 6- oder 8- Kerner wäre als Monolith etwas teurer, die 12- und 16-Kerner viel teurer. Oder umgekehrt betrachtet sind die Chiplet-Designs wesentlich billiger zu fertigen.

Wenn dies bei RDNA3 genauso aussieht, könnte AMD relativ preiswert eine Monster-GPU bauen und diese im Sweet Spot für die Effizienz betreiben. Dafür spricht auch die Vermutung von 160 CUs im Topmodell, was eine glatte Verdopplung gegenüber Navi21 wäre. Als klassisch monolithischer Chip würde das wohl an die Grenzen der Herstellbarkeit kommen.

Ich spekuliere mal daß "Navi31" mit 300W-400W Verlustleistung daherkommen und eine RTX 3090 mächtig alt aussehen lassen wird.

Gast
2021-06-09, 18:43:06
Fürs Raytracing könnte AMD auch ein 8-Chip-Monster auflegen:
https://www.youtube.com/watch?v=Zw3vwCBOjQ0

Mit einer effizienten IP (Coherency Sorting usw.) könnte man damit 1 Trays/s erreichen.

Gast
2021-06-09, 19:16:28
Da muss man aufpassen dass man nicht wie Kyro damals von den Antitechnikern als zu langsam bei 640x480 dargestellt wird.

Du meinst die Antitechniker die behaupten eine 6800XT ist schneller als eine 3090 weil sie es in FullHD manchmal ist?

Gast
2021-06-09, 19:17:01
Es gibt noch einen anderen Grund für den Chiplet-Ansatz:
Geringere Herstellungskosten.

Genau das ist es, es ist günstiger, aber dafür auch ineffizienter.

Gast
2021-06-09, 21:47:47
Nur weil es einen Masterplan gibt, muss der weder gut sein, geschweige denn funktionieren.
Für entsprechende Beispiele muss man nicht mal die Branche wechseln.

Leonidas
2021-06-10, 01:00:13
Zweifelsfrei @ Gast. Aber bislang funktioniert es im konkreten Beispiel doch ganz gut - oder etwa nicht?

Gast Ritis
2021-06-10, 09:22:30
Du meinst die Antitechniker die behaupten eine 6800XT ist schneller als eine 3090 weil sie es in FullHD manchmal ist?

Genau so ist es. Wenn für neue Ansätze die Spitzenleistung in Anwendungsfällen aus der Vergangenheit geopfert wird muss man darauf nicht herum reiten, sondern die Vorteile für die Zukunft erklären.
Man war damals schon bei XGA oder mindestens SVGA auf allen Röhrenmonitoren.

Auch heute ist eine Top-FullHD Performance bei GPUs um die 1000.- Euro höchstens ein Geheimtipp für Edge-Cases als Nebesatz wert, aber keine Benchmark-Tabelle an der sich 99% der Käufer orientieren soll.
Von dem ganzen 3DMark Müll ganz zu schweigen, der nur dazu dient Verkaufsargumente zu finden wo in echten Anwendungen während der relevaten 3-4 Jahre einer GPU die Unterschiede nie deart akzentuiert in Vorschein treten. Dazu müsste man aber technisch die Einordnung machen wie sehr das bei Game-Software tatsächlich relevant ist oder die nächsten paar Jahre werden könnte, macht aber kein Tester, man müsste sich dafür ja mit den Softwareentwicklern unerhalten können. ;)
Dabei sind die entscheidenden Gameengine-Entwicklungen längst 2 Jahre und länger in der Pipeline, dass etwas mit Patches so einen kurzfristigen Impact hat wie damals beim ersten TombRadier in Glide kann man getrost vergessen.
Am Ende müsste man vielleicht erkennen, dass man hauptsächlich die Game-Entwickler kritisieren müsste für den lauen Support der unterschiedlichen GPUs und neuen Feature Levels und weniger die HW-Hersteller, die in den Treibern den Murks wieder hinbiegen müssen. Leider leider scheint das selbst mit DX12 noch immer notwendig wenn der alte Stiefel weiter programmiert wird wo Lokalität von Variablen nicht berücksichtigt wird oder Fences gesetzt werden wo keine hingehören, die DosnDonts von Nvidia für DX12 z.B. lesen sich wie das reinste Gruselkabinett.

Legendenkiller
2021-06-10, 11:38:44
Genau das ist es, es ist günstiger, aber dafür auch ineffizienter.

Das ineffizienter bekommen die Konkurenz ja schon ohne Chiplet hin.

3070teiohwei

Gast
2021-06-10, 14:14:52
Du meinst die Antitechniker die behaupten eine 6800XT ist schneller als eine 3090 weil sie es in FullHD manchmal ist?
Naja, je nach Spiel ist sie das aber auch bei UHD. Da hat man halt auch eine krasse Schwankungsbreite, wie man z.B. bei Computerbase sieht:
https://www.computerbase.de/2021-02/amd-radeon-nvidia-geforce-benchmark-test-2021/3/#diagramm-assassins-creed-valhalla-3840-2160
In ACV ist man sogar mit der 6800XT vor einer 3090, während die dann in Mafia eher mit einer 3070 konkurriert (DXR mal ganz außen vor). Also je nachdem, welche Spiele man spielen will, kann man die Aussage sogar nachvollziehen. Man darf das halt nicht alles verallgemeinern.
Was auch auffällt, bei den Min FPS scheint AMD aktuell eine Spur konstanter zu sein, da schafft man es manchmal, sich vor die NV Konkurrenz zu schieben, obwohl man im Avg dahinter liegt (oder kommt zumindest näher ran). Bei NV kommt das zumindest bei Computerbase seltener vor.

Aber schön, dass du dann gleich mit der "Antitechniker" Keule kommst. Wenn man das gegen AMD richtet, ist das ja auch OK. Aber wehe, man würde das gegen NV richten...

Rabiata
2021-06-10, 20:55:39
Genau das ist es, es ist günstiger, aber dafür auch ineffizienter.
Hast Du genauere Daten dazu, wieviel Prozent dadurch verloren gehen?
Ich vermute, daß sich das mittels Opferung von wenigen Prozent Taktfrequenz kompensieren läßt. Und mit Opferung von etwas mehr Takt weit überkompensieren.
Siehe auch die Unterschiede zwischen CPU-Versionen mit verschiedenen TDPs. Zum Beispiel

Ryzen 9 5900X 3.7/4.8 GHz 105/142W
Ryzen 9 5900 3.0/4.7 GHz 65/88W

Hier hat der 5900 eine um 19% geringere Taktfrequenz, aber 38% weniger maximalen Stromverbrauch.

Kleine Spekulation unter der Annahme, daß GPUs ähnlich skalieren und die Leistung bei GPUs proportional zum Takt ist:
Wir gehen von der Radeon RX 6800 aus und setzen für "Navi 31" zunächst alles mit dem Faktor 2,5 hoch. Dann bekommen wir im ersten Schritt

150 CUs, das paßt einigermaßen zu den aktuellen Spekulationen zu "Navi 31"
625W TBP
665% im 4K Performance Index

Jetzt kommt die Herunterskalierung um 19% im Takt und 38% im Stromverbrauch, neue Werte sind:

387,5W TBP (zugegeben immer noch mächtig viel, und es kommt noch ein unbekannter Faktor fürs Chipletsystem hinzu)
543% im 4K Performance Index (Da kommt die RTX 3090 nicht mehr annähernd mit)

Vermutlich wird AMD die "Navi 31" noch etwas weiter heruntertakten, um die 350W nicht zu reißen, aber mit den Details dazu ist meine Kristallkugel überfordert.

Gast
2021-06-11, 08:48:43
Das ineffizienter bekommen die Konkurenz ja schon ohne Chiplet hin.


Die Konkurrenz erreicht mit 8nm aká 10nm immer noch eine vergleichbare Effizienz zu 7nm.

Rein architekturtechnisch würde man mit gleichen Waffen also deutlich vorne liegen.

Gast
2021-06-11, 10:03:08
Hast Du genauere Daten dazu, wieviel Prozent dadurch verloren gehen?


Nein Zahlen hab ich kein, das wäre reine Raterei.
Fakt ist, dass ein sehr großer Teil des Stromverbrauchs durch den Transport von Daten verursacht wird. Wobei streng genommen alles was ein Rechner macht der Transport von Daten ist, ein Adder transportiert im Prinzip auch nur Daten von seinen Eingängen auf den Ausgang.
Und ein weiterer Fakt ist, je weiter Daten Transportiert werden müssen, desto höher steigt der Verbrauch pro transportiertem Bit.
Ein Bit in den VRAM zu Speichern ist deutlich teurer als in ein Register und ein großer Teil der Effizienzsteigerungen mit HBM gegenüber GDDR kommt ganz einfach daher, dass man HBM physisch deutlich näher an die GPU packen kann.
Der Grund für den Effizienzsprung von Nvidia seit Maxwell liegt in großen Teilen daran, dass man versucht hat die Datenkommunikation möglich lokal zu halten. Das hatte als Nebeneffekt die Folge, dass man auch wesentlich weniger externe Bandbreite benötigt, aber Nvidia hat auch versucht die Kommunikation Chipintern über den Fabric zu minimieren.
AMDs RDNA2 ist hier auch nicht unähnlich wobei zumindest von außen das Ganze eher brachial als raffiniert aussieht, indem man in erster Linie einen Fetten Cache zwischen Speicherinterface und GPU packt. Wobei man von außen natürlich schlecht beurteilen kann wieviel Interchip-Kommunikation AMD da optimiert hat, und der fetteste Brocken beim Energieverbrauch ist natürlich das Speicherinterface selbst was man dadurch massiv entlastet.

Der Energieverbrauch der Kommunikation zwischen einzelnen Chipmodulen sollte dabei in etwa in in der Größenordnung eines HBM-Interfaces sein.


Ich vermute, daß sich das mittels Opferung von wenigen Prozent Taktfrequenz kompensieren läßt. Und mit Opferung von etwas mehr Takt weit überkompensieren.


Möglich, aber auch das ist mit einem gehörigen Aufwand verbunden.

Was klar ist, ist dass Interchip-Kommunikation energetisch vergleichsweise teuer ist. Was auch klar ist, ist dass die benötigten Bandbreiten bei GPUs im Vergleich zu CPUs um mindestens eine Größenordnung höher sind.
Damit das Ganze gut funktioniert muss man also auf jeden Fall die Kommunikation zwischen den Chips so gut es geht minimieren. Und wie auch immer man das anlegt ist es auf jeden Fall auch mit Aufwand verbunden. Bekommt dann jedes Chiplet einen riesigen LLC wie bei RDNA2? Das erhöht natürlich auch den Flächenbedarf, auch wenn TSMC den SRAM offensichtlich sehr dicht packen kann (bei SRAM soll angeblich aber der Vorteil von 7nm am geringsten sein).
Auch für den IF benötigt man Fläche die man monolithisch nicht bräuchte.

Und die Idee mit niedrigem Takt auf die Performance zu kommen und damit den Stromverbrauch der Datenkommunikation zu kompensieren bedeutet dass man einen deutliche größeren Grafikcore braucht, was wiederum Fläche kostet.

Die einzelnen Chiplets sind damit natürlich kleiner, der gesamte Flächenverbrauch aber dafür deutlich größer als bei einem hypothetischen monolithischen Chip mit gleicher Performance.


Klar kann auch ein Chiplet-Design funktionieren, aber es ist eben nicht der heilige Gral wie es manche meinen sondern hat wie alles im Leben Vor- und Nachteile, wobei die Vorteile hauptsächlich wirtschaftlicher Natur sind und die sowohl Leistung als auch Effizienz prinzipbedingt geringer ausfallen müssen. Die Frage ist kann man die Nachteile die nun mal vorhanden sind gering genug halten, und das müssen uns erst echte Produkte zeigen.

Einen leistungstechnischen Vorteil kann es nur bei einer Skalierung nach oben gehen, wenn man in Bereiche vordringt die monolithisch gar nicht mehr erreichbar sind.

Gast
2021-06-11, 10:10:45
Aber schön, dass du dann gleich mit der "Antitechniker" Keule kommst. Wenn man das gegen AMD richtet, ist das ja auch OK. Aber wehe, man würde das gegen NV richten...

Das war nicht ich, sondern der andere Gast mit der Ritis.

Ich würde übrigens den niedrigen Auflösungen nicht jede Relevanz absprechen, sowohl damals bei der Kyro als auch heute. und FullHD ist heute in etwa das was damals bei der Kyro 640x480 war.

Und da hat Nvidia ganz offensichtlich unter DX12 deutliche Nachteile.
Das ist nichts was ein Produkt unbrauchbar macht, aber unter den Tisch kehren sollte man es auch nicht. Vor allem interessant, da es ja unter DX11 ja Nvidias eigentliche Stärke ist.

N0Thing
2021-06-30, 18:42:49
Ein gewichtiger Punkt der vorstehend ausgebreiteten These ist zudem, dass Navi 32 hierbei mit einem abweichenden, kleineren GCD beschrieben wird. Jenes hat dann nur 3 Raster-Engines und somit wohl nur 60 Shader-Cluster – was AMD eine gute Zwischen-Variante zwischen Navi 33 und 31 ermöglicht. Normalerweise sollte dieses extra GCD auch tatsächlich derart gefertigt werden und nicht aus einer Abspeckung durch Stilllegung von Chipteilen resultieren – dafür vergibt man üblicherweise keine extra Chip-Namen, dies ergibt nur neue Chip-Versionen (wie bei Navi 21 XL, XT, XTX).

Ich halte diese Argumentation nicht für schlüssig, eine Salvage-Lösung wäre definitiv möglich. Auch Navi 31 hat einen eigenen Namen bekommen und wird nicht als Navi 33 XTX oder Navi 33x2 bezeichnet. Dementsprechend kann Navi 32 auch aus zwei Salvage Navi 33 bestehen, wovon ein einzelner Salvage-Chip als Navi 34 (für die Boardpartner) vermarktet wird.

Leonidas
2021-06-30, 19:02:23
Navi 31 hat eine andere Anzahl an Einzelchips. Aber Navi 32 wäre dann eine reine Abspeckung von Navi 31. Dafür hat es bislang noch nie einen extra Chipnamen gegeben.

Unmöglich ist es jedoch keineswegs.