PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Kommen AMDs Navi 33, 32, 31 tatsächlich mit 80, 120, 160 CUs?


Leonidas
2021-06-30, 17:12:04
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-kommen-amds-navi-33-32-31-grafikchips-tatsaechlich-mit-80-120-160-shader-cluste

Gast
2021-06-30, 17:23:29
Beide großen Grafikkartenhersteller könnten langsam mal wieder ne Grafikkarte mit max. 75 Watt Verbrauch rausbringen. Die Geforce 1050 ist schon fast fünf Jahre alt.

Complicated
2021-06-30, 17:58:18
Vor allem aber zum dazwischenliegenden Navi 32 wird die Sache interessant: Immerhin +47% mehr Performance soll es gegenüber Navi 33 geben, zudem soll Navi 31 dann nochmals +27% entfernt sein. Dies weist doch ziemlich deutlich darauf hin, dass Navi 32 mit 120 Shader-Clustern antritt – dies ist die einzige runde Zahl, zu welcher diese Performance-Differenzen passen. Und dies würde bedeuten, dass AMD zwei verschiedene GCDs innerhalb der Navi-3X-Chipserie auflegt: Eines mit 80 Shader-Clustern, eines mit 60 Shader-Clustern.
Also ich sehe hier nicht schlüssig erklärt warum es zwei verschiedene Chips sein müssen mit je 60 und 80 Shader Clustern, wenn 2 Salvage-Chips mit je 60 Shader Clustern ebenso gut funktionieren.

Rabiata
2021-06-30, 18:28:52
Wenn wir schon kräftig am Spekulieren sind, biete ich noch eine andere Version:
Es gibt ein GCD mit 40 CU und eines mit 30 CU.

Navi 31 = 4x GCD groß + 1x MCD => 160 Shader-Cluster ~190%
Navi 32 = 3x GCD groß + 1x MCD => 120 Shader-Cluster ~150%
Navi 33 = 2x GCD groß + 1x MCD => 80 Shader-Cluster 100%
Navi 34 = 2x GCD klein + 1x MCD => 60 Shader-Cluster ~80%

und damit geht dann auch noch

Navi 35 = 1x GCD groß + 1x MCD => 40 Shader-Cluster ~50%
Navi 36 = 1x GCD klein + 1x MCD => 30 Shader-Cluster ~380%

und eine breite Auswahl von Salvage-Kombinationen.

Der Grund für meinen Ansatz ist, daß AMD im Zusammenhang mit Zen2 mal gesagt hat, daß sich mehrere (flächenmäßig) kleine Chips preisgünstiger bauen lassen als ein großer.
Nun hat die Radeon RX 6700 XT mit ihren 40 CU schon eine Fläche von 335 mm². Den Bau von noch größeren Chips zu vermeiden, sollte bei den Fertigungskosten helfen.

amdfanuwe
2021-06-30, 18:39:17
wenn 2 Salvage-Chips mit je 60 Shader Clustern ebenso gut funktionieren.
Dann bräuchte man kein N32, wäre N31 Salvage.
Bei der 6800 mit 60CU wird auch N21 angegeben.

Mich irritiert mehr, dass N33 nicht monolithisch ist.
Deutet eher darauf hin, dass einmalig benötigte Einheiten wie Video I/O, PCIe, Media Einheit etc. sich mit dem IF$ auf dem MCD befinden.
Bei N31 und N32 könnte der MCD mit stacked V-Cache auf die benötigte Menge angepasst werden.

Mal gespannt, was AMD letztendlich präsentiert.

Complicated
2021-06-30, 18:42:54
Dann bräuchte man kein N32, wäre N31 Salvage.
Wenn Du 2x80 bei N31 und 2x60 (Salvage) bei N32 verbaust, hat das nichts mit "brauchen" zu tun. Du kannst das so machen wenn Du willst - es ergibt sich nicht zwangsläufig ein zweiter Chip der nur 60 hat im Vollausbau.
Das ist ja gerade der Kostenvorteil bei Chiplets.

Leonidas
2021-06-30, 19:00:47
Also ich sehe hier nicht schlüssig erklärt warum es zwei verschiedene Chips sein müssen mit je 60 und 80 Shader Clustern, wenn 2 Salvage-Chips mit je 60 Shader Clustern ebenso gut funktionieren.

Eine 100%ige Erklärung gibt es dafür auch nicht, die Bedenken hierzu wurde ja auch im vorletzten Absatz angesprochen.

Es wäre halt nur ungewöhnlich, dies als extra Chip auszugeben, wenn man Salvage-Varianten einsetzt. Das hat man bisher nie als extra Chips betrachtet. Unmöglich ist es nicht - und das Argument, das man 60 CU auch durch Salvage lösen kann, ist nicht verkehrt.

AlterSack
2021-06-30, 19:25:28
Wird hier niemand misstraisch, wenn max. 160 CU + zusätzliche enorme IPC-Steigerung verspochen wird (N33 +50% vs. N21)? Eine IPC-Steigerung von vllt. 25-30% wird sicher nicht ohne grosszügigen Transitormehraufwand möglich sein, 5nm hin oder her.

Complicated
2021-06-30, 19:37:00
Es wäre halt nur ungewöhnlich, dies als extra Chip auszugeben, wenn man Salvage-Varianten einsetzt.
Die Lösung wäre hier N31 und N32 als Bezeichnung für Dual-GPU-Chiplet-Designs zu nutzen. Also N31=2x80, N32=2xSalvage, N33=1x80, etc.

Bisher waren ja keine Chiplets genutzt worden. Hier könnte einfach jede Kombination eine eigene Bezeichnung erhalten, wie bei CPUs.

Cyberfries
2021-06-30, 21:10:10
2.8x n21
2.2x n21
1.5x n21

Ich kann mir kaum vorstellen, dass diese Aussage allgemein zutrifft. N33 entspricht N21, soll aber 50% schneller sein.
N21 verliert unter Raytracing massiv zur 3090, ich denke mal die 1,5x bezieht sich nicht auf Rasterizer.

Also ich sehe hier nicht schlüssig erklärt warum es zwei verschiedene Chips sein müssen mit je 60 und 80 Shader Clustern, wenn 2 Salvage-Chips mit je 60 Shader Clustern ebenso gut funktionieren.

So stark beschneiden ist nur sinnvoll, wenn für die Nische kein eigener Chip lohnt - wie bei der 6800.
Bei Doppelnutzung des 60CU-GCD in N32 und N34 sieht die Kosten-/Nutzenabwägung ganz anders aus.

Gast Ritis
2021-06-30, 21:14:04
Ihr müsst die typische "Salvage" Ratio, z.B. bei den Konsolen beachten.

Man geht bei 56 CUs von maximal 4 aus, die nicht ordentlich performen, so dass dann alle mit 52 CUs laufen. Bei PS5 sollen es 4 aus 40 CU sein.
Also 7-10%. Es gibt zwar noch ne RX6800 mit 25% abgeschalteten CUs. Die ist aber nicht für die grosse Masse gedacht. Bei den Navi23/24 macht 20% weniger schon ein neues CU trotz des I/O und Cache was bei Chiplet im Sizing separat anfällt.

Also ist doch eher mit einem 60er und 80er Chiplet zu rechnen als grössere Sprünge via Salvage zu machen.
Ausserdem wäre beim Top produkt mit 2x80 CU eher mit einem Massenprodukt darunter bei ca. 2x72 CU zu rechnen analog zur aktuellen Positionierung von Navi20. 1x 80 CU wäre dann auch wieder ein überteuertes Ausnahmeprodukt, eher ein 1x 72 CU attraktiv gepreist...
Bei nem 60er CU wäre ein 2x 56 CU als attraktive Variante am wahrscheinlichsten...

Gast
2021-06-30, 22:00:01
Beide großen Grafikkartenhersteller könnten langsam mal wieder ne Grafikkarte mit max. 75 Watt Verbrauch rausbringen. Die Geforce 1050 ist schon fast fünf Jahre alt.

Das Powerlimit ist bei so ziemlich allen Karten großzügig nach unten korrigierbar wenn man es möchte.

Gast 123
2021-07-01, 02:10:39
Weitere Spekulation
GCD = 40 Shader Cluster (plus einige redundante Einheiten als Yield Reserve ?)
N31 = 4x GCD + MCD
N32 = 3x GCD + MCD
N33 = 2x GCD + MCD
N34 = 1x GCD (+ MCD ?)

Leonidas
2021-07-01, 03:38:03
Man geht bei 56 CUs von maximal 4 aus, die nicht ordentlich performen, so dass dann alle mit 52 CUs laufen.

Ich denke nicht, dass es Performance-Gründe sind. Es sind einfach Salvage-Gründe. Es gibt keine Salvage-Varianten zu den Konsolen-SoCs, deswegen ist dies zugunsten der Fertigungsausbeute notwendig.

Auf dem PC entfällt dieser Ansatz, weil man immer noch eine kleinere Salvage-Variante drunterlegen kann. Oder Salvage im Mobile verkloppt.





Also ist doch eher mit einem 60er und 80er Chiplet zu rechnen als grössere Sprünge via Salvage zu machen.

Gehe ich voll mit. Die einzelnen Chiplets werden dann ja auch nur mittelgroß. Da lohnt sich die Differenz zwischen 60CU und 80CU produktionstechnisch sehr wohl, gerade in der teuren 5nm-Fertigung.

Gast Ritis
2021-07-01, 07:55:40
Es gibt keine Salvage-Varianten zu den Konsolen-SoCs,...
Auf dem PC entfällt dieser Ansatz, weil man immer noch eine kleinere Salvage-Variante drunterlegen kann. .
Deswegen "Salvage"-Ratio in Anführungszeichen, im Sinne von: verwertbare und verwertete CUs in Relation zu vorhandenen CUs je Die.

(Fehlerkorrektur: ...Navi23/24 macht 20% weniger schon ein neues CU-Layout aus trotz...)

Legendenkiller
2021-07-01, 08:50:23
Da wir aktuell bei GRafikkarten bis zu 440W TPD angekommen sind , bekommt dann die nächste Generation Kühler die sich direkt an den Wäremheizkreis des Hauses anschließen lassen? ;-)

Summerbreeze
2021-07-01, 09:39:03
Mir erschließt sich gerade auch nicht wirklich, warum das 2 verschiedene Chips sein sollen.
Ich hab mal vor ein paar Monaten im CB Forum, als es um die Grafik-Cache Stapelpatente ging, eine Rechnung mit bis zu 4 Chipletts mit je 20 Work Units / WUś (40 cu) gemacht. hat eigentlich ziemlich gut ausgesehen. (Seit Navi1 sind bei AMD ja 2 CUs zu einer WU zusammen gefasst)

Was spräche also gegen das "Ryzen Prinzip" mit nur einer, gut zu kontrollierenden Chipgröße? Das ganze dann mit (trotz ihrer großen Fläche) vergleichsweise einfach herzustellenden Verbindern mit SRAM oben drauf. (So nenne ich sie jetzt einfach mal) Das wäre möglicherweise ein enormer Kostenvorteil, welcher den höheren Verarbeitungsaufwand wieder min. auffängt.

Über die tatsächliche Anzahl der WUś kann man natürlich noch trefflich streiten. Ob nun 20 / 22 / 25 / 30 (oder was auch immer) da lass ich mich noch gern überraschen. :D
Je nach der Anzahl der kaputten Chips lassen sich dann daraus entsprechende Karten bauen. Wie bei Ryzen halt auch.

Und wieviele WUs nun tatsächlich von AMD in den Chip hinein designt werden, wissen wir doch eigentlich auch nicht? Oder doch? Ich könnte mir jedenfalls sehr gut vorstellen, das je nach bisheriger Chipgröße 1-2 WUs zusätzlich wg möglicher Defekte zur Sicherheit vorhanden sind, auch wenn sie bei manchen perfekten Chips keine Verwendung finden. Oder werden eher innerhalb der WUs / Shader Cluster ein paar zusätzliche Shader eingeplant?
Kann mich ja mal jmd aufklären. ;)

Summerbreeze
2021-07-01, 09:45:18
Da wir aktuell bei GRafikkarten bis zu 440W TPD angekommen sind , bekommt dann die nächste Generation Kühler die sich direkt an den Wäremheizkreis des Hauses anschließen lassen? ;-)
Ist doch schon alt.
Das hab ich schon vor ~12-13 Jahren hinter mich gebracht. :D
War mir aber zu umständlich auf die Dauer.
Es hat dann aber auch das Umweltgewissen gewonnen.
Selbst Dickschiffe werden bei mir in der Leistungsaufnahme begrenzt.

Gast
2021-07-01, 09:50:19
Weitere Spekulation
GCD = 40 Shader Cluster (plus einige redundante Einheiten als Yield Reserve ?)
N31 = 4x GCD + MCD
N32 = 3x GCD + MCD
N33 = 2x GCD + MCD
N34 = 1x GCD (+ MCD ?)
Wäre für mich auch schlüssig. Wenn es Karten mit 160 SCs, mit 120 SCs und mit 80 SCs geben soll, warum haben die dann nicht Chiplets mit 40 SCs? So könnte man für alle Karten ein GCD verwenden und muss nur noch das MCD anpassen (256Bit SI, 196Bit SI, 128Bit SI und evtl. unterschiedliche IC Größen, wenn der IC im MCD ist).

ChaosTM
2021-07-01, 09:51:52
Die gute alte SLI Zeit, da konnte man noch richtig Strom verbraten..
Ein 3 und 4. Karte für 25% mehr Leistung hatte schon was. Im Winter super.

400+ Watt Basis TDP wird wohl die Norm werden bei High End.

Nur zu Gast
2021-07-01, 09:55:32
Ich halte die Variante mit 60 CUs als Salvage des Vollausbaus von 80 CUs für nicht unwahrscheinlich. Gründe:

-Entspricht den Verhätlnissen bei den CPUs, hier werden auch 6-Kerner aus 8-Kern-Dies hergestellt
-Es sind große Dies. je größer der Die, desto größer die Wahrscheinlichkeit auch mehr als eine defekte CU zu haben, zumal auf einem neuen & kleinen Prozess wie N5. Ein Salvage der viele Defekte zulässt könnte da helfen.
-Die CUs machen nicht alleine den GCD aus. Da müssen mindestens noch das IF und PLLs drauf - beide mehr oder weniger analog und nicht beliebig skalierbar. Dazu sehr wahrscheinlich noch andere Blöcke, die nicht skalieren. Also wäre ein 60er Die wahrscheinlich mehr als 75 % (vielleicht 85 %?) der Größe des 80er Dies.
-Es spart Arbeit im Entwurf: Jeder weitere Die muss designt und validiert werden, dazu kommen extra Einmal-Kosten für die Herstellung
-Der notwendige Interposer (der wahrscheinlich auch nicht trivial ist) kann für alle Varianten mit zwei GCDs exakt gleich sein
-Aus dem gesparten Aufwand folgt: Risikominimierung. Falls Chiplets für Grafik doch nicht zünden, hat man weniger Arbeit/Geld in den Sand gesetzt.

Dagegen sprächen die bisherige Bennenung (warum zwei Namen wenn die gleichen Dies verwendet werden?) und wirtschaftliche Bedenken bezüglich der Ausnutzung des Siliziums.

Und zum Schluss noch zwei ausgefallenere Theorien:
1.) Zu Anfang wird alles aus den oben genannten Gründen aus 80er Dies hergestellt. Wenn das Prinzip bewiesen ist und die Fertigung stimmt, macht man sich den extra-Aufwand und legt die 60er Dies auf. Dafür reserviert man jetzt schonmal die Namen.
2.) Sehr gewagt: Es sind immer 80er Dies, aber verschiedene. Es gibt einen Compute-optimierten für den Profi-Bereich und einen Gaming- (und Ray-tracing) optimierten für die Spieler. Das würde die Stärken von AMDs Chiplet Ansatz so richtig ausspielen.

Nebenbei: Die Möglichkeit verschiedenartige Chiplets zu kombinieren sehe ich als eine der Stärken, die wir in Zukunft mehr von AMD sehen werden. Ich gehe fest davon aus, dass Raphael im Desktop auch als Variante mit extra GPU-die kommen wird. Und ich würde mich nicht wundern, wenn es Zen 4 sowohl für AM4 als auch AM5 geben würde - man müsste die Chiplets ja 'nur' mit anderen IO-Dies kombinieren.

Gast
2021-07-01, 10:53:47
Da wir aktuell bei GRafikkarten bis zu 440W TPD angekommen sind , bekommt dann die nächste Generation Kühler die sich direkt an den Wäremheizkreis des Hauses anschließen lassen? ;-)

Warum nicht, einfach eine Wasserkühlung und die Wärme einspeisen.

Iscaran
2021-07-01, 11:54:31
Wenn es schon Chiplets sind warum dann nicht diese Lösung:

1x Core Die jeweils angepasst.
1x GPU Chiplet a 40 CUs

N31 = 1x Core die + 4x Chiplet = 160 CU
N32 = 1x Core die + 3x Chiplet = 120 CU
N33 = 1x Core die + 2x Chiplet = 80 CU

Passt doch genausogut auf die kolportierten Performance Abstände.

Buddy Casino
2021-07-01, 14:47:20
Beide großen Grafikkartenhersteller könnten langsam mal wieder ne Grafikkarte mit max. 75 Watt Verbrauch rausbringen. Die Geforce 1050 ist schon fast fünf Jahre alt.
Ich vermute im Zeitalter leistungsfähiger APUs gibt es dafür einfach keinen Bedarf mehr.

basix
2021-07-01, 15:46:56
Also ich sehe hier nicht schlüssig erklärt warum es zwei verschiedene Chips sein müssen mit je 60 und 80 Shader Clustern, wenn 2 Salvage-Chips mit je 60 Shader Clustern ebenso gut funktionieren.

+1

Entweder 2*60 (oder 56, 64 CU) als Salvage sind deutlich schlüssiger.

Oder wie Iscaran sagt, 4*40 CU Chiplets.


Deutet eher darauf hin, dass einmalig benötigte Einheiten wie Video I/O, PCIe, Media Einheit etc. sich mit dem IF$ auf dem MCD befinden.
Bei N31 und N32 könnte der MCD mit stacked V-Cache auf die benötigte Menge angepasst werden.

Wäre sowieso die beste Lösung. Je nach V-Cache Höhe kann man auf die Anzahl CUs skalieren. Ist eher die Frage, wie gross das SI dann wird für so eine Breite an CU Konfigurationen (z.B. 40...160 oder 60...160). Da müsste man bei vielen SKUs relativ stark salavagen (oder nimmt kleinere IF$ und dafür ein breiteres SI und mehr Speicher)

400+ Watt Basis TDP wird wohl die Norm werden bei High End.

Hoffentlich nicht. 250W waren eigentlich ganz gut. Mit 300W kann ich noch leben. Darüber ist es irgendwie sinnfrei. Zwischen 300W und 400W liegen dann auch nur etwa +10% Performance, nicht so prickelnd.

ChaosTM
2021-07-01, 16:14:38
Undervolting wird der neuen Volkssport, um den Verbrauch nicht durch die Decke gehen zu lassen, zumindest im Sommer.
Wenn AMD oder NV ihre Karten so hochknüppeln, muss der Konkurrent jeweils nachziehen, damits wieder stimmt mit dem Penis-Balken. Das treibt halt immer perversere Blüten.

Vielleicht hat AMD das ja mit RDNA3 nicht mehr nötig, ich glaubs aber nicht.

Gast
2021-07-01, 18:24:57
Ich vermute im Zeitalter leistungsfähiger APUs gibt es dafür einfach keinen Bedarf mehr.

Wo sind die Leistungsfähigen APUs? Da fällt mir höchstens der M1 und selbst dessen Leistung ist gerade so ausreichend.

Gast Ritis
2021-07-01, 19:26:32
Da wir aktuell bei GRafikkarten bis zu 440W TPD angekommen sind , bekommt dann die nächste Generation Kühler die sich direkt an den Wäremheizkreis des Hauses anschließen lassen? ;-)
Soetwas in der Anwendung gibt (gab?) es in Frankreich. Du bekommst einen Compute-Node ins Haus gestellt und kannst einstellen wie heiss es werden darf. Der rechnet dann leise das Zimmer Warm.
www.francebleu.fr/infos/sante-sciences/une-start-de-montrouge-a-mis-au-point-un-radiateur-qui-chauffe-gratuitement-grace-aux-calculs-1558624515

Gast Ritis
2021-07-01, 19:40:53
-Entspricht den Verhätlnissen bei den CPUs, hier werden auch 6-Kerner aus 8-Kern-Dies hergestellt
-Es sind große Dies. je größer der Die, desto größer die Wahrscheinlichkeit auch mehr als eine defekte CU zu haben, zumal auf einem neuen & kleinen Prozess wie N5. Ein Salvage der viele Defekte zulässt könnte da helfen.
Nein - ganz und garnicht. Eine GPU mit 8CU entsprach in etwa dem Platzbedarf von 8 Zen Cores in den zurückliegenden APUs, bei Renoir war die Vega CU nochmals viel kleiner im Verhältnis.
Bei CPU Cores ist aber auch der Cache je Core viel grösser. Die echten Defekts spielen da auch keine so grosse Rolle, die schlechten Cores, die das Volt/Takt Verhältnis nicht packen müssen auch deaktiviert werden...
Dann hast Du lauter 8er Chiplets für Server und Top Ryzen, am Ende fallen genug ab für ein 6 Core SKU. Zu 4 Core hats ja zuletzt nicht mehr gereicht ;)

Gast
2021-07-02, 10:09:53
Die Leistungsangaben sind weder "Zielvorgaben" noch "Schätzungen aufgrund von Hardwaredaten", es sind durch Simulationen errechnete Werte die AMD presentiert und die Twitter-Kids rausposaunen.

Wenn du Mrd USD reinsteckst, dann ist nichts nur eine Schätzung. AMD hat Traces von jedem Spiel und mehrere GPU Konzepte im Transistorbudget, alles wird durchsimuliert und dann hast du auf +-5% genau eine GPU sicher.

Schaut in die Vergangenheit wie genau AMD und NV auf 5 bis 10 Jahre vorhersagen was kommt. Intel theoretisch auch, wenn deren Fabs nicht so versagen würden.2

Leonidas
2021-07-02, 10:50:41
Das stimmt schon. Aber ganz so sicher, das die Zielvorgabe erreicht wird, ist es dann doch nicht. Wenn der Takt nicht passt oder Features nicht funktionieren (Vega), dann ist die Abweichung schnell größer als die genannten 5%.

Gast
2021-07-02, 15:38:07
Wenn du Mrd USD reinsteckst, dann ist nichts nur eine Schätzung. AMD hat Traces von jedem Spiel und mehrere GPU Konzepte im Transistorbudget, alles wird durchsimuliert und dann hast du auf +-5% genau eine GPU sicher.



Auf +-5% kannst du nicht mal die Taktbarkeit für einen zukünftige Hardware auf einem zukünftigen Prozess vorhersagen.