Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

amdfanuwe
2022-08-18, 00:46:34
6x10 wären sicher etwas viel. Wieso dann nicht 5x10 ;)

Wieso nicht 8*6, 5*9 .... :confused:

Leider fehlt uns die Tabelle, an der AMD abliest welches Verhältnis für welchen Anwendungsfall optimal ist.

Oder anderer Grund: Ein 3x10 Arrangement passt einfach besser vom Chip-Layout her als 4x8 ;)
Ein "halber" N31 mit 2 zusätzlichen WGPs pro SE. Ähnlich N21/N22. Auch denkbar.

amdfanuwe
2022-08-18, 01:50:39
Die Variante mit 36 WGP oder eben 32 WGP mit 2 deaktivierten scheint mir hier noch am logischsten zu sein.
Wäre die unlogischste Variante.
Bisher wird pro SE eine WGP deaktiviert.
Zudem ist der Yield gut genug um voll Varianten zu bauen.
36 = 3*12, 4*9 ??

Stell dir N32 wie N22, jedoch mit 3 SE nebeneinander vor. Also 3*10.
N31 als doppelter N32 wie N21 zu N22, jedoch mit 2 WGPs pro SE weniger. Also 2*3*8.

aufkrawall
2022-08-18, 01:57:43
Was wird bei AMD nicht passieren? Dass man Spieleentwickler unterstützt? Das passiert doch laufend. Die RT Spiele wo AMD gut mithalten kann sind wohl kein Zufall ^^
Kennst du ein Spiel, wo ein halbes Dutzend AMD-Entwickler in den Credits angeführt werden?

DrFreaK666
2022-08-18, 02:03:05
Wer liest sich denn bitte die Kredits durch? :ugly:

mboeller
2022-08-18, 06:57:33
RDNA3 (Gerücht)
N32 3 SE / 6 SA / je 5 WGP = 30 WGP


oder aber der Aufbau ist eine gezielte Falschinfo von AMD um zu sehen woher die Gerüchte kommen. Es wurde doch schon öfters gesagt, dass absichtlich falsche Infos gestreut werden um zu sehen wer (Firma) was weitererzählt...

Gipsel
2022-08-18, 08:27:07
Geschäftsergebnisse und Bilanzen können z.B. hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13083986#post13083986) (oder in den Threads zu den von Leo regelmäßig geposteten News zu den Quartalsergebnissen) diskutiert werden.

Iscaran
2022-08-18, 11:58:09
oder aber der Aufbau ist eine gezielte Falschinfo von AMD um zu sehen woher die Gerüchte kommen. Es wurde doch schon öfters gesagt, dass absichtlich falsche Infos gestreut werden um zu sehen wer (Firma) was weitererzählt...

EXAKT das ist eine sehr gute Idee.

Als weitere Variante ist mir noch gekommen.
AMD hatte noch nie mehr als 4 SEs

Was ist wenn AMD allgemein nicht mehr das Konzept fährt 1 SE = 2 SAs

Sondern 1 SE = 3 SAs
Damit gäbe es die Konstellation:
N31 = 4 SE / 12 SAs / je 4 WGP = 48 WGP
ABER N32 findet nun eine "native" Erklärung:
N32 = 2 SE / 6 SAs / je 5 WGP = 30

Damit hat man auch wieder MAXIMAL 4 SEs wie bislang.

Die WGPs zu erhöhen bzw zu reduzieren hat man bei RDNA1, 2 bisher schon in verschiedenster Weise gesehen, aber SEs waren immer nur 1, 2 und nur 1x auch 4.

Mit 3 Arrays pro Engine könnte man das auch besser geometrisch skalieren und dann wäre N32 wie amdfanuwe schön darstellt (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13084034#post13084034) auch im Grund eben ein "einfach" halbierter N31 mit +1 WGP pro Array.

DAS wieder könnte eine notwendige Bedingung sein, dass die MCD-Chiplets geometrisch "gleich" an den N31 Core-GCD und den N32 Core-GCD angebaut werden können, nur eben einmal 6 Stück und einmal 4 Stück.

N33 würde dann mit 2 SE / 4 SAs / je 4 WGP einfach deswegen "anders" ausfallen weil es dem "klassischen" design folgt - und da es ja monolithisch sein soll, und man nicht an die Design-Rule gebunden ist die MCDs geometrisch günstig anbinden zu können, ist das GCD-Core hier eben auch analog zu RDNA2 aufgebaut.

Allerdings kann ich mir eigentlich immer noch nicht vorstellen das N33 "Monolithisch" kommt.

Das ganze sieht mir zu sehr nach GCD-Chiplet + MCD-Chiplets aus.

Da wäre dann die Basis einfach der N33 mit 16 WGP.
N32 = 2x N33 + 4 MCDs
N31 = 3x N33 + 6 MCDs
Wenn das Gerücht mit 30 WGP stimmt passt der N32 da eben nicht rein. Und ebensowenig die Tatsache das N33 ohne MCDs kommt ("monolithisch")

Für mich am logischsten wäre immer noch
N33 = 1 GCD + 2 MCD
N32 = 2 GCD + 4 MCD
N31 = 3 GCD + 6 MCD

Die GCD Struktur dürfte dann sein
N33 = 2 SE / 4 SA / je 4 WGP = 16 WGP (wie im Gerücht)
ODER alternativ
N33 = 1 SE / 2 SA / je 8 WGP = 16 WGP

Mit der Konsequenz dass das GCD 16 WGP hat und Punkt.

Sollte es wie kolportiert stimmen dass N32 nur 30 WGP (statt der im Chiplet-Aufbau notwenigen 32 hätte) wäre die einzige Erklärung, dass man in N32 die TEIL-defekten GCDs verkloppt.

Da hat man dann am "wenigsten" Einbußen.
N31 hat 3 volle GCDs mit top quali => Premium Produkt
N32 hat 2 GCDs mit je teil-defekten Chips
N33 Rest der GCDs die ggf. auch nicht so hoch takten können wegen weniger krassen defekten wie in N32.

Das ganze erlaubt dann dadurch maximale Chip-Ausbeute und braucht nur 1 GCD-Design und 1 MCD design.

why_me
2022-08-18, 14:40:43
Was ist wenn AMD allgemein nicht mehr das Konzept fährt 1 SE = 2 SAs

Sondern 1 SE = 3 SAs


Das ergibt doch keinen Sinn, das Verhältnis 1:2 wird nicht ohne Grund Gewählt. Die Aufteilung mit 1 SE in der Mitte und Links und Rechts jeweils ein SA ist die Optimalste Anordnung auf einem Die. Feintuning in die gewünschte Leistungsklasse passiert dann über die WGPs pro SA.
Wo würde bei 1:3 das dritte SA liegen?


Damit hat man auch wieder MAXIMAL 4 SEs wie bislang.


Was wäre der Vorteil davon? Was der Nachteil von 6? Kann die Notwendigkeit von Maximal 4 SEs nicht erkennen.

HOT
2022-08-18, 14:53:55
Warum redet man das so drumherum? 30WGP bei N32 ist offensichtlich falsch, natürlich müssen es 32 sein. 16-> 32 -> 48, wie weiter oben schon erwähnt.

Linmoum
2022-08-18, 14:56:44
Dass es so sein muss hat dir Lisa Su persönlich gesteckt?

HOT
2022-08-18, 14:59:11
Find ich ziemlich offensichtlich.

mboeller
2022-08-18, 15:10:36
Warum redet man das so drumherum? 30WGP bei N32 ist offensichtlich falsch, natürlich müssen es 32 sein. 16-> 32 -> 48, wie weiter oben schon erwähnt.

naja, so offensichtlich ist das für mich nicht.

AMD treibt immer wieder "neue Spiele". Sowohl bei den CPU als auch bei den GPU. Alles was offensichtlich ist, ist bei AMD meistens falsch. Wenn ich nur an die ganzen ZEN2 Diskussionen zurückdenke... und RDNA3 scheint auch mit vielen Konventionen zu brechen. Da würde ich einfach mit allem rechnen.

Außerdem: N32 und N31 sind "gleich" aufgebaut. Das mit den 32/48WGP macht da schon Sinn, aber 16WGP für N33 sind für mich noch nicht fix, weil N6 und angeblich monolithisch.

Kurz: ich rechne immer noch mit Überraschungen. Bei AMD ist das halt anders als bei "langweiligen" Firmen wie Intel und Nvidia. Die sind auf ihren Kurs eingefahren. ;)

robbitop
2022-08-18, 15:13:08
Es gab auch schon genug GPUs mit nicht binärer Skalierung (oder gar gerade Zahlen) der Execution Units. Bspw Polaris mit 36 statt 32 CUs. Oder Vega11 mit 11CUs in Raven Ridge. Da lassen sich sicherlich noch massenhaft Beispiele finden.

Gipsel
2022-08-18, 15:33:08
Also traditionell wurde immer gesagt, daß für eine ordentliche Produktstaffelung der Faktor zwischen benachbarten Chipgrößen am besten etwas unter 2 liegen sollte (die Lücken dazwischen füllt man dann mit Salvage-Modellen).
16=>30=>48 liegt näher an diesem Ideal als 16=>32=>48, zumal vom größten Chip natürlich mehr Salvage anfällt als vom mittleren Chip (der Abstand dort also tendentiell größer sein kann als weiter unten, wobei allerdings im Einsteiger-/Mainstream-Bereich die Kunden vielleicht nicht so genau auf die Leistungsdaten achten). Ein nur mittelprächtig getakteter Salvage-Chip von N31 hätte sonst eventuell arge Mühe überhaupt schneller zu sein als das Topmodell vom hypothetischen N32 mit 4 Shaderengines und 32 WGPs. Die Halbierung der Zahl der Shaderengines von 6 bei N31 auf 3 bei N32 würde das Problem vermeiden.

Iscaran
2022-08-18, 16:55:09
Also traditionell wurde immer gesagt, daß für eine ordentliche Produktstaffelung der Faktor zwischen benachbarten Chipgrößen am besten etwas unter 2 liegen sollte (die Lücken dazwischen füllt man dann mit Salvage-Modellen).
16=>30=>48 liegt näher an diesem Ideal als 16=>32=>48, ...


Ja aber 30/48 ist nur marginal von 32/48 entfernt - ob man sich wegen so einer eher "vagen" Produktstaffelungs-Regel erhebliche Zusatzkosten beim Produktdesign einhandelt, glaub ich eher nicht.

WENN N32 wirklich mit 3x10 (oder 6x5) WGPs kommt dann muss es dafür technische Gründe geben.


Die Halbierung der Zahl der Shaderengines von 6 bei N31 auf 3 bei N32 würde das Problem vermeiden.

Dann hätte man aber zum erstenmal überhaupt eine ungerade Anzahl SEs (abgesehen von Chips die nur 1 SE) haben.

Ich glaube eigentlich immer noch daran dass
a) es falsch ist das N33 ein "monolith" ist
b) N32 32 WGP hat

Bei einem Layout der ganzen Reihe wie dieses Schema zeigt:
N33 = 1 GCD + 2 MCD
N32 = 2 GCD + 4 MCD
N31 = 3 GCD + 6 MCD

Würden sowohl die Chipgrößen passen, als auch der Produktionsaufwand minimiert sein.

Entsprechend wären alle davon abweichenden Zahlen vielleicht genau das was AMD wollte, gezielt gestreute "false flag" Leaks um die "Informationslöcher" zu finden.

Nakai
2022-08-18, 16:58:14
Warum kommt ihr immer mit multiplen GCDs? Das kann man bei GPUs erstmal vergessen.

Iscaran
2022-08-18, 17:02:25
Das ergibt doch keinen Sinn, das Verhältnis 1:2 wird nicht ohne Grund Gewählt. Die Aufteilung mit 1 SE in der Mitte und Links und Rechts jeweils ein SA ist die Optimalste Anordnung auf einem Die. Feintuning in die gewünschte Leistungsklasse passiert dann über die WGPs pro SA.
Wo würde bei 1:3 das dritte SA liegen?


Ja ich das sehe ich auch so - aber ich hab nur über Möglichkeiten spekuliert.
Der Entscheidende Steuerungsfaktor in den Chip-Archs ist doch aber die Shader Engine, Art und Anzahl der SAs ist eigentlich nicht so kritisch.


Was wäre der Vorteil davon? Was der Nachteil von 6? Kann die Notwendigkeit von Maximal 4 SEs nicht erkennen.

Der Data Flow geht ja CPU => IF$ => GPU-Core => Shader-Engine(s) und dort wird dann weiter feingranulärer verteilt.

Je mehr Shader-Engines umso eher hab ich Probleme die Daten evtl. "sinnvoll" genug verteilt zu bekommen.

Vergleichbar evtl. bei CPUs mit 4 Kernen vs 2x4 Kernen mit Infinity Fabric, vs Kerne mit und ohne HT.

Vielleicht hat man gemerkt dass man innerhalb der Engines eigentlich auch ganz gut 3 parallel Data flows abarbeiten kann oder zumindest der "drawback" nicht allzugroß ist, wohingegen das "synchronisieren" der steigenden Zahl SEs evtl. nicht trivial ist und viel Arbeitszeit kostet (oder mehr IF$ braucht?)

Ich sage ja nicht, dass ich weiss was hier am besten ist, oder das die Gerüchte nicht stimmen, nur irgendwie hab ich hier fragen zur "Logik" des ganzen...das ist alles.

Cyberfries
2022-08-18, 17:32:12
Die Begrenzung auf 4 SEs war ein Problem von GCN, das lässt sich nicht auf andere Architekturen übertragen.
Laut Leakern soll die Anzahl der SEs in Zukunft mit jeder Generation steigen, siehe auch nVidia.

Typisch AMD ist CC zentral und SEs beidseits davon (Polaris 10, N10, N21), kleinere Chips gehälftelt.
Insofern sind 3 SEs nicht völlig aus der Luft gegriffen, meine erste Wahl wäre das jedoch nicht, SEs enthalten nicht nur Shader.
Eine Hälftelung von N31 fällt raus, ja, aber dafür passts mit N33.

Stell dir N32 wie N22, jedoch mit 3 SE nebeneinander vor. Also 3*10.

Deine Darstellung zeigt schön, wieso 6/3 SE ungeschickt anzuordnen sind, der Bereich in der Mitte für CC ist unrealistisch groß.
Deine MCD-Anbindungen werden so nicht funktionieren, das muss eher so wie bei HBM aussehen: 3/2 links, 3/2 rechts.
Irgendwann hab ich auch mal Darstellungen mit 6 SE gesehen, bei denen nicht 3 links, 3 rechts,
sondern 2 links, 2 rechts und 2 außenrechts angeordnet waren, wobei ich das als eher unwahrscheinlich abtun würde

Gipsel
2022-08-18, 17:49:51
Ja aber 30/48 ist nur marginal von 32/48 entfernt - ob man sich wegen so einer eher "vagen" Produktstaffelungs-Regel erhebliche Zusatzkosten beim Produktdesign einhandelt, glaub ich eher nicht.Also 30/48 WGPs ist ein deutlicher Unterschied zu 32/48 WGPs bei Navi32/31, da Du ja nicht nur von der Anzahl der WGPs skalierst, sondern auch die Anzahl der Shaderengines/-arrays halbierst (von 6 auf 3 statt von 6 auf 4). Damit ist bei N32 auch die Kapazität der Rasterizer und ROPs glatt halbiert (statt nur auf 2/3 reduziert, oder andersrum von Navi32 auf 31 beträgt der Faktor 2 statt 1,5). Damit spart man (relativ zur Zahl der WGPs) überproportional Fläche und kommt näher an den "idealen" Skalierungsfaktor (den wir mal ad hoc auf ~1,8 taxieren).
Und die Anzahl der WGPs in einem Array um 1 zu ändern, ist jetzt vermutlich nicht wirklich der große Aufwand.
WENN N32 wirklich mit 3x10 (oder 6x5) WGPs kommt dann muss es dafür technische Gründe geben.Ich sehe die Optimierung der Produktstaffelung bei Verkleinerung des Dies des N32-Chips als völlig validen Punkt.
Dann hätte man aber zum erstenmal überhaupt eine ungerade Anzahl SEs (abgesehen von Chips die nur 1 SE) haben.Als Salvage gab es das sehr wohl schon.

Kurz: N32 mit 3 Shaderengines und 30 WGPs ist durchaus im Bereich des sehr gut Möglichen. Und es lassen sich Argumente finden, warum man sich vielleicht dafür entschieden hat.

amdfanuwe
2022-08-18, 18:52:21
Deine Darstellung zeigt schön, wieso 6/3 SE ungeschickt anzuordnen sind, der Bereich in der Mitte für CC ist unrealistisch groß.

Es ging mir um die Darstellung der SE mit den WGPs.
Scheint mir der größte Block zu sein, den AMD mehrfach auf einen Chip kopiert.
Den CC wird man entsprechend gestalten, hab bei der Grafik keinen Wert auf realistische Großen gelegt, die mir eh nicht bekannt sind. Der Uncore Bereich dürfte real auch was größer ausfallen.

Bei der Speicheranbindung besteht ein Unterschied zu HBM.
Von den MCDs muss man noch auf das Board zu den 12 Ramchips.
Um die Signalwege gleichlang zu halten, wäre es für N31 schon sinnvoll die 6 GCD über 3 Seiten zu verteilen.
https://www.tradeinn.com/f/13869/138690310_4/hp-nvidia-quadro-rtx-6000-24gb-gddr6-graphic-card.jpg

Wie das dann bei N32 aussieht ???
Ist bei meiner Zeichnung den Großenverhätnissen eines "halben" N31 geschuldet.
Da will ich nichts in Stein meißeln, erscheint mir nur als plausible Möglichkeit.

Cyberfries
2022-08-18, 19:02:15
Es ging mir um die Darstellung der SE mit den WGPs.

Ich wollte dich nicht für eine unperfekte Darstellung kritisieren, nur einen Punkt einbringen.

Von den MCDs muss man noch auf das Board zu den 12 Ramchips.

Ist aktuell nicht anders. Die SIs sind links und rechts angeordnet, Ram ringsum.
Bei MCDs links, rechts und unten bleiben die Ecken ungenutzt. Das wird man vermeiden wollen.

AffenJack
2022-08-18, 19:39:33
Hast du eine Quelle mit mehr Infos?

Hier sind die Level von Imagination ein wenig erklärt.

https://www.electronicdesign.com/technologies/embedded-revolution/video/21238403/electronic-design-five-levels-of-ray-tracing

Größtenteils hab ich in diversen Posts aus Talks im Beyond3d Forum und anderem gelesen. Intels GDC Talk erwähnt zb die traversal shader kurz:
https://www.youtube.com/watch?v=SA1yvWs3lHU

Nvidia hatte Sachen die darauf hindeuten in Patenten oder Papern usw., aber das ist alles quer durch die B3D Threads verstreut.

amdfanuwe
2022-08-18, 19:39:40
Ich wollte dich nicht für eine unperfekte Darstellung kritisieren
Kein Problem.

basix
2022-08-18, 22:04:18
Wäre die unlogischste Variante.
Bisher wird pro SE eine WGP deaktiviert.
Zudem ist der Yield gut genug um voll Varianten zu bauen.
36 = 3*12, 4*9 ??

Stell dir N32 wie N22, jedoch mit 3 SE nebeneinander vor. Also 3*10.
N31 als doppelter N32 wie N21 zu N22, jedoch mit 2 WGPs pro SE weniger. Also 2*3*8.

Prinzipiell ist das genau so bei N21 und N22 angeordnet. Die Hälfte der Shader Engines für Nx2 und nur noch einseitig des Command Processors. Nur halt neu mit nicht genau gleich grossen SEs mit 30/3 vs. 48/6 WGPs, was ~1.4...1.5x an realem Performance Unterschied relativ gut wiederspiegeln sollte und auch gut aufs entsprechende Speicherinterface von 256 / 384bit passt.

Deine Darstellung zeigt schön, wieso 6/3 SE ungeschickt anzuordnen sind, der Bereich in der Mitte für CC ist unrealistisch groß.
Deine MCD-Anbindungen werden so nicht funktionieren, das muss eher so wie bei HBM aussehen: 3/2 links, 3/2 rechts.
Irgendwann hab ich auch mal Darstellungen mit 6 SE gesehen, bei denen nicht 3 links, 3 rechts, sondern 2 links, 2 rechts und 2 außenrechts angeordnet waren, wobei ich das als eher unwahrscheinlich abtun würde
Sehe ich nicht als Problem an. Bei 6x SE wird man zwangsläufig bei einem 1x6 (Nvidia Style) oder 2x3 (AMD Style) Array der SEs landen. Eine andere Anordnung führt nur zu ineffizienter Ausnutzung der rechteckigen Chipfläche.

Und wie vorhin geschrieben: Das sieht von oben auch hinsichtlich Speicherinterface ähnlich wie N21/22 aus und führt zu den kürzest möglichen Datenpfaden zwischen MCDs und L2$ (lange Pfade hast du vorhin ja indirekt mit dem länglichen Command Core in der Mitte angekreidet). Vielleicht gibt es ja einen Dual/Splitted-CC und noch zusätzlich L2$ in der Mitte des Chips. Dann hat jede SE ein L2$-Slice direkt vor der Tür (3x Slices anstatt 2x wie bei N21/22) und direkte sowie kurze Anbindung an einen der zwei CC. Wer weiss.

Dass die MCDs nur seitlich angeordnet werden sollen/können ist blödsinn. Gibt etliche Beispiele von solchen Chiplet Konstrukten, z.B. von Amazon den Graviton3:
https://www.heise.de/news/Chiplet-Aufbau-Amazons-Graviton3-Prozessor-besteht-aus-sieben-Einzelchips-6284537.html
https://heise.cloudimg.io/v7/_www-heise-de_/imgs/18/3/2/2/5/3/7/7/FFkpcrAVIAswkl5.jpg-aae21effb58eab53.jpeg?org_if_sml=1&q=85&width=610

iamthebear
2022-08-19, 17:12:45
Es kommt halt stark drauf an welche Chips das sind und was diese tun.

Beim Graviton sind die Speicherinterfaces auch nur auf 2 Seiten (links/rechts).
Auf der 3. Seite sitzt das PCIe Interface also der IO Die. Dieser ist bei Navi3x jedoch Teil des GCD, wird aber auch genau auf der Seite sitzen.

https://api.heise.de/svc/embetty/tweet/1466223097573351426-images-0

Hier einmal als Beispiel die Radeon VII (selbes Prinzip wie Navi32 nur dass statt dem IF$ gleich der HBM drauf gestacked wurde bzw. die Dies dann natürlich deutlich größer sind:

https://images.anandtech.com/doci/13923/Vega20_Enhanced_575px.png

amdfanuwe
2022-08-20, 00:06:43
Wenn wir davon ausgehen dass das SI nicht skaliert der IF$ mit 18%

N3x MCD N6
2x32b SI 12.6mm2
64MB IF$ 37.8mm2
Insg. ca. 50mm2


Ich hab beim N24 mal Pixel gezählt.
Der hat ja schon 64Bit SI und 16MB IF$ in N6.
Da komm ich auf ca. 20mm²
Mit etwas Kontrolllogik und einem 1024 Bit Interface komm ich auf ca.37mm².
80270
Wenn ich mir das so ansehe, ergibt das keinen Sinn, da noch 16MB IF$ zu stacken. Dürfte viel billiger sein direkt einen MCD mit 32MB bzw. 64MB IF$ zu produzieren.

Spaßes halber hab ich 2 N24 aneinander geklebt, da der schon in N6 ist. Dürfte ja einem N33 ähnlich sehen. Naja, der Aufbau wird wohl eher einem N23 gleichen.
Mit den höheren Takten, die N24 schon vorlegt und den verdoppelten Shadern dürfte der billiger, effizienter und schneller als N22 werden.
Ich hoffe dass sich die Preise mal normalisieren und wir eine 7600XT für $299 UVP sehen. Naja, wären immer noch 356€ :frown:

unl34shed
2022-08-20, 10:38:46
Ich hab beim N24 mal Pixel gezählt.
Der hat ja schon 64Bit SI und 16MB IF$ in N6.
Da komm ich auf ca. 20mm²
Mit etwas Kontrolllogik und einem 1024 Bit Interface komm ich auf ca.37mm².

Wenn ich mir das so ansehe, ergibt das keinen Sinn, da noch 16MB IF$ zu stacken. Dürfte viel billiger sein direkt einen MCD mit 32MB bzw. 64MB IF$ zu produzieren.


Seh ich auch so.

Ein 1024 pin Interface in der Kombination oben widerspricht sich ja schon von selbst. Ich gehe mal davon aus, die 17mm² dafür stimmen.
Weil das bedeutet ja, man spart 3mm³ in 5nm pro MCD, also bei N31 gerade mal 18mm². Vorausgesetzt, der Cache wird in 5nm nicht kleiner.
Dafür macht man doch kein MCM design, oder?

Der einzige Vorteil den die MCDs hier noch liefern ist doch dann nur noch das viel einfachere Stacking.

iamthebear
2022-08-20, 11:23:39
MCM bietet Vorteile bei der Segmentierung. Bei monolithischen Designs hat man das Problem:
.) Eine Karte hat einen Fehler im SI aber alle Shader sind OK
.) Die nächste hat einen Fehler in einer SE ab SI ist OK
.) 70-80% haben keinen Defekt oder nur in einem WGP, am Markt besteht aber Bedarf nach stärkerem Cut Down

In der Regel passt das nie zusammen und es gibt immer wieder unnötige Cut Downs.

AMD kann nun:
.) Die defekten MCDs aussortieren und die Karte trotzdem mit vollem SI ausliefern
.) Wenn man einen Cut Down machen will, dann lässt man einfach ein MCD weg bzw. ersetzt es durch einen Dummy.

AMD ist also komplett frei in der Wahl der MCD Anzahl. Dies ist wichtig, die die MCDs auch die VRAM Menge bestimmen.


Ob das allerdings den ganzen Aufwand wert ist, daran habe ich meine Zweifel. Ich vermute das war eine Notlösung, da man sich die entsprechende Vorauskassa für mehr 5nm Kapazität nicht leisten wollte und stattdessen die ersten Gewinne eher in mehr Personal in den Entwicklungsabteilungen investiert hat.

unl34shed
2022-08-20, 12:16:30
MCM bietet Vorteile bei der Segmentierung. Bei monolithischen Designs hat man das Problem:
.) Eine Karte hat einen Fehler im SI aber alle Shader sind OK
.) Die nächste hat einen Fehler in einer SE ab SI ist OK
.) 70-80% haben keinen Defekt oder nur in einem WGP, am Markt besteht aber Bedarf nach stärkerem Cut Down

In der Regel passt das nie zusammen und es gibt immer wieder unnötige Cut Downs.

AMD kann nun:
.) Die defekten MCDs aussortieren und die Karte trotzdem mit vollem SI ausliefern
.) Wenn man einen Cut Down machen will, dann lässt man einfach ein MCD weg bzw. ersetzt es durch einen Dummy.

Nein.

Also statistisch gesehen hast du in etwa die gleiche Chancen, dass das SI in einem monolytischen Chip kaputt geht, wie das Interface zum MCD (unter den oben angenommenen Größen, 3mm² unterschied pro SI) also wie willst du da den vollen Speicher anschließen? -> Vorteil gleich null

Auch kannst du nicht garantieren, dass immer das gleiche Interface kaputt geht, du brauchst also bei N31 6 SKUs mit je einem unterschiedlich defektem MCD Interface, damit die PCBs richtig bestückt werden. -> Vorteil gleich null

Auch ist fraglich, wie oft das SI wirklich kaputt ist, siehe N21, bei dem alle 3 SKUs das volle Speicherinterface und Cache (was viel Fläche kostet) bekommen haben.


Ob das allerdings den ganzen Aufwand wert ist, daran habe ich meine Zweifel. Ich vermute das war eine Notlösung, da man sich die entsprechende Vorauskassa für mehr 5nm Kapazität nicht leisten wollte und stattdessen die ersten Gewinne eher in mehr Personal in den Entwicklungsabteilungen investiert hat.

Wir reden von 18mm² mehr bei einem 300mm² Chip in 5nm (sprich 6% mehr Wafer), vs die ganzen MCDs in 6nm, ggf. 3D cache, plus den Aufwand beim Packaging, der auch Mehrkosten uns Aufwand verursacht.

Irgendwie passt das nicht zusammen.

amdfanuwe
2022-08-20, 12:41:49
Ein 1024 pin Interface in der Kombination oben widerspricht sich ja schon von selbst. Ich gehe mal davon aus, die 17mm² dafür stimmen.

Ne, Sorry. Das 1024 Bit Interfaxe hat nur ~10mm², Die Kontrolllogik zur Cache Verwaltung und Steuerung des Datenverkehrs hab ich mit 7nm angesetzt.
Reicht ja nicht nur die Phys und Cache Zellen zu haben.
Das Interface, HBM, hatte ich von Vega 20, N7 rüberkopiert, passte grad so schön. :cool:
Also mag sein, dass das Interface kleiner ausfällt und die Kontrollogik mehr Platz braucht.

MCM bietet Vorteile bei der Segmentierung.

Dürfte der wesentliche Vorteil sein. Verbessert den Yield, spart Fläche im teurem N5 Prozess.
Wenn man sich mal den N22 mit 335mm² anschaut, sieht man, dass es dort schon Probleme gäbe mehr als ein 192 Bit SI zu verbauen.
Vielleicht ist das Interface gar kompatibel zu HBM. Bei entsprechender Preislage könnte man auch HBM statt MCD bestücken?

Mein eigentlicher Punkt ist aber, dass es sich nicht lohnt 16MB Cache mit ~10mm² zu stacken.
Wenn, wird da was anderes gestacked. Etwa die AI Beschleuniger, die in einem Patent erwähnt wurden?

basix
2022-08-20, 12:52:56
Auch kannst du nicht garantieren, dass immer das gleiche Interface kaputt geht, du brauchst also bei N31 6 SKUs mit je einem unterschiedlich defektem MCD Interface, damit die PCBs richtig bestückt werden. -> Vorteil gleich null.

Das ist kein Problem, ist eine einfache Bestückungsvariante des PCBs. Sieht man bei den Nvidia Karten immer wieder, wo ein Speicherbaustein an einer anderen Stelle nicht bestückt ist. Die SKU ist bei allen die selbe.

Ne, Sorry. Das 1024 Bit Interfaxe hat nur ~10mm², Die Kontrolllogik zur Cache Verwaltung und Steuerung des
Ich hätte behauptet 512bit reichen pro MCD. Und bereits das ist nach meiner Abschätzung ~8mm2 gross. Ist ja nur 35um Pitch und nicht 25um wie bei Si-Interposern oder EFB. Somit braucht das Interface ~2x mehr Fläche.


Mein eigentlicher Punkt ist aber, dass es sich nicht lohnt 16MB Cache mit ~10mm² zu stacken.
Wenn, wird da was anderes gestacked. Etwa die AI Beschleuniger, die in einem Patent erwähnt wurden?
Jo, so wenig Cache obendrauf stacken geht für mich auch nicht auf. Ist einfach zu wenig effizient genug. Und 3D-Stacking ist teuer. Deswegen: 3D-Cache ist vermutlich eine Falschinformation.

amdfanuwe
2022-08-20, 13:47:10
Wir reden von 18mm² mehr bei einem 300mm² Chip in 5nm
Zur Klarstellung: wären 6 * ~20mm² mehr.
N31 monolithisch wären auf ca. 420mm² gekommen. Wobei sich die Frage stellt, wie man da ein 384Bit SI unterbringt.

Zum Yield, muss man nur die Flächen betrachten.
Fehler verteilen sich zufällig über die Chips.
Nur Chips mit einem Fehler in einem SE lassen sich durch abschalten der SE oder von WGPs weiterverwenden.
Beim N31 nehmen die 6 SEs ca. 170mm² ein.
Bei einem monolithischen Chip mit 430mm² läge die Wahrscheinlichkeit den Chip als Salvage verwenden zu können bei 40%.
Bei dem 300 mm² bei 57%.
Zudem hat man weniger Verschnitt auf dem Wafer und mehr gute Chips.
Egal ob 100 oder 200 Chips auf dem Wafer, bei 10 Fehlern pro Wafer werden immer 10 Chips betroffen. ( OK mal auch nur 9 wenn 2 Fehler auf einem Chip landen ...)

Bei einem 300mm² (420mm²) Chip bekommt man ca. 176 (124) Chips aus einem Wafer.
Bei 80% (75%) Yield hat man 140 (93) Fehlerfreie Chips.
Von den 176 - 140 = 36 Chips kann man dann 57% = 20 Chips als Salvage verwenden.

Also das ist nicht grad die Masse.
Da spielen andere Faktoren wie schlechte Taktbarkeit, hoher Verbrauch in einem Bereich eher eine Rolle um einen Chip als Salvage anzubieten.

amdfanuwe
2022-08-20, 14:30:26
Ich hätte behauptet 512bit reichen pro MCD. Und bereits das ist nach meiner Abschätzung ~8mm2 gross. Ist ja nur 35um Pitch und nicht 25um wie bei Si-Interposern oder EFB. Somit braucht das Interface ~2x mehr Fläche.

Sorry, das hatte ich nicht mehr im Kopf. Da hast du sicherlich mehr Kompetenz.

iamthebear
2022-08-20, 14:34:08
Also statistisch gesehen hast du in etwa die gleiche Chancen, dass das SI in einem monolytischen Chip kaputt geht, wie das Interface zum MCD (unter den oben angenommenen Größen, 3mm² unterschied pro SI) also wie willst du da den vollen Speicher anschließen? -> Vorteil gleich null

Also irgendwie verstehe ich deinen Rechenweg nicht ganz

Monolithisch kann defekt sein:
.) Infinity Fabric zum IF$
.) IF$ selbst (Control Logic oder SRAM)
.) SI

Ein Defekt in einer dieser Komponenten führt dazu, dass sowohl der IF$ kleiner ist UND das SI schmäler wird.

Bei MCM kann auf GCD Seite nur das Interface zum MCD defekt sein.

Auch kannst du nicht garantieren, dass immer das gleiche Interface kaputt geht, du brauchst also bei N31 6 SKUs mit je einem unterschiedlich defektem MCD Interface, damit die PCBs richtig bestückt werden. -> Vorteil gleich null

Ich sehe hier nicht das Problem. Dann muss AMD die GCDs eben sortieren bevor sie sie verbauen und der MCD Dummy sitzt immer auf einer anderen Seite.
Das Problem ist ja nicht neu. Das hat man doch zwischen SI und VRAM genauso. Dort muss man auch wissen welches SI defekt ist und wo man den VRAM anschließen muss.
Das ist sogar noch schlimmer, da dabei auch noch die AIBs involviert sind.

Auch ist fraglich, wie oft das SI wirklich kaputt ist, siehe N21, bei dem alle 3 SKUs das volle Speicherinterface und Cache (was viel Fläche kostet) bekommen haben.

Fehlerdichte bei N5 liegt um die 0.07/100mm² oder anders gesagt bei 6x37.5mm² ca. 1 von 6 Chips.

Was den Ausfall der Infinity Fabric im GCD angeht:
Hier wird es überhaupt schwer spekulativ. Das ist ja ein Ring. Wenn da ein Teil defekt ist weiß ich nicht, ob der Doe dann nicht sowieso Schrott ist.

Wir reden von 18mm² mehr bei einem 300mm² Chip in 5nm (sprich 6% mehr Wafer), vs die ganzen MCDs in 6nm, ggf. 3D cache, plus den Aufwand beim Packaging, der auch Mehrkosten uns Aufwand verursacht.

Wie kommst du auf die 18mm² (bzw. 6x3mm²)?

Vielleicht ist das Interface gar kompatibel zu HBM. Bei entsprechender Preislage könnte man auch HBM statt MCD bestücken?

HBM denke ich nicht aber langfristig wird es denke ich in die Richtung gehen. AMD hat ja bereits angekündigt, dass sie auch DRAM stacken könnten. Es gab jedoch so viel ich mich erinnern kann eine offizielle Aussage, dass dies bei RDNA3 nicht der Fall sein wird.

Jo, so wenig Cache obendrauf stacken geht für mich auch nicht auf. Ist einfach zu wenig effizient genug. Und 3D-Stacking ist teuer. Deswegen: 3D-Cache ist vermutlich eine Falschinformation.

Ich denke AMD willnsich die Option offen halten für das Topmodell. Ob es sinnvoll ist daran habe ich auch meine Zweifel.
Es könnte Sinn machen wenn man Richtung 5/8K pushen will und die Hitrate steigern will.
In niedrigeren Auflösungen könnte sich jedoch das Problem ergeben, dass dann die Anbindung der MCDs der Flaschenhals wird statt der VRAM Anbindung.

Gipsel
2022-08-21, 11:47:07
Ich hätte behauptet 512bit reichen pro MCD. Und bereits das ist nach meiner Abschätzung ~8mm2 gross. Ist ja nur 35um Pitch und nicht 25um wie bei Si-Interposern oder EFB. Somit braucht das Interface ~2x mehr Fläche.Das ballout von HBM (was hier ja offenbar als Basis der Abschätzung genommen wurde) ist sehr konservativ ausgelegt und nicht an den Limits, was man bei Si-Si-Stacking hinbekommen könnte (das sind inzwischen unter 10µm). Man benutzt bei HBM nur einen 55µm pitch, das passt mittlerweise locker auf organische Interposer (TSMC sagt 35µm, oder?). Zusätzlich benötigt HBM auch Unmengen an zusätzlichen Kontakten, wegen dem unabhängigen Betrieb und Adressierung der 8 Kanäle. Deswegen hat man bei HBM in den gut 10mm² auch knapp 4000 Kontakte. Die braucht es aber für ein "normales" breitbandiges Interface gar nicht. Man kann also nicht nur die Breite des Interfaces halbieren (ich würde sogar sagen, 256 Bit würden für ein 64bit Speicherinterface auch noch reichen, ohne den Stromverbrauch des Interfaces durch die Decke gehen zu lassen) sondern auch noch die Anzahl der Pins pro Bit (selbst bei differential signaling wobei unklar ist, ob man das bei ~5GT/s bei 256bit Breite überhaupt benötigt). 35µm statt 55µm Pitch würde dann noch mal nur noch 41% des Flächenbedarfs bedeuteten. Da kann man aber dran zweifeln, daß die Treiber klein genug sind, so daß der Pitch limitiert. Hier wird es stark drauf ankommen, wie nah man die MCDs an den GCD bringt und die elektrischen Eigenschaften der Leitungen optimieren kann. Der letzte Punkt wird am Ende über die Größe des Interfaces bestimmen. Und das ist sehr stark davon abhängig, was für eine Technik genau AMD am Ende dafür benutzen wird. Konservativ mit althergebrachten organischen PCBs zu arbeiten (wie bei den Zen-Chiplets) erscheint nicht übermäßig vorteilhaft bei den kleinen MCDs. Solche Sachen wie EFOB oder InFO wären schon irgendwo hilfreich.

amdfanuwe
2022-08-21, 12:20:28
Hey, danke. Hab gestern noch ein paar Stunden dazu gegoogelt und mal wieder festgestellt, dass man mittlerweile mehr Blabla als Informationen findet, hab also nichts gescheites dazu gefunden.

Hat noch jemand eine Anschätzung, welche Fläche die Kontrolllogik für Cache, GDDR Ansteuerung, Interface Steuerung etc. benötigt wird?

Reicht ja nicht Phys und Cachezellen auf dem MCD unterzubringen, das muss ja auch koordiniert zusammenarbeiten.

basix
2022-08-21, 14:07:53
Jop, danke für die Infos. War mir so auch nicht bewusst, das es so viel mehr Pins an einem HBM-Interface hat. Und die 25um hatte ich offensichtlich falsch im Kopf.

Note: Die 35um Pitch bei InFO_oS und RDNA3 kommen von Angstronomics.

256bit würde ich aber als zu wenig ansehen. Da müsste man die Interfaces relativ hoch takten:
- N31 = 6*256bit = 1536bit
- N21 IF$ -> L2$ = 1024 Byte/clk @ ~2.0 GHz = 2TByte/s --> Bei DDR des Interfaces sind das 4096bit

Nur um schon 3TByte/s bei N31 zu erreichen (IF$ -> L2$), müsste man bei 1536bit das Interface mit 8GHz / 16Gbps betreiben. Erscheint mir als etwas hoch.

amdfanuwe
2022-08-21, 15:10:50
- N21 IF$ -> L2$ = 1024 Byte/clk @ ~2.0 GHz = 2TByte/s --> Bei DDR des Interfaces sind das 4096bit

Cache Line ist 128 Byte = 1024 Bit
The L2 cache is used by all WPGs, which means less cache misses and less need to flush data to global memory
Cache line is now 128 bytes instead of 64. This means that there may be a need to adjust memory alignment.
https://interplayoflight.wordpress.com/2020/05/23/optimizing-for-the-rdna-architecture-presentation-notes/
Wäre ein 1024 Bit Interface schon interessant um in einem Takt eine Cacheline zu lesen bzw. zurückzuschreiben.
Bei 2GHz sind das 256 GByte/s bzw. DDR 512 GByte/s bei 6 MCDs => 3 TByte/s.

Edit:
35µm Bump Pitch bedeutet fast 900 Pins/mm². Dürfte man dadurch also nicht beschränkt sein.

basix
2022-08-21, 15:21:52
Cache Line ist 128 Byte = 1024 Bit

https://interplayoflight.wordpress.com/2020/05/23/optimizing-for-the-rdna-architecture-presentation-notes/
Wäre ein 1024 Bit Interface schon interessant um in einem Takt eine Cacheline zu lesen bzw. zurückzuschreiben.
Bei 2GHz sind das 256 GByte/s bzw. DDR 512 GByte/s bei 6 MCDs => 3 TByte/s.
Hört sich alles vernünftig an, ja.

Und wenn wir bei 55um Pitch und 4000 Kontakten bei ~10mm2 rauskommen (HBM2), wäre das bei 35um Pitch und allenfalls weniger Kontakten eigentlich sehr flächeneffizient, auch mit 1024bit Interface-Breite.

amdfanuwe
2022-08-21, 15:34:04
Hört sich alles vernünftig an, ja.

Und wenn wir bei 55um Pitch und 4000 Kontakten bei ~10mm2 rauskommen (HBM2)
Nicht die benötigte Kontaktfläche mit der Transistorfläche durcheinander bringen. Müssen ja nicht übereinstimmen.

basix
2022-08-21, 16:24:32
Muss nicht, nein. Ich würde aber behaupten, das hier bei den kurzen Distanzen und relativ tiefen Frequenzen die Transistorgrösse nicht limitiert. Sonst wäre es etwas sinnfrei, um auf einen 35um Pitch zu setzen.

Bei 55um Pitch und ~4000 Kontakten wäre bei 10mm2 jedenfalls mehr oder minder "Vollbelegung" vorhanden -> Ganze Fläche von Pins besetzt.

horn 12
2022-08-22, 10:31:14
https://wccftech.com/roundup/amd-radeon-rx-7800-xt/

999 Dollar 7900XT
649 Dollar 7800XT

Wenn dies stimmen sollte bin ich bei der 7800XT wieder dabei, denn die +20% (7900XT) sind nicht der Rede Wert.
20GB zu 24GB wäre auch ein Plus an Speicher!

prinz_valium_2
2022-08-22, 10:38:34
https://wccftech.com/roundup/amd-radeon-rx-7800-xt/

999 Dollar 7900XT
649 Dollar 7800XT

Wenn dies stimmen sollte bin ich bei der 7800XT wieder dabei, denn die +20% (7900XT) sind nicht der Rede Wert.
20GB zu 24GB wäre auch ein Plus an Speicher!

Wenn das auch nur annähernd stimmt, wird der N32 top dog nicht mehr als $499 kosten.
N32 salvage kann dann noch mal deutlich günstiger.

Das wäre schon extrem gut, aber alles recht unrealistisch und reine Speku zu diesem Zeitpunkt

Linmoum
2022-08-22, 10:43:36
Wir haben August, der Launch ist wahrscheinlich im November. Da steht noch überhaupt kein Preis fest. :rolleyes:

Nvidia hat auch schon mal 10 Minuten vor der offiziellen Bekanntgabe den Preis erst finalisiert.

Edit: Außerdem spekuliert wtftech nur, das hat nicht einmal irgendeine Grundlage.

Grendizer
2022-08-22, 10:52:51
Und selbst wenn.... wären wir in Euro Land dann auch bei 1199 Euro mittlerweile für die 7900XT und 779 für die 7800 XT ... aber wie schon gesagt, das ist alles nur Speku

horn 12
2022-08-22, 10:54:49
Die Vorstellung ist Mitte Obtober denke ich mal
und der PC Markt ist fast Kaputt durch Krise - Krieg - und Wasserknappheit.
Da wird zumindest AMD sobald die Alten Karten ausverkauft sind NEU Fuß fassen um die RDNA3 Karten an den Mann bringen zu wollen.
Das Preise von 1000+ und 1700 Euro erneut spruchreif werden sollte,- und die Leute stagnieren, ausser die kompletten Hardcore,- sollte den Herstellern langsam klar sein.

Grendizer
2022-08-22, 10:58:09
Der schwache Euro wird schon für steigende Preise bei uns sorgen. Bisher wurden die 19% Mwst durch einen besseren Eurokurs zum Teil aufgefangen. Das passiert jetzt nicht mehr wenn Euro Dollar 1:1 ist.

Platos
2022-08-22, 10:59:08
Die Preise werden nicht überteuert sein, denke ich (in Dollar). Die Firmen wissen genau so, dass sie den Scheiss sonst ohne Mining nicht los werden. Sehen sie ja jetzt nur zu gut.

amdfanuwe
2022-08-22, 11:00:11
https://wccftech.com/roundup/amd-radeon-rx-7800-xt/

999 Dollar 7900XT
649 Dollar 7800XT

Wenn dies stimmen sollte bin ich bei der 7800XT wieder dabei, denn die +20% (7900XT) sind nicht der Rede Wert.
20GB zu 24GB wäre auch ein Plus an Speicher!
Zum einem sind das die UVP der 16GB Karten 6900XT und 6800XT die er da einfach in den Raum schmeißt, zum anderen kämen mittlerweile in € noch 19% MWST drauf, also dann 772€ und 1190€.

Macht für AMD aber nur Sinn, wenn sie die 6800er und 6900er bis dahin abverkauft haben und Nvidia ärgern wollen.
Ansonsten könnten sie zum Start, wenn die neuen wirklich soviel besser sind, die auch über das vorhandene Portfolio einpreisen.
Mit $1199 (1400€) für eine 7800(XT) wäre die in Preis/Leistung immer noch besser als eine 6900XT und somit den Mehrwert wert.
Zudem sind die 4/8 GB mehr an RAM einen Aufschlag wert.

Also wünschen würde ich mir auch solch "niedrigen Preise" für die neue Generation, erwarten würde ich das jedoch Anfangs noch nicht.

Vielleicht will AMD aber auch Nvidia die Gewinnmarge versauen und geht auf Preiskampf. Eine $399 7700 12GB, die fast alles aktuelle schon übertrifft wäre ganz nett.

amdfanuwe
2022-08-22, 11:20:15
Wir haben August, der Launch ist wahrscheinlich im November. Da steht noch überhaupt kein Preis fest. :rolleyes:


Genau.
Kurz vor Markteinführung schaut man sich die Konkurrenz-, Nachfragesituation, Liefermöglichkeiten etc. an und legt dann erst einen entsprechenden UVP für einen erfolgreichen Marktstart fest.

Ändern sich die Bedingungen, wird halt in letzter Minute nochmal nach unten korrigiert.

Von den Produktionskosten her dürfte AMD keine Probleme haben, die 7000er günstig zu positionieren.
Also abwarten, was AMD vor hat. Marktanteile gewinnen oder maximalen Gewinn einstreichen.
Ich hoffe mal auf Marktanteile, wird Zeit meine 8GB RX 480 für damals 239€ abzulösen. War 2016 ein Preis/Leistungs Knaller.

BavarianRealist
2022-08-22, 11:35:17
Das eine 7800 mit kaum weniger Leistung - und vor allem letztlich fast den gleichen Herstellungskosten! - so viel billiger als eine 7900 sein soll, ergibt für mich keinen Sinn. Damit würde AMD seiner eigenen 7900 das Geschäft kaputt machen und vor allem die eigenen Gewinne vernichten. Mit der 7800 ist vermutlich kaum was zu verdienen, so wie die aufgebaut ist. Ergo: auf diese Infos gebe ist nichts. Eher dürfte eine solche 7800 bei 999€ landen und die 7900 dann bei 1200€-1300€.

BavarianRealist
2022-08-22, 11:44:26
Genau.
Von den Produktionskosten her dürfte AMD keine Probleme haben, die 7000er günstig zu positionieren.
Also abwarten, was AMD vor hat. Marktanteile gewinnen oder maximalen Gewinn einstreichen.
Ich hoffe mal auf Marktanteile, wird Zeit meine 8GB RX 480 für damals 239€ abzulösen. War 2016 ein Preis/Leistungs Knaller.

Wenn zudem aktuell eine eher schwierige Situation im PC-Geschäft ist, würde sich AMD kaum Freunde machen, wenn sie die neuen Produkte zu billig anbieten. Dadurch würden nämlich alle bisherigen Produkte, von denen noch massig im Lager sind, unnötig entwertet und deren Abverkauf erschwert. Ist ein Preisniveau mal niedrig, bekommt man es nicht mehr hoch.

Su weiß das alles sehr genau und dürfte die Preise so wählen, dass die ganzen OEMs, AIBs etc. möglichst gut gestimmt bleiben: ergo gibt es anfangs eher ziemlich hohe Preise, die den großen Leistungssprung honorieren, um die alte Lagerware nicht zu entwerten. Das dürfte für die GPUs genauso wie für die neuen CPUs gelten. Preissenkungen für Navi3x und Zen4 dürfte es erst nach einer gewissen Zeit (>6 Monate?) geben, wenn alles auf die neuen Produkte umgestellt ist. Erst dann kann AMD hier neue Marktanteile erobern, ohne sich den Ärger der ganzen Partner auf sich zu ziehen.

HOT
2022-08-22, 11:57:24
Wenn die Karte 999$ kosten würde (was BS ist, es gibt noch keine Preise für Produkte Ende Oktober), dann wäre der € Preis 1099€.

Nakai
2022-08-22, 12:31:30
Preis ist so ziemlich das letzte was angepasst wird. Ob es jetzt 899, 999 oder 1099 $ ist, ist unerheblich.

amdfanuwe
2022-08-22, 13:14:04
Wenn die Karte 999$ kosten würde (was BS ist, es gibt noch keine Preise für Produkte Ende Oktober), dann wäre der € Preis 1099€.
MWSt ist 19%, nicht 10%.

HOT
2022-08-22, 13:18:11
MWSt ist 19%, nicht 10%.
Wann hat das je ne Rolle gespielt bei UVPs?

Grendizer
2022-08-22, 13:19:14
Wann hat das je ne Rolle gespielt bei UVPs?

In Deutschland schon immer ... das waren meistens die umgerechneten Dollarpreise + MwST und dann ein wenig auf oder abrunden.

HOT
2022-08-22, 14:03:18
In Deutschland schon immer ... das waren meistens die umgerechneten Dollarpreise + MwST und dann ein wenig auf oder abrunden.
Klar waren die UVPs in D (oder im Euroraum) immer höher als der Dollar, der ja immer netto angegeben wird, aber es waren niemals 19%. Mal wars mehr, mal weniger, je nach Preislage des Produktes.

Die Geforce 3070 z.B. kostet sogar 499$ in den USA und 499€ bei uns in Europa, wie ich das auf die schnelle sehe.

Grendizer
2022-08-22, 14:06:28
Klar waren die UVPs in D (oder im Euroraum) immer höher als der Dollar, der ja immer netto angegeben wird, aber es waren niemals 19%.
Ja, war auch mal 16%

Das Problem ist ja aktuell die Euroschwäche. Als der Euro noch 1,15 Dollar wert war, waren die Europreise mit Mwst näher am Dollarpreis. Heute steht der Dollar preise aber bei 1:1 ...

edit: Es geht um die umgerechneten Preise beim Start des Verkaufs. Das nVidia die Euroschwäche noch nicht weitergibt und die Europreise aufschlägt ist eher lobenswert.

HOT
2022-08-22, 14:07:23
Das ist Unsinn. die UVP der 3070 war schon früher 499$ und 499€, egal wie der Kurs war. Du hast nur eine Chance, die UVP + USt zu bekommen, wenn du direkt aus den USA importierst.

Grendizer
2022-08-22, 14:10:37
Bei mir wird die RTX 3070 im nVidia Shop allerdings mit 549 Euro angezeigt.

https://store.nvidia.com/de-de/geforce/store/gpu/?page=1&limit=9&locale=de-de&category=GPU&gpu=RTX%203070&gpu_filter=RTX%203090%20Ti~5,RTX%203090~19,RTX%203080%20Ti~9,RTX%203080~13,RTX%2 03070~8,RTX%203070%20Ti~5,RTX%203060%20Ti~12,RTX%203060~14,RTX%203050%20Ti~0,RTX %203050~3,RTX%202080%20SUPER~1,RTX%202080%20Ti~1,RTX%202080~1,RTX%202070%20SUPER ~1,RTX%202070~1,RTX%202060%20SUPER~3,RTX%202060~13,GTX%201660%20Ti~9,GTX%201660% 20SUPER~19,GTX%201660~12,GTX%201650%20SUPER~3,GTX%201650~33

Linmoum
2022-08-22, 14:12:16
$499 waren zum Launch der 3070 ~424€. Inkl. der damals geltenden 16% USt. also knapp 492€. Nvidia hat 499€ als UVP hierzulande angesetzt, also sogar noch leicht höher als mit Steuer.

Das werden keine guten Europreise bei künftigen Produkten, egal ob CPUs oder Ada/RDNA3.

Grendizer
2022-08-22, 14:17:01
$499 waren zum Launch der 3070 ~424€. Inkl. der damals geltenden 16% USt. also knapp 492€. Nvidia hat 499€ als UVP hierzulande angesetzt, also sogar noch leicht höher als mit Steuer.

Das werden keine guten Europreise bei künftigen Produkten, egal ob CPUs oder Ada/RDNA3.

Ja die werden halt knapp 20% höher liegen, selbst bei identischen Preispunkten der Vorgängergenerationen. Und da das nicht sicher ist, werden wir vermutlich ganz schön schlucken, egal was da 2022/2023 auf dem Markt kommen wird.

HOT
2022-08-22, 14:19:03
Bei mir wird die RTX 3070 im nVidia Shop allerdings mit 549 Euro angezeigt.

https://store.nvidia.com/de-de/geforce/store/gpu/?page=1&limit=9&locale=de-de&category=GPU&gpu=RTX%203070&gpu_filter=RTX%203090%20Ti~5,RTX%203090~19,RTX%203080%20Ti~9,RTX%203080~13,RTX%2 03070~8,RTX%203070%20Ti~5,RTX%203060%20Ti~12,RTX%203060~14,RTX%203050%20Ti~0,RTX %203050~3,RTX%202080%20SUPER~1,RTX%202080%20Ti~1,RTX%202080~1,RTX%202070%20SUPER ~1,RTX%202070~1,RTX%202060%20SUPER~3,RTX%202060~13,GTX%201660%20Ti~9,GTX%201660% 20SUPER~19,GTX%201660~12,GTX%201650%20SUPER~3,GTX%201650~33

Ok, dann wurder Preis eben um 10% erhöht. Aber ihr müsst unbedingt begreifen, dass US-Preise keine Europa-Preise sind.

mboeller
2022-08-22, 14:21:13
Das ist Unsinn. die UVP der 3070 war schon früher 499$ und 499€, egal wie der Kurs war. Du hast nur eine Chance, die UVP + USt zu bekommen, wenn du direkt aus den USA importierst.

witzig...

den Dollarkurs kennst du aber schon, oder?

zB.:
https://www.finanzen.net/devisen/dollarkurs

Der Euro hat gegenüber dem Dollar seit dem Ukraine-Krieg massiv an Wert verloren.

mboeller
2022-08-22, 14:22:35
Ok, dann wurder Preis eben um 10% erhöht. Aber ihr müsst unbedingt begreifen, dass US-Preise keine Europa-Preise sind.

seufz... und deshalb hat Apple auch nicht die Japan-Preise erhöht, oder? "zwinker"

Der Wechselkurs spielt bei dem was die Leute für ihre Importware bezahlen halt doch eine große Rolle.

Linmoum
2022-08-22, 14:22:52
Ok, dann wurder Preis eben um 10% erhöht. Aber ihr müsst unbedingt begreifen, dass US-Preise keine Europa-Preise sind.Begreifen wir ja. Du meintest doch, hier wird/wurde niemals nie die Steuer in voller Höhe draufgeschlagen. Was Quatsch ist, s. Das von dir genannte Beispiel mit der 3070 zum Launch. ;)

HOT
2022-08-22, 14:26:01
Die Steuer wird bei der Preisfindung berücksichtigt. Die wird nicht draufgeschlagen. Und nein, an deinem Posting sieht man ja, dass du das nicht begriffen hast.

horn 12
2022-08-22, 14:28:44
Fakt ist aber auch, das nix mehr ist wie es einst war,- und da meine ich nicht mal die Corona Zeit...
Es muß ein Umdenken stattfinden,- denn die Welt hat sich bereits öfters als 2x gedreht.

HOT
2022-08-22, 14:30:20
Die finden bei uns halt nen Bruttopreis, der zum Produkt und Marktumfeld passt, in den US eben einen Nettopreis der zum Marktumfeld passt. Die nehmen nicht einfach einen $-Preis und schlagen die MWSt drauf :freak:.

Linmoum
2022-08-22, 14:31:30
Die Steuer wird bei der Preisfindung berücksichtigt. Die wird nicht draufgeschlagen. Und nein, an deinem Posting sieht man ja, dass du das nicht begriffen hast.Soll ich jetzt deinen Beitrag zitieren, wo du schreibst, dass $999 1099€ wären? Da erzähl du mir noch mal was von nicht begriffen, bei diesem von dir eigens genannten Beispiel hast du nämlich gar nichts berücksichtigt in Höhe der USt.

AffenJack
2022-08-22, 14:33:17
Die nehmen nicht einfach einen $-Preis und schlagen die MWSt drauf :freak:.

Doch das tun sie, wie auch Linmoum gezeigt hat. Das gilt weltweit so. Es wird der $-Preis genommen und umgerechnet. Marktpreise ergeben sich dann auch durch unterschiedliche Händlermargen etc., die Basis ist aber auch nur die Umrechnung plus Mwst.

Grendizer
2022-08-22, 14:33:45
Ok... von mir aus... allerdings konnte man mit der Rechnung schon relativ genau vorhersagen, wo die Preise in Deutschland lagen, wenn der Dollarpreis durch den Hersteller bekannt gegeben wurde.

Evtl. wird es ja ganz anders, weil die Transportkosten und alles andere exorbitant gestiegen sind. Weniger wird es nicht werden.

amdfanuwe
2022-08-22, 14:34:00
Aber ihr müsst unbedingt begreifen, dass US-Preise keine Europa-Preise sind.
Genau.
Und auf Tagesbasis kann man auch nicht umrechnen. Kommt darauf an, wann der Großhändler eingekauft hat, welche Rabatte, und wie der Dollar-Euro Kurse von den beteiligten Firmen gehedt wird.
Wenn der Händler vor ein paar Monaten bei günstigerem Kurs das Geschäft abgeschlossen hat, kann er jetzt auch noch günstig verkaufen.
Und umgekehrt, was teuer eingekauft wurde, wird nach möglichkeit auch noch lange teuer abverkauft bzw. gibt eine Mischkalkulation wenn billige Ware nachgeordert wird oder der Hersteller, so wie Nvidia, nachträglich Rabatte einräumt.

Kauft Dollar oder Aktien auf Dollar Basis, dann juckt das ganze doch gar nicht.

Grendizer
2022-08-22, 14:37:49
Genau.
Und auf Tagesbasis kann man auch nicht umrechnen. Kommt darauf an, wann der Großhändler eingekauft hat, welche Rabatte, und wie der Dollar-Euro Kurse von den beteiligten Firmen gehedt wird.
Wenn der Händler vor ein paar Monaten bei günstigerem Kurs das Geschäft abgeschlossen hat, kann er jetzt auch noch günstig verkaufen.
Und umgekehrt, was teuer eingekauft wurde, wird nach möglichkeit auch noch lange teuer abverkauft bzw. gibt eine Mischkalkulation wenn billige Ware nachgeordert wird oder der Hersteller, so wie Nvidia, nachträglich Rabatte einräumt.

Kauft Dollar oder Aktien auf Dollar Basis, dann juckt das ganze doch gar nicht.

Verstehe ich nicht... das würde doch nur was bringen, wenn ich Monate vor Lieferung die Ware bezahle .... ist das in dem Geschäft so ? Ich hätte vermutet, das das auch mehr oder weniger mit oder nach Lieferung gezahlt wird. Ich denke doch, das die Kartenhersteller in Dollar bei AMD zahlen und nicht in Euro oder Yen.

HOT
2022-08-22, 14:43:27
Doch das tun sie, wie auch Linmoum gezeigt hat. Das gilt weltweit so. Es wird der $-Preis genommen und umgerechnet. Marktpreise ergeben sich dann auch durch unterschiedliche Händlermargen etc., die Basis ist aber auch nur die Umrechnung plus Mwst.
NEIN.

Genau.
Und auf Tagesbasis kann man auch nicht umrechnen. Kommt darauf an, wann der Großhändler eingekauft hat, welche Rabatte, und wie der Dollar-Euro Kurse von den beteiligten Firmen gehedt wird.
Wenn der Händler vor ein paar Monaten bei günstigerem Kurs das Geschäft abgeschlossen hat, kann er jetzt auch noch günstig verkaufen.
Und umgekehrt, was teuer eingekauft wurde, wird nach möglichkeit auch noch lange teuer abverkauft bzw. gibt eine Mischkalkulation wenn billige Ware nachgeordert wird oder der Hersteller, so wie Nvidia, nachträglich Rabatte einräumt.

Kauft Dollar oder Aktien auf Dollar Basis, dann juckt das ganze doch gar nicht.
DANKE

AffenJack
2022-08-22, 14:44:26
Genau.
Und auf Tagesbasis kann man auch nicht umrechnen. Kommt darauf an, wann der Großhändler eingekauft hat, welche Rabatte, und wie der Dollar-Euro Kurse von den beteiligten Firmen gehedt wird.
Wenn der Händler vor ein paar Monaten bei günstigerem Kurs das Geschäft abgeschlossen hat, kann er jetzt auch noch günstig verkaufen.
Und umgekehrt, was teuer eingekauft wurde, wird nach möglichkeit auch noch lange teuer abverkauft bzw. gibt eine Mischkalkulation wenn billige Ware nachgeordert wird oder der Hersteller, so wie Nvidia, nachträglich Rabatte einräumt.


Das sind dann aber Sachen die die Händler betreffen und bei diesen Schwankungen erzeugen. Eine UVP wird ja nicht so oft angepasst und entspricht der Umrechnung plus Mwst bei Release.

Auch eine 5700XT hatte bei uns zu Release 420€ UVP bei 399$ US-Preis, weil der Euro da gerade bei 1,12-1,13 lag. Wenn der Euro so bleibt, dann müssen wir diesmal ~20% auf den US Preis draufschlagen. Schön wird das definitiv nicht.

HOT
2022-08-22, 14:44:58
Das sind dann aber Sachen die die Händler betreffen und bei diesen Schwankungen erzeugen. Eine UVP wird ja nicht so oft angepasst und entspricht der Umrechnung plus Mwst bei Release.

Auch eine 5700XT hatte bei uns zu Release 420€ UVP bei 399$ US-Preis, weil der Euro da gerade bei 1,12-1,13 lag. Wenn der Euro so bleibt, dann müssen wir diesmal ~20% auf den US Preis draufschlagen. Schön wird das definitiv nicht.

Nein, ist es nicht. Kauf mal ne Geforce in China. So ein Unfug. Andere Länder, andere Preise. Jetzt mit dem inflationären Umfeld und den schwankenden Kursen erst recht nicht. Die nehmen Preise, für die man die Ware auch los wird im jeweiligen Marktumfeld. Das mag in der EU lange Zeit ähnlich zu den US gewesen sein, aber es war nie das Gleiche. In und nach dieser Krise wird man das auch sehen. Bisher ist der $ noch der Handelspreis, auch das muss so nicht bleiben.

amdfanuwe
2022-08-22, 14:55:27
Verstehe ich nicht... das würde doch nur was bringen, wenn ich Monate vor Lieferung die Ware bezahle ....
Vertragssache, ob du bei Bestellung, bei Lieferung oder nach Verkauf bezahlst.
In der Regel dürfte bei Bestellung der Preis feststehen, ist dann dein Risiko wenn sich die Preise in den 3+ Monaten ändern, die der Schiffstransport dauert und du den Kram verkauft hast.
Aber da beschäftigen sich Heerscharen von Finanzmathematikern damit, wie man das Wechselkursrisiko entsprechend gering hält.

Retour und woanders günstiger kaufen ist da halt nicht.

Edit:
Die nehmen Preise, für die man die Ware auch los wird im jeweiligen Marktumfeld.
Alle wollen Verdienen und der Kunde nichts bezahlen. Wenn der Hersteller oder die Händler unter Preis verkaufen müssen, haben sie was verkehrt gemacht.
Einer ist immer der Dumme.

HOT
2022-08-22, 15:14:37
Um das noch mal klar zu machen: Die UVP ist ja auch total egal, weil das keinerlei realer Preis ist. Interessanter sind die Preise für die Referenzkarten, die ja auf der UVP liegen sollen (meistens).
Aber wie der Markt die Preise festlegt von normalen Geforce liegt an der Liefermenge, den Einkaufspreisen und den Lagerbeständen. Das hat mit der UVP nix zu tun. Geforces sind ja deshalb noch so teuer, weil die Lagerbestände aller Instanzen sehr hoch waren, also bei NV, bei den Herstellern, den Zwischen- und Großhändlern und den Einzelhändlern. NV musste erst Geld an die Instanzen nachschießen (also ein nachträglicher Rabatt), damit sich der Stau auflöst, indem die Preise sinken.

Neurosphere
2022-08-27, 14:31:08
https://abload.de/img/rdna366d58.jpg

Uhhh....

Aber 9 Chiplets? Waren wie bei einem Hypotetischem Dual N32 nicht bei 8?!

basix
2022-08-27, 14:38:45
9 chiplets wären eher wieder was für Dual-GCD und zentrales IOD (+6x MCDs). Dann noch 13x Chiplets? Naja, Slalom ist ein Witz dagegen :D

Bleibt spannend;)

ChaosTM
2022-08-27, 14:41:01
Jop, diesmal ist es wirklich spannend.

Linmoum
2022-08-27, 14:41:20
Mass Production würde eigentlich ziemlich sicher noch Q4-Launch bedeuten. Kann ich mir nicht so recht vorstellen für eine mögliche Dual-GCD-Variante. Oder die Yields sind tatsächlich derart fantastisch und Dual-GCD funktioniert reibungslos, dass AMD wirklich All-In geht.

horn 12
2022-08-27, 14:54:57
https://www.youtube.com/watch?v=ATS-fyQZuwA

Hier das Video:

500 Watt Version mit 96 WGp
und 7900XT mit 48 WGp

Alles Spekulation, aber wenns so kommt schwierig für Nvidia!

fondness
2022-08-27, 15:00:37
https://abload.de/img/rdna366d58.jpg

Uhhh....

Aber 9 Chiplets? Waren wie bei einem Hypotetischem Dual N32 nicht bei 8?!

LOL, war klar, dass die ganzen vermeintlichen Leaks am Ende alles Enten waren 😅. Das mit den 13 chiplets wird dann wohl MI300 sein, würde zumindest zeitlich passen.

Linmoum
2022-08-27, 15:03:18
Dass es irgendwelche potentiellen Dual-GCD-Varianten gibt/geben könnte, hat doch eigentlich fast jeder gesagt?

r3ptil3
2022-08-27, 15:03:31
Desinformation pur - ich traue nur dem, was Lisa Su kommende Woche am Ende der Zen4 Vorstellung zum Thema Grafikkarten selber publizieren wird.

Platos
2022-08-27, 15:34:00
Das mit den 13 Chiplets muss ja nicht mal auf RDNA3 basieren.

Neurosphere
2022-08-27, 15:56:50
Er schreibt zumindest Navi3 bzw Navi. Das bedeutet das es keine MI Karte sein kann, einzige Möglichkeit wäre eine Radeon Pro. Wobei die Pro eigentlich Chiptechnisch nie von den normalen Karten abgewichen sind. Alles was darüber kommt wird mit CDNA gemacht.

mboeller
2022-08-27, 16:16:25
IMHO viel langweiliger ...

1x N32
4x MCD
4x V-Cache

= 9 Chiplets


1x N31
6x MCD
6x V-Cache

= 13 Chiplets

amdfanuwe
2022-08-27, 16:47:30
mboeller war schneller

basix
2022-08-27, 16:52:22
So sehr ich Einfachheit unterstütze: N32 vor N31? N31 erst in einem Jahr?

-> Passt nicht

Linmoum
2022-08-27, 16:55:01
Was will man in dem Fall mit V-Cache bei einem N32? Das Ding wäre trotzdem immer noch langsamer als ein N31. Völlige Verschwendung, zumal schon in diesem Jahr.

Neurosphere
2022-08-27, 16:55:34
IMHO viel langweiliger ...

1x N32
4x MCD
4x V-Cache

= 9 Chiplets


1x N31
6x MCD
6x V-Cache

= 13 Chiplets

Was dann zumindest heißen würde das die Karten erst später kommen mit mehr Cache. Da bin ich bei basix, warum sollte man einen N32 mit VCache nach einem N31 bringen und einen N31 mit mehr Cache erst irgendwann im kommenden Jahr?

Wenn es so wäre könnte man die VCache Variante als 7x50 Refresh laufen lassen, aber dann macht es keinen Sinn das das N32 Derivat jetzt schon in Produktion gehen soll.

bbott
2022-08-27, 17:01:08
N32 vor N31 um mehr vor Produzieren zu können und gleichzeitig oder kaum versetzt Releasen zu können.

Neurosphere
2022-08-27, 17:31:19
Soviel wir vom Skyjuice leak wissen ist N32 =/= N32 + VCache und N31 =/= N31 + VCache, hat also quasi nix damit zu tun.

Gipsel
2022-08-27, 18:47:52
Was will man in dem Fall mit V-Cache bei einem N32?In ein paar hier am Anfang des Threads diskutierten AMD-Patenten ging es um die Verwendung von Brückenchips zwischen den Chiplets, die Cache enthalten (https://www.freepatentsonline.com/y2021/0097013.html). Quasi aktive Bridges, die beides liefern: Verbindung der Chiplets (mit einem dann energieeffizienterem Interface als über ein organisches Substrat) und Cache. Sind die Gerüchte dann jetzt wieder dahin zurück. ;)

mboeller
2022-08-27, 20:26:52
Was will man in dem Fall mit V-Cache bei einem N32? Das Ding wäre trotzdem immer noch langsamer als ein N31. Völlige Verschwendung, zumal schon in diesem Jahr.

https://www.angstronomics.com/p/amds-rdna-3-graphics


Navi32 will also be coming to mobile as a high-end GPU offering in AMD Advantage laptops. There were plans for a 128MB (1-hi) version, however it might not be productized due to the aforementioned costs.


N32 ist auch als Highend mobile GPU geplant. Da ist ein größerer V-Cache vielleicht notwendig um die notwendige Performance zu erreichen.
zB.: wenn der V-Cache die Performance um 15-20% steigert, dann kann man den Takt vielleicht um 10-20% senken und damit 20-40% Energie sparen. Was bei einer mobilen GPU vielleicht notwendig ist.

Linmoum
2022-08-27, 20:41:57
Mag nicht falsch sein, aber gerade mobile spielen Kosten eine nicht unerhebliche Rolle. Die durch V-Cache unweigerlich steigen würden. Und wenn AMD dort die Präsenz erhöhen will, ist das... kontraproduktiv.

Und wie gesagt, jetzt schon Massenproduktion ist ziemlich sicher ein Launch auch noch in diesem Jahr. Kann ich mir in der Kombination mit V-Cache nicht vorstellen. Mobile aus Kostengründen, Desktop weil man eben nicht, wie z.B. auf der anderen Seite der 5800X3D, einen N31 schlagen würde. Mehr Cache als ein N31 aber deutlich niedrigere Performance sind nicht wirklich stimmig.

iamthebear
2022-08-27, 21:16:14
VCache wäre zwar sehr naheliegend aber wenn Navi32 erst Q2 2023 kommen soll wie soll dann bereits jetzt die Massenproduktion laufen?

Für Desktop halte ich N32 + VCache in der Tat für relativ sinnlos, als Mobile Variante macht es aber Sinn. N31 ist aus TDP Gründen nicht möglich selbst mit wenig Takt.

Die Kosten sind auch relativ egal. AMD verkauft sowieso so gut wie keine High End Gaming Notebooks. Da dürften die Stückzahlen echt überschaubar sein.
Man würde aber sicher gerne mehr High End Gaming Notebooks verkaufen und wenn man ein Modell heraus bringt, das Nvidia klar schlagen kann, dann würde das enormen Aufwind ergeben selbst für die Modelle darunter.
Und selbst wenn die Margen für die GPU eher mau sind: AMD GPU im Notebook bedeutet auch AMD CPU+Chipsatz statt Intel im Notebook.


Als alternativen Erklärungsmöglichkeiten gäbe es noch:
.) Dual GCD (mit z.B. je 32 WGPs) + IO Die + 6 MCDs als Bridge. Das sind dann aber klarerweise andere MCDs mit z.B. 32MB pro MCD.
.) Single GCD mit 64 WGPs + 8 regulären MCDs

Für die 13 Chiplet Variante wäre meine einzige Erklärung, dass dies bereits RDNA4 ist und dort die Aufteilung anders ist (z.B. nur 32Bit pro MCD). Single oder Dual GCD wäre beides möglich.

Aus dem Bauch heraus würde ich jedoch auch sagen, dass es lediglich der VCache ist und dass Navi32 vielleicht doch früher launched als erwartet.

amdfanuwe
2022-08-27, 22:01:57
wenn man ein Modell heraus bringt, das Nvidia klar schlagen kann, dann würde das enormen Aufwind ergeben selbst für die Modelle darunter.
Und selbst wenn die Margen für die GPU eher mau sind: AMD GPU im Notebook bedeutet auch AMD CPU+Chipsatz statt Intel im Notebook.

Seh ich auch so.
Mit Dragon Range (3D-VCache?) und potenter N32 könnte der Gaming Notebook Markt als nächstes auf AMDs Agenda stehen.

Nach
Desktop
HEDT
HPC
Mobile-U

geht's jetzt weiter mit
Mobile Gaming
Cloud ( Bergamo )
Server Enterprise (Siena)

Damit deckt AMD fast alle Bereiche ab.

Platos
2022-08-27, 23:57:41
Bei Laptops ist es m.M.n immer besonders schwer, weil man da nicht ein Gerät selbst zusammen bauen kann (mit der Freiheit wie beim Desktop).

Ergo fällt die Auswahl bei AMD klein aus oder sogar komplett nicht existent, sobald man etwas speziellere wünsche hat (oder fast keine Auswahl mehr dann).

Aber Laptopmarkt ist eh kacke.

Nightspider
2022-08-28, 09:12:30
Würde man die Leistung von N32 mit V-Cache um 20% steigern können, würde das eventuell schon Sinn machen.
Man füllt dann die Lücke zwischen N32 und N31 und belastet damit nur das N6 Wafer Kontingent.

Linmoum
2022-08-28, 23:02:32
It's a narrower core on a better node. The clock gap vs NVIDIA on the same node is far more impressive.
Pretty much the same as last gen.
Percentage.
https://mobile.twitter.com/highyieldYT/status/1563921964133138434

Alles von kepler.

Jetzt ist die Frage, was man als Vergleichspunkt heranzieht (höchsttaktender Ampere vs. höchsttaktender RDNA2? GA102 vs N21?)

Wenn man bei Ada mal von 2.7-2.8GHz ausgeht, würde das bei RDNA3 dann Richtung >3.5GHz gehen. Ich wäre ja schon beeindruckt, wenn AMD stabil - vor allem bei N31 - die 3GHz übertrumpft. Aber wenn die da jetzt tatsächlich noch mal einen solch riesigen Taktsprung hingelegt haben...

Neurosphere
2022-08-28, 23:21:23
https://mobile.twitter.com/highyieldYT/status/1563921964133138434

Alles von kepler.

Jetzt ist die Frage, was man als Vergleichspunkt heranzieht (höchsttaktender Ampere vs. höchsttaktender RDNA2? GA102 vs N21?)

Wenn man bei Ada mal von 2.7-2.8GHz ausgeht, würde das bei RDNA3 dann Richtung >3.5GHz gehen. Ich wäre ja schon beeindruckt, wenn AMD stabil - vor allem bei N31 - die 3GHz übertrumpft. Aber wenn die da jetzt tatsächlich noch mal einen solch riesigen Taktsprung hingelegt haben...

... oder AD10x eben doch nicht so hoch taktet.

Aber auch hier halt wieder die Frage ob das wirklich Leaker oder Träumer sind.

vinacis_vivids
2022-08-29, 02:29:03
Bei AMD werden 2.8Ghz bereits mit 7nm erreicht (6950XT) und 3.0Ghz bei 6nm (RX6500XT). Da sind 3.3-3.5Ghz GPU-CLK der logische Schritt. Das exponentielle Limit wird wohl bei 3.6-3.7Ghz liegen.
Ähnliche Taktraten wurden ja CPU-seitig bei Zen1 uArch erreicht (All-Core 3.9Ghz)

Über optimistisch wären 3.9Ghz GPU-CLK, was ich bei der ersten 5nm Iteration für unrealistisch halte. Vllt. bei refresh möglich.

Genauso interessant wird der IF-CLK sein, welcher derzeit bei 1.94Ghz (N21 XTX) liegt. Wenn dieser ~2.5Ghz erreicht, dann wird der IF$ eine deutlich bessere Hitrate bekommen.

Insgesamt wird AMD beim Takt den Vorsprung ggü. Nvidia ausbauen. Ob nun 3,3 oder 3,6Ghz werden wir bald sehen.

Beim N31 Prestige-Modell wird AMD nach der Leistungskrone greifen bei geringeren Verbrauch.

HOT
2022-08-29, 08:10:16
VCache wäre zwar sehr naheliegend aber wenn Navi32 erst Q2 2023 kommen soll wie soll dann bereits jetzt die Massenproduktion laufen?

Für Desktop halte ich N32 + VCache in der Tat für relativ sinnlos, als Mobile Variante macht es aber Sinn. N31 ist aus TDP Gründen nicht möglich selbst mit wenig Takt.

Die Kosten sind auch relativ egal. AMD verkauft sowieso so gut wie keine High End Gaming Notebooks. Da dürften die Stückzahlen echt überschaubar sein.
Man würde aber sicher gerne mehr High End Gaming Notebooks verkaufen und wenn man ein Modell heraus bringt, das Nvidia klar schlagen kann, dann würde das enormen Aufwind ergeben selbst für die Modelle darunter.
Und selbst wenn die Margen für die GPU eher mau sind: AMD GPU im Notebook bedeutet auch AMD CPU+Chipsatz statt Intel im Notebook.


Als alternativen Erklärungsmöglichkeiten gäbe es noch:
.) Dual GCD (mit z.B. je 32 WGPs) + IO Die + 6 MCDs als Bridge. Das sind dann aber klarerweise andere MCDs mit z.B. 32MB pro MCD.
.) Single GCD mit 64 WGPs + 8 regulären MCDs

Für die 13 Chiplet Variante wäre meine einzige Erklärung, dass dies bereits RDNA4 ist und dort die Aufteilung anders ist (z.B. nur 32Bit pro MCD). Single oder Dual GCD wäre beides möglich.

Aus dem Bauch heraus würde ich jedoch auch sagen, dass es lediglich der VCache ist und dass Navi32 vielleicht doch früher launched als erwartet.

N32 ist der zweite Chip der Tape Out hatte, N33 der 3. Ich glaube kaum, dass N32 als letztes kommt. Da muss man sich vom Gerüchtemüll glaub ich mal lösen.

iamthebear
2022-08-29, 08:11:08
Ich frage mich woher Kepler das wissen will. Der hat ja afaik keine wirklichen Quellen sondern zieht seine Infos aus dem Linux Code.

Ada erreicht mit genug Saft (550W für die 4090) ca. 3GHz Boost.
RDNA2 vs. Ampere waren 30-40% (2GHz vs. 2.7GHz).
Das wären dann um die 4GHz was ich für Schwachsinn halte
Die anderen Leaks reden von ca. 3GHz für Navi31 und etwas mehr für Navi32/33, da eben höher getaktet.

HOT
2022-08-29, 08:21:46
Ada wird im Durchschnitt wohl bei ca. 2,5GHz liegen. AMD muss dann eben bei >3 liegen im Durchschnitt. Hier gehts doch nicht um die Extremwerte.

iamthebear
2022-08-29, 08:36:09
N23 ist der zweite Chip der Tape Out hatte, N33 der 3. Ich glaube kaum, dass N32 als letztes kommt. Da muss man sich vom Gerüchtemüll glaub ich mal lösen.

Was bezeichnest du als "Durchschnitt"?
Die 4090 ist das am niedrigsten taktende Modell und schafft in Gaming Workloads 2.7-2.8 GHz. Die 2.5GHz Boosttakt sind so aussagekräftig wie die 1.7GHz bei Ampere.

Was Navi32 angeht:
Navi31 wird aps erstes launchen aus dem einfachen Grund, dass dieser nicht mit dem bestehenden Lineup konkurriert von man Unmengen auf Lager hat.

Navi33 kommt ja erst Q1 2023 und ich glaube nicht, dass dieser die Performance hat, die sich viele erhoffen. N22 ist meiner Ansicht der best case. Alles darüber wäre ein Wunder. Der wird statt N22 eingeschoben um 400-500$ und stört dort auch niemanden.

Und dann erst kommt N32 in Q2 2023 der den Preis nach unten drückt.

Nvidia wird wohl auch einen auf Pascal machen:
Teuer launchen und ein halbes Jahr später mit dem Preis nachrücken und oben noch einmap eine 4090 Ti nachschießen.

HOT
2022-08-29, 08:43:44
AMD könnte N31 und 32 zusammen launchen, da das mehr als 1 Jahr nach Tape Out releast wird. Oder AMD launcht N32 und N33 zusammen zu CES. Aber ganz sicher ist, dass N32 nicht als letztes erscheinen wird.

Im Durchschnitt heißt reale Spieletakte und die sind eben etwas unter dem Maximalturbo. Es handelt sich hier um eine pi-mal-Daumen-Angabe, nichts genaues, und so muss man das auch interpretieren.

why_me
2022-08-29, 10:06:20
Genauso interessant wird der IF-CLK sein, welcher derzeit bei 1.94Ghz (N21 XTX) liegt. Wenn dieser ~2.5Ghz erreicht, dann wird der IF$ eine deutlich bessere Hitrate bekommen.

Was hat die Taktrate mit der Hitrate zu tun? :confused:
Wenn die daten nicht im Cache liegen, kannst du noch so schnell drauf zugreifen, die müssen so oder so erst aus dem langsamen RAM geladen werden.

iamthebear
2022-08-29, 10:42:27
AMD könnte N31 und 32 zusammen launchen, da das mehr als 1 Jahr nach Tape Out releast wird. Oder AMD launcht N32 und N33 zusammen zu CES. Aber ganz sicher ist, dass N32 nicht als letztes erscheinen wird.

AMD wird N32 sicher nicht launchen bevor alle N21 abverkauft sind. Hier müsste N32 preislich schon deutlich überhalb von N21 gelaunched werden und dann bleibt kein Platz mehr für N31.

Bei N33 ist das weniger das Problem. Dieser wird primär im Notebookmarkt gelaunched werden und dort neue Marktanteile holen.
Und wenn man ein paar Desktopkarten damit baut dann schlägt man eben erst mal 100$ mehr drauf und verkauft N22 und 33 parallel.

Im Durchschnitt heißt reale Spieletakte und die sind eben etwas unter dem Maximalturbo. Es handelt sich hier um eine pi-mal-Daumen-Angabe, nichts genaues, und so muss man das auch interpretieren.

Und diese realen Spieltakte sind 2.7GHz bei der 4090, bei den anderen Karten etwas mehr bis zu 3GHz.
Maximaler Boosttakt dürften 3GHz+ sein.

davidzo
2022-08-29, 11:08:35
Ada erreicht mit genug Saft (550W für die 4090) ca. 3GHz Boost.
Eben genau das ist es. "Can reach 2.8Ghz" und "its easy to reach 2.8" sagt ja eigentlich recht deutlich dass dies keine default Taktraten sind, also erst unter Overclocking entstehen.
Lovelace scheint noch viel stärker durch die TGP limitiert zu sein, wobei die PCBs und Phasen wohl auch mehr ab könnten (550W?).
Ich halte es für durchaus plausibel dass man die 2,8Ghz auf einer unübertakteten und luftgekühlten Karte mit default TGP niemals sehen wird.

Erinnert mich ein bisschen an Intels raptorlake ES Werte, die wie jetzt rausgekommen ist fast alle im Extreme Performance Mode entstanden sind, also bei unlimitierter TDP und mit wakü und extremeren Kühlungen.
Das ist eher ein Verzweiflungs-Move wenn man vor dem Launch schon Übertakter beauftragt die Hardware zu pushen und leaken imo. Erinnert mich an den FX9590.

AD102 hat auf der 4090 normalerweise vielleicht 2,4-2,5Ghz average boost. Und wenn die 3Ghz für Navi 31 der normale gameclock sind, dann wäre das schon wieder ein ähnlicher Abstand. Aber so detailliert weiß der Leaker sicherlich selbst auch noch nicht bescheid...

HOT
2022-08-29, 11:25:32
AMD wird N32 sicher nicht launchen bevor alle N21 abverkauft sind. Hier müsste N32 preislich schon deutlich überhalb von N21 gelaunched werden und dann bleibt kein Platz mehr für N31.

Bei N33 ist das weniger das Problem. Dieser wird primär im Notebookmarkt gelaunched werden und dort neue Marktanteile holen.
Und wenn man ein paar Desktopkarten damit baut dann schlägt man eben erst mal 100$ mehr drauf und verkauft N22 und 33 parallel.
mach keine Probleme wo keine sind. N21 ist sehr schnell abverkauft. Im Verhältnis sind da doch kaum welche auf dem Markt. Zur Not verschleudert man die mal eben, dann sind sie weg.
Und N32 ist auch kein Problem, wenn N31 der erste ist. Das ist doch total unlogisch. N33 wurde als letztes fertiggestellt und wird auch als letztes launchen, was denn sonst. Was wurde dan fürn Quatsch zusammenspekuliert, dass N33 als erste käme und anderer Blödsinn. Ich sag ja, man muss sich von den frühen Gerüchten trennen.


Und diese realen Spieltakte sind 2.7GHz bei der 4090, bei den anderen Karten etwas mehr bis zu 3GHz.
Maximaler Boosttakt dürften 3GHz+ sein.

Kann sein, kann auch nicht sein. Ich wette 2,5 im Durchschnitt, du 2,7.

davidzo
Exakt.

basix
2022-08-29, 17:36:30
Navi33 kommt ja erst Q1 2023 und ich glaube nicht, dass dieser die Performance hat, die sich viele erhoffen. N22 ist meiner Ansicht der best case. Alles darüber wäre ein Wunder.

32x verdoppelte CU und ~3GHz für nur N22 Performance ist doch unrealistisch niedrig. Da hätte man auch N23 auf den Takt bringen können und gut ist.

vinacis_vivids
2022-08-29, 18:34:46
Was hat die Taktrate mit der Hitrate zu tun? :confused:
Wenn die daten nicht im Cache liegen, kannst du noch so schnell drauf zugreifen, die müssen so oder so erst aus dem langsamen RAM geladen werden.

Höhere Taktrate erlaubt schnellere Löschung von Daten und somit in der gleichen Zeit mehr freien Speicherplatz, was zu höherer verfügbarer Bandbreite führt.

Iscaran
2022-08-29, 18:44:33
Höhere Taktrate erlaubt schnellere Löschung von Daten und somit in der gleichen Zeit mehr freien Speicherplatz, was zu höherer verfügbarer Bandbreite führt.

Das ändert aber nix an der Hitrate?

Hit = Treffer = Braucht nicht erst wieder aus dem RAM geladen werden, weil liegt lokal vor.

Das höhere Taktrate, höhere Bandbreite bringt ist trivial. Aber Hitrate bringt WENIGER benötigten Datentransfer überhaupt (+ noch schnellerer Zugriff da Daten ja lokal vorliegen und eben nicht erst "geladen" werden müssen).

AffenJack
2022-08-29, 18:58:12
32x verdoppelte CU und ~3GHz für nur N22 Performance ist doch unrealistisch niedrig. Da hätte man auch N23 auf den Takt bringen können und gut ist.

Du willst N23 mit 3,4 ghz takten in 6nm? Da will ich den Verbrauch aber nicht sehen fürs Notebook.
Niemand weiß, ob es überhaupt 3ghz werden bei N33, denn wir reden noch immer von 6nm. Kann gut sein, dass wir nur bei 5nm über 3ghz sehen und dann sind wir gerade mal bei +10% Takt. Und Ampere hat schon gezeigt, das ne einfache Shaderverdopplung nicht soviel bringt. Man kann nicht einschätzen, wieviel das bringt, aber es ist klar, dass die IPC deutlich sinken wird. Die Performanceeinschätzungen für N31 deuten auf bis zu +30% durch die CU Verdopplung. Dazu gab es ja sogar noch Gerüchte, dass N33 abgespeckte CUs bekommt. Sollte N33 nicht soviel höher takten als N23, dann wird das N22+10% und das wars.

basix
2022-08-29, 19:09:34
Ich habe nicht gesagt, dass man N23 so hoch taktet. Sondern: N23 auf 3 GHz wäre schon im Bereich einer 6700XT unterwegs. Und deswegen ist es unrealistisch, dass N33 so tief fliegt, da dann die doppelten ALUs quasi nichts nützen würden.

AffenJack
2022-08-29, 19:14:16
Ich habe nicht gesagt, dass man N23 so hoch taktet. Sondern: N23 auf 3 GHz wäre schon im Bereich einer 6700XT unterwegs. Und deswegen ist es unrealistisch, dass N33 so tief fliegt, da dann die doppelten ALUs quasi nichts nützen würden.

Wenn du -10% als im Bereich siehst, für ne 6700XT brauchst du 3,3ghz, für ne 6750 eher 3,4-3,5ghz. Niemand hat gesagt, dass die doppelten ALUs nix nützen. Aber 30% sind realitisch bei einer Verdopplung und es ist fragwürdig ob eben groß mehr als 10% merh Takt rauskommen. N31, N32 sind einfach in einem anderen Prozess und da schöne schlanke Chips, die man dann deutlich höher takten kann.

Und weil du von Realismus redest, also du erwartest den mit Abstand größten Architektursprung den es jemals bei GPUs gab bei Perf/Transistor? Denn nichts anderes bedeuten die Performanceangaben, an die hier einige glauben. Tut mir leid, dass ich da eher auf der vorsichtigen Seite bin.

Nightspider
2022-08-29, 20:02:44
In 6 Stunden sehen wir wahrscheinlich Spiele auf N31 laufen. :naughty:

davidzo
2022-08-29, 20:03:41
Und weil du von Realismus redest, also du erwartest den mit Abstand größten Architektursprung den es jemals bei GPUs gab bei Perf/Transistor? Denn nichts anderes bedeuten die Performanceangaben, an die hier einige glauben. Tut mir leid, dass ich da eher auf der vorsichtigen Seite bin.

RV770 hatte bei gerade mal +40% Transistoren auch +70% Leistung (im GPUlimit), mit FSAA+AF sogar +130%.

Linmoum
2022-08-29, 20:18:42
Wenn du -10% als im Bereich siehst, für ne 6700XT brauchst du 3,3ghz, für ne 6750 eher 3,4-3,5ghz. Niemand hat gesagt, dass die doppelten ALUs nix nützen. Aber 30% sind realitisch bei einer Verdopplung und es ist fragwürdig ob eben groß mehr als 10% merh Takt rauskommen. N31, N32 sind einfach in einem anderen Prozess und da schöne schlanke Chips, die man dann deutlich höher takten kann.

Und weil du von Realismus redest, also du erwartest den mit Abstand größten Architektursprung den es jemals bei GPUs gab bei Perf/Transistor? Denn nichts anderes bedeuten die Performanceangaben, an die hier einige glauben. Tut mir leid, dass ich da eher auf der vorsichtigen Seite bin.Bei TPU ist die 6700XT keine 20% schneller als die 6600XT. Bei PCGH sind es rund 25%, da besteht der Index aber auch aus allen Auflösungen gemischt und wird durch UHD bei der 6600XT nach unten (bzw. für die 6700XT nach oben) gezogen.

Lass es von mir aus 25% als worst case sein im Schnitt. Mit 3GHz würde N33 ~20% höher takten als N22. N24 schafft bereits spielend leicht über 2.9GHz, insofern wüsste ich nicht, wo hier für N33 das Problem sein sollte. Mit diesem mehr an Takt hast du die Performancedifferenz fast schon reingeholt ohne auch nur doppelte ALUs zu berücksichtigen. Selbst wenn die Performance durch letzteres nur um 15% steigen würde - was nicht der Fall sein wird - hätte man eine 6700XT/6750XT schon locker kassiert.

AffenJack
2022-08-29, 20:24:06
RV770 hatte bei gerade mal +40% Transistoren auch +70% Leistung (im GPUlimit), mit FSAA+AF sogar +130%.

Das war bei 8xAA, aber ich lass mich gerne auf die CB Werte ein mit +91% bei +43% Transistoren. 8xAA ist eher spezialfall, wie auch RT gerade. Da wird mit N33 auch mehr möglich sein. Ergibt +33% Perf/Transistor.

Das wird hier aber ja als unrealitisch betitelt, weil es so wenig ist und in der Kalkulation ist ja schon drin, dass die Packdichte um 16% steigt, damit N33 mit 203mm² die Transistorzahl von N23 erreicht.

Bei TPU ist die 6700XT keine 20% schneller als die 6600XT. Bei PCGH sind es rund 25%, da besteht der Index aber auch aus allen Auflösungen gemischt und wird durch UHD bei der 6600XT nach unten (bzw. für die 6700XT nach oben) gezogen.

Lass es von mir aus 25% als worst case sein im Schnitt. Mit 3GHz würde N33 ~20% höher takten als N22. N24 schafft bereits spielend leicht über 2.9GHz, insofern wüsste ich nicht, wo hier für N33 das Problem sein sollte. Mit diesem mehr an Takt hast du die Performancedifferenz fast schon reingeholt ohne auch nur doppelte ALUs zu berücksichtigen. Selbst wenn die Performance durch letzteres nur um 15% steigen würde - was nicht der Fall sein wird - hätte man eine 6700XT/6750XT schon locker kassiert.

https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_full_hd

6650XT vs 6750XT, da jeweils ausgereizte Chips N23 vs N22 bei FullHD 33% Unterschied. Darauf beziehe ich mich.

Es gibt da kein spielend leicht beim Takt. Wieso taktet denn N23 nicht auch bei 2,9ghz wie N24? Weil der Verbrauch durch die Decke gehen würde. Dazu wird die Perf/Transistor entweder noch irrsinniger bei ähnlicher Packdichte oder man erhöht die Packdichte gleichzeitig mit steigender Taktrate. Beides ist einfach nicht wahrscheinlich. Außer ihr erwartet N33 bei 250W.

Es wäre was völlig anderes, wenn der Chip 300mm² in 6nm wäre. Dann hätte ich da überhaupt kein Problem mit. Ich rechne aber mit Angstronomics Daten. Wenn die falsch sind, dann ist das durchaus alles möglich, denn höherer Takt kostet ja oft Packdichte. Wenn die aber passen, dann ist das extrem unwahrscheinlich, was ihr hier so kolporiert. RV770, wie davidzo erwähnt hat, ist der größte mir bekannte Perf/Transistor Sprung jemals. Alles darüber ist mir zu superlativ und dürfte nur zu Enttäuschungen führen.

Linmoum
2022-08-30, 00:23:09
Laut VCZ scheint es heute wohl auch noch "one last thing" zu geben. :D

prinz_valium_2
2022-08-30, 00:47:21
Laut VCZ scheint es heute wohl auch noch "one last thing" zu geben. :D

Dann lohnt es sich ja doch noch den Stream zu schauen.

Linmoum
2022-08-30, 00:50:16
https://cdn.videocardz.com/1/2022/08/AMD-Radeon-7000-1-1800x635.jpg

aceCrasher
2022-08-30, 01:34:16
Puh... die Demo war aber ziemlich mau. Bei einem noch nicht releasten Spiel kann man ja nichtmal die Performance einordnen.

Wake
2022-08-30, 01:38:01
Vor allem ein Soulslike, die Chancen dass es sowieso ein 60 fps-Limit hat stehen da gut :whistle:.

Linmoum
2022-08-30, 01:42:53
https://cdn.videocardz.com/1/2022/08/AMD-Radeon-7000-1-1800x635.jpg
Na, fällt hier jemandem übrigens auf der rechten Seite was auf? Aus dem Angstronomics-Leak von vor knapp drei Wochen:
The reference card appears to have an updated 3-fan design that is slightly taller than the previous generation, with a distinctive 3 red stripe accent on a section of the heatsink fins near the dual 8-pin connectors.Kann sich jetzt eigentlich jeder denken, wie der ganze Rest davon einzuordnen ist. ;) Damit wohl auch tatsächlich nur Dual 8-pin und wahrscheinlich ~350W.

basix
2022-08-30, 11:09:05
AMD macht mit RDNA3 mit den drei Streifen einen auf BMW M3 :D

aceCrasher
2022-08-30, 12:45:04
Damit wohl auch tatsächlich nur Dual 8-pin und wahrscheinlich ~350W.

Gott sei Dank, dann brauch ich evtl nichtmal ein neues Netzteil, und wenn dann kein ATX 3.

Neurosphere
2022-08-30, 16:59:15
Rest machen die Hersteller wenn die Karte gut geht.

Würde es aber schade finden wenn kein ATX 3.0 kommt:frown:

Linmoum
2022-08-30, 18:17:16
Der Netzteilmarkt ist noch immer ein Trauerspiel dafür und man spart sich hässliche Adapter. Ich hab nichts dagegen.

Gott1337
2022-08-30, 18:21:38
Na, fällt hier jemandem übrigens auf der rechten Seite was auf? Aus dem Angstronomics-Leak von vor knapp drei Wochen:
Kann sich jetzt eigentlich jeder denken, wie der ganze Rest davon einzuordnen ist. ;) Damit wohl auch tatsächlich nur Dual 8-pin und wahrscheinlich ~350W.
heißt dann wohl auch leider nur 50% mehr Performance, das haben sie ja auch schon angegeben. also 50% mehr p/w.
€dit: Aber geil wäre wenn sie jetzt deutlich mehr RT Power hätten und irgendwas mit ML. dann wäre das gut.

dargo
2022-08-30, 18:29:38
heißt dann wohl auch leider nur 50% mehr Performance
Aha... und aus welcher Glaskugel hast du dir das jetzt gesaugt? ;D

bbott
2022-08-30, 18:30:22
heißt dann wohl auch leider nur 50% mehr Performance, das haben sie ja auch schon angegeben. also 50% mehr p/w.
€dit: Aber geil wäre wenn sie jetzt deutlich mehr RT Power hätten und irgendwas mit ML. dann wäre das gut.
Wenn AMD bei Zen 4 tiefgestapelt hat, wird bei RDNA maßlos übertreiben :D

fondness
2022-08-30, 18:41:21
Wenn man mal von 60% mehr perf/Watt ausgeht, was wohl das mindeste ist das man erwarten kann wenn AMD von >50% spricht und von den oben genannten 350Watt, dann wäre das 1.6*350/300, also ca 87% mehr performance vs der 6900 XT.

Iscaran
2022-08-30, 19:32:55
Irgendwie erinnert mich das ganzen an den Ryzen release...kaum "Hype", seitens AMD war extrem wenig geleaked (zuminder in meiner mind map). Dann kam die Bombe, man ist IPC-technisch wieder auf @Intel niveau und hat Kerne satt...

Dann ging es zack-zack-zack. Ryzen2, ...usw. Mittlerweile Zen 4 => @6GHz....wtf, wo ist Intel der "Clock champion" (Ich denke da an die Sprüche "ja, aber mein 8700 K auf l337 -gHZ mit OC und Nitro, der ist immer noch mind. 10 FPS schneller als der Ryzen!"

RDNA1...Man ist wieder da, RDNA2 war eigentlich ein "Woot, was geht da denn?!?!"

RDNA3 ---- es herrscht eigentlich bestenfalls Gerüchtechaos, selbst im eigenen "Teaser" ist AMD komplett "still"...praktisch kein Hint auf performance.
=> Ryzen Launch die zweite?

Na ich freu mich wenns klappt.

Der_Korken
2022-08-30, 19:40:11
Wenn man mal von 60% mehr perf/Watt ausgeht, was wohl das mindeste ist das man erwarten kann wenn AMD von >50% spricht und von den oben genannten 350Watt, dann wäre das 1.6*350/300, also ca 87% mehr performance vs der 6900 XT.

Das halte ich für eine solide Schätzung, mit dem Einwand, dass die Leistung unter RT deutlich mehr zulegen könnte, d.h. durchaus 2,5x in einzelnen Titeln. Ich hatte ja schon mal gesagt, dass man lieber von den WGPs her rechnen sollte (48/40 * 3,2/2,3 = 1,66), sodass als Unbekannte dann bleibt wieviel reale Performance die breiteren VALUs bringen. Zwischen 10% und 50% ist alles möglich und sicher auch stark vom Spiel abhängig.

fondness
2022-08-30, 20:00:18
Oder es kommt so wie beim zen4, wo aus den >15 % dann eher 30% wurden, dann wirds spannend :D

OgrEGT
2022-08-30, 21:41:41
Wenn man mal von 60% mehr perf/Watt ausgeht, was wohl das mindeste ist das man erwarten kann wenn AMD von >50% spricht und von den oben genannten 350Watt, dann wäre das 1.6*350/300, also ca 87% mehr performance vs der 6900 XT.
Es kommt darauf an von welcher perf/w man bei rdna2 ausgeht... von der 6800 oder der 6900xt...

Nazar
2022-08-30, 21:42:33
heißt dann wohl auch leider nur 50% mehr Performance, das haben sie ja auch schon angegeben. also 50% mehr p/w.
€dit: Aber geil wäre wenn sie jetzt deutlich mehr RT Power hätten und irgendwas mit ML. dann wäre das gut.

:eek:

mindestens 50% moar Performance per Watt sind bei dir gleich overall 50% Mehrperformance eines neuen Chips mit mehr Recheneinheiten und neuem Design?
Wenn ja, dann:
:facepalm:

Ansonsten:
Trololololol

Wenn man mal von 60% mehr perf/Watt ausgeht, was wohl das mindeste ist das man erwarten kann wenn AMD von >50% spricht und von den oben genannten 350Watt, dann wäre das 1.6*350/300, also ca 87% mehr performance vs der 6900 XT.

Wenn RDNA2 alter Prozess versus (hypothetischen) RDNA2 mit neuem Prozess, dann passt das. Bezieht man noch alle andere Änderungen für das RDNA3 Design mit ein, sollte es möglich sein den Faktor 2 in Mehrpreformance zu knacken.
Wieso reden immer alle von einem kalten Winter? Der wird heiß, heiß, heiß (egal ob Performance oder Verlustleistung;)). :D

Es kommt darauf an von welcher perf/w man bei rdna2 ausgeht... von der 6800 oder der 6900xt...

Bisher ist AMD immer vom "Flaggschiff" ausgegangen, weshalb sollten sie das zum ersten Mal ändern? Aber ja, es kommt darauf an.

OgrEGT
2022-08-30, 22:31:57
(...)
Bisher ist AMD immer vom "Flaggschiff" ausgegangen, weshalb sollten sie das zum ersten Mal ändern? Aber ja, es kommt darauf an.

Könnte gut sein, dass wenn man von Verbesserungen bei perf/W spricht, die bis dahin bei rdna2 best erreichte perf/W als Basis nimmt.


(...)
https://www.igorslab.de/greift-amd-nach-der-krone-radeon-rx-6900-xt-16-gb-im-test-mit-benchmarks-und-einer-technikanalyse/13/
Karte / perf index 4k / Leistungsaufnahme / perf/W (Igor)
6900xt / 108% / 304W / 0,35
6800xt / 100% / 299W / 0,33
6800 / 88% / 225W / 0,39
----------------------------------------
Karte / perf/W (Basis 6800) / perf index 4k / Leistungsaufnahme
7900xt (N31) / 0,58 (+50%) / 219% / 375W
7900xt (N31) / 0,60 (+55%) / 227% / 375W

Und wie beim FAD auf einer Folie gezeigt, sind in den >+50% perf/W alle architektonischen Verbesserungen bereits eingepreist.

https://images.anandtech.com/doci/17443/2022-06-09%2013_36_23_575px.jpg (https://images.anandtech.com/doci/17443/2022-06-09%2013_36_23.jpg)

iamthebear
2022-08-30, 22:33:07
Rein von der Verlustleistung hätte ich absolut Null bedenken, dass es auch deutlich mehr als 2x werden könnten.

Das war mir Kopfzerbrechen bereitet sind die sehr kleinen GCDs und da Navi33 auch so klein ist kann man das kaum nur dem Custom N5 Prozess in die Schuhe schieben.

Ein N6 Chip mit 200mm² der angeblich so schnell sein soll wie ein 520mm² N7 Chip? Sorry aber da habe ich so meine Probleme das zu glauben.
Ähnlich bei Navi31: Vorher war der GCD Teil ca. 400mm², mit Navi31 sind es nur mehr 300mm². Da fällt es mir auch schwer an 2x oder mehr Performance zu glauben selbst mit Node Shrink.

OgrEGT
2022-08-30, 22:53:46
Rein von der Verlustleistung hätte ich absolut Null bedenken, dass es auch deutlich mehr als 2x werden könnten.

Das war mir Kopfzerbrechen bereitet sind die sehr kleinen GCDs und da Navi33 auch so klein ist kann man das kaum nur dem Custom N5 Prozess in die Schuhe schieben.

Ein N6 Chip mit 200mm² der angeblich so schnell sein soll wie ein 520mm² N7 Chip? Sorry aber da habe ich so meine Probleme das zu glauben.
Ähnlich bei Navi31: Vorher war der GCD Teil ca. 400mm², mit Navi31 sind es nur mehr 300mm². Da fällt es mir auch schwer an 2x oder mehr Performance zu glauben selbst mit Node Shrink.

Der Grund für die kleineren GCDs liegt wohl auch an der Entschlackung der Architektur.
https://videocardz.com/newz/amd-navi-31-gcd-graphics-complex-die-is-reportedly-350-mm%c2%b2-in-size

Nazar
2022-08-30, 23:05:16
Könnte gut sein, dass wenn man von Verbesserungen bei perf/W spricht, die bis dahin bei rdna2 best erreichte perf/W als Basis nimmt.



Und wie beim FAD auf einer Folie gezeigt, sind in den >+50% perf/W alle architektonischen Verbesserungen bereits eingepreist.

https://images.anandtech.com/doci/17443/2022-06-09%2013_36_23_575px.jpg (https://images.anandtech.com/doci/17443/2022-06-09%2013_36_23.jpg)

Ich habe das so gelesen, dass durch den neuen Prozess und das neue Design, welches erlaubte, die Chiplets sehr viel energieeffizienter anzuordnen, es möglich war, dieses Mehr an Performance pro Watt zu generieren, aber nicht, dass das Mehr an Recheneinheiten, etc. da schon mit eingepreist ist.
Wäre es wirklich so, wie du es andeutest, wäre es wirklich nicht so viel an Mehrleistung und man bewegt sich lediglich wieder auf dem vermuteten Niveau von nVidia, wenn auch mit besserer Performance per Wattleistung.

OgrEGT
2022-08-31, 00:21:22
Ich habe das so gelesen, dass durch den neuen Prozess und das neue Design, welches erlaubte, die Chiplets sehr viel energieeffizienter anzuordnen, es möglich war, dieses Mehr an Performance pro Watt zu generieren, aber nicht, dass das Mehr an Recheneinheiten, etc. da schon mit eingepreist ist.
Wäre es wirklich so, wie du es andeutest, wäre es wirklich nicht so viel an Mehrleistung und man bewegt sich lediglich wieder auf dem vermuteten Niveau von nVidia, wenn auch mit besserer Performance per Wattleistung.

Ich würde es so sehen:
Es steht ein bestimmtes Energiebudget für den Chip zur Verfügung, welcher dieses in Leistung umsetzt abzuglich von Verlusten in Form von Wärme. Diese Leistung in Relation zur verbrauchten Energie wird in perf/W ausgedrückt. Das bedeutet, dass der Chip so wie er ist mit den architektonischen Verbesserungen und allen Recheneinheiten in dieses Verhältnis eingeht, da er nur in seiner Gesamtheit die Leistung erbringen kann. Wenn der Chip weniger Recheneinheiten hätte, dann wäre das perf/W Verhältnis entsprechend geringer. Sieht man ja auch an den unterschiedlichen rdna2 SKUs. perf/W ist nicht für alle SKUs konstant. Das liegt einerseits an den unterschiedlichen Betriebspunkten aber auch an der Anzahl der Recheneinheiten. Sie wäre konstant bei gleichem Betriebspunkt, wenn die Leistung proportional mit der Anzahl der Einheiten steigen würde, die Auslastung immer 100% betragen würde.

Was Du meinst wäre eher IPC. Also die Leistungsfähigkeit der Recheneinheiten wie viele Instruktionen pro Takt ausgeführt werden können. Diese wäre unabhängig von der Anzahl der Recheneinheiten.

amdfanuwe
2022-08-31, 02:57:43
Und wie beim FAD auf einer Folie gezeigt, sind in den >+50% perf/W alle architektonischen Verbesserungen bereits eingepreist.

Aus kurzem Nachdenken wurde längeres Nachdenken und die Verwirrung stieg zunehmends.
Was wird da auf der Folie Verglichen?
Klar, RDNA2 mit RDNA3.
Aber was genau?
Bei gleicher Shader Anzahl und gleichem Takt?
Bei gleicher WGP Anzahl und gleichem Takt?
Einfach eine RDNA2 GPU und eine RDNA3 GPU auf gleichen Verbrauch beschränkt und dann die FPS abgelesen? Bei 200W, 300W ????
N21 und N31 volle Pulle und dann Verbrauch und FPS abgelesen?
Beide im Sweet Spot?
Wenn z.B. bei 200W gemessen wurde, wieviel Spielraum hat dann RDNA3 noch im Takt nach oben, wieviel mehr Watt werden N32 gegenüber N21 mit ~300W noch zusätzlich zugestanden?
Wieviel höher kann N5 RDNA3 Takten ohne das der Verbrauch explodiert.
Ohne die genauen Testbedingungen sagt die Folie nichts darüber aus wie Leistungsfähig RDNA 3 wird.
Wenns dumm läuft sind die 50% gar Flops/Watt und bei Spielen wird es gar nicht auf die Straße gebracht.

So wie bei den CPUs, wo 2 8 Kerner bei 3GHz verglichen wurden und ZEN4 dann die Spekulationen daraufhin doch übertraf..

Zudem bezieht sich die Folie auf die 5nm RDNA3.
Wenn N33 in 6nm kommt, dürfte das dort einiges weniger als 50% sein.

Also typische AMD Folie als Appetitmacher und real ist nachher alles möglich zwischen 50 und 200% mehr Leistung für N31 vs N21.

Gott1337
2022-08-31, 04:19:38
Aus kurzem Nachdenken wurde längeres Nachdenken und die Verwirrung stieg zunehmends.
Was wird da auf der Folie Verglichen?
Klar, RDNA2 mit RDNA3.
Aber was genau?
Bei gleicher Shader Anzahl und gleichem Takt?
Bei gleicher WGP Anzahl und gleichem Takt?
Einfach eine RDNA2 GPU und eine RDNA3 GPU auf gleichen Verbrauch beschränkt und dann die FPS abgelesen? Bei 200W, 300W ????
N21 und N31 volle Pulle und dann Verbrauch und FPS abgelesen?
Beide im Sweet Spot?
Wenn z.B. bei 200W gemessen wurde, wieviel Spielraum hat dann RDNA3 noch im Takt nach oben, wieviel mehr Watt werden N32 gegenüber N21 mit ~300W noch zusätzlich zugestanden?
Wieviel höher kann N5 RDNA3 Takten ohne das der Verbrauch explodiert.
Ohne die genauen Testbedingungen sagt die Folie nichts darüber aus wie Leistungsfähig RDNA 3 wird.
Wenns dumm läuft sind die 50% gar Flops/Watt und bei Spielen wird es gar nicht auf die Straße gebracht.

So wie bei den CPUs, wo 2 8 Kerner bei 3GHz verglichen wurden und ZEN4 dann die Spekulationen daraufhin doch übertraf..

Zudem bezieht sich die Folie auf die 5nm RDNA3.
Wenn N33 in 6nm kommt, dürfte das dort einiges weniger als 50% sein.

Also typische AMD Folie als Appetitmacher und real ist nachher alles möglich zwischen 50 und 200% mehr Leistung für N31 vs N21.
Es wird natürlich immer das gesagt, was für die jeweilige Firma am besten klingt/aussieht.
Als mit den 5.5GHz geworben wurde waren diese auch nicht stabil in dem eigenen Video. Das bei einem Titel der nicht wirklich viel CPU Leistung benötigt. Das ist normales Marketing.

Der_Korken
2022-08-31, 09:23:15
Aber was genau?
Bei gleicher Shader Anzahl und gleichem Takt?
Bei gleicher WGP Anzahl und gleichem Takt?
Einfach eine RDNA2 GPU und eine RDNA3 GPU auf gleichen Verbrauch beschränkt und dann die FPS abgelesen? Bei 200W, 300W ????
N21 und N31 volle Pulle und dann Verbrauch und FPS abgelesen?
Beide im Sweet Spot?
Wenn z.B. bei 200W gemessen wurde, wieviel Spielraum hat dann RDNA3 noch im Takt nach oben, wieviel mehr Watt werden N32 gegenüber N21 mit ~300W noch zusätzlich zugestanden?

Ich würde sagen ein Vergleich der Endprodukte. So kam es bei N10 vs N21 einigermaßen hin mit den +50% Perf/W. Bei allem anderen ist der Arbeitspunkt zu verschieden, um sinnvoll vergleichen zu können. Bei Iso-Power sind +50% Performance z.B. sehr gut. Bei Iso-Perf sind dagegen -33% Power (um auf +50% Perf/W zu kommen) ehr mies für einen neuen Chip. Bei V20 vs. V10 (7nm vs 14nm) hatte AMD damals gezeigt, man bekommt aus der Fertigung entweder +25% bei gleichem Verbrauch raus oder -50% Verbrauch bei gleichem Takt. Ersteres sind +25% Perf/W, letzteres sind +100% Perf/W.

Linmoum
2022-08-31, 09:25:12
@Gott1337

Wenn AMD das beste gewollt hätte, hätten sie nicht mit >15% ST geworben, obwohl daraus am Ende knapp 30% geworden sind. Understatement vor dem Herren.

Takt bei CPUs in der Spitze bezieht sich selbstverständlich immer auf Boost. Als AMD die Gamedemo auf der Computex gebracht hat, hatte man ganz davon ab auch noch nur mit 5GHz+ geworben. Nur mal so zu deinem Einwand. Die 5.5GHz kamen erst auf dem FAD im Juni.

Nazar
2022-08-31, 09:31:31
Aus kurzem Nachdenken wurde längeres Nachdenken und die Verwirrung stieg zunehmends.
Was wird da auf der Folie Verglichen?
Klar, RDNA2 mit RDNA3.
Aber was genau?
Bei gleicher Shader Anzahl und gleichem Takt?
Bei gleicher WGP Anzahl und gleichem Takt?
Einfach eine RDNA2 GPU und eine RDNA3 GPU auf gleichen Verbrauch beschränkt und dann die FPS abgelesen? Bei 200W, 300W ????
N21 und N31 volle Pulle und dann Verbrauch und FPS abgelesen?
Beide im Sweet Spot?
Wenn z.B. bei 200W gemessen wurde, wieviel Spielraum hat dann RDNA3 noch im Takt nach oben, wieviel mehr Watt werden N32 gegenüber N21 mit ~300W noch zusätzlich zugestanden?
Wieviel höher kann N5 RDNA3 Takten ohne das der Verbrauch explodiert.
Ohne die genauen Testbedingungen sagt die Folie nichts darüber aus wie Leistungsfähig RDNA 3 wird.
Wenns dumm läuft sind die 50% gar Flops/Watt und bei Spielen wird es gar nicht auf die Straße gebracht.

So wie bei den CPUs, wo 2 8 Kerner bei 3GHz verglichen wurden und ZEN4 dann die Spekulationen daraufhin doch übertraf..

Zudem bezieht sich die Folie auf die 5nm RDNA3.
Wenn N33 in 6nm kommt, dürfte das dort einiges weniger als 50% sein.

Also typische AMD Folie als Appetitmacher und real ist nachher alles möglich zwischen 50 und 200% mehr Leistung für N31 vs N21.

Nachdenken ist natürlich nie verkehrt. ;)
Bisher hat AMD, ebenso wie bei Zen alles im direkten Verhältnis zueinander verglichen. Z.B. die Topdogs bei gleicher Frequenz.
Bleibt sich AMD dabei weiterhin treu, dann kann man recht sicher vorhersagen, in welche Richtung es geht.
Bei RDNA3 gibt es leider viel zu wenig Anhaltspunkte, um gut spekulieren zu können. Gerade die Verlustleistung und wo da der Sweetspot liegt, ist so ein Knackpunkt. Die auf Twitter kolportierten Taktungen ("gleicher prozentualer Abstand wie zu Ampere") erscheinen mir, selbst wenn man nur von +30% ausgeht, schon als sehr hoch, aber machbar.
Ich bin auch der Meinung, dass nVidia vermutlich tiefer stapelt als man glauben mag. Ich kann mir kaum vorstellen, dass AMD für die annähernd identische Performance 100 Watt weniger benötigen soll (450 zu 350 Watt (4090 vs 7900XT)).
Dass AMD overall "nur" mit maximal 50% Mehrperformance antreten wird, halte ich für ausgeschlossen, da schon bei RDNA2 bei 300 Watt nicht Schluss war. ;)

dargo
2022-08-31, 09:51:30
Dass AMD overall "nur" mit maximal 50% Mehrperformance antreten wird, halte ich für ausgeschlossen, da schon bei RDNA2 bei 300 Watt nicht Schluss war. ;)
Es geht hier um den max. Verbrauch beim Topdog zum Release und nicht um SKUs die 1-1,5 Jahre nach Release noch erscheinen damit man im Gespräch bleibt.

Hott3X
2022-08-31, 10:23:50
50% mehr Performance als eine RX6700 bei ebenfalls 175W und ich würde das Ding sofort kaufen.

basix
2022-08-31, 10:35:06
Oder es kommt so wie beim zen4, wo aus den >15 % dann eher 30% wurden, dann wirds spannend :D

">15% ST Uplift" sind ja auch korrekt. z.B. im CPU-Z Benchmark werden ziemlich genau diese +15% erreicht (rein durch den Takt). In den meisten anderen Anwendungen sind es mehr, zum Teil deutlich mehr. Dafür steht das ">" Zeichen da, nicht um den Durchschnitt anzuzeigen ;)

Es wird natürlich immer das gesagt, was für die jeweilige Firma am besten klingt/aussieht.
Als mit den 5.5GHz geworben wurde waren diese auch nicht stabil in dem eigenen Video. Das bei einem Titel der nicht wirklich viel CPU Leistung benötigt. Das ist normales Marketing.

Bei der besagten Demo war es ein 8C Modell. Das war also vermutlich der 7700X, welcher mit 5.4 GHz spezifiziert ist und im Peak vermutlich Fmax=5.55GHz schafft. Passt doch. Auch bei Zen 3 waren die Taktraten >Boost nicht dauerhaft anliegend.

Wenn AMD das beste gewollt hätte, hätten sie nicht mit >15% ST geworben, obwohl daraus am Ende knapp 30% geworden sind. Understatement vor dem Herren.
Das war Lowballing von AMD. Ist mMn OK, sie wollten halt noch nicht alles verraten. Besser am Schluss positiv überraschen als im Vornherein zu überhypen. Aus meiner Sicht ist das folgendes: Gutes Marketing.

Ein N6 Chip mit 200mm² der angeblich so schnell sein soll wie ein 520mm² N7 Chip? Sorry aber da habe ich so meine Probleme das zu glauben.
Ich glaube von dem sind die meisten bereits weggekommen. Viele hier erwarten gerade noch ~6700XT Performance ;) Meine Ansicht: Es wird wohl irgendwo in der Mitte zwischen N21 und N22 landen. Das wäre ~6800 non-XT Niveau. Und das natürlich auch nur bis und mit 1440p.


Ähnlich bei Navi31: Vorher war der GCD Teil ca. 400mm², mit Navi31 sind es nur mehr 300mm². Da fällt es mir auch schwer an 2x oder mehr Performance zu glauben selbst mit Node Shrink.
Um mal aufzulisten:
- +30...40% Takt
- +25% WGPs
- +XY% durch verdoppelte ALUs in den CUs

Aus meiner Sicht sollte das selbst bei "nur" 1.3x Durchsatz pro WGP/clock für 2x reichen. Ich würde eher die 300mm2 hinterfragen als 2x Performance ;) Andererseits war Angstronomics bisher sehr akurat, was ihre Infos betrifft.

Zu den >50% Performance/W:
Anhand des 7950X bei optimalem Betriebspunkt (+74% Performance @ 65W TDP) sieht man, dass durch N5 recht viel drin liegen kann. Ich denke, dass AMD auch bei RDNA3 Lowballing betreibt und diese Angabe übertreffen wird, z.B. beim Topmodell (siehe 6900XT). Mit 350W wäre eine Effizienzsteigerung von +72% nötig, um 2x Performance zu erreichen. Ausgehend von den >50% und den +74% beim 7950X sehe ich das jetzt nicht als so unwahrscheinlich an. Klar, GPUs mit CPUs zu vergleichen bringt eigentlich nicht viel, insbesondere wenn grosse Taktratensteigerungen mit dabei sind (was die Unschärfe der Schätzung stark erhöht). Aber etwas anderes haben wir gerade nicht zur Hand.

amdfanuwe
2022-08-31, 11:55:26
Danke für euere Konstruktiven Anmerkungen.
Fazit: Die Folie ist ein Appetithappen und sagt nichts darüber aus, was uns letztendlich an wirklicher Performance erwartet.


Ich bin auch der Meinung, dass nVidia vermutlich tiefer stapelt als man glauben mag. Ich kann mir kaum vorstellen, dass AMD für die annähernd identische Performance 100 Watt weniger benötigen soll (450 zu 350 Watt (4090 vs 7900XT)).

Kann mir schon vorstellen, dass AMD effizienter wird.
Die nehmen die Erkenntnisse aus der Mobile CPU Abteilung und übertragen es auf alle Produkte.
Nvidia hatte bisher keinen Bedarf an besonderer Effizienz Entwicklung.

Hat alles seine Vor- und Nachteile. Effiziente Schaltungen brauchen z.B. mehr Transistoren und viel Erfahrung beim Schaltungsdesign.
Zum anderen kennt man auch nicht die Taktfrequenzen.
Sieht man ja bei den CPUs. Intel muss hoch Takten für die Top Leistung, AMD setzt einen 3DVCache drauf und ist bei gleicher Performance sparsamer unterwegs.

Exxtreme
2022-08-31, 11:58:37
Sieht man ja bei den CPUs. Intel muss hoch Takten für die Top Leistung, AMD setzt einen 3DVCache drauf und ist bei gleicher Performance sparsamer unterwegs.

Ist nur die halbe Wahrheit. Der 3D-Cache hilft nur den Anwendungen, die davon profitieren. Es gibt nämlich auch Anwendungen, die wegen der höheren Latenzen langsamer laufen. Höherer Takt hingegen hilft praktisch überall sofern die CPU limitiert.

amdfanuwe
2022-08-31, 12:14:21
Ist nur die halbe Wahrheit. Der 3D-Cache hilft nur den Anwendungen, die davon profitieren. Es gibt nämlich auch Anwendungen, die wegen der höheren Latenzen langsamer laufen. Höherer Takt hingegen hilft praktisch überall sofern die CPU limitiert.
Genau.
Ist ja bei jedem Feature so:
Bei der entsprechenden Anwendung hilft es, die anderen Anwendungen schleppen mehr Ballast mit rum.
Höheren Takt erkauft man sich durch schlechtere Effizienz.

NC
2022-08-31, 21:36:08
Höheren Takt erkauft man sich durch schlechtere Effizienz.
Sehr wahr.
Am Ende ist es auch von Vorteil ein Produkt zu liefern, dass im Schnitt mehr liefert und zudem an manchen Stellen herausragend ist, als eines das in jedem Bereich n% besser wurde, aber bei keinem Kunden ganz oben auf der Liste steht. (Denn Kunden werden ihre Erwartungen an ein Produkt von ihren momentanen Anwendungen abhängig machen z.B. "Welche Graka ist am schnellsten bei Doom?" und für die Zukunft im Normalfall vom Durschschnitt und nicht von der Varianz der Leistung).

Gott1337
2022-09-01, 01:11:15
@Gott1337

Wenn AMD das beste gewollt hätte, hätten sie nicht mit >15% ST geworben, obwohl daraus am Ende knapp 30% geworden sind. Understatement vor dem Herren.

Takt bei CPUs in der Spitze bezieht sich selbstverständlich immer auf Boost. Als AMD die Gamedemo auf der Computex gebracht hat, hatte man ganz davon ab auch noch nur mit 5GHz+ geworben. Nur mal so zu deinem Einwand. Die 5.5GHz kamen erst auf dem FAD im Juni.
sind es wirklich fast 30%? über alle Anwendungen auf keinen Fall, bei der Auswahl die uns AMD liefert vielleicht... und du weißt das die immer Cherry picking betreiben. wir alle wussten immer ca. 10% ipc und etwas an takt das am ende 20-25% raus kommen. Und genau das ist es doch auch geworden.

wie immer gilt es auf unabhängige tests warten. Es ist eine gute CPU ja. Wie gut wird sich noch Zeigen.

vinacis_vivids
2022-09-01, 01:20:29
Wird sich deutlich besser zeigen als in den Folien wenn die Tester die "Golden Samples" bekommen und in zwei Monaten werden noch Feinschliffe an dem MicroCode gemacht. Was derzeit von AMD gezeigt wurde ist das minimale Optimum. Zen4 reift auch noch, auch wenn Zen4 bereits an der Spitze liegt.

Intel wird da wenig Land sehen.

Gott1337
2022-09-01, 03:11:31
Wird sich deutlich besser zeigen als in den Folien wenn die Tester die "Golden Samples" bekommen und in zwei Monaten werden noch Feinschliffe an dem MicroCode gemacht. Was derzeit von AMD gezeigt wurde ist das minimale Optimum. Zen4 reift auch noch, auch wenn Zen4 bereits an der Spitze liegt.

Intel wird da wenig Land sehen.
Ahja nein, bei Zen2 wurde auch mehr versprochen als gehalten wurde, der ganze PBO skandal... Immernoch die Mikro ruckler durch fTPM was sie einfach nicht fixen...

Platos
2022-09-01, 10:01:04
Ahja nein, bei Zen2 wurde auch mehr versprochen als gehalten wurde, der ganze PBO skandal... Immernoch die Mikro ruckler durch fTPM was sie einfach nicht fixen...

Welche Mikroruckler? Du meinst FPS Rucklee oder von was redest du?

[MK2]Mythos
2022-09-01, 11:38:50
In diesem Thread geht es um RDNA3.

basix
2022-09-01, 17:24:38
Ahja nein, bei Zen2 wurde auch mehr versprochen als gehalten wurde, der ganze PBO skandal...

Wegen 50-100 MHz einen Aufstand machen, welche zum Teil auch wegen den Monitoring Tools nicht richtig angezeigt werden konnten (Intervall-Zeiten)? Bei den GPUs ist es ja auch kein Problem, wen je nach Karte leicht variierende Taktraten anliegen.

Skandal ist mMn also ein relativ hartes Wort für das ;) Klar, was auf der Box steht sollte auch erreicht werden. Ist aber wie gesagt auch ein Problem der entsprechenden Monitoring Tools.

Ab Zen 3 hat AMD nun halt einfach -150 MHz weniger als Fmax auf die Box geschrieben und niemand schert sich einen Dreck darum. Wieso? Die Performance ist entscheidend, nicht die Taktrate.

Sorry für OT.

dargo
2022-09-02, 16:22:53
Ab Zen 3 hat AMD nun halt einfach -150 MHz weniger als Fmax auf die Box geschrieben und niemand schert sich einen Dreck darum.
Doch... ich. AMD verkauft den 5800X mit max. 4,7Ghz und meine CPU taktet per Default mit max. 4,85Ghz. Skandal! ;)

ChaosTM
2022-09-02, 16:30:55
Mein mobiler 5900HX taktet auch deutlich höher als er eigentlich sollte seit dem letzten Bios update. Wird dann aber (sehr) gut hörbar bei Tools wie Cinebench.
Dafür ist der stationäre 5900er eher eine Gurke..

RitterRost
2022-09-04, 13:19:20
Keine Ahnung, ob hier die Vergrößerung der L0/L1 Caches bei RDNA3 schon diskutiert wurde.
Da scheint auch ein Unterschied zu Navi33 zu sein...
https://wccftech.com/amd-rdna-3-navi-3x-gpus-feature-double-the-cache-per-compute-unit-shader-array/

Neurosphere
2022-09-05, 12:50:09
https://twitter.com/greymon55/status/1566738521389699073?t=J9zXoMGEZnbqiSESJv0jjQ&s=19

Vermutlich 7900XT

Update, sorry, doch NV.

Der_Korken
2022-09-05, 13:39:13
Keine Ahnung, ob hier die Vergrößerung der L0/L1 Caches bei RDNA3 schon diskutiert wurde.
Da scheint auch ein Unterschied zu Navi33 zu sein...
https://wccftech.com/amd-rdna-3-navi-3x-gpus-feature-double-the-cache-per-compute-unit-shader-array/

Was genau zählen die jetzt als CU bzw. als SIMD-Unit? RDNA2 hatte pro WGP zwei CUs mit jeweils zwei SIMD32-ALUs. Bei GCN hatte eine CU insgesamt 256kB Register-File, was afaik bei RDNA nicht geändert wurde. Also 128kB pro SIMD32-ALU.

Hat RDNA3 jetzt 8 SIMD-ALUs pro WGP oder 4 mit doppelter Breite? Letztere wäre logischer, weil dann pro SP weniger Registerspace vorhanden ist, die IPC also tendenziell sinkt. Wäre es 8*192kB statt 4*128kB pro WGP wären die Chipgrößen absolut unrealistisch, denn das wären allein 48*8*192kB = 72MB (!) an Registerspace (bitte nicht mit dicht gepacktem L3-Cache verwechseln, der keine 1-Takt-Latenz und eine viel kleinere Bandbreite hat).

Gipsel
2022-09-05, 15:47:36
Wäre es 8*192kB statt 4*128kB pro WGP wären die Chipgrößen absolut unrealistisch, denn das wären allein 48*8*192kB = 72MB (!) an Registerspace (bitte nicht mit dicht gepacktem L3-Cache verwechseln, der keine 1-Takt-Latenz und eine viel kleinere Bandbreite hat).Die GPU-Register haben längst keine Latenz von nur einem Takt. Schon bei den GCN-GPUs waren es vermutlich 4 Takte (bei den alten VLIWs sogar recht sicher so). Der Zugriff ist pipelined.

Was die Menge angeht. Ich würde spontan vermuten, daß es bei RDNA3 nicht mehr 512kB Vektorregister pro WGP (256kB pro CU, 128kB pro Scheduler) sind, sondern 768kB (384kB pro CU bzw. 192kB pro Scheduler), wenn das Gerücht Wahrheitsgehalt besitzt. Also 36MB Vektorregister bei 48WGPs.

iamthebear
2022-09-06, 22:46:23
L0/1 Cache skalieren einfach mit der FP32 Verdopplung. An sich hört sich das jetzt nicht so spektakulär an.

Nightspider
2022-09-13, 12:58:23
Schwirrte eigentlich schon irgendein Datum durch den Äther, wann RDNA3 vorgestellt werden soll?

Ich meine noch nicht. Wird wohl Mitte-Ende Oktober vorgestellt oder was meint ihr?

Neurosphere
2022-09-13, 13:13:14
Schwer zu sagen. Nicht unmöglich das man die Ankündigung noch vor dem Verkaufsstart von Lovelace durchführt um die Leute zum warten zu bewegen.

basix
2022-09-13, 14:23:14
Siehe Hauptseite: https://www.3dcenter.org/news/news-des-8-september-2022

Angeblich November Release. AMD wartet sicher mal Lovelace ab.

Platos
2022-09-13, 15:16:30
Gabs denn letztes Mal vor nvidia irgendwas offizielles von AMD?

Nazar
2022-09-14, 11:06:34
sind es wirklich fast 30%? über alle Anwendungen auf keinen Fall, bei der Auswahl die uns AMD liefert vielleicht... und du weißt das die immer Cherry picking betreiben. wir alle wussten immer ca. 10% ipc und etwas an takt das am ende 20-25% raus kommen. Und genau das ist es doch auch geworden.

wie immer gilt es auf unabhängige tests warten. Es ist eine gute CPU ja. Wie gut wird sich noch Zeigen.


Wer ist "wir" und woher hast du Informationen zu "immer 10% weniger IPC und etwas an Takt, dass am Ende 20-25% (was? Äpfel? Brinen?) raus kommt"? :confused:
Wenn du so weitermachst, verpasst du noch den Sonnenaufgang und wirst zu Stein. ;)

davidzo
2022-09-14, 13:14:38
Gabs denn letztes Mal vor nvidia irgendwas offizielles von AMD?

Ja, ich fand es sehr enttäuschend dass man bei dem zen4 Announcement am 29. August sogar einen richtigen Programmpunkt für "Gaming on next gen Radeon RX" hatte und da nur einen nichtssagenden 5sekunden Teaser von „Lies of P“ gezeigt hat. Das hätte man sich echt sparen können, bzw. dafür hätte man vorher keinen eigenen Programmpunkt ankündigen dürfen.
Nach den sehr sehr frühen Leaks zu Navi31 ist es echt enttäuschend wie lange AMD anscheinend braucht und dass nvidia trotz des langen Vorlaufs seitens AMD wohl mal wieder einige Monate früher dran ist.

Linmoum
2022-09-14, 13:17:18
Oktober statt November sind "einige Monate früher"? :freak:

Davon ab ist es nicht enttäuschend, sondern vielmehr beeindruckend, wie sehr AMD mittlerweile dicht halten tut. Egal ob CPUs oder GPUs. Das war früher ganz anders und alles andere als förderlich.

Im Übrigen hatte iirc AMD gar nicht groß Radeon angekündigt. Die Meldung kam von VCZ, dass AMD das auch erwähnen wird.

Sie werden es irgendwann im Oktober bei einem November-Launch ankündigen. So wie NV im September ankündigt und im Oktober launcht. Alles völlig normal.

prinz_valium_2
2022-09-14, 13:57:41
Ich glaube ja noch an eine November Vorstellung und dann launch im Dezember oder Anfang 2023.
Früher natürlich gerne gesehen. Die Gerüchteküche ist mir noch zu still für so eine kurze Zeit vor dem Launch

Linmoum
2022-09-14, 14:11:18
Zen4 launcht in zwei Wochen. Wo war denn die Gerüchteküche im August nicht still? Da gab es bis auf wenige Tage vor der Vorstellung auch quasi gar nichts.

Das hat nichts mit still oder nicht still zu tun. Su hat es einfach geschafft, dass bei AMD nahezu alle Schotten bis kurz vor dem Launch dichthalten.

Und der Launch 2022 wurde nun schon mehrfach von AMD bestätigt. Oktober Vorstellung und Launch November (oder analog einfach zu RDNA2 vor zwei Jahren) dürfte realistisch sein. Tief im Dezember willst du nicht launchen.

basix
2022-09-14, 14:33:23
November macht rein wegen der Holiday Season einfach Sinn. Dezember ist, wie du sagst, zu spät.

Nightspider
2022-09-14, 22:42:37
Su hat es einfach geschafft, dass bei AMD nahezu alle Schotten bis kurz vor dem Launch dichthalten.

Oder die gewollten Falschinformationen sind an die Leaker weitergegeben worden.

So oft wie die Leaker in letzter Zeit daneben lagen, wäre es plausibel. Die Lücken finden AMD ja auch nur indem man absichtlich Falschinformationen streut.

Langlay
2022-09-14, 22:45:30
November macht rein wegen der Holiday Season einfach Sinn. Dezember ist, wie du sagst, zu spät.

RDNA2 kam am 08.12.2020 in die Läden.

Linmoum
2022-09-14, 22:48:51
Das war nur die 6900XT, die 6800(XT) kamen am 18.11.

Thunderburne
2022-09-15, 07:46:23
https://wccftech.com/amd-posts-tweet-saying-bigger-doesnt-necessarily-means-better-hint-at-rdna-3-radeon-rx-7000-gpus/

Berniyh
2022-09-15, 08:10:01
Oder die gewollten Falschinformationen sind an die Leaker weitergegeben worden.

So oft wie die Leaker in letzter Zeit daneben lagen, wäre es plausibel. Die Lücken finden AMD ja auch nur indem man absichtlich Falschinformationen streut.
Ich glaube nicht, dass man das wirklich gezielt gemacht hat. Das lohnt den Aufwand einfach nicht und kann zudem auch ordentlich nach hinten los gehen.

Es gab ja schon zu Beginn einige Infos zu RDNA3 aus einer Firmware Datei.
Auf der Basis konnte man sich mit etwas Fantasie einiges zusammenreimen. Genau das dürfte dann auch passiert sein.
Es gab aber auch damals schon Bedenken, dass das evtl. nur ein Platzhalter sein könnte, was wohl inzwischen wahrscheinlich sein dürfte, da die originalen Daten verdächtig nahe an Navi21 waren.
Meiner Meinung nach die bessere Erklärung für den plötzlichen "Umschwung" in den RDNA3 Specs. Wesentlich besser als eine spontane Umplanung seines AMD sicherlich.

Es gibt sicher auch Leaker, die wirkliche Infos zu berichten haben, aber die meisten versuchen wahrscheinlich – wie viele hier – auch nur aus 2-3 Puzzlestücken das ganze Puzzle zu rekonstruieren, was halt schon gewagt ist.
Und hier dürften anfänglich auch noch die ersten Puzzlestücke vom falschen Puzzle gewesen sein. :D

Neurosphere
2022-09-15, 09:18:28
https://videocardz.com/newz/amd-radeon-rx-7900xt-pcb-layout-leaks-out-with-navi-31-gpu-and-three-8-pin-power-connectors

Also doch 450 Watt.

Linmoum
2022-09-15, 09:26:58
Igor schreibt von Boardpartnerdesign. Logisch, dass die höher gehen.

Edit: Und
Damit begrenzt sich allerdings auch die maximale Board-Power der Karte auf 450 Watt, wobei die tatsächliche TBP weit darunter liegen dürfte.

Wenn Igor jetzt auch schon damit anfängt, dürfte das schon seine Richtigkeit haben, dass AMD den Verbrauch nur moderat anhebt, wie regelmäßig spekuliert. Dazu passen halt auch die 2x8pin der Referenz laut Angstronomics, das dürften dann halt ~350W real sein.

Neurosphere
2022-09-15, 09:29:56
Grad bei Igor nachgelesen. Ist sogar noch schlimmer, er hat sich da selbst was zusammen gereimt so wie es aussieht.

mboeller
2022-09-15, 09:30:32
https://www.igorslab.de/amd-radeon-rx-7900xt-moegliche-platine-und-neue-erkenntnisse-exklusiv/


Die nachfolgende Grafik zeigt die Platine einer Radeon RX 7900XT, wie sie als mögliches Boardpartnerdesign sehr eng an die Referenz angelegt ist.


zusammengereimt? Ich denke nicht.


Ich habe die Dimensionen und Seitenverhältnisse etwas geändert, verschiedene Entwürfe verglichen und nur das übernommen, was sich als konstant erwiesen hat. Die meisten Bohrungen weichen bei den individuellen Designs stark voneinander ab, so dass ich sie bewusst weggelassen habe. Allerdings sind viele Details deckungsgleich und wiederkehrend, so dass man sie als gesetzt betrachten kann


Liest sich eher wie die Schnittmenge aus mehreren Quellen + Verschleierung der Quellen

Linmoum
2022-09-15, 09:33:13
Grad bei Igor nachgelesen. Ist sogar noch schlimmer, er hat sich da selbst was zusammen gereimt so wie es aussieht.Das ist nun aber nicht Igors erste Darstellung eines PCB vorab. Hat er schon öfters so gemacht. Und stimmte bislang auch immer. ;)

mboeller
2022-09-15, 09:39:54
ob die Skizze genau genug ist, um die Größe der 6 MCD und des GCD in etwa zu ermitteln? Vielleicht hat er ja die Abmessungen der GDDR6 Chips nicht verändert.

Thunderburne
2022-09-15, 09:52:24
https://videocardz.com/newz/amd-radeon-rx-7900xt-pcb-layout-leaks-out-with-navi-31-gpu-and-three-8-pin-power-connectors

Also doch 450 Watt.
Wen ich richtig gelesen habe soll das ein Partner lay Out sein .
Gruss

prinz_valium_2
2022-09-15, 10:28:35
Zen4 launcht in zwei Wochen. Wo war denn die Gerüchteküche im August nicht still? Da gab es bis auf wenige Tage vor der Vorstellung auch quasi gar nichts.

Das hat nichts mit still oder nicht still zu tun. Su hat es einfach geschafft, dass bei AMD nahezu alle Schotten bis kurz vor dem Launch dichthalten.

Und der Launch 2022 wurde nun schon mehrfach von AMD bestätigt. Oktober Vorstellung und Launch November (oder analog einfach zu RDNA2 vor zwei Jahren) dürfte realistisch sein. Tief im Dezember willst du nicht launchen.

Da haben wir wohl eine ganz andere Wahrnehmung.
Zen 4 Gerüchteküche war massig am brodeln.

Aber jetzt gab es ja etwas von Igor. Immerhin

Berniyh
2022-09-15, 11:09:23
Da haben wir wohl eine ganz andere Wahrnehmung.
Zen 4 Gerüchteküche war massig am brodeln.
Das Zen 4 Design ist wesentlich einfacher zu erraten, da sich die Zen Architektur aktuell in recht geradlinigen Schritten vorwärtsbewegt. Da kannst du mit einem "lucky guess" (oder meinetwegen auch "educated guess") recht wahrscheinlich einen Treffer landen.
Bei RDNA3 hingegen steht ein größerer Umbau an, da gibt es sehr viele Fragezeichen.

Nazar
2022-09-15, 11:42:13
Da haben wir wohl eine ganz andere Wahrnehmung.
Zen 4 Gerüchteküche war massig am brodeln.

Aber jetzt gab es ja etwas von Igor. Immerhin

Gebrodelt hat es so leidlich. Interessant war allerdings, dass die meisten Spekulationen in die negative Richtung gingen und, als es dann anders kam, sich sogar einige beschwerten, dass AMD Angaben im Vorfeld viel zu ungenau waren. :freak: ;D
Ja, selbst nach der Präsentation schob man AMD den Schwarzen Peter zu, weil nicht alles genau genug ausformuliert war.
So wurde hier mit maximal 6% mehr IPC spekuliert und dann wurden es doch "nur" 13%. Im Nachhinein wurde dann groß getönt, von eben den Leuten, die eine maximale 6-prozentige IPC Steigerung prognostizierten, dass die 13% auch mindestens zu erwarten gewesen wären. :facepalm:

Die Trefferquote bei den Spekulationen zu Zen4, gerade was die möglichen Leistungen angeht, tendierte eher gegen 0, aber gebrodelt hat es schon und tut es immer noch, nur eben nicht auf eine positive Art und Weise. ;)

HOT
2022-09-15, 12:03:13
Partnerdesigns können bis 450W gehen, das ist doch gut. Das Referenzdesign muss nicht unbedingt mit 3 Stromsteckern erscheinen, wenn man nach Igors Text geht, zumal er von "weit darunter" schreibt. Wenn die Referenz mit 350W kommt bin ich sehr zufrieden damit, das wäre ein effizientes Design aus meiner Sicht. Ich finds auch nicht schlecht, dass AMD nicht auf den 12VHPWR-Zug aufzuspringen scheint.

Das wird sich freilich mit RDNA4 ja ändern, da sich ja auch AMD selbst schon geäußert hat, dass die TDPs steigen werden, da es schlichtweg nicht anders geht.

r3ptil3
2022-09-15, 12:04:50
Der Verbrauch des Top-Modells wurde doch indirekt schon lange in einem Interview von AMD praktisch bestätigt. Weniger als Nvidia, mehr als das aktuelle AMD-Top-Modell.

350-375W

Cyberfries
2022-09-15, 13:08:07
Also doch 450 Watt.
Damit begrenzt sich allerdings auch die maximale Board-Power der Karte auf 450 Watt, wobei die tatsächliche TBP weit darunter liegen dürfte.Dazu passen halt auch die 2x8pin der Referenz laut Angstronomics, das dürften dann halt ~350W real sein.
Partnerdesigns können bis 450W gehen, ...

Da werden die 450w einfach abgeschrieben ... dazu kommen aber noch bis zu 75w über den Steckplatz.
Bei Igor kann das statt einem Fehler auch eine versteckte Info sein ... passt zu früheren Leaks von 450w max.

Ich finds auch nicht schlecht, dass AMD nicht auf den 12VHPWR-Zug aufzuspringen scheint.

Klar, wozu ein moderner kompakter Stecker für den neuesten Standard wenn man auch den dreifachen Platz
für ältere Schnittstellen mit schlechteren Mindestanforderungen belegen kann.

Linmoum
2022-09-15, 13:36:34
Und trotzdem ist man aktuell dazu gezwungen, beim 12VHPWR dennoch mit Adaptern rumzufriemeln, weil die NT-Hersteller es bislang nicht gebacken kriegen.

Der neue Stecker ist sinnvoll und wird sich langfristig auch durchsetzen, aus "Kompatibilitätsgründen" kann ich es aber auch verstehen, warum man darauf u.U. vorerst verzichtet.

HOT
2022-09-15, 13:46:01
Jo seh ich auch so. Das reicht dann in der nächsten Generation.

r3ptil3
2022-09-15, 18:44:34
Man weiß doch noch nicht, ob das Referenzdesign bereits doch den 12VHPWR Anschluss kriegt?

Vielleicht auch deshalb, das von AMD verdeckte Bild nach der Ryzen 7000 Präsentation. (ist mir schon klar dass es auch darum geht, der Konkurrenz nicht zu verraten ob 2x 8 Pin oder 3x 8 Pin).

HOT
2022-09-16, 18:29:47
Igor geht in seinem Video zum Thema von 2 PCIe 8-Pin-Steckern und Teilspannungen über den PEG fürs Referenz aus, muss also 350W sein.

Iscaran
2022-09-16, 20:49:49
Igor geht in seinem Video zum Thema von 2 PCIe 8-Pin-Steckern und Teilspannungen über den PEG fürs Referenz aus, muss also 350W sein.

Wenn das so stimmt - Danke AMD! nicht den Power-Hypetrain mitgemacht.

aceCrasher
2022-09-16, 21:24:00
Klar, wozu ein moderner kompakter Stecker für den neuesten Standard wenn man auch den dreifachen Platz
für ältere Schnittstellen mit schlechteren Mindestanforderungen belegen kann.

Klar, wozu auch ein bewährter Stecker den Jeder hat?

Dann doch lieber 16pin-VHPWR, für den es am deutschen Markt kaum Netzteile gibt und dessen Adapter klobig und potenziell gefährlich sind! Am Ende haben 99% der Nutzer dann trotzdem 3x 8pin am Netzteil hängen, nur dann auch noch mit einem Adapter.

https://www.pcgameshardware.de/Netzteil-Hardware-219902/News/PCI-SIG-warnt-vor-12VHPWR-Adapterkabeln-1403104/

Für mich ist der VHPWR Stecker aktuell noch ein Negativargument für eine Karte. Ich werde diese Gen definitiv auf eine 3x 8pin Karte setzen.

Natürlich ist der neue Stecker langfristig überlegen, aber aktuell einfach unpraktisch.

ChaosTM
2022-09-16, 21:24:48
Wenn das so stimmt - Danke AMD! nicht den Power-Hypetrain mitgemacht.


jop, danke

Nightspider
2022-09-16, 22:15:52
Mein Netzteil ist 13 Jahre alt und will noch paar Jahre buckeln.

Im Moment ist der neue Anschluss für mich auch noch ein Negativpunkt.

-=Popeye=-
2022-09-17, 01:31:19
Dieses RX 7900 XT PCB...

https://cdn.videocardz.com/1/2022/09/AMD-RX-7900XT-PCB-1200x578.jpg

... kommt mir irgendwie bekannt vor.

Siehe...

https://www.techpowerup.com/review/asrock-radeon-rx-6900-xt-oc-formula/images/front.jpg

... ASRock RX 69x0 OC Formula.

edit:

wobei es sich auch um ein MSI PCB handeln könnte, da Igor wohl einen recht guten Draht zu denen hat.

https://www.techpowerup.com/review/msi-radeon-rx-6900-xt-gaming-x-trio/images/front.jpg

Nightspider
2022-09-17, 02:07:23
Viele Karten sehen sich ohen Kühler eh ähnlich, gerade in der Leistungsklasse.

Wirklich interessant finde ich das nicht.

-=Popeye=-
2022-09-17, 02:43:35
Eine Ref. RX 6900 XT sieht schon etwas anders aus.

https://www.techpowerup.com/review/amd-radeon-rx-6900-xt/images/front.jpg

OgrEGT
2022-09-17, 11:55:29
https://www.igorslab.de/amd-radeon-rx-7900xt-moegliche-platine-und-neue-erkenntnisse-exklusiv/

zusammengereimt? Ich denke nicht.

Liest sich eher wie die Schnittmenge aus mehreren Quellen + Verschleierung der Quellen

Hab mir das Video auch gerade angeschaut... Sehr interessant... Er meint dass die Referenz 7900XT nur mit 2x8Pin (375W) kommt, die Partnerkarten mit 3x8Pin (450W), als er aber später meinte dass die NV wohl "ein bisschen" schneller sein würde da "Kraft von Kraftstoff kommt" könnte das auf die Referenz oder das Partnermodell bezogen sein... Wenn die Referenz 7900XT mit 2x8Pin (375W) nur ein wenig langsamer wäre als die RTX4090 (450-600W?) dann wäre das ein sehr deutlicher Effizienzvorteil für AMD... Wenn auf die Partnerkarten mit 3x8Pin (450W) dann wäre AMD bzgl. Effizienz ggf. mit NV gleich auf, und NV dann eben die Mehrleistung dann auch mit mehr Leistungsaufnahme erkaufen müsste.

davidzo
2022-09-17, 12:29:29
Klar, wozu ein moderner kompakter Stecker für den neuesten Standard wenn man auch den dreifachen Platz
für ältere Schnittstellen mit schlechteren Mindestanforderungen belegen kann.
Bei einer Highendkarte ist der Platzbedarf für den PCIe Stecker wohl kaum eine kritische Designgröße. Oder habe ich da was nicht mitbekommen, gibt es die 3090 (die größte Referenzkarte ever!) plötzlich auch als ITX Variante? ;D

Ich habe schon ein paar High Current Anwendungen mit designt und muss sagen dass ich 3x8Pin ohne Adapter tausend mal sicherer finde als irgendwelche Adapter im Kabel die ebenfalls nicht mehr Mindestanforderungen ensprechen.
Das was nvidia da macht mit Adaptern ist einfach grob Fahrlässig.
Cable to cable verbinder können meiner Erfahrung nach viel weniger Current ab als die PCB mount receptacles. Ich habe schon einige Anwendungen gesehen wo die vormals weiß/transparenten Steckergehäuse braun geworden sind und verschmort, bzw. geradezu Kabelbrände entstanden, ohne dass man überhaupt in die Nähe der Leistungsgrenzen gekommen wäre (rund 7A pro pin, dabei sind 13A freigegeben). Das Problem bei cable to cable ist die mangelnde Kühlung der Steckkontakte. Die haben halt eine viel höhere resistance und voltage drop als eine lötverbindung oder ein AWG18 Kupferkabel, aber eine schlechtere wärmeableitung als letzteres. Irgendwo muss die Verlustwärme dann ja hin und die Steckergehäuse bieten so gut wie keine Wärmeableitungsoberfläche. PCB-mount versionen führen die Wärme über das PCB ab, bzw. haben viel Oberfläche durch die nach hinten freistehenden, unisolierten Pins.

99% der aktuell neu verkauften Netzteile haben noch kein nativ ATX3.0 mit 12V HPWR. Das sind alles nur Adapterlösungen welche nicht den Mindestanforderungen entsprechen und imo mit Adaptern hochgefährlich sind.

Dann lieber einen alten viel zu groß dimensionierten Stecker der mit gutem Kabel- und Kontaktmaterial weit mehr Current zu liefern imstande ist und sich weniger erwärmt. Da kann nicht mal eben ein kleiner Verarbeitungs- oder Montagefehler zum Wohnungsbrand führen.

HOT
2022-09-17, 14:06:28
Hab mir das Video auch gerade angeschaut... Sehr interessant... Er meint dass die Referenz 7900XT nur mit 2x8Pin (375W) kommt, die Partnerkarten mit 3x8Pin (450W), als er aber später meinte dass die NV wohl "ein bisschen" schneller sein würde da "Kraft von Kraftstoff kommt" könnte das auf die Referenz oder das Partnermodell bezogen sein... Wenn die Referenz 7900XT mit 2x8Pin (375W) nur ein wenig langsamer wäre als die RTX4090 (450-600W?) dann wäre das ein sehr deutlicher Effizienzvorteil für AMD... Wenn auf die Partnerkarten mit 3x8Pin (450W) dann wäre AMD bzgl. Effizienz ggf. mit NV gleich auf, und NV dann eben die Mehrleistung dann auch mit mehr Leistungsaufnahme erkaufen müsste.
Er meinte aber auch, die haben klar weniger als das Maximum mögliche an Strombedarf. 375 geht schon mal nicht, so nah wird man der PEG-Spec nicht kommen (da hat man mit der RX480 ja auch schon schlechte Erfahrungen gemacht :D). 350W ist realistisch. Und bei den Partnermodellen kommt es darauf an, wieviel W mehr die verbrauchen wollen. Da wird die Spanne sicherlich von 380-450W gehen oder gar mehr bei Wassergekühlten Modellen.

why_me
2022-09-17, 15:21:37
Gab es bei RDNA2 eigenltich einen Test, wie viel Speicherbandbreite wirklich benötigt wird? Also RAM underclocking.

Was ich mich aktuell frage, ist die anzahl der WGPs notwendig für die Bandbreite oder nur um eine gewisse Speichermenge zu ermöglichen?

Mal etwas naiv, nachgedacht.
Ich frage mich gerade, welche Datenrate die Verbindung GCD-MCD haben könnte. Mit RAM-speed wäre der Cache Sinnlos. 2-4x RAM speed fände ich realistisch, tendenz in Richtung 4x, also ~500 GB/s pro GCD-MCD Verbindung.

Da die Verbindung GCD-MCD ein "normaler" datenbus sein wird (infinity fabric) und kein GDDR RAM interface, könnte man darüber zwei GCDs auch koppeln. Auch wenn das sehr unwahrscheinlich sein wird, diese Gen.
Das würde folgende Kombinationen ermöglichen:
- 2x Navi32 mit je 2 MCDs -> 60 WGPs an 256 bit. (25% mehr shader als Navi31 zu wenig, Speicher denke ich nicht ausreichend)
- 2x Navi32 mit je 3 MCDs -> 60 WGPs an 384 bit. (25% mehr shader als Navi31 zu wenig, Speicherbandbreite könnte aber passen)
- 2x Navi31 mit je 3 MCDs -> 96 WGPs an 384 bit (zu viele shader, Speicherbandbreite sehr sicher zu wenig)
- 2x Navi31 mit je 4 MCDs -> 96 WGPs an 512 bit (zu viele shader, 512bit bei GDDR6 nicht machbar)
- Navi31 + Navi32 mit 4 + 2 MCDs -> 78 WGPs an 384 bit (60% mehr shader, wie bei N32->N31, Speicherbandbreite könnte noch passen)

Gerade die letzte Variante erscheint mir, falls multi GCD GPUs schon diese Gen kommen sollte, am stimmigsten. Das plus an shader zu Navi31 wäre hier am stimmigsten Die anderen Kombinationen haben entweder zu weniger oder zu viel. Es bleibt natürlich die große Frage im Raum ob AMD schon so weit ist die Last zwischen beiden GCDs aufzuteilen.

Cyberfries
2022-09-17, 15:53:44
Da die Verbindung GCD-MCD ein "normaler" datenbus sein wird (infinity fabric) und kein GDDR RAM interface, könnte man darüber zwei GCDs auch koppeln.

Alles andere als ein "Brückenchip" zwischen 2 GCD wird wohl entweder zu langsam oder zu energiehungrig sein.
Bei übereinander angeordneten GCDs muss auf keines der links und rechts angeordneten MCDs verzichtet werden.

Bei einer Highendkarte ist der Platzbedarf für den PCIe Stecker wohl kaum eine kritische Designgröße.

Bei GA102 ist der Stecker aus Platzmangel gar hochkant verbaut. Klar, dem Kühlkonzept der 3080 geschuldet,
der gesparte Platz kann dennoch sinniger verwendet werden und seien es nur ein paar zusätzliche Kühlrippen.
Dazu kommt der Kabelsalat.

Ich ... muss sagen dass ich 3x8Pin ohne Adapter tausend mal sicherer finde als irgendwelche Adapter im Kabel ...

Henne - Ei
Die geringe Auswahl an ATX 3.0-Netzteilen ist suboptimal, darf aber nicht darüber hinwegtäuschen,
dass eine adapterlose 12+4pin-Lösung vorzuziehen und die Einführung solcher Systeme zu forcieren ist.

Klar, wozu auch ein bewährter Stecker den Jeder hat?

Anno 2003: Wozu PCIe? Jeder hat AGP, bewährte Schnittstelle.
Ok, blöder Vergleich. Aber irgendwo musst du anfangen.
Wenn nicht jetzt, mit neuen Stromverbrauchsrekorden bei Grafikkarten, wann dann? RTX 4070/ RX 7800 abwärts, klar, 8pin.
Aber bei den Dickschiffen, für die einige ohnehin neue Netzteile kaufen (müssen) wäre das eine gute Gelegenheit.

Linmoum
2022-09-17, 16:25:14
AMD scheint auch für die Speerspitze bei 2x8pin zu bleiben, dass Customs bis zu 3x8pin bieten, war schon in der Vergangenheit so. Da ergibt sich also dahingehend kein notwendig gewordener Bedarf, zumindest bei AMD.

Wenn Nvidia auf bis zu über 600W gehen will, sollen sie das tun. Ich verstehe es, als GPU-Hersteller nicht neue Stecker zu nutzen, wenn es fast keine Netzteile - ohne suboptimale Adapter verwenden zu müssen - gibt. Ich hätte auch nicht gedachte, dass das so schleppend vorangeht.

HOT
2022-09-17, 16:51:36
why_me

Wir wissen nicht, wieviel Speicherbandbreite RDNA3 wirklich braucht. Möglich sind jedenfalls exakt die gleichen Bandbreiten wie bei einer 4090Ti, Samsung bietet 24GT/s GDDR6 an.

robbitop
2022-09-17, 16:58:42
Mein Netzteil ist 13 Jahre alt und will noch paar Jahre buckeln.

Im Moment ist der neue Anschluss für mich auch noch ein Negativpunkt.
Gibts doch garantiert Adapter zu kaufen.

Nazar
2022-09-17, 19:31:12
Der Verbrauch des Top-Modells wurde doch indirekt schon lange in einem Interview von AMD praktisch bestätigt. Weniger als Nvidia, mehr als das aktuelle AMD-Top-Modell.

350-375W

Das ist aber nicht so deutlich definiert worden, wie du es hier darstellst (350-375W). ;)
Wenn das Topmodell, die 4090 Standard Edition bei 450 Watt liegt und so wie die 3090Ti auch zieht, dann wäre eine 7900XT mit 400 oder 430 Watt immer noch darunter.
Wenn das Topmodell eine 4090Ti sein wird, die 550 Watt ziehen darf, dann könnte es durchaus eine XTX seitens AMD mit 450 Watt geben.

Ich glaube aber nicht, dass AMD so dumm ist, diesen Schritt gleich zu Anfang zugehen, da man sich durchaus bewusst ist, dass die Zeit von "moar Power" über mehr Watt schon längst Geschichte ist, und man das Groh des Marktes damit vergraulen würde.
Ist AMD schlau genug, starten sie eine "Mehr Leistung pro Watt" Kampagne.

Am Ende wird der Preis in Europa ein nicht zu unterschätzender Faktor sein, und ich vermute, dass weder nV noch AMD sich Preise wie bisher leisten können werden. Die EU ist schon längst in der größten Wirtschaftskrise seit dem 2. Weltkrieg. Weihnachten wird dieses und die Jahre danach, kein Ereignis der großen Geschenke werden, egal worum es sich handelt. :frown:

reaperrr
2022-09-17, 23:42:32
Gab es bei RDNA2 eigenltich einen Test, wie viel Speicherbandbreite wirklich benötigt wird? Also RAM underclocking.
Selbst wenn es sowas gegeben haben sollte: Das variiert so stark von Spiel zu Spiel und selbst Szene zu Szene innerhalb von Spielen, dass man das nie allgemeingültig sagen kann.

Was mir nur aufgefallen ist: RDNA2 - jedenfalls N21 in Form der 6900/6950XT - skaliert auch ohne Speicher-OC noch ziemlich gut mit dem Chiptakt, hängt also nicht groß im Bandbreitenlimit.

Die 6700XT ist in vielen Spielen auch nur ~23-25% schneller als eine 6600XT (also den zusätzlichen CUs entsprechend), trotz 50% mehr Bandbreite und 3x so viel IF$, also scheint selbst die 6600XT noch nicht massiv ausgebremst zu werden (sieht man ja auch am Vergleich zur 3060) und eher die 6700XT "zu viel" IF$/Bandbreite für ihre Rohleistung zu haben.


Gerade die letzte Variante erscheint mir, falls multi GCD GPUs schon diese Gen kommen sollte, am stimmigsten.
Ich kann mir nicht vorstellen, dass die Lastverteilung bei einem solch assymetrischen Aufbau gut funktionieren würde.

Edgecrusher86
2022-09-18, 12:29:46
https://abload.de/img/nextgeno8f5m.png

Mal kurz zusammengeschustert, wie ich mir das grob vorstelle...;)

E: Oder heißt der AMD Cut nicht SE? Meine da war was....egal - man weiß ja, was gemeint ist. :)

E2: Ich gehe davon aus, dass eine theor. "RTX 4080 Ti" dann den AD102 Cut mit ca. 100-104 SMs bekommen dürfte - also 12800 - 13312SP. Wäre dann bei 76,8 TF/s FP32 bis 79,9 TF/s FP32.
Damit würde die große Lücke zwischen RTX 4090 und RTX 4080 16GB perfekt gefüllt werden.

unl34shed
2022-09-18, 12:47:15
Dual N31@2GHz könntest du auch noch rechnen :wink:
Ja, du vergleichst bei 3GHz, aber man muss das ja auch kühlen können.

Auch bleibt die Frage offen, ob die Tflops wie bei Ampere wieder eine Luftnummer werden oder ob man den Shadern wieder eine dedizierte INT Alu spendiert (2xFP+1xINT).

Edgecrusher86
2022-09-18, 12:49:07
Nach letzten Infos bekommt erst RDNA4 Chiplets. Wenn NV bis 660W kühlen kann [und eine 450W die 3 GHz erreichen kann], dann geht das auch bei AMD - auf 5xx mm2 wird es zwar etwas schwieriger, aber sicherlich kein Ding der Unmöglichkeit.
Zur Not kann AMD ja wieder eine LCE XTX bringen - dieses Mal mit 360er AiO. :)

Linmoum
2022-09-18, 13:31:33
Wie kommst du auf Chiplets erst mit RDNA4? Das ist doch schon Asbach-Uralt für RDNA3 klar.

Und Verbrauch selbst hat erst einmal nichts rein mit Takt zu tun, die 6500XT beispielsweise taktet deutlich höher als eine 6900XT.

Je größer der Chip, desto mehr musst du allerdings beim Takt kastrieren, sofern nicht gleichzeitig der Verbrauch explodieren soll. Deswegen schafft AD102 - sofern die Daten von VCZ stimmen - bei den 450W auch nicht annähernd 3GHz.

reaperrr
2022-09-18, 13:49:34
Wie kommst du auf Chiplets erst mit RDNA4? Das ist doch schon Asbach-Uralt für RDNA3 klar.
Meinte wahrscheinlich Multi-GCDs.

Mich würde auch nicht überraschen, wenn dieser ominöse dual-N32, der in der Gerüchteküche rumschwirrt, nicht für Gaming, sondern nur zum Testen unter realen Bedingungen sowie Partner-Evaluierung für bestimmte professionelle Zwecke gedacht ist, wo die Skalierung/Workload-Distribution evtl. einfacher ist als in Spielen.

Felixxz2
2022-09-18, 14:04:24
Vielleicht sehen wir aber auch nächstes Jahr einen Dual N32 als Testballon für Multi-GCD und neues Flaggschiff.

iamthebear
2022-09-18, 19:20:51
Wenn man Taktraten pushen will dan heizt das in erster Linie den Verbrauch des GCDs exkl. IO Die an. Diese Fläche dürfte bei N31 um die 250mm² groß sein.

Falls Nvidia den L2 zumindest so kompakt hält wie AMD in 7nm mit N22 dann dürfte derselbe Teil bei Nvidia um die (629mm² - 58mm² L2 - 6*10mm² SI - 50mm² IO = 461mm² groß sein.

Der hitzegenerierende Teil ist bei RDNA3 sehr kompakt wodurch man nicht so einfach einen Riesenkühler drauf schrauben kann, da das Problem eher darin liegt die Energie vom Die auf den Kühler zu bringen und weniger vom Kühler raus. Da hilft ein riesiger 5 Slot Kühler nur bedingt.

Ich bin außerdem sehr skeptisch ob RDNA3 überhaupt auch nur annährend mit AD102 mithalten kann. Ich wäre ehrlich gesagt nicht wirklich überrascht wenn sich RDNA3 eher als AD103 hersstellen sollte bzw. leicht darüber, dafür aber auch preislich nur bis 1000-1200$ geht.

Edgecrusher86
2022-09-18, 19:48:59
Je größer der Chip, desto mehr musst du allerdings beim Takt kastrieren, sofern nicht gleichzeitig der Verbrauch explodieren soll. Deswegen schafft AD102 - sofern die Daten von VCZ stimmen - bei den 450W auch nicht annähernd 3GHz.

Also die 3 GHz in TSE sollen zumindest nur mit dem 450W Limit gefahren worden sein bei dem 20k Graphics Score der 4090er.


Meinte wahrscheinlich Multi-GCDs.


Korrekt, das meinte ich doch, danke. :D

Felixxz2
2022-09-18, 20:45:21
Ich bin außerdem sehr skeptisch ob RDNA3 überhaupt auch nur annährend mit AD102 mithalten kann. Ich wäre ehrlich gesagt nicht wirklich überrascht wenn sich RDNA3 eher als AD103 hersstellen sollte bzw. leicht darüber, dafür aber auch preislich nur bis 1000-1200$ geht.

Ich denke jeder wäre extrem überrascht wenn AMD mit 3x FP32 und Architekturupdate nur AD103 Level erreichen würde, was ja nur irgendwo bei um die +60% auf N21 wäre. Das wäre mit Abstand die schlechteste Leistung seit Jahren, vor allem wenn man noch bedenkt dass AMD dafür extra ein Chiplet Design entwickelt hätte.

Also Stand heute ziemlich unrealistisch.

fondness
2022-09-18, 21:10:14
Ich denke jeder wäre extrem überrascht wenn AMD mit 3x FP32 und Architekturupdate nur AD103 Level erreichen würde, was ja nur irgendwo bei um die +60% auf N21 wäre. Das wäre mit Abstand die schlechteste Leistung seit Jahren, vor allem wenn man noch bedenkt dass AMD dafür extra ein Chiplet Design entwickelt hätte.

Also Stand heute ziemlich unrealistisch.

Naja, wenn die aktuellen Spekulationen stimmen, liegt man mit dem 308mm2 5nm Die auf jeden Fall eine Größenordnung unter Nvidia. Auch die TDP dürfte 100 Watt darunter liegen. Die selben Leistung wäre da schon fast utopisch.

Linmoum
2022-09-18, 21:15:56
Naja, wenn die aktuellen Spekulationen stimmen, liegt man mit dem 308mm2 5nm Die auf jeden Fall eine Größenordnung unter Nvidia. Auch die TDP dürfte 100 Watt darunter liegen. Die selben Leistung wäre da schon fast utopisch.Intel gefällt das.

basix
2022-09-18, 21:16:18
Naja, wenn die aktuellen Spekulationen stimmen, liegt man mit dem 308mm2 5nm Die auf jeden Fall eine Größenordnung unter Nvidia. Auch die TDP dürfte 100 Watt darunter liegen. Die selben Leistung wäre da schon fast utopisch.

Es sollte irgendwo ~300mm2 vs. ~400mm2 hinsichtlich "Shader Arrays" liegen (N31 vs. AD102). So extrem gross ist der Unterschied jetzt also nicht. Aber klar, AMD hätte das Design mit der besseren Flächeneffizienz. Hatte RDNA2 aber auch schon, auch wenn man Tensor & RT Cores miteinbezieht. N21 vs. GA102 sind ~300...350mm2 vs. ~400mm2 für die Chips ohne I/O und bei N21 noch den Infinity Cache (Tensor & RT bei GA102 abgezogen) ;)

Und egal wie es angestellt wurde: Wenn RDNA3 sich Kopf an Kopf mit Lovelace prügelt, auch inkl. RT, ist es für AMD ein Erfolg.

unl34shed
2022-09-18, 22:42:51
Falls Nvidia den L2 zumindest so kompakt hält wie AMD in 7nm mit N22 dann dürfte derselbe Teil bei Nvidia um die (629mm² - 58mm² L2 - 6*10mm² SI - 50mm² IO = 461mm² groß sein.

Dein Speicherinterface musst du verdoppeln, 10mm² sind nur 32bit, 64bit GDDR6X hat bei Ampere ca. 20mm² und wirklich kleiner wird das SI nicht, da IO.

Ob Nvidia den L2 auf AMD IF$ level shrinken kann, ist zu bezweifeln. AMD hat nicht ohne Grund ein L3 dafür gewählt. Weniger Interconnects, weniger Bandbreite, weniger Komplexität. Bei GA100 war der L2 noch rießig und das bereits in TSMC N7 und das ist wohl schon 1/3 der Größe von GA102 L2. Mit GA100 L2 Zellen wären 50mm² aber gerade mal 24MB. Ob das in 5nm noch mal 1/4 kleiner geht, ich weiß ja nicht?
(Zahlen von hier (https://semianalysis.substack.com/p/nvidia-ada-lovelace-leaked-specifications), hoffe die stimmen)

Berniyh
2022-09-18, 23:08:02
Es sollte irgendwo ~300mm2 vs. ~400mm2 hinsichtlich "Shader Arrays" liegen (N31 vs. AD102). So extrem gross ist der Unterschied jetzt also nicht. Aber klar, AMD hätte das Design mit der besseren Flächeneffizienz. Hatte RDNA2 aber auch schon, auch wenn man Tensor & RT Cores miteinbezieht. N21 vs. GA102 sind ~300...350mm2 vs. ~400mm2 für die Chips ohne I/O und bei N21 noch den Infinity Cache (Tensor & RT bei GA102 abgezogen) ;)
Bei Ampere hat das aber der (mutmaßlich) günstigere Prozess rausgerissen. Bei Ada hingegen ist der Prozess den Nvidia verwendet genauso teuer oder evtl. sogar teurer (weil custom und weil Nvidia sich da wohl mit den Stückzahlen verzockt hat). Daher wird das bei der neuen Generation deutlich mehr ins Gewicht fallen.

basix
2022-09-18, 23:40:08
Es ging hier nicht um die Kosten, sondern um Perf/Area und die Aussage, dass N31 aufgrund der geringeren "aktiven Fläche" mit Recheneinheiten nicht an AD102 heranreichen kann. Mehr Fläche kann zu mehr Performance führen, muss es aber nicht im Vergleich zur Konkurrenz.

iamthebear
2022-09-19, 00:32:02
Ich denke jeder wäre extrem überrascht wenn AMD mit 3x FP32 und Architekturupdate nur AD103 Level erreichen würde, was ja nur irgendwo bei um die +60% auf N21 wäre. Das wäre mit Abstand die schlechteste Leistung seit Jahren, vor allem wenn man noch bedenkt dass AMD dafür extra ein Chiplet Design entwickelt hätte.

Also Stand heute ziemlich unrealistisch.

Der GCD Teil von N21 hatte um die 400mm², auf N5 geshrinked wären das ca. 250mm² bei 1.6x Skalierung.
Das N31 GCD hat angeblich nur 300mm². Da auch nur annähernd 3x Performance zu erwarten halte ich für komplett realitätsfremd. Normalerweise bewegen sich Verbesserungen bei Performance/Transistor im Bereich von maximal 30% aber da muss die Architektur schon echt mies sein siehe Vega vs. RDNA.

Dein Speicherinterface musst du verdoppeln, 10mm² sind nur 32bit, 64bit GDDR6X hat bei Ampere ca. 20mm² und wirklich kleiner wird das SI nicht, da IO.

Laut Semianalysis (bzw. Locuza) sind es 75mm² für 384bit bei GA102 für die PHYs (12.5mm²/64 Bit) + 6*2mm² für die Memory Controller.
Bei N22 unter N7P sind es schon nur mehr
Bei AMD sind es nur 9.7mm² für 64Bit PHYs also shrinken die Teile anscheinend sehr wohl noch etwas.
Aber ja kann sein, dass es keine 60mm² sondern 80mm² sind. Ist ja nur eine grobe Schätzung.

Ob Nvidia den L2 auf AMD IF$ level shrinken kann, ist zu bezweifeln. AMD hat nicht ohne Grund ein L3 dafür gewählt. Weniger Interconnects, weniger Bandbreite, weniger Komplexität. Bei GA100 war der L2 noch rießig und das bereits in TSMC N7 und das ist wohl schon 1/3 der Größe von GA102 L2. Mit GA100 L2 Zellen wären 50mm² aber gerade mal 24MB. Ob das in 5nm noch mal 1/4 kleiner geht, ich weiß ja nicht?
(Zahlen von hier (https://semianalysis.substack.com/p/nvidia-ada-lovelace-leaked-specifications), hoffe die stimmen)

Ich würde Nvidia einmal unterstellen, dass sie nicht komplett unfähig sind. Ja der L2 bei A100 war von der Dichte deutlich niedriger. Das liegt aber daran, dass dessen Bandbreite auch viel höher ist damit die L2 Bandbreite den schnellen HBM dahinter nicht ausbremst. Für eine Gaming GPU denke ich, dass das ganz anders gemacht wird.

Einmal davon abgesehen: Die 96MB SRAM selbst haben bei N5 nur 17mm². Der Rest der L2 Fläche ist Ansteuerungslogik und die shrinked mit N5 sehr gut.

Nightspider
2022-09-19, 02:38:51
Es wird nicht N5 sondern N5E oder N5HPC oder so.

Neurosphere
2022-09-19, 02:56:41
Der GCD Teil von N21 hatte um die 400mm², auf N5 geshrinked wären das ca. 250mm² bei 1.6x Skalierung.
Das N31 GCD hat angeblich nur 300mm². Da auch nur annähernd 3x Performance zu erwarten halte ich für komplett realitätsfremd. Normalerweise bewegen sich Verbesserungen bei Performance/Transistor im Bereich von maximal 30% aber da muss die Architektur schon echt mies sein siehe Vega vs. RDNA.

Sind wir beim GCD nicht bei 350 mm²?

Ich glaube die alten Prognosen, und wenn sie nur ein Design-Target waren, von 2x - 2,25x N21 dürften im Bereich des Möglich liegen. Wirklich offen ist die RT Performance und ob man sich offen hält ein dual GCD zu bringen.

OgrEGT
2022-09-19, 06:42:44
Die Größe des N31 GPC könnte ggf auf nur 6144SPs hindeuten die allerdings einerseits entschlackt wurden und aufgrund von VLIW2 doppelt so viele Instruktionen ausführen können... Dass RDNA3 VLIW2 basiert sein könnte wurde vor einiger Zeit spekuliert...
https://www.youtube.com/watch?v=NalDAkxwQ14
Wenn die Leistung stimmt dann :up:

Gott1337
2022-09-19, 06:54:51
Die Größe des N31 GPC könnte ggf auf nur 6144SPs hindeuten die allerdings einerseits entschlackt wurden und aufgrund von VLIW2 doppelt so viele Instruktionen ausführen können... Dass RDNA3 VLIW2 basiert sein könnte wurde vor einiger Zeit spekuliert...
https://www.youtube.com/watch?v=NalDAkxwQ14
Wenn die Leistung stimmt dann :up:

Before GCN AMD was using more complex versions of VLIW including VLIW5 and then VLIW4. IIRC at some point Nvidia was using VLIW too, but abandoned it quite a while ago.
quote von einem dude

Felixxz2
2022-09-19, 07:47:09
Naja, wenn die aktuellen Spekulationen stimmen, liegt man mit dem 308mm2 5nm Die auf jeden Fall eine Größenordnung unter Nvidia. Auch die TDP dürfte 100 Watt darunter liegen. Die selben Leistung wäre da schon fast utopisch.

Du vergleichst ja jetzt hoffentlich nicht AMDs GCD mit nVs komplettem Chip oder?

Der GCD Teil von N21 hatte um die 400mm², auf N5 geshrinked wären das ca. 250mm² bei 1.6x Skalierung.
Das N31 GCD hat angeblich nur 300mm². Da auch nur annähernd 3x Performance zu erwarten halte ich für komplett realitätsfremd. Normalerweise bewegen sich Verbesserungen bei Performance/Transistor im Bereich von maximal 30% aber da muss die Architektur schon echt mies sein siehe Vega vs. RDNA.


Wie kommst du denn auf 400mm2 nur für die Shader? N21 hat 505mm2, davon abgezogen Speicherinterface + 128Mb IF$ sind sehr sicher deutlich mehr als 100mm2.

Darüber hinaus habe ich nie was von 3x Performance geschrieben, sondern darauf hingewiesen, dass +60% bei den Neuerungen die wir ja schon gesichert haben einfach der größte Fehlschlag seit Jahren wäre und ich es daher für sehr unrealistisch halte.
Wir sehen ja auch einen massiv gesteigerten Takt, da hätte es für +60% ja einfach gereicht N21 bisschen aufzubohren und zu shrinken.

basix
2022-09-19, 08:27:08
Ich glaube schon, dass ~2x schon machbar sind:
- 350W anstatt 300W
- > +50% Energieffizienz

Allein mit diesen zwei Zahlen ist man bereits bei 1.75x Performance. Was noch obendrauf kommt ist Bonus, aber ich bin mir ziemlich sicher, dass AMD bei den +50% einen eher konservativen Wert angegeben hat ;) 3x ist aber doch eher utopisch, zumindest von der Realleistung her. Die Rohperformance in TFLOPs kann schon 3x erreichen. Dafür würden ~2.8 GHz auf dem vollaktivierten N31 GCD reichen.

davidzo
2022-09-19, 12:48:10
Einmal davon abgesehen: Die 96MB SRAM selbst haben bei N5 nur 17mm². Der Rest der L2 Fläche ist Ansteuerungslogik und die shrinked mit N5 sehr gut.

Ich würde das jetzt nicht Ansteuerungslogik nennen, das ist eher der Kern eines Cache Designs, nichts Externes. Wieviele Bänke, wie ist die Assoziativität, wie ist die Busbreite, wie skalieren die Zellen mit Takt+Spannung (VF), wie groß sind die dazugehörigen TLBs?
Die SRAM Zelle selbst hat noch nie den größten Einfluss auf den Platzbedarf gehabt. Sieht man ja gut bei CPU-Designs wo der L1 mal eben halb so groß ist wie der L2, aber 16x weniger bits fasst.

Was nützt dir ein Haufen Sram wenn die Ausnutzung aufgrund mangelnder Assoziativität sehr gering ist und bei voller cache Nutzung die TLB Misses eine Penalty erzeugen dass man auch direkt zum dram hätte gehen können?

AD102 soll laut locuza mit 48 genau soviele Cache Slices haben wie GA102. Damit wissen wir schonmal dass die Bandbreite nur durch den Takt steigt, nicht über die Busbreite, die bleibt bei 3072byte/clock.
Je nachdem ob Nvidia für den SRAM nun die 6T, 7.5T und HD oder HP Zellen verwendet kann man mit Wahrscheinlichkeit sagen dass der Cache-Takt nicht dieselbe Clock-Domäne teilt wie der Rest der GPU.

AMD macht das schon lange so bei ihren Infinitycache, dass sie lieber eine niedrigere clock Domäne fahren und stattdessen das cache design selber auf low latency auslegen. anscheinend ist das energetisch und flächenmäßig günstiger als ein higher latency Hochtakt cache. Zudem ist es sehr einschränkend wenn der erreichbare GPUtakt durch den limitierten Cache-takt eingeschränkt wird.

Damit landen wir bei Ada bei denselben 5TB/s wie GA102 bis vllt. 7TB/s bei leichten Taktgewinnen.

Das mag jetzt exzessiv klingen weil AMD bei ähnlichen Cachegrößen mit 2TB/S respektive 1024byte/clock auskommt, allerdings muss man bedenken dass AMD auch noch einen schnellen L2 mit 2048bytes/clock und 5,2tb/s dazwischen hat der erheblich geringere Latenzen als Ampere/Ada hat (und mehr takt).
Nvidia muss also diese hohe Bandbreite im L2 bringen, nicht nur weil AD102 eine ganz andere Bandbreitenklasse als Navi21 ist, sondern weil ansonsten auch eine penalty zwischen L1 und L2 entstehen würde.

Die Latenz und Auslastung wird bei Ada sicher unter der der 16x Vergrößerung der Cache Slices leiden gegenüber Ampere. Gleichzeitig wird es spannend zu sehen ob der monolititsche L2 von NV eine größere Bandbreite behält als AMDs zweite generation Infinitycache der bei RDNA3 sogar über mehrere DIEs geroutet werden muss.
AMD hatte mit RDNA2 einen erheblichen Latency Vorsprung vor Nvidia in allen Cache Stufen, was die Architektur unter anderem so effizient macht. Es wird sich zeigen ob das auch noch der Fall ist wenn der Cache über Microbumps auf mehrere DIEs verteilt ist.
Wahrscheinlich wird der L2 mehr Transistoren verbrauchen als der L3 von AMD und von Nvidia trotz N4 und 6T Zellen weiterhin etwas größer sein als AMDs N6 Cache. Liegt einfach an der Busbreite.

Ich tippe auf 140mm2 bei Nvidia. Das ist etwas mehr als die 48mb L2 bei A100. Allerdings hat A100 auch 512kb Slices mit 96byte/clock. Also doppelte Busbreite und halbe Größe wie der von Locuza vermutete AD102 cache.

Ein Slice hat bei A100 ca. 1.3mm2 in N7.

Zwischen N7 und N4 würde ich einen Scalingfaktor von 1.7x veranschlagen. SRAM selbst geht von 0.27µm auf 0.21µm, also Faktor 1.28x aber der logic Faktor für die Bank, TLB, Busbreite etc. sind 1.83x. Zudem bin ich mir nicht sicher ob A100 schon die extremsten 6T+HD libs benutzt und nicht eine etwas relaxtere Variante da die Taktraten bei A100 doch relativ hoch sind. Einen kleinen Teil wird man also auch über die Designlibs herausholen.

Ein Ada Slice mit 2MB wird in meiner Schätzung also 3mm2 groß.

Davon nun nicht 96stück wie bei A100, sondern nur 48 slices = macht 144mm2



AMD wird wohl eher auf 80-120mm2 kommen wenn man die memory PHYs + IF-Crossbar und Stacking contacts aus dem MCD heraus rechnet und nur den cache zählt. Bei 6x MCDs wird die Busbreite definitiv wachsen, minimal auf 1536byte/clock, wenn nicht eher auf 3072byte/clock. Die slice size wird also bei AMD von vormals 4MB auf 2MB oder sogar 1MB sinken.
Das ist interessanterweise eine Umkehr der Verhältnisse und es würde mich bei wenn AMD letztendlich eine sehr vergleichare Bandbreite erziehlt wie Nvidia mit dem on-DIE L2.

Linmoum
2022-09-19, 14:54:49
https://mobile.twitter.com/9550pro/status/1571834170900623360

Knapp 4GHz? :freak:

OgrEGT
2022-09-19, 15:01:59
Wenn das stimmt... :eek:
Unter Wasser oder Luft?
Bei welchem Verbrauch?

RitterRost
2022-09-19, 15:27:01
https://mobile.twitter.com/9550pro/status/1571834170900623360

Knapp 4GHz? :freak:

Klasse Störfeuer zum Ada Release :-)