PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA5 bzw. UDNA1 (Navi 5X, Radeon RX 10000 Serie, 2027)


Seiten : 1 [2]

davidzo
2025-08-22, 17:28:14
Dann wurden unsere Gebete ja endlich erhört.

Hier im Forum sprechen wir uns spätestens seit Navi24 für die Rückkehr von DDR bzw. LPDDR in den entrylevel GPU Markt aus. Früher konnten die entrylevel GPUs meist Schritthalten mit den Midrange Modellen wenn es um die VRAM Ausstattung ging, was für die Entwickler einfach war weil die Texturen nicht in X verschiedenen Auflösungen vorliegen müssen und man eher mit LOD etc. arbeiten konnte um die Komplexität der Szene zu reduzieren. Seit 3-4 Generationen ist das nicht mehr der Fall und statt einfach alle Texturen in den VRAM zu laden gibt es aufwändige Textur streaming Verfahren.

AMD war eigentlich prädestiniert dafür das schon viel früher zu machen, da sie die LPDDR eh breitflächig in APUs verwenden. Auch unterhalb von N33 hatte ich sowas eigentlich erwartet.

Dass AMD in 2026 auch den midrange (4060 level) mit LPDDR abdeckt ist nur konsequent, litten die vergangenen Midrangekarten doch seit der 3060 immer wieder massivst unter VRAM Mangel.
Anfangs lag das tatsächlich am Preis für schnellen GDDR6 (rund 30$ für 8GB). GDDR7 dürfte aktuell in ähnlichen gefilden liegen. Mittlerweile hat nvidia das als effektive Upselling Methode entdeckt obwohl die preise unter 20$/8Gb gesunken sind, zumindest für GDDR6.

basix
2025-08-22, 18:24:05
Fixfertige DDR5-DIMMs gibt es ja zum Teil mit ~2$/GByte im Handel. Da ist Vendor- und Händler-Marge auch schon drauf.

LPDDRx soll etwas teurer als deren Geschwister sein, aber das dürfte nicht viel sein. Es kann insgesamt also gut sein, dass LPDDR5X/LPDDR6 ca. 2/3 so teuer sind wie GDDR6/GDDR7. Dann bekäme man 12 GByte für 8 GByte und 16 GByte für 12 GByte und wäre somit ideal für Mainstream-GPUs (AT4 mit 12 GByte und AT3 mit 16 GByte). Bei 10'667...17'066 MT/s und 2-ch Interface erreicht man doch 256...409.6 GB/s Bruttotransferrate. Bei einem 4-ch Interface (AT3) wären es 512...819.2 GB/s. Eine 9070XT hat auch nur 640 GB/s.

robbitop
2025-08-22, 20:04:13
Wobei der LLC und dessen hitrate mit betrachtet werden muss und nicht nur die externe Bandbreite. Wenn es deutlich weniger LLC gibt braucht es mehr externe Bandbreite für die gleiche Performance.

davidzo
2025-08-22, 20:39:53
LPDDRx soll etwas teurer als deren Geschwister sein, aber das dürfte nicht viel sein. Es kann insgesamt also gut sein, dass LPDDR5X/LPDDR6 ca. 2/3 so teuer sind wie GDDR6/GDDR7.

Preis ist eben auch eine Stückzahlenfrage. LPDDR hat mittlerweile vergleichbare bis größere Stückzahlen gegenüber non mobile DRAM. Der Consumer DDR Markt (PCs, labtops) ist schon seit Jahrzehnten weitaus kleiner als der Consumer markt für mobile DRAM (Telefone, mittlerweile auch Notebooks). Bislang hat das Wachstum in den Rechenzentren es aber immer noch rausgerissen für DDR5 und Co. Da Rechenzentren aber aktuell vermehrt in GPUs und HBM investieren und bei klassischen Servern nur noch konsolidieren, könnten DDR5 und DDR6 die Verlierer sein.

Möglicherweise ist in der nächsten Generation also LPDDR6 die am meisten gehandelte Commodity und nicht mehr DDR6.

HOT
2025-08-26, 18:47:31
Zeit für ne Liste:

AT0 -> 192CUs 4x2x12 WGP, 512Bit GDDR7, N2P (N3P wäre völlig sinnlos für den Chip, zumal AMD ja eh schon erfolgreich mit N2P arbeitet und jeder mm² zählt bei der Größe)
AT2 -> 72CUs 3x12 WGP, 192Bit GDDR7, N3P
AT3 -> 48CUs 2x12 WGP, 256Bit LPDDR5x oder 384Bit LPDDR6, N3P
AT4 -> 24CUs 1x12 WGP, 128Bit LPDDR5x, N3P

horn 12
2025-08-26, 19:32:33
Dies wäre dass ja nur 15 bis 20% über einer 9070 XT wenn man AT2 hernimmt
Wenn es hochkommt,- da wäre man knapp an einer 4090

HOT
2025-08-26, 19:49:05
Würd auch sagen, der kommt knapp >4090 raus.

basix
2025-08-27, 08:12:24
AT0 -> 192CUs 4x2x12 WGP, 512Bit GDDR7, N3P
AT2 -> 72CUs 3x12 WGP, 192Bit GDDR7, N3P
AT3 -> 48CUs 2x12 WGP, 256Bit LPDDR5x oder 384Bit LPDDR6, N3P
AT4 -> 24CUs 1x12 WGP, 128Bit LPDDR5x oder 192Bit LPDDR6, N3P
Leichte Anpassungen in fett, wie ich das erwarten würde ;)

horn 12
2025-08-27, 08:56:02
Und AT0 kommt für Endkunden, oder nur für AI udg.
oder wird dies eine Titan wie bei NV werden.

dargo
2025-08-27, 08:58:31
Boah... bitte nicht den gleichen bullshit bei AMD jetzt auch wie schon bei Nvidia. :facepalm: Damit meine ich den riesen Abstand zwischen AT0 und AT2.

HOT
2025-08-27, 09:11:44
Leichte Anpassungen in fett, wie ich das erwarten würde ;)
Vielleicht theoretisch, aber es gibt keinen Grund das praktisch umzusetzen. Das war schon absicht, dass ich das weggelassen habe. Und wie ich schon schrieb, N3P für den AT0 ergibt überhaupt keinerlei Sinn.

basix
2025-08-27, 09:43:58
Ach ja?
- Der mit Abstand grösste Chip im noch unerprobtesten Prozess? Selbst Zen 6 und MI400 nutzen N2P nur für relativ kleine Chiplets
- Die ganze RDNA5 IP von N3P auf N2P portieren? Alle anderen Produkte (dGPUs wie auch APUs, vermutlich auch NextGen Konsolen) nutzen N3P bei den Chips, wo RDNA5 drauf ist

N2P wäre für AT0 aus leistungstechnischer Sicht sicher schön. Aber es gibt schwerwiegende Gründe (Kosten, R&D Aufwand, Risiko) welche dagegen sprechen.


Boah... bitte nicht den gleichen bullshit bei AMD jetzt auch wie schon bei Nvidia. :facepalm: Damit meine ich den riesen Abstand zwischen AT0 und AT2.
AT1 gäbe es noch dazwischen (256bit, 96 CU). Der wurde aber anscheinend gecancelt.

AT0 wie auch GB202 würde es in dieser Form gar nicht geben, wenn es nicht ML/AI gäbe. Die wären sonst auf 384bit und 75...80% der SMs reduziert. Als Top Dog Käufer kann man das aus gewisser Sichtweise sogar begrüssen, da man fettere GPUs bekommt (zu einem natürlich höheren Preis).
99% der Gamer wird das aber wenig interessieren ob der grösste Chip noch fetter und teurer wird, wenn eine 5080 bereits 1000$ kostet und AT2 wohl auch ~600$ kosten wird. Da ist der relative Abstand zum grössten Chip nicht so relevant.

Ihr (und 99% von Gamern) solltet euch lieber auf folgendes freuen:
- AT2 mit 18/24 GByte, ~5080...4090 Performance für ~600/700$
- AT3 mit 16 GByte, ~5070 Ti / 9070 XT Performance für ~400$
- AT4 mit 12 GByte, ~5060 Ti / 9060 XT Performance für ~250$

Und obendrauf aufgebohrtes Featureset für verbessertes Pathtracing, Neural Rendering usw.

dargo
2025-08-27, 09:56:29
AT1 gäbe es noch dazwischen (256bit, 96 CU). Der wurde aber anscheinend gecancelt.

Was es gäbe juckt hier nicht, es hilft dem PC-Gaming Markt in keinster Weise.



Ihr solltet euch lieber auf folgendes freuen:
- AT2 mit 18/24 GByte, ~5080...4090 Performance für ~600/700$
- AT3 mit 16 GByte, ~5070 Ti / 9070 XT Performance für ~400$
- AT4 mit 12 GByte, ~5060 Ti / 9060 XT Performance für ~250$
Was gibt es hier zu freuen? Wo ist der Anreiz bei RDNA5 für einen N48 Besitzer? AT0 für teures Geld und mit hoher Wahrscheinlichkeit auch viel Durst ansonsten auf RDNA6 warten? Lol...

basix
2025-08-27, 09:58:39
+50% Performance, mehr Speicher und deutlich schnelleres Pathtracing (was mMn bei PS6 / Xbox Next zum Standard werden wird) sind für dich also keine Argumente?

Wenn du deine 9070XT verkaufst, bezahlst du nichtmal so viel obendrauf ;)

Und wenn es dich nicht interessiert: Es gibt andere Leute, die es interessieren wird ;)
Es gibt viele Leute, die noch keine Karte mit N48 Performance haben. Für 400$ wäre das mMn ein ansprechender Deal.

HOT
2025-08-27, 09:59:17
Wenn die wirklich AT3 und 4 mit LPDDR5x bringen haben die auch nicht nur so wenig RAM...
Da dürfte AT4 dann 16GB und AT3 24GB haben und auch bei AT2 würde ich nicht von 18GB ausgehen, bis dahin wird es 32Gbit-Module geben, was auch 24GB wären.

@basix N2 hatte die ganze Zeit sehr gute Yields, es gab keinen Grund nicht auf den Prozess zu setzen für AMD, erst recht nicht wenn man wichtigster Kooperationspartner mit Exklusivdeal war. Natürlich ist AT0 aus meiner Sicht N2P, N3P ergibt keinen Sinn bei dem Hintergrund. Außerdem wirst du eine Menge salvage haben (immerhin sämtliche Consumerchips).

basix
2025-08-27, 10:01:30
Wieso sollten sie mehr VRAM draufpacken als nötig? Oder hast du die 8GB 5060 / 5060 Ti / RX 9060 und 9060XT vergessen?

dargo
2025-08-27, 10:01:34
Ich erwarte keine +50% bei AT2. Wie kommt man überhaupt auf solche Zahlen? Vielleicht einzelne, rausgepickte Rosinen aber bestimmt nicht im Schnitt der Spiele.


Es gibt viele Leute, die noch keine Karte mit N48 Performance haben. Für 400$ wäre das mMn ein ansprechender Deal.
Du hast da imo viel zu optimistische Erwartungen an die Performance und Preise. Letzteres insbesondere unter dem Aspekt eines noch teureren Fertigungsprozesses mit RDNA5.

basix
2025-08-27, 10:04:24
Ich erwarte keine +50% bei AT2. Wie kommt man überhaupt auf solche Zahlen?

Educated guess ;)

dargo
2025-08-27, 10:06:03
Entschuldige bitte, aber mir ist da noch zu viel wildes Spekulatius in deiner Prognose. ;)

dildo4u
2025-08-27, 10:09:46
Kommt drauf ob sie es ernst meinen Path Tracing Konsolen zu bauen du willst was in Bereich der 5080, was eine realistische Performance für die 6070 Klasse in 2027 wäre.


3080 waren z.b 300 Watt und 4070 200 Watt was ins Konsolen TDP passt.

HOT
2025-08-27, 10:15:47
Wieso sollten sie mehr VRAM draufpacken als nötig? Oder hast du die 8GB 5060 / 5060 Ti / RX 9060 und 9060XT vergessen?

Das wird einfach Standard sein. Siehe NV: 5070S -> 18GB 5070TiS -> 24GB
Da kannst nicht mehr mit solchen pipimengen auflaufen... das wird so nicht kommen, du wirst mindestens 16GB sehen, erst recht mit LPDDR-RAM.



AT2 soll ja 10% mehr IPC als RDNA4 haben, zudem dürfte der Takt auf 3,5GHz steigen, da kommst bei 72CUs sicherlich irgendwo knapp über der 4090 raus. Mit 24GB 36GT/s GDDR7-RAM haste auch ausreichend Bandbreite, aber ein nativ-UHD-Chip ist das dann natürlich wieder nicht.

horn 12
2025-08-27, 10:33:47
Hier:

https://videocardz.com/newz/amd-rdna5-rumors-point-to-at0-flagship-gpu-with-512-bit-memory-bus-96-compute-units

Kepler gepostet
Dies würde Sinn machen und ein Update für 9070XT rechtfertigen
Plus 50 bis 60% sollten machbar sein

basix
2025-08-27, 10:40:46
Das wird einfach Standard sein. Siehe NV: 5070S -> 18GB 5070TiS -> 24GB
Da kannst nicht mehr mit solchen pipimengen auflaufen... das wird so nicht kommen, du wirst mindestens 16GB sehen, erst recht mit LPDDR-RAM

Jetzt vermischt du aber etwas an meiner Aussage. AT2 wird in 18 & 24 GByte Konfigurationen daherkommen. Das bestreite ich nicht und macht für den Performance-Bereich auch Sinn. Es ging mehr um AT3 und AT4, welche nicht mit "masslosen" VRAM-Mengen daherkommen werden. LPDDRx ist günstiger aber was bringen dir 24 GByte auf einer AT3 Karte? Du zahlst als Kunde mehr aber wirst faktisch nie was davon haben (bei reinem Gaming Use Case). Über 16 GByte bei AT4 kann man noch reden, aber das wird ein 1x SE / 24 CU Mini-Chip werden (~100mm2 ohne MID).

Vielleicht also sowas, um meine "Vision" klarzustellen ;)
- AT2 = 18GB & 24 GByte Varianten
- AT3 = 16 GByte
- AT4 = 12GB & 16 GByte Varianten

Nur weil es günstiger LPDDRx Speicher ist, wird man nicht plötzlich per Giesskanne riesige Speichermengen verbauen. So funktioniert betriebswirtschaftliche Arbeit nicht, auch wenn wir Kunden das gerne anders hätten.
Bei den Profi-Karten sowie allfälligen ML/AI Use Cases sieht das natürlich anders aus. Da können AT3 und AT4 aus dem Vollen schöpfen und 128 GByte oder mehr verbauen.

dargo
2025-08-27, 10:45:03
AT2 soll ja 10% mehr IPC als RDNA4 haben, zudem dürfte der Takt auf 3,5GHz steigen...
Bei welcher Gaming-Last? :tongue: Ich kann auch einen N48 schon spielend auf 3,xGhz hochjagen, nur wird dann das Teil zur Saufziege bei höheren Heizlast.

HOT
2025-08-27, 10:45:12
basix
Das interessiert doch keinen. Das Ding hat billige 24GB, das wird gekauft. Ist doch total egal ob die das brauchen oder nicht (zumal das wieder mal sehr optimistisch ist von dir ;). Wir reden hier von ab Mitte 27).

Bei welcher Gaming-Last? :tongue: Ich kann auch einen N48 schon spielend auf 3,xGhz hochjagen, nur wird dann das Teil zur Saufziege.

RT ist komplette Wildcard, keine Ahnung wie das abschneiden wird, das weiß niemand. Ich rede bei sowas immer nur von Raster. Und ob UDNA bei 3,x GHz saufen wird wird sich zeigen.

basix
2025-08-27, 10:46:14
Mit 16 GByte ist es noch billiger ;)

HOT
2025-08-27, 10:49:00
Vergiss nicht immer das Marketing... Außerdem reden wie von Mitte 27 folgend, da ist 16GB wie 12GB jetzt oder viel schlimmer...

dargo
2025-08-27, 10:49:31
Hier:

https://videocardz.com/newz/amd-rdna5-rumors-point-to-at0-flagship-gpu-with-512-bit-memory-bus-96-compute-units

Kepler gepostet
Dies würde Sinn machen und ein Update für 9070XT rechtfertigen
Plus 50 bis 60% sollten machbar sein
Hä? Da steht was von 96CUs für AT0. Wie zum Teufel kommt basix auf 192CUs? :freak: Außerdem AT2 nur 40CUs. ;D

basix
2025-08-27, 11:52:13
Vergiss nicht immer das Marketing... Außerdem reden wie von Mitte 27 folgend, da ist 16GB wie 12GB jetzt oder viel schlimmer...

Wie viel hat Marketing gebracht, als Nvidia die 5060 Ti 8GB rausgebracht hat? Ja, Tests sind negativ aber die meisten PC Pre-Builts nutzen die 8GB Variante.

Und 12 GByte sind Ende 2026 / Anfang 2027 mit hoher Wahrscheinlichkeit langlebiger als 8 GByte heute. Solange man bei 1080p bleibt.
Und eben, wenn es noch eine 16 GByte Variante gibt hat der Kunde die Wahl. Die gibt AMD den Kunden mit der 9060XT 8GB auch :D

Hä? Da steht was von 96CUs für AT0. Wie zum Teufel kommt basix auf 192CUs? :freak: Außerdem AT2 nur 40CUs. ;D
Beim schnellen zeichnen WGP mit CU verwechselt. Das kann auch Kepler_L2 passieren ;)
Oder was willst du mit 96CU an einem 512bit GDDR7 Interface machen? ;)

40 WGP / 80 CU wäre ein denkbare Variante von AT2, wenn 36 WGP / 72 CU vom Chip-Layout nicht optimal wären. Würde dann aber auch 4x SE anstatt 3x SE bedeuten (wie es Kepler auch eingezeichet hat).
Da der Xbox Next Chip mit AT2 spekuliert wird und ~66...70 CU tragen soll (66 CU wären bei 72 CU und 3x SE meine Wahl, -1x WGP pro SE), ist 72 CU wahrscheinlicher. Sonst wäre der Verschnitt bei der Xbox Next zu gross.

davidzo
2025-08-27, 12:24:48
Hä? Da steht was von 96CUs für AT0. Wie zum Teufel kommt basix auf 192CUs? :freak: Außerdem AT2 nur 40CUs. ;D

Es ist ein komplett neues Gerücht, dass den bisherigen MLID Angaben widerspricht.
Dementsprechend sind die IPC Angaben von MLID auch nicht übertragbar. 96 und 40CU klingt aber eher nach AMD und dass Infinity-cache wieder im Spiel (L2 wird umbenannt?) ist klingt imo auch realistischer.

Gleichzeitig sind es dieselben Namen wie MLID geleakt hatte. Bei den Chip-Bezeichungen lag er also richtig. In dem neuen Kepler Leak gibt es widerrum nichts was nach offiziellen Infos klingt, sondern eher mehr nach educated Guess seitens Kepler womit er in der Vergangenheit auch häufiger mal falsch lag.

mboeller
2025-08-27, 13:20:36
Hä? Da steht was von 96CUs für AT0. Wie zum Teufel kommt basix auf 192CUs? :freak: Außerdem AT2 nur 40CUs. ;D

nt ... hat basix schon beantwortet

basix
2025-08-27, 13:36:48
Bei den Chip-Bezeichungen lag er also richtig. In dem neuen Kepler Leak gibt es widerrum nichts was nach offiziellen Infos klingt, sondern eher mehr nach educated Guess seitens Kepler womit er in der Vergangenheit auch häufiger mal falsch lag.

Ist nicht viel mehr als ein "Schizopost", siehe hier die Originialquelle ;)
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-40#post-41496872

Und hier eine tabellarisch aufgestellte Form von dem:
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-40#post-41497579

2x old CU / WGP / New CU:
Wird alles durcheinandergewürfelt, bedeutet aber das selbe. Einzel CUs gibt es bei RDNA4 per Definition nicht. Die kleinste Einheit pro SE ist ein WGP mit 2x CU (in RDNA1...4 Sprech). Bei RDNA5 soll die CU jetzt anscheinend doppelt so gross werden (1x RDNA5 CU = 2x RDNA4 CU = 1x RDNA4 WGP)

Edit:
Weiter im Thread noch eine interessante Speku: RDNA5 und CDNA5 gehen in Richtung Apple M3+ Cache Design?
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-40#post-41497615
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-40#post-41497616
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-40#post-41497631

CDNA4 is 32KB L0 + 160KB LDS, CDNA5 is 448KB Shared L0/LDS
-> Zusammenfassung von L0$, LDS und vielleicht auch Registerfile zu einem grossen unified/shared Cache?!

Hier ab Minute 11:37
https://developer.apple.com/videos/play/tech-talks/111375/

Dynamische Register-Allokation hat AMD bei RDNA4 bereits eingeführt. Sieht so aus, also könnten sie hier noch näher an Apples Design-Ansatz ranrücken (unified CU cache, dynamic/OoO scheduling).
Eine effektivere Nutzung der Caches innerhalb der CUs und SE kann natürlich eine Erklärung sein, wieso ein etwas grösserer L2$ ausreicht gegenüber L2$ + MALL.

AffenJack
2025-08-27, 16:27:38
Es ist ein komplett neues Gerücht, dass den bisherigen MLID Angaben widerspricht.
Dementsprechend sind die IPC Angaben von MLID auch nicht übertragbar. 96 und 40CU klingt aber eher nach AMD und dass Infinity-cache wieder im Spiel (L2 wird umbenannt?) ist klingt imo auch realistischer.

Gleichzeitig sind es dieselben Namen wie MLID geleakt hatte. Bei den Chip-Bezeichungen lag er also richtig. In dem neuen Kepler Leak gibt es widerrum nichts was nach offiziellen Infos klingt, sondern eher mehr nach educated Guess seitens Kepler womit er in der Vergangenheit auch häufiger mal falsch lag.

Kepler hat schon häufiger bzgl RDNA5 Sachen geposted, die nicht zu MLID Aussagen passten. Ich hab das nur am Rand mitbekommen, aber fand das ja immer spannend, dass hier MLID als zuverlässiger als Kepler gesehen wird.

MLID lag in der Vergangenheit auch verdammt oft falsch.

HOT
2025-08-28, 07:23:27
Hä? Da steht was von 96CUs für AT0. Wie zum Teufel kommt basix auf 192CUs? :freak: Außerdem AT2 nur 40CUs. ;D

Das ist so ne Sache mit den CUs. Ich vermute, dass sowohl Kepler als auch MLID recht haben und das wie basix schon ausführte tatsächlich nur Definitionssache sein könnte, denn es kann sein, dass AMD die WGPs jetzt einfach als CUs bezeichnet, denn die werden bei UDNA ja noch mehr Synergien ausnutzen.

AT0 -> 192CUs 8x2x6 WGPs/CUs, 512Bit GDDR7, N2P, (384Bit und ca.84WGP/CU) 48GB 36Gbit/s 16Gbit GDDR7 (Doppelseitig) (Radeon AI290)
AT2 -> 80CUs 4x2x5 WGPs/CUs, 192Bit GDDR7, N3P, 36GB 36Gbit/s 24Gbit GDDR7 (Doppelseitig) (Radeon AI280)
AT3 -> 48CUs 2x2x6 WGPs/CUs, 256Bit LPDDR5x oder 384Bit LPDDR6, N3P, 24GB LPDDR5x 10667 (Radeon AI270)
AT4 -> 24CUs 1x2x6 WGPs/CUs, 128Bit LPDDR5x oder 192Bit LPDDR6, N3P, 16GB LPDDR5x 10667 (Radeon AI260)

Über salvage braucht man sich bei den diskreten GPUs keine Gedanken mehr machen, dafür gibts ja die APUs/Magnus und der N3P-Yield soll wahnsinnig gut sein. Vielleicht gibts noch ne GRE oder sowas.
Nochmal an basix Speicherkonfiguration: Die Speicherausstattung wäre knapp, die neuen Konsolen sollten alle mindestens 24GB RAM bekommen wegen AI, selbst das PS Handheld, denn die Developer brauchen mindestens 10GB ausschließlich für AI. Jetzt hat man auch den wahren Grund, warum die alle LPDDR benutzen, denn das trifft die PS6+Handheld offenbar beide, nur Magnus nicht.

robbitop
2025-08-28, 09:06:51
AMD spricht IIRC auch schon relativ lange primär von WGPs und kaum noch von CUs (seit RDNA1 schon). Das kann dann auch schnell mal verwechselt werden. Ich denke auch dass Kepler WGPs meint.

dargo
2025-08-28, 09:32:46
Bei den neuen Konsolen kommen hoffentlich 32GB. Auch dort kann AMD wunderbar den LPDDR5x verwenden.

robbitop
2025-08-28, 09:35:48
Also ich empfand schon PS5 und PS5PRO als enttäuschend was RAM angeht. Die RAM Preise sind ja glücklicherweise gesunken und nun kann es auch endlich mal einen Sprung beim RAM geben.
Und wenn Laptop RAM dabei hilft -> warum nicht?
Die Frage ist nur ob bei Konsolen der Tradeoff genauso greift (dank kleinerer Taktfrequenz des Laptop RAMs muss man mehr Breite und/oder mehr Cache akzeptieren was Kosten des PCBs und kosten des dies (wird größer) beeinflusst). Aber wenn das bei AT3/4 so funktioniert - warum nicht auch in der Konsole.
Die Rumors sind ja dass einer der ATs (AT3?) sogar in der nächsten Xbox verbaut wird.

Exxtreme
2025-08-28, 09:44:19
Konsolen werden eher GDDR7 als RAM verwenden weil sich die CPU und der Grafikchip den RAM teilen. Und da ist die viel höhere Bandbreite wichtiger auch wenn man hohe Latenzen inkauf nehmen muss. Vielleicht werden die Konsolen aber auch einen X3D-Cache bekommen um die hohen Latenzen ein wenig zu egalisieren.

robbitop
2025-08-28, 09:50:26
IMO muss man sehen was für eine Bandbreite von X am günstigsten ist. Und das kann man mit GDDR erreichen aber auch mit LPDDR. Je nach Breite und Cache. Egal ob für eine GPU oder eine APU.
Wenn das für eine Konsole keinen Sinn machen würde, warum tut man es dann für die großen APUs die ja auch ähnlich sein werden? (Medusa Halo / mini)

Exxtreme
2025-08-28, 12:00:04
GDDR7 hat ca. 3,8x so viel Bandbreite wie DDR5-SDRAM. Das auszugleichen wird sehr schwer. Da müsste man die Busbreite vervierfachen. Und das erhöht die Produktionskosten beträchtlich. Und die Margen sind bei Konsolen extrem dünn, oft sogar negativ.

HOT
2025-08-28, 12:40:03
Man wird einfach entsprechend mehr Bandbreite verwenden. Bei AT4 und AT3 ist das ja schon so - AMD baut GPUs mit LPDDR, falls du das nicht mitbekommen hast.
Die PS6 hat ja auch offenbar nur 48CUs, da wird 384Bit LPDDR6 reichen. Das PS Handheld hat offenbar LPDDR5x, wie es aussieht, das scheint aber auch ein Jährchen früher zu erscheinen. Und Magnus setzt ja nach wie vor auf GDDR7, aber eben mit recht wenig Bandbreite von nur 192Bit.

ChaosTM
2025-08-28, 12:52:10
Der Junge von Moore's Law Is Dead (https://www.youtube.com/watch?v=x-A3Bl2hXoQ&t=1358s) spricht von 24-32GB beim Canis Handheld und 32-40 bei der Orion Variante für die PS6.
Vorher zufällig gesehen. K.a. ob das hinkommen kann/wird.

HOT
2025-08-28, 13:10:18
Von der PS4 8GB zur PS5 16GB zur PS6 32GB, kann schon gut sein. Er meint auch, das Handheld soll mindestens 24GB bekommen.

robbitop
2025-08-28, 18:12:56
GDDR7 hat ca. 3,8x so viel Bandbreite wie DDR5-SDRAM. Das auszugleichen wird sehr schwer. Da müsste man die Busbreite vervierfachen. Und das erhöht die Produktionskosten beträchtlich. Und die Margen sind bei Konsolen extrem dünn, oft sogar negativ.
LP-DDR6 ist aber nicht DDR5. Letzterer ist bis 17 GT/s spezifiziert. GDDR6 zumindest gibt es bis 20 GT/s. GDDR7 ist natürlich nochmal schneller - aber wer sagt denn dass man das braucht? N48 kommt mit 20GT/s und ist gleich schnell wie die 5070ti die 28GT/s braucht (und die 4080 ist genauso schnell und die hat auch nur GDDR6 mit 20 GT/s).

Und das macht natürlich nur Sinn, wenn es im Endeffekt günstiger ist. Was MLID meinte ist dass GDDR deutlich teurer ist als LPDDR. Im Gegenzug wird das PCB etwas komplexer und der die ein bisschen größer. Aber es scheint sich bandbreitennormiert sich kommerziell zu lohnen ansonsten erklärt es nicht warum AT3 und 4 mit LPDDR kommen sollen und warum Strix Halo heute schon LPDDR nutzt anstatt GDDR.

iamthebear
2025-08-28, 22:00:01
Kepler hat schon häufiger bzgl RDNA5 Sachen geposted, die nicht zu MLID Aussagen passten. Ich hab das nur am Rand mitbekommen, aber fand das ja immer spannend, dass hier MLID als zuverlässiger als Kepler gesehen wird.

MLID lag in der Vergangenheit auch verdammt oft falsch.

Afaik zieht Kepler seine Leaks ausschließlich aus den öffentlich zugänglichen Sources für AMDs Linux Treibern. Insiderquellen hat er soviel ich weiß keine und lag schon mindestens genauso oft falsch wie MLID. Er war sich zu 100% sicher, dass Navi 31 AD102 (den Full Die) in Grund und Boden stampft bzw. behauptet Zen 5 ist 52% schneller in spec int (waren in der Realität glaube ich 15%)

basix
2025-08-29, 11:13:37
Aus dem Anandtech-Forum ein paar Angaben zu den Low-Level Caches von RDNA5 und CDNA5:
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-42#post-41498114
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-42#post-41498140

L0$ und LDS sollen bei CDNA5 zusammengelegt werden und in der Grösse anwachsen (448kByte anstatt 128kByte LDS und 32kByte L0$). Das dürfte die Datenlokalität stark erhöhen. Wenn man das auf RDNA5 überträgt, sollte das insbesondere auch für Raytracing von Vorteil sein (z.B. BVH Stack-Management geht über den LDS). Zudem wird auch parallele Ausführung von Vektor, RT und Matrix Operationen von dem profitieren. Aber auch generell dürfte man mehr Threads / Waves in-flight halten können. Zusammen mit out-of-order memory accesses und dem vermutlich kommenden out-of-order Thread / Wave processing sollte die Auslastung der Recheneinheiten und somit die "IPC" ein gutes Stück zulegen können.

Vielleicht stutzt man die 448kByte von CDNA5 auf 224kByte bei RDNA5 zusammen. Aber selbst in diesem Fall hat man mehr L0$+LDS als RDNA4 und man kann es flexibler nutzen / sharen.

Hinsichtlich Zusammenlegung der Caches gibt es bei RDNA5 auch Indizien anhand Treibereinträge:
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-42#post-41498299

Und von Seiten AMD gibts auch enstprechende Patente dazu:
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-42#post-41498359
"As described herein, a unified flexible cache can be a large cache structure that can replace various smaller cache structures, which can simplify design and fabrication and improve yield during manufacturing. In addition, the unified flex cache can be used for various types of caches, such as various levels of processor and/or accelerator caches, and other cache structures for managing a cache hierarchy, such as a probe filter. Because the flex cache can be partitioned into various sized partitions, the cache types are not restricted to a particular size (e.g., limited by the physical structure). Thus, the flex cache can be reconfigured to provide more efficient cache utilization based on system needs."

basix
2025-08-29, 15:01:03
Samsung legt nochmals schnelleren LPDDR5X auf: 12'700 MT/s
https://www.tomshardware.com/pc-components/dram/samsung-extends-lpddr5-to-12-7-gt-s-next-gen-devices-enjoy-a-nice-speed-boost

Damit wäre man nicht mehr weit weg vom langsamsten LPDDR6, was Bandbreite pro Channel anbelangt.
Interessant für AT3 und AT4.

Exxtreme
2025-08-29, 15:32:29
LP-DDR6 ist aber nicht DDR5. Letzterer ist bis 17 GT/s spezifiziert. GDDR6 zumindest gibt es bis 20 GT/s. GDDR7 ist natürlich nochmal schneller - aber wer sagt denn dass man das braucht? N48 kommt mit 20GT/s und ist gleich schnell wie die 5070ti die 28GT/s braucht (und die 4080 ist genauso schnell und die hat auch nur GDDR6 mit 20 GT/s).


Man wird die Bandbreite wohl doch brauchen. Will man die Performance einer RX9070XT dann braucht man knapp 650 GB/s, wahrscheinlich aber eher 800 - 900 GB/s da die CPU auch noch was haben will. Dafür reicht ein 256 Bit Speicherinterface wenn man GDDR7 nimmt. Mit LPDDR6 wird man eher 1024 Bit brauchen für die gleiche Bandbreite. Ist wohl auch deshalb der Grund warum die PS5(Pro) mit GDDR6 läuft.

basix
2025-08-29, 15:53:49
Es wird interessant werden, ob wir in Zukunft mehr LPDDR Designs sehen werden.

GB10 hat ~300 GByte/s bei 31 TFLOPS und 24 MByte L2$.
Eine 5070 hat 672 GByte/s und 48 MByte L2$ bei etwa selber Rechenleistung.

Da bin ich also gespannt auf Benchmarks und Vergleiche.

robbitop
2025-08-29, 15:55:21
Man wird die Bandbreite wohl doch brauchen. Will man die Performance einer RX9070XT dann braucht man knapp 650 GB/s, wahrscheinlich aber eher 800 - 900 GB/s da die CPU auch noch was haben will. Dafür reicht ein 256 Bit Speicherinterface wenn man GDDR7 nimmt. Mit LPDDR6 wird man eher 1024 Bit brauchen für die gleiche Bandbreite. Ist wohl auch deshalb der Grund warum die PS5(Pro) mit GDDR6 läuft.
Also eine 9070XT hat 640 GB/s. Ein moderner Zen mit 6000er DDR5 hat gerade mal 96 GB/s. Da käme man also nur auf 738 GB/s raus. UDNA soll ja auch eher bandbreiteneffizienter werden und in Konsolen gibt es auch eigentlich immer weniger Bandbreite als im PC (und ich denke auch nicht dass ein moderner Zen Prozessor die Bandbreite in Games wirklich ausreizt die er mit DDR5-6000 hat - da ist es eher ein Latenzlimit - würde mich überhaupt nicht wundern, wenn die Hälfte locker ausreicht - sieht man ja bei Intels CPUs wo DDR4 und DDR5 vorhanden ist und letzterer kaum etwas bringt).
Ich denke dass < 738 GB/s reichen wird. Wahrscheinlich sogar ~600 GB/s.

Für die 738 GB/s wären es bei 256 bit also 23 GT/s (das ist fast GDDR6 Terretorium) die notwendig wären. Bei 600 GB/s wären es sogar nur 18 GT/s. Das ist Massen GDDR6 RAM.

Bei 384 bit wären es bei 738 GB/s gerade mal <16 GT/s was im Spektrum von LPDDR6 (und GDDR6) liegt.
Bei 600 GB/s wären es dann gerade mal 12,5 GT/s was dann sogar mit der Einstiegs LPDDR6 Spec möglich ist.

Wie du da auf 1024 bit kommst, ist mir nicht ganz klar. Man braucht eher sowas wie 50% mehr Breite - nicht 4x.

Exxtreme
2025-08-29, 16:18:54
Ich komme deshalb drauf weil ich mal unterstelle, dass man mit neuen Konsolen viel mehr Wumms haben will als beim Vorgänger. ;) Es würde mich schwer wundern wenn es ausgerechnet diesmal anders laufen würde. Und die PS5 kommt schon auf 448 GB/s. Und ich habe als Referenz diese Auflistung genommen:
https://www.heise.de/news/Superschnelles-RAM-PCI-Express-DDR6-LPDDR6-GDDR7-HBM4-und-PCIe-7-0-9760640.html

Aber jetzt fällt mir auf, dass die die Bus-Anbindung wild vermischt haben bei den Zahlen. Denkfehler inc. :crazy:

Ich rechne das nochmal durch.

robbitop
2025-08-29, 16:31:18
Naja die PS5 PRO hat die GPU deutlich größer gemacht und gerade einmal 576 GB/s an RAM Bandbreite hinzugefügt.
Und wenn das mit den 40 RDNA5 CUs stimmen sollte (die pro CU gerade mal 5-10% schneller in Raster sein sollen als RDNA4 CUs) bei gleichzeitiger Steigerung der Bandbreite, sehe ich nicht, wo mehr Bandbreitenbedarf für die GPU herkommen soll.

basix
2025-08-29, 16:42:55
Die RDNA5 CUs sind aber wohl das, was bei RDNA4 eine WGP war. Wir sprechen hier von 10 TFLOPS bei der PS5 gegenüber ~50 TFLOPS FP32 bei der PS6.

192bit GDDR7 mit 32 Gbps ist gut für 768 GByte/s. Dazu noch ein grosser LLC (vermutlich 24 MByte L2$). Die CPU spielt da sicher nicht eine grosse Rolle, macht sie bandbreitentechnisch am PC auch nicht. Ausserdem dürfte der CPU LLC deutlich anwachsen, von 2x 4 MByte auf vermutlich 16 MByte. Die GPU dürfte zudem generell effizienter mit Bandbreite umgehen.

Wenn man in nur ~1080p rendert und auf 4K upscaled, reichen die 24MByte LLC der GPU für 2x oder evtl. sogar etwas mehr an Bandwidth-Amplification. Effektiv 1536 GByte/s vs. 448 GByte/s bei effizienterer Bandbreitennutzung der CUs sieht schon mal etwas anders und ziemlich vernünftig aus ;)

Nimmt man LPDDR6, wären 384bit (Quad-Channel) mit ~12.8...14.4 Gbps wohl auch ausreichend (614....691 GByte/s abzüglich ~10% Encoding-Overhead aufgrund 256/288 Byte Payload).
Ich denke das wäre aber etwas knapp (AT3 mit 24 "New-CU" hat bereits Quad-Channel LPDDR6). Da müsste wohl schon Hexa-Channel her.

Exxtreme
2025-08-29, 16:50:37
Naja die PS5 PRO hat die GPU deutlich größer gemacht und gerade einmal 576 GB/s an RAM Bandbreite hinzugefügt.
Und wenn das mit den 40 RDNA5 CUs stimmen sollte (die pro CU gerade mal 5-10% schneller in Raster sein sollen als RDNA4 CUs) bei gleichzeitiger Steigerung der Bandbreite, sehe ich nicht, wo mehr Bandbreitenbedarf für die GPU herkommen soll.

Das ist korrekt. Leider ist es schwer rauszufinden wieviel mehr Leistung der größere Chip und die etwas höhere Bandbreite bringt. Viele Spiele sind auf 60 fps festgetackert und man hat die höhere Leistung in Bildqualität gesteckt. Nur weiss man auch nicht wieviel mehr Leistung die bessere Bildqualität braucht da die PS5Pro auch noch PSSR kann, was besser als FSR3 ist. Und RT ist auf RDNA3 auch effizienter.

Und ich erwarte da schon mindestens doppelt so viel Bandbreite als bei der PS5. Und da wäre man bei nahe 800 GB/s.

HOT
2025-08-31, 16:31:37
Die RDNA5 CUs sind aber wohl das, was bei RDNA4 eine WGP war. Wir sprechen hier von 10 TFLOPS bei der PS5 gegenüber ~50 TFLOPS FP32 bei der PS6.

192bit GDDR7 mit 32 Gbps ist gut für 768 GByte/s. Dazu noch ein grosser LLC (vermutlich 24 MByte L2$). Die CPU spielt da sicher nicht eine grosse Rolle, macht sie bandbreitentechnisch am PC auch nicht. Ausserdem dürfte der CPU LLC deutlich anwachsen, von 2x 4 MByte auf vermutlich 16 MByte. Die GPU dürfte zudem generell effizienter mit Bandbreite umgehen.

Wenn man in nur ~1080p rendert und auf 4K upscaled, reichen die 24MByte LLC der GPU für 2x oder evtl. sogar etwas mehr an Bandwidth-Amplification. Effektiv 1536 GByte/s vs. 448 GByte/s bei effizienterer Bandbreitennutzung der CUs sieht schon mal etwas anders und ziemlich vernünftig aus ;)

Nimmt man LPDDR6, wären 384bit (Quad-Channel) mit ~12.8...14.4 Gbps wohl auch ausreichend (614....691 GByte/s abzüglich ~10% Encoding-Overhead aufgrund 256/288 Byte Payload).
Ich denke das wäre aber etwas knapp (AT3 mit 24 "New-CU" hat bereits Quad-Channel LPDDR6). Da müsste wohl schon Hexa-Channel her.

https://wccftech.com/amd-next-gen-rdna-5-radeon-gaming-gpus-pack-over-12k-cores-128-cores-per-compute-unit/

Leonidas
2025-09-03, 18:26:43
gfx13 codenames are from Transformers
Alpha Trion, (Ultra) Magnus, Orion (Pax)
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-469#post-41500592

Alpha Trion is for the whole GMD lineup, Magnus is for Xbox and Orion for PS6
https://x.com/Kepler_L2/status/1963275078302302272

HOT
2025-09-03, 18:36:18
Also genau das was MLID vorher geleakt hat.

OgrEGT
2025-10-09, 17:02:24
Aus dem Playstation Thread:
Update von Sony und AMD, ihrer Zusammenarbeit und Architektur-Vision
https://youtu.be/1LCMzw-_dMw?si=FJcyqXCj3oTNbphz

Und die News dazu auf Videocardz:
AMD discusses Next-Gen RDNA tech with Radiance Cores, Neural Arrays and Universal Compression
https://videocardz.com/newz/amd-discusses-next-gen-rdna-tech-with-radiance-cores-neural-arrays-and-universal-compression

basix
2025-10-10, 10:22:30
Das Neural Arrays Thema inkl. Data Sharing innerhalb der Shader Engine erinnert mich sehr stark an das Shared L1 Cache Paper von 2020:
https://okayiran.github.io/docs/pdf/SharedL1-PACT2020.pdf

Da AMD den L0$ & LDS bei RDNA5 zusammenführen und vergrössern soll (448kByte pro WGP / "new CU"), hätte man bei 12x CU stolze 5376 KByte pro Shader Engine, welche man sharen kann.
Wird auch interessant in Richtung generelle ML/AI Performance und auch CDNA5, da dort ein grosser shared Cache sehr gut durchschlägt (siehe das verlinkte Paper).
Specifically, on average, DynEB reduces the L1 miss rate by 79% for these applications, thus improving their performance by up to 3.9× and by 2.3× on average.

Der grosse virtuell shared L1$ könnte auch mit ein Grund sein, wieso man sich den fetten IF$ sparen kann.

dargo
2025-10-10, 10:34:17
Aus dem Playstation Thread:

Habe ich es richtig verstanden, dass die neuen Radiance Cores die CPU bei RT/PT entlasten sollen? Das wäre natürlich sehr begrüßenswert.

basix
2025-10-10, 10:37:32
Ist grundsätzlich das selbe wie HW BVH Traversal bei Nvidia. Was genau dort die CPU entlasten soll, weiss ich noch nicht. Evtl. hängt das mit DGF / DMM und Mega Geometry zusammen?

Interessant ist auch die "Universal Compression". Mir ist völlig unklar, wie man das effizient machen will aber es ist definitiv spannend ;)

dargo
2025-10-10, 10:39:09
Jo... eine Weiterentwicklung von DCC war schon längst überfällig.

HOT
2025-10-10, 11:49:32
Das Neural Arrays Thema inkl. Data Sharing innerhalb der Shader Engine erinnert mich sehr stark an das Shared L1 Cache Paper von 2020:
https://okayiran.github.io/docs/pdf/SharedL1-PACT2020.pdf

Da AMD den L0$ & LDS bei RDNA5 zusammenführen und vergrössern soll (448kByte pro WGP / "new CU"), hätte man bei 12x CU stolze 5376 KByte pro Shader Engine, welche man sharen kann.
Wird auch interessant in Richtung generelle ML/AI Performance und auch CDNA5, da dort ein grosser shared Cache sehr gut durchschlägt (siehe das verlinkte Paper).


Der grosse virtuell shared L1$ könnte auch mit ein Grund sein, wieso man sich den fetten IF$ sparen kann.

Ich glaube eher, dass Universal Compression die kleineren (und schnelleren) Caches ermöglicht. Es gab ja 3 wichtige Features bei dieser Präsentation:
https://www.youtube.com/watch?v=ItXPvGrI6gY
zwischen Cherny und Huynh
1.) Neural Rendering (Redstone und Weiteres) incl. Ray Reconstruction (AMD nennt das Regeneration)
2.) RT mit echter Ray Traversal Hardware
3.) Universal Compression aller Daten überall in der Pipeline von CPU bis Displayengine.

robbitop
2025-10-10, 12:20:44
Das Neural Arrays Thema inkl. Data Sharing innerhalb der Shader Engine erinnert mich sehr stark an das Shared L1 Cache Paper von 2020:
https://okayiran.github.io/docs/pdf/SharedL1-PACT2020.pdf

Also geht AMD doch den Weg für FF Hardware für RT. BVH Traversal Hardware wurde ja bereits seit 2018 bei Turing verbaut - aber RDNA4 hat erstaunlicherweise gezeigt, dass man auch ohne FF HW ziemlich fix sein kann. Aber anscheinend ist es mit FF dann auf einer anderen Stufe.

reaperrr
2025-10-10, 15:07:07
Der grosse virtuell shared L1$ könnte auch mit ein Grund sein, wieso man sich den fetten IF$ sparen kann.
Neben dem größeren L2 und der durch GDDR7 viel höheren VRAM-Bandbreite je Bit, ja.

Habe ich es richtig verstanden, dass die neuen Radiance Cores die CPU bei RT/PT entlasten sollen? Das wäre natürlich sehr begrüßenswert.

Was genau dort die CPU entlasten soll, weiss ich noch nicht.

So wie ich es verstehe, werden durch Hardware-BVT etc. die regulären Shader entlastet, in der Umsetzung könnte das auch weniger Treiberlast und damit weniger CPU-Overhead bedeuten.

Interessant ist auch die "Universal Compression". Mir ist völlig unklar, wie man das effizient machen will aber es ist definitiv spannend ;)
Jo... eine Weiterentwicklung von DCC war schon längst überfällig.

Ähnliches (also Kompression durch die ganze Pipeline hindurch) wurde aber auch schon für RDNA4 genannt, und ist wohl auch einer der Gründe warum RDNA4 überhaupt trotz relativ schmaler GDDR6-SIs konkurrenzfähig ist.

Natürlich wird das in RDNA5 noch weiter verbessert worden sein, aber in dieser Präsentation ging es ja um die PS6 im Vergleich zum Vorgänger, und selbst die PS5Pro war ja nur RDNA3.5 + RDNA4-RT, also zumindest ein Teil dieses spezifischen Punktes (Kompression) ist im Desktop mit RDNA4 de facto schon da.

basix
2025-10-14, 12:52:13
Bei RDNA4 ist L1/L2/L3 Cache inkl. Kompression. Bei L0/LDS sowie VRAM ist dem nicht so. Edit: RDNA4 hält Daten auch komprimiert im VRAM, evtl. aber nicht so stark komprimiert wie RDNA5

So wie ich Universal Compression verstanden habe, soll auch mindestens der VRAM (stärker) komprimierte Daten halten. Beim L0/LDS vermutlich aus Performance-Gründen nur teilweise (DGF und Texturen dürften komprimiert im L0/LDS landen).

Weitere Kompressions-Komponenten:

DGF (+DMM Augmentation). Ohne DMM ist die Kompression ähnlich wie bei Nanite. Ich weiss nicht genau, wo Nanite dekomprimiert (vermutlich in einem Compute Shader). DGF kann allerdings garantiert komprimiert im VRAM landen und bekommt einen HW Accelerator in der CU. Wenn man DGF mit DMM ergänzt (gibt einige Papers und Patente von AMD zu dem Thema), könnte der Kompressionsfaktor nochmals 2...3x zunehmen. Das hätte massive Auswirkungen auf Speichermengen (Festplatte wie auch VRAM). Neben geringerer Speichergrösse wird auch Ray Tracing massiv beschleunigt und man spart sich enorm viel Speicherbandbreite.
NTBC (Neural Texture Block Compression). Gibt ein AMD Paper (https://gpuopen.com/download/2024_NeuralTextureBCCompression.pdf) zu dem Thema. Oder auch ein Paper von Ubisoft: https://hal.science/hal-04255874v2/file/neural-textures.pdf. Beides benutzt bestehende BC-Acceleration, keine neue HW benötigt. Oder man geht noch weiter, den Nvidia NTC oder Intel Cooperative Vectors Weg (z.B. https://arxiv.org/pdf/2506.06040). Auch hier spart man enorm Speichermenge und -bandbreite

Das Ding "Universal Compression" zu nennen ist mMn ein wenig unsinnig. Ich vermute, dass man für die verschiedenen Datentypen separate Accelerators benötigt. Vielleicht kann man aber noch einen generellen LZ4 Compressor/Decompressor (https://arxiv.org/pdf/2409.12433) einbauen, für alles was nicht bereits separat abgedeckt ist (DGF, Texturen, ...). Unter dem Strich könnte verglichen mit heute allerdings eine durchschnittliche Kompression von 2...3x resultieren (DGF, Texturen, sonstiges). Das wäre extrem gut und würde sehr viele Ressourcen sparen (VRAM sowie Cache Menge/Bandbreite). Das coole daran: Alles mit Texturen und Geometrie würde auch auf älterer HW laufen. Einfach etwas langsamer aufgrund fehlender HW Acceleration (im Falle von Neural Textures wäre zumindest Lovelace+ und RDNA4 bereits gut dabei). Neural Textures skalieren aber sehr gut nach unten, das heisst ältere HW müsste einfach die Texturqualität/-auflösung etwas runterschrauben (immer noch bessere Qualität als heute mit Block Compression!), damit die Performance nicht zu stark leidet. Dafür spart man massig VRAM-Menge, was insbesondere bei älteren Karten wichtig wäre. Da trifft sich reduzierte Texturauflösung ja eh richtig.

Hier noch ein sehr detaillierter Post zum Thema RT bei RDNA5:
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-65#post-41521314

BavarianRealist
2025-10-14, 15:06:47
Ist eine Kompression der Daten im VRam aktuell nicht sehr interessant bei den kommenden sehr hohen Dram/VRam-Preisen? Da könnte es sich schnell lohnen, etwas mehr Silizium in die GPU für die Kompression auf zu nehmen, um dann mit der Hälft an Ram auszukommen?

robbitop
2025-10-14, 15:08:46
Und darüber hinaus erlaubt es ggf noch bessere Assets (VRAM normiert) was potentiell langfristig Spiele schicker machen könnte. Insbesondere wenn es in die Konsolen kommt - dann wird das sicherlich auch genutzt.

HOT
2025-10-14, 15:19:18
Soweit ich das verstanden habe geht es nicht darum VRAM zu sparen, sondern den Datentransfer innerhalb der GPU weitestgehend zu verringern. VRAM kann man nur mit einer vernünftigen Texturkompression sparen.

basix
2025-10-14, 15:22:32
Ist eine Kompression der Daten im VRam aktuell nicht sehr interessant bei den kommenden sehr hohen Dram/VRam-Preisen? Da könnte es sich schnell lohnen, etwas mehr Silizium in die GPU für die Kompression auf zu nehmen, um dann mit der Hälft an Ram auszukommen?

Ein Grossteil der Daten ist bereits heute komprimiert im VRAM (Texturen, Geometrie). Diese zwei werden mit neuen Techniken aber anscheinend nochmals stark geboosted (=stärkere Kompression).

Was jetzt noch fehlt sind die anderen Daten. Da die ziemlich unterschiedlich sein werden, müsste man dort eine 0815 / allgemeine Kompression verwenden. LZ4 würde sich hier anbieten.

Ich habe nochmals die RDNA4 Hotchips Präsentation angeschaut. RDNA4 macht einige Dinge bereits. Je nach Daten dekomprimiert man einfach den Header wenn man aus dem VRAM lädt und nicht alle Daten (Daten sind komprimiert im VRAM, IF$, L2$, L1$). Was genau dort gemacht wird und wie stark komprimiert wird, weiss ich nicht. Aber vielleicht macht RDNA5 das nicht viel anders als RDNA4, die Präsentation mit Cerny zeigt evtl. mehr die Unterschiede zur PS5 auf. Ich nehme aber an, dass RDNA5 das noch etwas ausbaut.

Und darüber hinaus erlaubt es ggf noch bessere Assets (VRAM normiert) was potentiell langfristig Spiele schicker machen könnte. Insbesondere wenn es in die Konsolen kommt - dann wird das sicherlich auch genutzt.
NTC von Nvidia hat mich beeindruckt. Das skaliert extrem weit runter und die Texturqualität ist immer noch ansprechend. Bei Block Compression ist es dann bereits Matsch. Das dürfte die "Low Quality" Settings von Texturen massiv verbessern, deutlich stärker als am oberen Ende des Qualitätsspektrums.

Am oberen Ende dürfte DGF, DMM und MegaGeometry mehr bewirken. Die verbessern die Detailausleuchtung von detaillierter Geometrie. Bei genug VRAM und High-Res Texturen war die Qualität bereits heute ziemlich gut. Aber bekommt man in den selben oder noch weniger Platz noch bessere Texturen, nehmen wir das auch gerne ;)

Dampf
2025-10-14, 15:31:17
Also geht AMD doch den Weg für FF Hardware für RT. BVH Traversal Hardware wurde ja bereits seit 2018 bei Turing verbaut - aber RDNA4 hat erstaunlicherweise gezeigt, dass man auch ohne FF HW ziemlich fix sein kann. Aber anscheinend ist es mit FF dann auf einer anderen Stufe.

Das stimmt wohl, RDNA4 ist ziemlich gut in RT. Wenn sie es schon ohne Hardware BVH Traversal so gut hinbekommen haben, frage ich mich wie dann RDNA5 mit BVH Traversal aussieht. Wird bestimmt Blackwell schlagen. Und wenn sich Nvidia nicht anstrengt könnte es sogar besser als Rubin werden.

basix
2025-10-14, 15:33:40
Ich glaube nicht, dass sich Nvidia nicht anstrengen wird. Bis jetzt haben sie bei jeder Generation grössere Verbesserung und auch neue Features gebracht ;)

HOT
2025-10-14, 15:53:15
Na ja in den letzten beiden Iterationen gab es evolutionäre Fortschritte, aber so gigantisch waren die jetzt nicht. Mal sehen, wie es in der nächsten Generation aussieht. Vielleicht braucht man mal ne neue Basis.

basix
2025-10-14, 19:04:12
Hä?
- Lovelace brachte DMM, OMM und SER und verdoppeltes Ray-Triangle Intersection Testing pro RT-Core
- Blackwell brachte Linear Swept Spheres sowie die Triangle Cluster Compression Engine / Triangle Cluster Intersection Engine für MegaGeometry und obendrauf verdoppelten Durchsatz für Ray-Triangle Intersection Testing pro RT-Core

OMM und SER kommen nun in DXR 1.2 rein. MegaGeometry (als Vorlage) wird vermutlich ebenfalls Teil eines zukünftigen RT-API Standards. Ich weiss nicht, was du von HW-Iterationen erwartest, aber aus meiner Sicht sind das ziemlich nützliche und durchschlagende Features. Und daneben noch den Intersection Testing Durchsatz pro RT-Core mit jeder neuen Generation verdoppelt.

HOT
2025-10-14, 21:23:27
Jo mal sehen.

robbitop
2025-10-15, 07:01:48
Hä?
- Lovelace brachte DMM, OMM und SER und verdoppeltes Ray-Triangle Intersection Testing pro RT-Core
- Blackwell brachte Linear Swept Spheres sowie die Triangle Cluster Compression Engine / Triangle Cluster Intersection Engine für MegaGeometry und obendrauf verdoppelten Durchsatz für Ray-Triangle Intersection Testing pro RT-Core

OMM und SER kommen nun in DXR 1.2 rein. MegaGeometry (als Vorlage) wird vermutlich ebenfalls Teil eines zukünftigen RT-API Standards. Ich weiss nicht, was du von HW-Iterationen erwartest, aber aus meiner Sicht sind das ziemlich nützliche und durchschlagende Features. Und daneben noch den Intersection Testing Durchsatz pro RT-Core mit jeder neuen Generation verdoppelt.
Bezogen auf im rasterizen gleich starke GPUs bzw auf den fps drop RT/PT vs Rasterizing:
Naja zumindest Blackwell scheint nicht schneller in RT zu sein als Ada. Zumindest zeigten die Benchmarks von RT/PT zum Launch da keine Verbesserungen.
Ada hingegen ist schon etwas schneller bei diesen Workloads als Ampere. Aber auch nicht so dramatisch wie man annehmen könnte. Und auch nur dort wo explizit SER und co eingebaut sind. Abseits dessen war der boost kleiner.

basix
2025-10-15, 08:43:44
Es geht ja nicht nur um rohe Leistung. Sondern auch um neue Features und Konzepte. Und da scheint Nvidia definitiv nicht zu schlafen. Das selbe sieht man auf der SW Seite. MegaGeometry ist nur ein Teil davon. Da gibt es RTXDI (ReSTIR), welches sich laufend weiterentwickelt (z.B. Area ReSTIR) oder Neural Radiance Caching, verbessertes Ray Reconstruction mit DLSS4 usw.

Die insgesamten Gewinne aller dieser Features ist vermutlich deutlich höher als das was eine HW Generation mit reiner Rohleistungs-Skalierung bringen könnte.
Momentan schlagen die einfach noch nicht durch, da die meisten neuen Features noch nicht in Spielen verwendet werden.

robbitop
2025-10-15, 09:03:18
Was mich bei sowas dann besorgt ist, wenn es proprietär umgesetzt wird. IMO sollte sowas wie in guten alten Zeit im Vulkan/DirectX Gremium beschlossen werden und standardisiert werden. Dann kann das über die Schnittstelle jeder einsetzen.
Klar trickelt jetzt einiges was mal proprietär war auch down in die DX/VLK API aber man hatte dann einige Jahre lang quasi Exklusivität. Nicht gut für den Endkunden.

Ansonsten finde ich HW auch sehr nett, die transparent zur Anwendung mehr Leistung schafft ohne vendorspezifische Optimierungen. AMDs neue Renderpipeline scheint ja zumindest in Teilen in diese Richtung zu gehen.

Auch wäre es sehr geil wenn AMD (und Nvidia) sich bei Intel eine Scheibe abschneiden würden in Bezug auf shader compilation delivery. Geil dass das endlich jemand (anscheinend über den Treiber/GPU Software) transparent zur Anwendung macht. Man kennt es ja schon vom Steam Deck. Das wäre seitens AMD jedenfalls ein nettes Feature was man zu RDNA5 launchen könnte.

basix
2025-10-15, 10:16:23
Standardisierungen sind gut. Aber selten bis fast nie kommt der erste Schritt von dieser Seite. Der kommt typischerweise zuerst von den HW-Vendors, die viel Geld in die Entwicklung neuer Features stecken.

horn 12
2025-11-11, 22:24:33
Die wichtigsten Ankündigungen zu RDNA 5 / UDNA​


AMD hat seine GPU-Strategie für die kommenden Jahre präzisiert und die RDNA 5-Generation bestätigt, wobei der Fokus auf einer tiefgreifenden architektonischen Neuausrichtung lag.

Offizieller Codename und Ausrichtung (UDNA):
Die nächste Grafikkern-Architektur wird intern häufig als UDNA (Unified Next-Gen Architecture) bezeichnet, um die stärkere Integration von AI (Künstliche Intelligenz) und HPC (High-Performance Computing) in die traditionelle RDNA-Struktur hervorzuheben.
Für den Consumer-Bereich (Gaming) wird sie aber voraussichtlich weiterhin als RDNA 5 beworben.
Architektonische Neugestaltung und Leistungsziel:
AMD bestätigte das Ziel, mit RDNA 5 wieder in das High-End-Gaming-Segment zurückzukehren, das in der RDNA 4-Generation (RX 9000-Serie) bewusst ausgelassen wurde.
Die Compute Units (CUs) wurden von den klassischen 64 Shadereinheiten (wie in RDNA 3 und 4) auf eine neue Struktur mit voraussichtlich 128 Shadereinheiten pro CU umgestellt (dies war ein Schlüsselelement der gezeigten Grafik-Roadmap-Folien).
Dies legt eine signifikant höhere Rechenleistung und Dichte nahe.
Zeitplan (Roadmap):
Die Markteinführung der ersten Produkte auf Basis von RDNA 5 ist für Ende 2026 geplant.
Fokus auf AI und Raytracing (RT):
Ein großer Teil der Präsentation lag auf der AI-Integration. RDNA 5 soll dedizierte und stark verbesserte Hardware für AI-Workloads und Raytracing-Berechnungen enthalten, um im High-End-Markt mit NVIDIA konkurrieren zu können.


📊 Erwartete RDNA 5 Chip-Hierarchie (Navi 5X)​


Die Folien der Roadmap zeigten eine klare Skalierung von vier verschiedenen Chip-Größen, um den gesamten Markt abzudecken:

Codename Voraussichtliche CUs (Neu) Voraussichtliche Shader Segment
Navi 5X (AT0) 96 CUs 12.288 Enthusiast / High-End
Navi 5X (AT2) 40 CUs 5.120 High-Midrange
Navi 5X (AT3) 24 CUs 3.072 Midrange
Navi 5X (AT4) 12 CUs 1.536 Einstieg/Budget

Leonidas
2025-11-11, 23:18:42
Bin mir nicht sicher, ob man dies unter "FAD 2025" einordnen sollte, weil die meisten hier genannten Infos stammen aus der Gerüchteküche und nicht von AMD. Nebenbei gibt es schon einen RDNA5-Thread.

horn 12
2025-11-11, 23:25:12
ok, kann verschoben werden!

BlacKi
2025-12-27, 12:53:07
kepler_l2 hat gerüchte gepostet. geplant sei mitte 2027 in n3p, wohl schon mit tapeout, aber wohl wegen speicherkrise delayed.

robbitop
2025-12-27, 13:49:30
N3P ist für 2027 schon ziemlicn betagt. Allerdings halte ich eine Verschiebung für fragwürdig. Wenn man Produkte die heute fertig sind verschiebt ist es was anderes. Aber RDNA5 wäre so oder so noch 1 Jahr mindestens entfernt. Da dann voreilig nochmal ein halbes Jahr oder so draufzupacken bei null Sichtweite was die Speicherkrise angeht ist irgendwie unlogisch. Und ob Speicherkrise oder nicht- da sind alle von betroffen. Und zwar im gleichen Maße. Also sollte es keine neuen releases geben? IMO klingt das alles bisschen komisch. Die Verschiebung der Super Serie die ja jetzt dran gewesen wäre mit 50% mehr Speicher -> das macht mehr Sinn bzw ist glaubwüridger IMO

Nightspider
2025-12-27, 15:10:45
Delay wegen Speicherkriese ergibt für mich keinen Sinn.

Die alten Karten werden schließlich auch teurer durch die hohen Speicherpreise.

Und bei Preisen von 2000-3000 Euro Karten im highend Bereich, wo sich die Händler schon mehrere hundert Euro einstecken, kann mir keiner sagen das eine deutlich schnellere Generation wegen 300 oder 400 Euro verschoben wird.

dildo4u
2025-12-27, 15:17:44
Es macht für AMD Sinn die neuen Karten nutzen GDDR7 was ein Aufpreis bedeutet.
Wenn die Karten zu früh kommen ist die Preis/Leistung vermutlich schlechter als der den 9070XT.
Es gibt noch kein End Datum für GDDR6 Produktion da die Konsolen es brauchen.

robbitop
2025-12-27, 15:25:23
IIRC sollten zumindest AT3 und AT4 LPDDR bekommen womit sie einen Preisvorteil haben.

dildo4u
2025-12-27, 15:28:18
Das soll doch alles teurer werden selbst für Apple.

https://wccftech.com/apple-paying-230-percent-premium-for-12gb-lpddr5x-ram-found-in-iphone-17-models

Nightspider
2025-12-27, 15:56:11
Es macht für AMD Sinn die neuen Karten nutzen GDDR7 was ein Aufpreis bedeutet.
Wenn die Karten zu früh kommen ist die Preis/Leistung vermutlich schlechter als der den 9070XT.


Wenn AMDs neue Karte (deutlich) vor einer 5090 landet wäre das den Enthusiasten doch egal.

AMD muss und will eigentlich mit der Leistung überzeugen und nicht wie früher nur über den Preis.

Nvidia hat den gleichen Nachteil durch höhere Speicherpreise.

dildo4u
2025-12-27, 16:05:51
Gamer wollen sicherlich lieber eine 5090 für 1.5k statt eine zweite KI Karte.
Das Top Modell mit 32GB wird sicherlich wieder zu interessant für den Workstation Einsatz wie jetzt die 5090.

BlacKi
2025-12-28, 08:40:37
Delay wegen Speicherkriese ergibt für mich keinen Sinn.

Die alten Karten werden schließlich auch teurer durch die hohen Speicherpreise.

Und bei Preisen von 2000-3000 Euro Karten im highend Bereich, wo sich die Händler schon mehrere hundert Euro einstecken, kann mir keiner sagen das eine deutlich schnellere Generation wegen 300 oder 400 Euro verschoben wird.
ich glaube nicht, das es da um geld alleine geht. es wird einfach schwierig überhaupt stückzahlen hinzubekommen weil man keinen speicher in der menge kaufen kann. und dann macht der delay sinn.

Da dann voreilig nochmal ein halbes Jahr oder so draufzupacken bei null Sichtweite was die Speicherkrise angeht ist irgendwie unlogisch. Und ob Speicherkrise oder nicht- da sind alle von betroffen. Und zwar im gleichen Maße. Also sollte es keine neuen releases geben? IMO klingt das alles bisschen komisch. Die Verschiebung der Super Serie die ja jetzt dran gewesen wäre mit 50% mehr Speicher -> das macht mehr Sinn bzw ist glaubwüridger IMO
klar können wir das nicht vorhersehen. aber wenn die verträge für die ai bubble fix sind bis anfang 2027 und amd (u.a.) keine kapazitäten reservieren konnte, dann bleibt einem bloß der delay, ohne garantieren zu können das der termin mitte 2027 überhaupt stattfinden kann weil die situation sich gebessert hat.

so wie ich die speicherkrise verstehe, gibt es lediglich hoffnung das die krise noch vor 2028 endet, es gibt schlichtweg aber kein wissen, das die da aber auch dann endet.

IMHO endet das erst, wenn man aufhört da ständig geld in die bubble zu feuern. und das ist open end.

BlacKi
2025-12-28, 08:47:58
sry doppelpost

robbitop
2025-12-28, 08:49:21
Das mag alles sein. Aber die angebliche Verschiebung betrifft einen Zeithorizont bei dem Stand der Speicherkrise völlig unklar / nicht vorhersagbar ist. Solche Entscheidungen kann man deutlich kurzfristiger treffen. Wenn wir jetzt von 2026 gesprochen hätten wäre das nachvollziehbar gewesen. So liest sich das dann aber unglaubwürdig.

BlacKi
2025-12-28, 08:51:29
wenn bis anfang 2027 alles an speicher ausgebucht ist und vorher garnichts geht weil die verträge bis anfang 2027 gehen, dann kannst du den delay um mindestens diesen zeitpunkt verschieben oder noch weiter nach hinten.

die speicherhersteller haben ihre verträge und die sind denen klar. und amd sind die mindestlaufzeiten wohl auch kommuniziert worden also weiß amd auch bescheid um wieviel sie mindestens delayen müssen, oder wann sie frühestens einen release planen können.

nur weil wir nicht die vertragslaufzeiten wissen, bedeutet das nicht, dass das für die vertragspartner gilt.

robbitop
2025-12-28, 09:00:15
Und dennoch kam die Speicherkrise überraschend und aus dem nichts? Eins von beidem passt nicht.
Hätte Nvidia dann nicht zB viel Kapazitäten für die Super Serie gebucht und musste sie aber trotzdem relativ kurzfristig canclen?

BlacKi
2025-12-28, 09:14:17
ich gehe auch schwer davon aus, das es keine neuen nv modelle geben wird. eigentlich wie bei amd. bei amd gibts halt diese gerüchte und bei nv nicht, aber die sind da genauso betroffen.

wir spekulieren nur, aber ich denke die nächsten 2 jahre werden harte zeiten.

für nvidia ist gaming pillepalle, die können sich auch die strafzahlungen leisten wenn sie weniger kapazitäten abnehmen. für viele unternehmen wirds aber schwierig werden.

horn 12
2025-12-28, 09:16:22
Rechne RDNA 5 kommt in Oktober bis November 2026
und werden wohl etwas zur CES 26 davon hören.
Das RDNA 4 Refresh wegfällt ist schon ein Unding,- und ärgere mich nicht eine 9070 Hellhound für 508 Euro Dienstags NEU gekauft zu haben!

robbitop
2025-12-28, 09:27:08
ich gehe auch schwer davon aus, das es keine neuen nv modelle geben wird. eigentlich wie bei amd. bei amd gibts halt diese gerüchte und bei nv nicht, aber die sind da genauso betroffen.

wir spekulieren nur, aber ich denke die nächsten 2 jahre werden harte zeiten.

für nvidia ist gaming pillepalle, die können sich auch die strafzahlungen leisten wenn sie weniger kapazitäten abnehmen. für viele unternehmen wirds aber schwierig werden.

Ich wollte damit sagen dass es nicht so plan und vorhersehbar zu sein scheinst wie du angedeutet hast, was diese langfristigen Verschiebungsgerüchte weiterhin zumindest fragwürdig erscheinen lässt :)

Badesalz
2025-12-28, 20:01:47
Rechne RDNA 5 kommt in Oktober bis November 2026Kepler scheint sich völlig sicher, daß
1. tape out längst passiert und alles ist in N3P (TSMC)
2. real life launch Mitte 2027 sein wird :usweet:

Weil... wegen... GDDR und so...

@blacki
:up:

Nightspider
2025-12-28, 21:56:45
ich glaube nicht, das es da um geld alleine geht. es wird einfach schwierig überhaupt stückzahlen hinzubekommen weil man keinen speicher in der menge kaufen kann. und dann macht der delay sinn.

Es gibt doch gar nicht so viele Produkte, die GDDR7 nutzen.

Zumal AMD schon seit mind. 1-2 Jahren mit den Herstellern darüber im Gespräch sein müsste, wie viel GDDR7 man wann benötigt.

Und selbst wenn es nicht für das ganze Lineup reicht, würde man zumindest das Prestigeprodukt mit der höchsten Marge auf den Markt bringen.

Ist ja nicht so als wäre eine neue Generation noch nie mit zu geringen Stückzahlen gelauncht worden.

BlacKi
2025-12-28, 23:04:44
wenn das gerücht stimmt, hat open ai "alleine" 40% des gesammten marktes an hbm memory eingekauft. wer weiß für wie lange. wenn crucial den consumer kram einstellt, dann nicht für 6 monate. vermutlich weiß niemand wie lange micron crucial für consumer beerdigt. nichtmal micron selbst.

da aktuell gerade die nachfrage nach hbm besonders hoch ist, wird auch ein großteil der straßen auf hbm umgestellt. ein switch würde erneut zeit benötigen.

wenn die nachfrage nach hbm nach 2027 hoch bleibt, gibts schlichtweg keine gaming karten mehr. das wird auch die konsolen und alles andere betreffen das speicher braucht. die laufenden verträge laufen aus und es wird auf hbm umgestellt für AI.

tot aller gaming karten, tot aller konsolen, tot aller consumer hw mit massig speicher. profi karten bekommen einen aufpreis wegen "speicherkrise" und vl noch mit ner neuen generation.

aber falls die bubble weiter gefüttert wird, sehe ich kein ende für die krise aller consumer hw. wenn die bubble weiter gefüttert wird, werden auch alle weiteren produktionskapazitäten die geplant sind nicht reichen.

die speicherfirmen sind die einzigsten die aktuell limitieren. sie limitieren aber auch absichtlich, damit der fall nach der ai bubble nicht zu tief ist. sie versuchen einen mittelweg zu finden zwischem maximalem geld und möglichst geringem fall. alle 3 hersteller.

Nightspider
2025-12-28, 23:45:53
Nein, es wurden schon Kapazitäten zu HBM verschoben, Vergangenheitsform.

Und das betrifft auch nicht den Großteil. DDR5 wird schließlich in noch größeren Mengen benötigt.

Aber was hat das jetzt mit GDDR7 zu tun?
Bei GDDR waren die Margen schon immer höher als bei normalem DDR Speicher, man hat sicherlich nicht GDDR7 Kapazitäten zu HBM geschoben.

BlacKi
2025-12-29, 00:11:19
und bei den profi karten waren die margen auch besonders hoch. gddr7 geht ins profi segment.

da wo die margen besonders niedrig sind, muss besonders geschluckt werden. die 5070ti geht und die 5080 "bleibt" in gänsefüsschenchen. noch. ab mitte 26 wirds auch da wohl eng werden, denn auch gddr6 wird weiter teurer ab februar. open end. bis die gamer karten im profi segment angekommen sind. wie lang das geht hab ich weiter oben schon beschrieben.

BlacKi
2025-12-29, 15:52:20
habs mal in den anderen thread getanalso die hersteller verschieben neuerscheinungen definitiv nach hinten.


https://www.computerbase.de/news/arbeitsspeicher/ram-preise-koennten-weiter-steigen-verschieben-hersteller-neuerscheinungen.95587/

w0mbat
2025-12-29, 17:43:36
Nein, es wurden schon Kapazitäten zu HBM verschoben, Vergangenheitsform.

Und das betrifft auch nicht den Großteil. DDR5 wird schließlich in noch größeren Mengen benötigt.

Aber was hat das jetzt mit GDDR7 zu tun?
Bei GDDR waren die Margen schon immer höher als bei normalem DDR Speicher, man hat sicherlich nicht GDDR7 Kapazitäten zu HBM geschoben.
Speicher ist speicher. HBM ist ja auch nur gestapelter DRAM. Und GDDR ist auch nur anderes optimierter DRAM. Wenn du mehr von einem Produzierst, reduziert das die anderen Varianten.

Nightspider
2025-12-29, 19:01:23
Wenn du mehr von einem Produzierst, reduziert das die anderen Varianten.

Wasn das für eine Kinderlogik? :ugly:
Ist ja nicht so als würden die Hersteller regelmäßig die gesamten Kapazitäten ausbauen und hätten teilweise vor 1-1,5 Jahren neue Prozesse zurückgehalten wegen zu hoher Bestände.

GDDR hatte immer höhere Margen als DDR. Und die Produktionszeit streckt sich über viele Monate.

Also wenn die Hersteller die 2022/2023 und 2024 Kapazitäten zu HBM verschoben haben, dann von DRAM und NAND aber nicht von GDDR.

Das in HBM Chips anderer DRAM steckt als im normalen UDIMM Modul muss ich ja wahrscheinlich nicht erwähnen.

BlacKi
2025-12-30, 11:39:57
verträge die auslaufen werden wohl zuerst umgestellt. aus laufenden verträgen wird man wohl weniger aussteigen, egal ob das nand, normaler dram oder gddr ist.

ausserdem wird wohl pro wafer bezahlt. und pro wafer bekommt man mit hbm deutlich weniger speicherkapazität raus als mit nand oder dram. nur deshalb ist hbm teurer pro speichermenge. der wafer kostet wohl dasselbe.

davidzo
2025-12-30, 15:44:11
Der Area Overhead auf dem Wafer gegenüber DDR5 ist minimal.

Der Kostenunterschied bei HBM liegt wohl eher im Packaging.
Stinknormaler DDR5 ist ein einzelner Die pro package, HBM3e nutzt 12 und 16Layer die per hybrid bonding mit 20-30µm pitch verbunden werden.
Zudem hat HBM ein komplexes Base Die, welches man sich beim single Layer DDR5 spart.

High Density Server Ram kann aber 2,4 oder gar 8 stacked Dies pro Package haben. Die sind dann entweder im wirebonding (2layer) oder sogar auch mit TSVs verbunden. Der Pitch ist aber viel grober, über 50µm da viel weniger Pins benötigt werden.
Das erklärt auch wieso high capacity Server DDR5 Module pro GB mal schnell 2-3x so teurer sind wie stinknormaler Desktop DDR5, der noch dazu dank Single Die höher taktet und bessere Latenzen bietet.
LPDDR wiederum nutzt lediglich wire bonding, was wesentlich kosteneffektiver ist als TSV stacking.

LPW oder HBM-mobile wird wire bonding wie bei LPDDR nutzen, aber nicht in der typischen master-slave topologie wie klassisches DDR stacking sondern parallel angesteuert analog zu HBM. Das sollte ursprünglich 2027 kommen, wird aber sicher nch länger dauern.

Ein anderer Kostenfaktor von HBM kommt durch den Interposer dazu den man auf dem package braucht um HBM überhaupt einsetzen zu können.




Also wenn die Hersteller die 2022/2023 und 2024 Kapazitäten zu HBM verschoben haben, dann von DRAM und NAND aber nicht von GDDR.

Ist gehupft wie gesprungen ob nun eine Kapzitätsverschiebung oder die Nachfrage den Speicher rar und teuer macht. Auch GDDR7 wird von den AI Firmen weggekauft. Stichwort Rubin CPX.
Auch wenn das Rennen um die beste AI bzw, AGI noch nicht beendet ist, shiftet der Fokus von Training hin zu kostenoptimiertem Inferencing. Die Ressourcen an externem Kapital sind begrenzt und der Investorendruck steigt dass die AI Firmen langsam mal den break even ins Visier nehmen. Und da sind GDDR7 und LPDDR eben effizienter als HBM3E und HBM4.

Nightspider
2025-12-30, 16:09:36
Stichwort Rubin CPX.

Solche Produkte saugen dann natürlich wirklich den Speicher aus den Lagern, wenn da bis zu 128GB GDDR7 pro Chip verbaut werden und Nvidia damit auch ordentliche Umsätze generieren will.

Die hatte ich jetzt nicht auf dem Schirm. Dachte bei Nvidia gehen die ganzen AI Dinge auf HBM und das nur paar Quadros auf GDDR setzen.

Pirx
2025-12-30, 16:58:39
also war die "Kinderlogik" doch nicht so falsch

AffenJack
2025-12-30, 18:12:33
Der Area Overhead auf dem Wafer gegenüber DDR5 ist minimal.


Das stimmt nicht, HBM3 braucht die dreifache Waferfläche wie DDR5 und bei HBM4 sind wir wohl schon bei Faktor 4. Micron spricht explizit von Waferfläche pro Bit. Packaging kommt dann noch oben drauf.

https://www.computerbase.de/news/arbeitsspeicher/hoechste-dram-preise-auch-micron-verdient-in-kuerze-mehr-mit-dram-als-mit-hbm.95383/

Dementsprechend stehen wir vor dem Problem, dass wir durch deutlich mehr HBM Speicher viel weniger Speicherkapazitäten auf dem Gesamtmarkt haben als vorher. Das führt am Ende zur Verschlimmerung der ganzen Krise.

mczak
2025-12-30, 18:18:10
Das stimmt nicht, HBM3 braucht die dreifache Waferfläche wie DDR5 und bei HBM4 sind wir wohl schon bei Faktor 4. Micron spricht explizit von Waferfläche pro Bit. Packaging kommt dann noch oben drauf.

Etwas OT hier aber wieso braucht HBM eigentlich derart massiv mehr Fläche? Die eigentlichen Speicherzellen sind ja genau die gleichen.

Nightspider
2025-12-30, 18:20:32
also war die "Kinderlogik" doch nicht so falsch

Da gibts keine starre 100% Kapazität wo nur hin-und hergeschoben wird.

Die Hersteller haben Kapazitäten zu HBM geschoben als es DRAM noch im Überfluss gab.

Die Hersteller haben damals sogar den "1b-und 1c-Prozess" zurückgehalten, weil die Preise im Keller waren. Und das ist noch nicht mal lange her.

SK Hynix und Samsung haben erst vor 1-2 Monaten bekanntgegeben Produktionslinien jetzt doch schneller aufzurüsten und die Auslastung zu maximieren.

Und wenn Kapazitäten irgendwo genommen werden dann bei den Chips die am wenigsten Marge abwerfen und das waren eben klassischer DRAM und NAND.

Bei GDDR7 ist schon seit Jahren klar, das dort der Bedarf deutlich steigen wird. Wieso sollte man da Kapazitäten wegnehmen?

Man könnte es natürlich so formulieren, das in den nächsten Jahren weniger bzw. keine freien Kapazitäten vorhanden sind um eventuell dem GDDR7 Bedarf gerecht zu werden.
Aber mit welchem Bedarf die Hersteller da intern für die kommenden Jahre geplant haben und was dann wirklich benötigt wird, wissen wir eh nicht.

davidzo
2025-12-30, 22:14:18
Das stimmt nicht, HBM3 braucht die dreifache Waferfläche wie DDR5 und bei HBM4 sind wir wohl schon bei Faktor 4. Micron spricht explizit von Waferfläche pro Bit. Packaging kommt dann noch oben drauf.


Vorsicht, wieviele Wafer benötigt werden ist nicht das gleiche wie die Die-Area im vergleich zu DRAM.
Micron hat nicht gesagt dass die individuellen HBM Dies 3mal so groß sind, sondern dass sie unterm Strich 3mal soviele Wafer brauchen. Und natürlich ist Packaging dort schon inklusive, wieso sollten auch ausgerechnet das heraus rechnen was der Kern ihres HBM Business ist?

Der tatsächliche Area Overhead durch die Organisation in 1024 IO lanes per DIE, die vielen TSVs für Power und Data zu den anderen Dies und deren keepout zone macht natürlich einiges aus, aber eher so im Bereich von 1.5-1.7x.

Einen kleinen Overhead gegenüber DDR5 hat man aber auch bei GDDR, denn der hat mit 32bit per Die mehr Busbreite als DDR mit 4,8 oder 16bit pro Die.

Wie kommt Micron also auf 3mal soviele Wafer?

Zum einen ist es ein Vergleich mit 1-Hi bzw zero stacking standard DDR5. Der hat also kein Base-Die für den bei HBM schonmal 1/12 oder 1/16tel Die-Fläche draufgeht.
Bei high capacity DDR5 ist ein Master-Die mit Logik vorhanden, sowie bonding areas an den Kanten jedes aufgesetzten Dies. Der Vergleich mit high Capacity Modulen würde also schonmal niedriger ausfallen als 3x.

Zum Anderen darf man den Stacking-Yield nicht vergessen. HBM Herstellung ist ein "all-or-nothing" Prozess, siehe Samsungs langanhaltende Probleme mit HMB3e yields.

Selbst bei 95% Yield bei den individuellen Dies ist der kumulative Yield eines 16-Die Stacks dann nur noch bei 44%.
Packaging und Yield sind schon die Hauptgründe woher der anscheinend große Waferverbrauch bei Micron kommt. Möglicherweise sieht es bei Marktführer Hynix besser aus und ggf. bei Samsung noch schlimmer als bei Micron?

Disco_STFU
2026-01-05, 15:19:49
Hinweise zu fünf neuen Grafikprozessoren

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RDNA-5-Grafikprozessoren-1490147/

horn 12
2026-01-05, 17:52:24
Dies werden düstere Jahre,
sehne fast schon meine MBA 7900XTX 24 GB wieder daher und bin bereits am Schauen für den anderen , weiteren Rechner!

dargo
2026-01-05, 19:14:33
Hinweise zu fünf neuen Grafikprozessoren

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RDNA-5-Grafikprozessoren-1490147/
Ich hoffe echt AMD legt mit AT0 einen weiteren Salvage fürs Gaming mit bsw. 320Bit, 20GB und 88xx SPs auf.

davidzo
2026-01-05, 21:37:56
Hinweise zu fünf neuen Grafikprozessoren

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RDNA-5-Grafikprozessoren-1490147/

Was ist das hier, GPU-Circlejerk?

Eine News von PCGH die 3DCenter zitiert in der bisherige Gerüchte aufeglistet werden, wird im 3DCenter gepostet und als neue Gerüchte diskutiert. :freak:

HOT
2026-01-05, 21:40:26
Ich hoffe echt AMD legt mit AT0 einen weiteren Salvage fürs Gaming mit bsw. 320Bit, 20GB und 88xx SPs auf.

Der ist mit 384Bit und 144-164 CU (bzw. die Hälfte je nachdem, wie man rechnet) schon massiv salvage, wie die 5090 halt.

davidzo
PCGH wollte halt nur den "Leak" von Kepler unter die Leute bringen. Aber ich glaube, der MLID-Leak ist schon relativ wasserdicht. Der AT0 wird schon ein KI-Monster werden, ob es einen AT1 mit 96CUs geben wird ist weiterhin fraglich und die kleineren Chips werden schon passen dank der APU-Leaks.

Nightspider
2026-01-05, 22:46:14
Der AT0 wird schon ein KI-Monster werden

Warum? Weil er groß wird?

Für AI bastelt AMD primär MI500XYZ oder sollen da die AT0 Chips auch verwendet werden?

Für AMD wird es nach vielen Jahren endlich mal wieder Zeit ein Gaming Monster zu bringen.

So wie die RDNA2 Architektur kommt ja auch die RDNA5 Architektur in die Playstation.
Da kann man nur hoffen das man wieder mit Nvidias highend Chips konkurrieren und diese vielleicht endlich mal schlagen kann nach den traurigen letzten Jahren mit AMD GPUs.

Und zudem muss AMD spätestens 2027 mal ein vernünftiges FSR5 bringen, sonst wird kein Nvidia Besitzer wechseln.

dargo
2026-01-06, 08:37:43
Der ist mit 384Bit und 144-164 CU (bzw. die Hälfte je nachdem, wie man rechnet) schon massiv salvage, wie die 5090 halt.

Schon klar... Fullchip wäre fürs Gaming auch viel zu teuer und zu durstig. Mir gehts darum ob es einen Salvage von AT0 fürs Gaming geben wird damit der Abstand nicht so groß zu AT2 wird und AMD von den 380W noch gutes Stück auf ~320W runter kommt. Wobei da eh noch vieles offen ist. Wenn tatsächlich ein AT1 kommt hat sich meine Frage automatisch erledigt.

btw.
Mit der 5090 würde ich das jetzt nicht vergleichen. So stark wie AT0 ist die 5090 nicht beschnitten, SI ist sogar gleich geblieben.

horn 12
2026-01-06, 09:13:15
Kein Wort zu RDNA 5 und ebenso zum 9950X3D2
So langweilig wie 2026 wird, war schon lange KEIN Gesamtes Jahr mehr ...

Kurz und Knapp
Stagnation zwecks dem AI Sch..ß

Nightspider
2026-01-06, 09:18:02
Kein Wort zu RDNA 5

Wir haben auch 2026 und nicht 2027.

dildo4u
2026-01-06, 09:25:44
Kein Wort zu RDNA 5 und ebenso zum 9950X3D2
So langweilig wie 2026 wird, war schon lange KEIN Gesamtes Jahr mehr ...

Kurz und Knapp
Stagnation zwecks dem AI Sch..ß
Du willst keine neuen Karten dieses Jahr da unbezahlbar AMD kann keinen alten RAM mher verwenden wie bei RDNA4.

horn 12
2026-01-06, 09:27:52
Warum wohl ... alles wäre möglich wenn man nur wollte!

HOT
2026-01-06, 11:02:42
Schon klar... Fullchip wäre fürs Gaming auch viel zu teuer und zu durstig. Mir gehts darum ob es einen Salvage von AT0 fürs Gaming geben wird damit der Abstand nicht so groß zu AT2 wird und AMD von den 380W noch gutes Stück auf ~320W runter kommt. Wobei da eh noch vieles offen ist. Wenn tatsächlich ein AT1 kommt hat sich meine Frage automatisch erledigt.

btw.
Mit der 5090 würde ich das jetzt nicht vergleichen. So stark wie AT0 ist die 5090 nicht beschnitten, SI ist sogar gleich geblieben.

Nope, AT0 hat 512Bit, Gamer bekommen aber nur 384Bit.

Warum? Weil er groß wird?

Für AI bastelt AMD primär MI500XYZ oder sollen da die AT0 Chips auch verwendet werden?

Für AMD wird es nach vielen Jahren endlich mal wieder Zeit ein Gaming Monster zu bringen.

So wie die RDNA2 Architektur kommt ja auch die RDNA5 Architektur in die Playstation.
Da kann man nur hoffen das man wieder mit Nvidias highend Chips konkurrieren und diese vielleicht endlich mal schlagen kann nach den traurigen letzten Jahren mit AMD GPUs.

Und zudem muss AMD spätestens 2027 mal ein vernünftiges FSR5 bringen, sonst wird kein Nvidia Besitzer wechseln.

AT0 wird genau so eine Allzweckwaffe wie GB202.

horn 12
2026-01-12, 19:40:59
RDNA 5
kann man als High End - Enthusiast Produkt wohl wiederum vergessen,- Nur Midrange und Obere Mittelklasse

Obwohl 4090 Leistung mit 24 GB GDDR7 Speicher sollte wohl drinnen sein,- ausser man bringt ein Halo Produkt,- aber darauf hoffen darf man wohl nicht

Auf 3D-Center -Kepler 2

Denniss
2026-01-13, 05:12:50
lieber kaufbar und bezahlbar als super teuer und strom saufend. Erspart vielleicht auch den unsäglichen Stecker

mironicus
2026-01-13, 06:48:49
Ich finde es interessant das AMD auf LPDDR5x setzt, aber nach der Erfahrung wie effizient Strix Halo dabei wird, dürften diese GPUs ebenso attraktiv sein für kleine mobile EGPUs oder halt für Steam Machines und Mini PCs. Idle-Verbrauch wird dabei auch stark reduziert. Chance dabei ist auch, das diese kleinen GPUs mit viel RAM glänzen können und damit als sparsame Zweitgrafikkarte für große LLM herhalten könnten zu bezahlbaren Preisen.

Badesalz
2026-01-13, 07:11:42
Für AMD wird es nach vielen Jahren endlich mal wieder Zeit ein Gaming Monster zu bringen.So etwas wird es erstmal eine GANZE Weile nicht geben. Auch von NV nicht....

robbitop
2026-01-13, 07:24:31
Dank AI, AI, AI, AI… die tollste Erfindung … ever. X-D

mironicus
2026-01-13, 08:17:06
Also rein theoretisch. Eine GPU im 1 Slot-Design mit 256 GB LPDDR5x die nur maximal 75 Watt verbraucht, speziell für Inferenz. Die würde man AMD aus den Händen reißen! Die ideale Zweitkarte die es einem ermöglicht mit großen Text-LLM autonom arbeiten zu können, unabhängig von Cloud. Ein Gamingdesktop-System bleibt unberührt, die übliche RTX 5090 bleibt die Hauptkarte für Gaming, und für LLM dann halt die Zweitkarte.

LPDDR5x gibt es bereits mit 32 GB pro Modul (bald 64 GB, stapelbarer stromsparender Speicher), GDDR7 nur mit 3 GB pro Modul.

Badesalz
2026-01-13, 08:54:43
Also rein theoretisch. Eine GPU im 1 Slot-Design mit 256 GB LPDDR5x die nur maximal 75 Watt verbraucht, speziell für Inferenz. Die würde man AMD aus den Händen reißen! Die ideale Zweitkarte die es einem ermöglicht mit großen Text-LLM autonom arbeiten zu können, unabhängig von Cloud.Wer ist dafür die Zielgruppe? Gouvernator?

robbitop
2026-01-13, 09:05:02
Liebhaberei.

mironicus
2026-01-13, 09:14:12
Eine LPDDR‑KI‑Einsteckkarte mit sehr viel VRAM wäre attraktiv für:

Unternehmen, die LLMs lokal betreiben wollen

Entwickler & Forscher, die große Modelle testen

Edge‑AI‑Systeme (Industrie, Robotik, Video‑Analyse)

Home‑Lab‑Nutzer, die LLMs privat laufen lassen

Workstations, die eine KI‑Zweitkarte neben einer Gaming‑GPU brauchen

Startups, die günstige, skalierbare KI‑Hardware suchen

Bildungs‑ und Forschungseinrichtungen, die viele günstige Beschleuniger benötigen

robbitop
2026-01-13, 09:23:10
Gibt doch schon viel an HW auf der man LLMs im eigenen Netzwerk laufen lassen kann. Dazu muss es ja keine Zweitkarte sein. Man kann nodes, VMs usw laufen lassen. MacMini, Hallo Mini PCs, reguläre PCs mit Geforce oder Radeon Karten mit viel VRAM (3090, 7900xtx, 4090, 5090 usw) - kann man beliebig viele GOUs pro PC stecken oder/und beliebig viele Nodes ins Netzwerk.

Was ich im Netz so bei Privatleuten sehe ist zu 99% Rumgedaller ohne dass da irgendeine schützenswerte rocket science passiert die nicht auch auf LLMs in der cloud laufen könnte. Liebhaberei muss ja nichts schlechtes sein - so lernt man auch. Aber ob das genug Basis für ein spezifisches Produkt ist für etwas wo es ja bereits einiges an Optionen gibt? IMO ist das alles ein wenig überhypt

mironicus
2026-01-13, 09:34:59
Es geht weitgehend um Autonomie und was du damit machst, ansonsten können ja deine ChatGPT-Daten noch geleakt oder als Trainingdaten dienen.

Ansonsten spart es enorme Abokosten ein, wenn man es produktiv einzusetzen weiß. Wenn jede kleine Aktion wie z.B. ein Bild zu editieren jedes Mal Credits kostet, aber du das am PC genau so gut erledigen kannst. Oder das Bild was du hochlädst einfach nicht akzeptiert wird wegen Geschäftsbedingungen und so.

robbitop
2026-01-13, 09:43:53
Naja zumindest bei LLMs kostet ein abo schlappe 20 eur pro Monat. Was manche da an tausende euros verblasen an HW (die dann meist auch regelmäßig für weitere tausende Eur upgegradet wird - HW halt…) damit kann man lange Zeit abos für nutzen. Und solange es nur Hobby Kram ist, wird da auch nicht wirklich rocket science geleakt/trainiert. Was ich bis dato gesehen hab war ziemlich basic/hirnfurze/rumspielerei. Wenn jemand an next gen Kram arbeitet was es so noch nicht gab -> komplex, innovativ, neu (wobei es da auch ab und zu ein wenig Selbstüberschätzung zu geben scheint) usw -> ok fair point* (IMO). Aber das ist nur ein IMHO.

*und das geschieht dann wahrscheinlich zumeist (nicht immer) im Firmenumfeld wo man entsprechend große HW auch hinstellen kann. Und dann gibt es noch den Anteil der open source Leute wo der Quelltext dann ohnehin bei github landet.

mironicus
2026-01-13, 09:47:47
Der Funke muss halt erst mal überspringen.

Ich sehe es so, das meine RTX 4090 lange nutzlos war, da Gaming keinen mehr Spaß mehr macht. Jetzt mit Tools wie Comfy UI, Wan2GP und LM Studio und einem Workflow, den ich für mich entdeckt habe, hat sich das geändert und zu neuen Hardwareanschaffungen geführt, die ich sonst so nicht getätigt hätte.

dargo
2026-01-13, 09:48:30
RDNA 5
kann man als High End - Enthusiast Produkt wohl wiederum vergessen,- Nur Midrange und Obere Mittelklasse

Wovon redest du da schon wieder? AT0 ist garantiert keine Mittelklasse, auch nicht obere. Ich würde nicht mal AT1 als Mittelklasse bezeichnen, sofern dieser überhaupt kommt.

Ich finde es interessant das AMD auf LPDDR5x setzt, aber nach der Erfahrung wie effizient Strix Halo dabei wird, dürften diese GPUs ebenso attraktiv sein für kleine mobile EGPUs oder halt für Steam Machines und Mini PCs. Idle-Verbrauch wird dabei auch stark reduziert. Chance dabei ist auch, das diese kleinen GPUs mit viel RAM glänzen können und damit als sparsame Zweitgrafikkarte für große LLM herhalten könnten zu bezahlbaren Preisen.
Wie kommst du darauf, dass die SKUs mit LPDDR5x super effizient werden wenn AMD dafür das SI breiter gestalten muss?

Wer ist dafür die Zielgruppe? Gouvernator?
;D

E39Driver
2026-01-13, 09:54:44
Siehe die News auf der Startseite. Es wird wohl kein AT0 fürs Gaming kommen.

Macht aus AMD Sicht vermutlich auch Sinn. Es kauft eh keiner AMD HighEnd, ist leider so. Diese Chipfläche lässt sich woanders viel gewinnbringender verkaufen.

Und mit AT1 als Produkt der oberen Mittelklasse hat man analog zur 9070XT seine Nische gefunden, wo die Kundschaft auch kauft.

robbitop
2026-01-13, 09:59:09
Der Funke muss halt erst mal überspringen.

Ich sehe es so, das meine RTX 4090 lange nutzlos war, da Gaming keinen mehr Spaß mehr macht. Jetzt mit Tools wie Comfy UI, Wan2GP und LM Studio und einem Workflow, den ich für mich entdeckt habe, hat sich das geändert und zu neuen Hardwareanschaffungen geführt, die ich sonst so nicht getätigt hätte.
Und zu welchem Profit haben diese Ausgaben geführt? (zB bei Selbstständigkeit also mehr Aufträge pro Zeiteinheit abgeschlossen, im Angestelltenverhältnis signifikante Beförderung usw) Insbesondere wenn man die Opportunität der Cloud Services inkludiert? Wenn da keine signifikanter Mehrwert an Profit rauskommt-> Liebhaberei. Kann ja auch Spaß machen - spreche ich nicht ab. Aber die Frage nach einem business case stellt sich schon wenn man Geld investiert. Es sei denn dass es nur Hobby ist. Hobby braucht keinen Mehrwert. Aber dann ist es halt Liebhaberei. Und das meine ich damit. Ist es bei so ziemlich allen die das im Netz dokumentieren.

Unabhängig davon gibt es ja bereits viel an HW genau für den Zweck. Angefangen beim MacMini den man sich ins LAN packen kann oder oder oder oder.

Und unabhängig davon kann der Funke beim Experimentieren genauso auf der cloud überspringen. Nutze ich bspw nicht ungern und er ist übergesprungen. Und die großen Nachteile bleiben bis dato aus.

dargo
2026-01-13, 09:59:55
Siehe die News auf der Startseite. Es wird wohl kein AT0 fürs Gaming kommen.

Bisher heißt es stark beschnittener AT0 fürs Gaming. Sollte sich AMD anders entscheiden und AT0 fürs Gaming streichen wird ein AT1 kommen. Für den Gamer letztendlich latte wie die SKU heißt. Hauptsache Leistungsniveau kommt ähnlich raus. Viel schlimmer finde ich, dass RDNA5 jetzt auch noch nach Rubin kommen soll welcher wiederum 2027 H2 kommt. Alter... PC-Hardware ist nur noch langweilig mit den immer weiter ausgedehnten Zyklen. :down:

robbitop
2026-01-13, 10:02:17
Wie kommst du darauf, dass die SKUs mit LPDDR5x super effizient werden wenn AMD dafür das SI breiter gestalten muss?

Weil Breite zumeist linear mit Leistungsaufnahme skaliert und Takt mit einer Potenzfunktion assoziiert ist.

dargo
2026-01-13, 10:04:53
Weil Breite zumeist linear mit Leistungsaufnahme skaliert und Takt mit einer Potenzfunktion assoziiert ist.
Ohne konkrete Zahlen zum Speichercontroller-Verbrauch vs. Verbrauch reiner Speicherchips ist das eine Aussage mit der man gar nichts anfangen kann.

btw.
Überlege gerade... wenn AMD mit AT1 unter 400mm² bleibt (was ja dank 3nm spielend denke ich machbar ist) heißt das tatsächlich wieder kein High-End. :usad: Einerseits finde ich das aus Performancesicht enttäuschend, andererseits wiederum gut da keine hirnverbrannten Heizöfen zu erwarten sind.

Badesalz
2026-01-13, 10:11:41
Liebhaberei.Kein Ding. Das ist aber ein Markt in welcher Größe nochmal?

@mironicus
Warte mal.
1. Ist LPDDR von der Krise nicht betroffen?
2. Macht man das nicht mit Xilinx & Co.?

@dargo
Die tabellarische Auflistung wäre eh spannend. Mit obere Mittelklasse. Und mittlere Oberklasse. Und natürlich mittlere Mittelklasse und obere Oberklasse usw. :upara:

robbitop
2026-01-13, 10:11:45
Ohne konkrete Zahlen zum Speichercontroller-Verbrauch vs. Verbrauch reiner Speicherchips ist das eine Aussage mit der man gar nichts anfangen kann.

Es ist ein Axiom in der Rechen/Halbleitertechnik - nicht bloß eine Aussage.
Ein konkretes Beispiel wo ein breites LPDDR Interface aus Effizienzgründen einem hoch getaktet vorgezogen wurde ist Strix Halo.
Das ist auch der Grund warum HBM vs GDDR (breit vs hochtakt ram) in Energie pro übertragener Daten effizienter ist (pJ/bit) und das in HPC Anwendungen wo Energieverbrauch wichtiger ist als Investitionskosten für die HW.


———————————
Vermutung: LPDDR wird man allerdings nur für die kleinen SKUs nutzen können weil das SI ansonsten irgendwann so breit wird, dass die Kosten für das PCB zu relevant für die Gesamt SKU werden.

dargo
2026-01-13, 10:43:59
Es ist ein Axiom in der Rechen/Halbleitertechnik - nicht bloß eine Aussage.
Ein konkretes Beispiel wo ein breites LPDDR Interface aus Effizienzgründen einem hoch getaktet vorgezogen wurde ist Strix Halo.

Warum kam dann AMD bei RDNA4 überall mit GDDR6 um die Ecke? Die Entscheidung zu LPDDR5x bei RDNA5 bei manchen SKUs liegt imo hauptsächlich an mangelnden Kapazitäten von GDDR7 und/oder Preisen von diesem.

robbitop
2026-01-13, 10:56:18
Warum kam dann AMD bei RDNA4 überall mit GDDR6 um die Ecke? Die Entscheidung zu LPDDR5x bei RDNA5 bei manchen SKUs liegt imo hauptsächlich an mangelnden Kapazitäten von GDDR7 und/oder Preisen von diesem.


Hier sind mehrere potentielle Gründe:

(a) Irgendwann ist für alles das erste Mal. Das Argument was man öfter hört „wenn es so toll ist, warum wurde es dann noch nicht schon getan?“ ist deshalb nicht ganz angebracht. Änderungen haben immer irgendwann einen Ursprung.
(b) entscheidende kommerzielle Randbedingungen können anders sein. ZB Pricing und Verfügbarkeit im RAM/GDDR Markt im makroskopischen Sinne können das Zünglein am der Wage gewesen sein.
(c) entscheidende technische Randbedingungen können sich geändert haben. bspw die Bandbreitenentwicklung bei LPDDR hat es erst an einen Punkt gebracht ab dem es in Erwägung gezogen werden konnte. Und/oder die Bandbreiteneffizienz der uArch.
(d) der Produktmix passt ggf jetzt erst einmalig. Mit RDNA5/Medusa soll erstmalig GPU Chips in APU Portfolio verwendet werden. Dort kommt LPDDR zum Einsatz. Jetzt kann man sich 2x Chips sparen. Der Effekt könnte ökonomisch das Zünglein an der Wage gewesen sein.

Skalierbarkeit bleibt wie immer limitiert. Für AT3/4 braucht man dann ja schon breite SIs. Ab einem gewissen Punkt wird das PCB ggf zu teuer. Alles über AT3 wird iirc (ggf deshalb) dann wieder GDDR

mboeller
2026-01-13, 11:18:49
Wer ist dafür die Zielgruppe? Gouvernator?

anscheinend nicht nur. In China werden sogar RTX4090 auf 48GB umgerüstet für LLM's

robbitop
2026-01-13, 11:21:37
Die dann wahrscheinlich in Rechenzentren gesteckt werden. Wahrscheinlich weil man wegen der Exportrestriktionen für ML HW keinen Zugriff auf echte HPC HW von AMD/NV hat. ^^

Badesalz
2026-01-13, 12:35:46
Das wusste er nicht. Er dachte das machen Private um Gouvernator zu spielen :usweet:

davidzo
2026-01-13, 16:38:00
Ohne konkrete Zahlen zum Speichercontroller-Verbrauch vs. Verbrauch reiner Speicherchips ist das eine Aussage mit der man gar nichts anfangen kann.

Es gibt einige Daten, aber es ist schwierig miteinander vergleichbare zu finden weil etwa nur die Module, nur VDD oder nur der Bus VDDQ und nicht der IMC im Chip gemessen wird. Letzterer kann unter 1.0 pj/bit sparsam sein bei LPDDR. HBM2 soll theoretisch sogar bei 0,7pj/bit gelegen haben, aber ist unmöglich auch der IMC mit gemeint, zudem schraubt HBM3 die bandbreite pro pin ja wieder höher, was zwangsläufig Effizienz kostet. https://electronics.stackexchange.com/questions/696053/picking-the-best-memory-technology-for-our-needs

Gemini spuckt mir folgendes aus:
Memory Type pJ/bit (Transferred) Voltage (VDD/VDDQ) Primary Efficiency Driver
LPDDR5 / 5X ~1.5 – 3.0 pJ/bit 1.05V / 0.5V Low voltage & simplified signaling.
GDDR7 ~4.0 – 6.0 pJ/bit ~1.1V – 1.2V PAM3 signaling efficiency gains.
GDDR6 / 6X ~7.0 – 10.0+ pJ/bit 1.35V High voltage NRZ signaling.


Bei TPU hat jemand aber Vergleichsdaten zu LPDDR5 und GDDR6 gepostet, keine Ahnung woher die kommen aber das deckt sich ungefähr mit Gemini: https://www.techpowerup.com/forums/threads/amd-strix-halo-a-large-rectangular-bga-package-the-size-of-an-lga1700-processor.324271/post-5286685
DRAM power efficiency is measured in pJ per transferred bit. LPDDR5 and HBM3 are both around 3.5 pJ per bit while GDDR6 is close to 8 pJ per bit. Note that this doesn't account for device power consumption; only transmission power is considered.



Also selbst der aktive Strom kann gut Faktor2 mal mehr sein als GDDR mit gleicher Bandbreite.

Das ist auch nicht verwunderlich, denn LPDDR arbeitet mal eben mit 30-50% niedrigeren Corespannungen (0.7-1.05V) und separater halb so hoher I/O Spannung (VDDQ 0.3-0.5V).

Wie wir alle wissen skaliert die Leistungsaufnahme quadratisch mit der Versorgungsspannung. 20 respektive 60% mehr Versorgungsspannung (VDD/VDDQ) resultiert also in 40% bzw. 150% mehr Leistungsaufnahme.

Daneben skaliert natürlich auch die Taktrate linear mit dem Verbrauch. Intern nutzen GDDR6 und GDDR7 Taktraten von 333-500mhz (20GT/s vs 32GT/s), LPDDR5x dagegen nutzt 266mhz bei 8.5Gbps. Extern ist der Taktunterschied sogar gewaltiger mit GDDR5 über 2Ghz und LPDDR deutlich unter 1Ghz.

Daneben ist ein Pam3 Serdes natürlich Energieaufwändiger als ein NRZ / PAM2 Serializer.




Wie gesagt ist die aktive Leistungsaufnahme, also die Differenz zwischen Volllast und idle, noch der für GDDR günstigste Fall.

Kommen wir zur statischen Leistungsaufnahme:


GDDR6 nutzt zwar idle Taktabsenkungen, die I/O und Betriebspannungen bleiben aber in der Regel gleich. Das ist also nur DFS und nicht echtes DVFS.

GDDR7 bietet zwar auch low power states mit Spannungsabsenkung, allerdings noch weit entfernt von Spannungen wie 0.5 oder gar 0.3V wie sie LPDDR5 benutzt.

Dadurch dass DVFS ein integriertes basisfeature von LPDDR ist und nicht ein Feature das lediglich PHY-seitig implementiert ist, ist die Aufweck-Latenz auch viel besser und sollte nicht zu flackernden Bildschirmen kommen wie wir es vom Alt-tabben aus einem game her kennen.

Zuguterletzt ist auch der Page refresh im Idle, also der eigentliche Grund wieso es überhaupt statischen Verbrauch gibt bei LPDDR deutlich optimiert. Btw, hat der Pagerefresh sowieso nichts mit der Busbreite zutun, sondern mit der Speichergröße. LPDDR 256bit wäre hier also eh nicht gegenüber GDDR6 128bit im Nachteil.

LPDDR5 unterstützt sowohl ein Temperatur abhängigen, also zeitlich hinausgezögerten Page refresh als auch einen partiellen page refresh (Partial Array Self-Refresh (PASR) während GDDR nach einen fixen full page refresh zyklus funktioniert.

OgrEGT
2026-01-24, 16:30:48
AMD RDNA 5 dGPU with GFX1310 ID shows up in LLVM update
https://videocardz.com/newz/amd-rdna-5-dgpu-with-gfx1310-id-shows-up-in-llvm-update
Da ist dann wieder von RDNA5 und nicht UDNA die Rede...

horn 12
2026-01-24, 18:49:21
sodass man nicht enorme Leistungssteigerung vermuten könnte

robbitop
2026-01-24, 19:02:20
AMD RDNA 5 dGPU with GFX1310 ID shows up in LLVM update
https://videocardz.com/newz/amd-rdna-5-dgpu-with-gfx1310-id-shows-up-in-llvm-update
Da ist dann wieder von RDNA5 und nicht UDNA die Rede...
Nicht verwunderlich, denn auch bei CDNA stand jetzt auf der ces nich cdna5. UDNA liegt entweder doch weiter in der Zukunft oder man hat es sich anders überlegt.

HOT
2026-01-25, 10:16:16
Das ist doch eh wieder nur Marekting gewesen. Die werden die Entwicklungsteams verändert haben und die gleichen Leute werden jetzt beide Architekturen entwickeln, vielleicht ist sogar die Grundlage gleich, aber das sind natürlich nach wie vor unterschiedliche Anwendungsbereiche.

horn 12
2026-01-25, 10:54:18
Nun, würde mindestens Leistung zwischen 5080und 5090 erwarten.
Ist man 20% über einer 5080 Stock würde mich schon zufrieden stellen mit 24 GB GDDR7 Speicher für 1100 Euro

OgrEGT
2026-01-27, 07:55:04
Nun, würde mindestens Leistung zwischen 5080und 5090 erwarten.
Ist man 20% über einer 5080 Stock würde mich schon zufrieden stellen mit 24 GB GDDR7 Speicher für 1100 Euro
AT1?

reaperrr
2026-01-27, 20:46:10
sodass man nicht enorme Leistungssteigerung vermuten könnte
Sorry, das ist Schmarrn.
Die ganze "UDNA" Marketing-Kampagne hatte nichts mit Leistung zu tun.
Man hat nur marketingtechnisch etwas aufgeblasen, dass man architektonisch jetzt zwischen CDNA und RDNA Tandem fährt, statt komplett unabhängig nebeneinander.

MI400 ist jetzt halt nicht mehr der drölfzigste Vega-Abkömmling (GFX9.x), sondern GFX12.5 (RDNA4: GFX12), eine Art RDNA4.5 mit HPC-/KI-spezifischen Änderungen.
RDNA5 (GFX13) übernimmt dafür einige Änderungen von GFX12.5, MI500 (GFX13.5) ist dann wieder ne HPC/KI-Ableitung von GFX13/RDNA5, RDNA6 übernimmt dann wieder einige ALU/KI-Verbesserungen von MI500 usw.

Das war und ist die einzige Bedeutung von "UDNA", dass man es jetzt faktisch wie Nvidia macht, damit nicht mehr 2 Teams ähnliche Probleme zweimal unabhängig voneinander lösen müssen, sondern jedes Team auch von der Arbeit des anderen profitiert.

Nun, würde mindestens Leistung zwischen 5080und 5090 erwarten.
Ist man 20% über einer 5080 Stock würde mich schon zufrieden stellen mit 24 GB GDDR7 Speicher für 1100 Euro
20% über 5080 kriegst du wahrscheinlich schon mit AT2, bloß nur 18 GB (dafür aber unter 1100€... wenn der Speicher bis dahin nicht schon allein 700 € kostet).

AT1?
Wird's zu 95% nicht geben. Nicht genug Markt dafür da.
Die Entwicklungskosten pro Chip sind heutzutage so hoch, dass sich reine Desktop-Gaming-Chips in neueren Prozessen nur noch für Nvidia mit deren Stückzahlen lohnen, solange alle immer 20-30% besseres P/L von AMD erwarten, um von denen mal was zu kaufen.

AT0 gibt's, weil MS den auch für ihre XCloud will und der auch für Halbprofis/lokale KI interessant sein wird (v.a. Vollausbau mit 512bit).
AT2 gibt's, weil MS den auch für die nächste Xbox nimmt und im Desktop-Preissegment bis 600$/700€ auch für AMD noch halbwegs genug Volumen abfällt.
AT3 gibt's, weil der auch für Medusa Halo als iGPU/IO-Die fungiert.
AT4 gibt's, weil der auch für Medusa Premium als iGPU/IO-Die fungiert.

AT1 gibt's wohl nicht, für den hätte es außer Desktop-Gaming keinen Markt gegeben und der wäre zu teuer in der Entwicklung/Herstellung gewesen, um garantieren zu können, dass der die Entwicklungskosten jemals wieder reinholt.

GFX1310 dürfte AT0 sein.

bbott
2026-01-27, 23:52:42
Die Argumentation ist logisch, aber irgendie ohne AT1 kann ich mir das nicht so recht vorstellen. Vielleicht lässt AMD die Size bzw. CU einhieten noch offen und sucht noch den sweet spot?

horn 12
2026-01-28, 01:31:07
@reaperrr

Dann würde RDNA 5 - Also die Maximale Gaming Karte für Spieler von AMD
Maximal 18 GB aufweisen und vielleicht knapp an eine 5090 heranreichen ?

basix
2026-01-28, 08:27:49
5090 wäre für AT2 wohl best case (1.8x schneller als eine 9070XT in 4K). Ich glaube nicht, dass man das erreichen wird. Eine 4090 schlagen könnte aber drin liegen. Das liegt auch in AMDs typischem Zielband für eine neue Generation von 1.5x schneller. Mal als Rechenbeispiel, AT2 vs. 9070XT:
- 36 vs. 64 CU (RDNA5 CU sind doppelt so breit)
- 3.5 GHz vs. 2.9 GHz
- 1.2x IPC

Das wären bereits gute Werte für AT2 und dennoch reicht es "nur" für 1.6x schneller als eine 9070XT.

Ausserdem:
Die schnellste Gaming Karte dürfte dennoch AT0 sein ;) Wenn AMD den Chip auflegt, dürfte es auch einen Gaming-Ableger geben. Wird aber sehr teuer werden und für die allermeisten Gamer uninteressant sein.

robbitop
2026-01-28, 08:56:37
IMO nachvollziehbar keinen großen Chip mehr beim Gaming anzubieten. AMD hat meist im lowend und midrange Erfolg gehabt. Beim Top Dog (auch bei guten Top Dogs wie der R290X oder der 6900XT) relativ wenig Erfolg gehabt (im Vergleich zum Midrange). Und wenn der non Gaming Bereich bessere Margen abwirft und man sich beim Gaming auf weniger SKUs fokussieren muss, macht es IMO auch Sinn.
Allerdings sollte man schon für die größte SKU wenigstens ein Äquivalent zur 70er SKU von Nvidia haben. Dann kann man ohnehin 95% des Marktes abdecken.

Zu den CUs. Die Zahl der CUs ist ja SKU normiert bei RDNA5 verdächtig klein. Die werden dann sehr wahrscheinlich ordentlich aufgebohrt (oder man nennt die WGPs dann CUs oder ähnliches).
Bei einem major node und einer neuen uArch sollte doch 50% schon drin sind.

basix
2026-01-28, 09:52:58
Ja, bis und mit AT2 sind sinnvolle SKUs für Gamer. Alles darüber ist ein relativ kleiner Teil des Marktes (wenn auch margenträchtig). AT2 sollte als 70er / 70 Ti Gegenstück schon in etwa ausreichen. Ähnlich wie jetzt RDNA4 vs. Blackwell.

AT0 soll aufgrund Microsoft ja eh aufgelegt werden. Wenn man den Chip schon hat, kann man mit relativ wenig Aufwand auch eine Gaming SKU daraus machen. AT0 ist aber definitiv nicht wegen dem Consumer dGPU Markt eingeplant worden. AMD fährt hier eine Dual-Use Strategie, was das Risiko rausnimmt und Economy of Scale fördert. Das macht alles ziemlich Sinn für mich:
- AT0 = Microsoft Cloud Gaming & Professional / Workstation (& allenfalls eine Gaming SKU)
- AT2 = Microsoft Xbox Next & dGPU
- AT3 = Medusa Halo & dGPU
- AT4 = Medusa Premium & dGPU

WGP mit Dual-CU soll es bei RDNA5 nicht mehr geben. Eine RDNA4 WGP ist neu eine RDNA5 CU. Dadurch wird die Anzahl CU halbiert, unter dem Strich ist es aber egal. Man zählt einfach anders ;)

HOT
2026-01-28, 10:13:00
Wenn AMD den AT0 sowieso schon für andere Märkte bringt wird AMD, sofern man genug Fertgiungskapazität hat, auch in den Consumermarkt bringen mMn, der AI-Hype sollte bis dahin (Ende 27) abgeflaut sein, das klappt schon auch mit AT0.

Die große Frage ist eher, was ist mit AT1. Kepler leakt ja ständig auch 96CUs, das wäre AT1.

OgrEGT
2026-02-19, 06:39:16
zM9UMWRO3yg

MLID meint RDNA5 launcht 2027 weil auch XBox Magnus und PS6 Handheld 2027 launchen... er meint die RDNA5 Chiplets werden Mitte 2027 produziert... er geht davon aus dass RDNA5 +10%IPC Rasterizer und doppelte RT Capabilities per CU vs RDNA4 hat und er glaubt dass es RDNA5 SKUs im Bereich 154CUs geben könnte die 30% mehr Leistung als eine 5090 haben könnten weshalb er auch daran glaubt dass NV eine 6090 oder 5090S launchen müsste...

basix
2026-02-19, 08:10:01
Eine 5090S packt selbst mit 1000W und GB202 Vollausbau keine +30% obendrauf. Vielleicht in einzelnen Szenarien inkl. manuallem OC, im Schnitt aber definitiv nicht.

BlacKi
2026-02-19, 11:35:31
MLID meint ...
er meint auch, das die krise ende 2026 vorbei ist...

HOT
2026-02-19, 12:04:49
Wird auch so sein, ich denke auch, bis dahin hat das das wieder eingependelt.
Aber NV wird zu gar nichts gezwungen, wenn NV meint, erst Ende 27 in Massenproduktion gehen zu müssen, ist das nicht nur ein zeitlicher Nachteil, man hat auch die modernere IP. Und man weiss genau, was die Konsolen können.

DeadMeat
2026-02-19, 12:34:24
Keine neue AMD GPU Generation ohne schwachsinnige Übertreibungen und unrealistische Erwartungen der "Leaker".

Selbst mit einem schnelleren und günstigeren Produkt kann AMD in der Markposition Nvidia nicht unter Druck setzen, hatte man doch alles schon in jeder kombination und diesmal ist der Ausgangspunkt noch schwächer.

Und wie man sehr gut gerade an Intel sieht bedeuten geplante und selbst existierende Chips nicht das sie den Markt oder consumer erreichen ( :wave2: B770).

TheAntitheist
2026-02-26, 02:49:39
Keine neue AMD GPU Generation ohne schwachsinnige Übertreibungen und unrealistische Erwartungen der "Leaker".

Selbst mit einem schnelleren und günstigeren Produkt kann AMD in der Markposition Nvidia nicht unter Druck setzen, hatte man doch alles schon in jeder kombination und diesmal ist der Ausgangspunkt noch schwächer.

Und wie man sehr gut gerade an Intel sieht bedeuten geplante und selbst existierende Chips nicht das sie den Markt oder consumer erreichen ( :wave2: B770).
ich glaube das war die 9800 pro als AMD gut dabei war und da haben sie auch Nvidia ordentlich Marktanteile abgenommen. war ne richtig gute GPU. danach waren die technologisch nie wieder davor oder auf Augenhöhe, LEIDER

robbitop
2026-02-26, 07:02:38
Die 9800pro (R350) war bereits ein Refresh. Die 9700 pro (R300) ist die GPU bei der ATI erstmalig deutlich in Führung ging.
Allerdings hielt ATI IIRC die Führung (die aber seit NV40 kleiner wurde) für 4 Jahre. Bis dann Ende 2006 G80 kam.
Interessanterweise war es jeweils fast die gleiche Situation - nur umgekehrt. Der eine bringt einen erstaunlich gelungenen Chip während der andere gleichzeitig einen erstaunlich misslungenen Chip bringt. Dadurch wirkte die Differenz jeweils so groß. (R300 super, N30 extrem verkackt 2002 -> G80 super vs R600 extrem verkackt)

Badesalz
2026-02-26, 09:13:29
AT0 gibt's, weil MS den auch für ihre XCloud will und der auch für Halbprofis/lokale KI interessant sein wird (v.a. Vollausbau mit 512bit).
AT2 gibt's, weil MS den auch für die nächste Xbox nimmt und im Desktop-Preissegment bis 600$/700€ auch für AMD noch halbwegs genug Volumen abfällt.
AT3 gibt's, weil der auch für Medusa Halo als iGPU/IO-Die fungiert.
AT4 gibt's, weil der auch für Medusa Premium als iGPU/IO-Die fungiert.

AT1 gibt's wohl nicht, für den hätte es außer Desktop-Gaming keinen Markt gegeben und der wäre zu teuer in der Entwicklung/Herstellung gewesen, um garantieren zu können, dass der die Entwicklungskosten jemals wieder reinholt.Heißt das AT0 und AT2 tragen zu den Entwicklungskosten von AT1 nichts bei?

mboeller
2026-02-26, 09:48:04
Heißt das AT0 und AT2 tragen zu den Entwicklungskosten von AT1 nichts bei?

Meine Interpretation:

"nein". Die Masken für 3nm sind ziemlich teuer. Der Desktop-Absatz alleine trägt diese Kosten sehr wahrscheinlich nicht bzw. die Marge ist dann (zu) gering.

edit:

google "KI":


TSMC 3nm (N3/N3E) mask sets are estimated to cost over $40 million to $100 million per set, representing the highest mask costs in the industry due to increased EUV layer counts and extreme complexity. These high mask costs contribute to wafer prices exceeding $18,000–$20,000 per 300mm wafer.

davidzo
2026-02-26, 10:54:59
Heißt das AT0 und AT2 tragen zu den Entwicklungskosten von AT1 nichts bei?

Fast gar nichts.
Selbst wenn die High-Level Architectur extrem wichtig ist, arbeiten hier nur ein paar Dutzend erfahrene Entwickler während in RTL (Logic design), Verification und Physical Design hunderte bis tausende beschäftigt sind.

In der modernen Chipentwicklung verteilt sich die Manpower ungefähr 1:3:10. Für jeden Architekt gibt es 3 RTL Designer und mindestens 10 verification Engineers.

Der gesamte Post Silicon Apparat mit Validation,Microcode, Efi firmware, Package und PCB designern, product Test Enginers, application engineers ist nochmal mindestens genau so groß wie das Chip Engineering zusammen davor (die ganzen 1:3:10).
Gerade bei Intel sollen die Post Silicon Teams gigantisch sein, nach etlichen debakeln der letzten Jahre.

Es ist ja nicht von ungefähr dass EPYC 8005 erst zwei Jahre nach Epyc 9005 launcht. Man hatte einfach kein Team frei bzw. hat andere Projekte priorisiert, dabei hatte man hier 100% proven Silicon und eine bereits fertige Plattform die man von Epyc Siena 8004 übernommen hat.

mboeller
2026-02-26, 11:12:49
Fast gar nichts.
Selbst wenn die High-Level Architectur extrem wichtig ist, arbeiten hier nur ein paar Dutzend erfahrene Entwickler während in RTL (Logic design), Verification und Physical Design hunderte bis tausende beschäftigt sind.
...

.

WOW ... Danke!

amdfanuwe
2026-02-26, 11:51:39
Meine Interpretation:

"nein". Die Masken für 3nm sind ziemlich teuer. Der Desktop-Absatz alleine trägt diese Kosten sehr wahrscheinlich nicht bzw. die Marge ist dann (zu) gering.

Seh ich auch so.
Der Preis macht es.
Bis ~700€/$ hat man noch den Massenmarkt. Darüber wird die Luft dünn bei der Nvidia Konkurrenz. Die salvage Auskopplung von AT0 für Gaming könnte sich noch lohnen, da die Kosten eh von den Pro Chips getragen werden und man so den Preis gegenüber Nvidia attraktiv gestalten kann. Ein paar Leute gibt es dann immer, denen der Preis egal ist, hauptsache das Top Produkt gekauft.

iamthebear
2026-02-26, 20:30:37
20% über 5080 kriegst du wahrscheinlich schon mit AT2, bloß nur 18 GB (dafür aber unter 1100€... wenn der Speicher bis dahin nicht schon allein 700 € kostet).

Das sind wieder die MLID Märchen genauso wie Navi33 = Navi21

Wenn wir nach den bisherigen AT2 Leaks gehen:
.) 192 Bit Speicherinterface
.) GDDR7 dafür aber kein IF$, nut etwas größerer L2
.) 264mm² N3 also ca. gleiche Transistoranzahl wie Navi48
.) Unified architecture d.h. weniger effizient beim Gaming als reine Gaming Designs

Das sieht nach grob 9070 non XT Niveau aus. Im besten Fall 9070 XT.

Wird's zu 95% nicht geben. Nicht genug Markt dafür da.
Die Entwicklungskosten pro Chip sind heutzutage so hoch, dass sich reine Desktop-Gaming-Chips in neueren Prozessen nur noch für Nvidia mit deren Stückzahlen lohnen, solange alle immer 20-30% besseres P/L von AMD erwarten, um von denen mal was zu kaufen.

AT1 würde das 700-1000$ Segment um 5080-4090 Rohleistung. Das ist das, was noch real gekauft wird. AT0 bzw. 5090 Niveau ist nur um Reviews zu gewinnen nur das nützt AMD wenig.
Wenn kein AT1 kommt, dann gibt es auch keinen AT0 für Gaming in relevanten Mengen.

AT0 gibt's, weil MS den auch für ihre XCloud will und der auch für Halbprofis/lokale KI interessant sein wird (v.a. Vollausbau mit 512bit).

AT0 ist wie die 5090 ideal als preiswerte Alternative zu den großen AI Karten (B200/Mi350) für kleinere Modelle, die auf einer GPU laufen und keinen schnellen Interconnect brauchen.
Für Cloud Gaming ist es sinnbefreit so große Dies zu bauen. Da macht man lieber 2 AT2 mit besseren Yields und lässt nur eine Instanz gleichzeitig laufen.

AT2 gibt's, weil MS den auch für die nächste Xbox nimmt und im Desktop-Preissegment bis 600$/700€ auch für AMD noch halbwegs genug Volumen abfällt.

Ein Konsolen Die wird kaum für 700$ verkauft werden. Das kostet die ganze Konsole (wenn wir wieder normake Speicherpreise etc. bekommen).
MLID meinte <= 550$ für AT2 und wenn AMD das vor hat, dann werden es real eher 400-500$.

robbitop
2026-02-26, 20:58:59
CDNA4 ist iirc übrigens gfx12 wie rdna4. Also gilt das mit dem unified archtecture ggf schon etwas eher als rdna5 und war anscheinend kein Problem. Aber ob das immer was heissen muss? Sowas ist sicherlich modular gebaut und wird in CDNA deutlich anders konfiguriert als in rdna. Sicher ahnlich wie bei Nvidia mit Bxxx und GBxxx.
Dass da irgendwas ineffizienter für Gaming dadurch werden soll ist IMO nicht gesagt.

Allerdings ist die Konfiguration schon eigenartig bei RDNA5. AT2 64 CUs wie bei N48 aber nur 24 MiB L2 vs 4 MiB L2 + 64 MiB L3. Ja GDDR7 aber nur 192 bit vs 256.
Klingt bandbreitenlimitierter - aber andererseits warum sollte man eine dGPU SKU mit 64 CUs verbauen wenn die bandbreitenlimitiert ist und somit Chipfläche verschwendet?
Und man kann davon ausgehen dass rdna5 CUs eher stärker als rdna4 CUs werden.
Entweder da stimmt einiges bei den leaks nicht oder rdna5 macht einen Sprung bei der Bandbreiteneffizienz.

mczak
2026-02-26, 21:40:14
Das sind wieder die MLID Märchen genauso wie Navi33 = Navi21

Wenn wir nach den bisherigen AT2 Leaks gehen:
.) 192 Bit Speicherinterface
.) GDDR7 dafür aber kein IF$, nut etwas größerer L2
.) 264mm² N3 also ca. gleiche Transistoranzahl wie Navi48
.) Unified architecture d.h. weniger effizient beim Gaming als reine Gaming Designs

Das sieht nach grob 9070 non XT Niveau aus. Im besten Fall 9070 XT.

Also ich halte es für unwahrscheinlich dass der nicht etwas schneller als N48 wird.
192 Bit gddr7 mit 32gbps (eine imho eher konservative Annahme, die Chips gibt es heute schon zu kaufen) hat immerhin 20% mehr Speicherbandbreite als 256bit 20 gbps gddr6.
Klar die kolportierten 24MB L2 sind schon verdächtig wenig (N48 hat ja 64MB IF (und 8MB L2), GB203 64MB L2, auch GB205 hat immerhin 48MB L2).
Die unified arch ist doch mehr Marketing als sonst was, und wenn schon ändert das doch eher was bei der Beschleunigersparte. Die Auswirkungen auf die Effizienz bloss weil man da evtl. etwas mehr des Designs shared dürften eh minimal sein.
Die TDP (laut MLID) sollte eigentlich auch darauf hindeuten dass der schneller wird als 9070 XT - kaum vorstellbar dass der Nachfolger punkto Energieeffizienz da schlechter sein soll.
Aber ja RTX 5080 + 20% halte ich auch für sehr, sehr optimistisch, auch wenn ich den Leaks noch nicht so recht traue...

reaperrr
2026-02-26, 23:30:05
@reaperrr

Dann würde RDNA 5 - Also die Maximale Gaming Karte für Spieler von AMD
Maximal 18 GB aufweisen und vielleicht knapp an eine 5090 heranreichen ?
Nee.
Wenn sie eine Karte auf AT0-Basis bringen, wird die mindestens 24GB haben (bei 384bit Speicherinterface geht gar nicht weniger, und mehr als 1/4 des SI werden sie bei AT0 nicht deaktivieren, sonst bleibt nicht genug Bandbreite).
Die wird dann aber auch mindestens 1500+X kosten.

Die 18GB sind für den N48-Nachfolger, weil der nur ein 192bit SI haben wird und die 4GB-Chips wahrscheinlich erstmal exklusiv für KI-Karten bleiben werden.
Der wird wenn's gut läuft etwas schneller als eine 5080, aber viel mehr wohl auch nicht.
Immerhin gibt's dann ca. 5080+10% und 2 GB mehr VRAM zum Preis von 700-800€, im Vergleich zu den jetzigen 5080-Preisen wäre das schon eine ordentliche P/L-Verbesserung.
Auf Seiten von NV wird es in Sachen P/L jedenfalls auch nicht besser werden.

Wenn AMD den AT0 sowieso schon für andere Märkte bringt wird AMD, sofern man genug Fertgiungskapazität hat, auch in den Consumermarkt bringen mMn
Genau das wird das Problem, schätze ich.
Die Nachfrage ist momentan so hoch, dass TSMC die Preise ordentlich anzieht und trotzdem auf Jahre hinaus alles mehr oder weniger ausgebucht ist.
Und wenn die Kapazität nicht für alles reicht, wird AMD aus Margen-Gründen immer die CPUs und KI-GPUs/APUs bevorzugen. Desktop-Grakas haben bei den Preisen, zu denen die Leute bereit sind zu AMD zu greifen, einfach zu wenig Marge, deshalb stehen die bei AMD momentan am Ende der Nahrungskette. Leider.

Heißt das AT0 und AT2 tragen zu den Entwicklungskosten von AT1 nichts bei?
Die anderen haben das schon besser ausgeführt, als ich es könnte :)

Ergänzend noch, deshalb haben dann eben die Chips Priorität, die im Gesamtpaket aus Konkurrenzsituation, bereits sicherer Aufträge/Abnehmer usw. die besten Chancen haben, den Aufwand zu rechtfertigen.

Da hat AT1 wohl von allen ATs am schlechtesten abgeschnitten, weil es außer HighEnd-Desktop keinen Markt für den gibt, und man dort wohl damit rechnet, dass die meisten Leute am Ende doch wieder lieber ne 6070Ti oder 6080 nehmen.


Das sind wieder die MLID Märchen genauso wie Navi33 = Navi21
Navi33=Navi21 war adroc (unter dem Namen Bondrewd noch zu B3D-Zeiten).

5080+20% kam meines Wissens von kepler_l2 und spiegelt eher AMD's interne Erwartung/Hoffnung wieder.
Kann schlechter ausfallen, klar.

Wenn wir nach den bisherigen AT2 Leaks gehen:
.) 192 Bit Speicherinterface
.) GDDR7 dafür aber kein IF$, nut etwas größerer L2
.) 264mm² N3 also ca. gleiche Transistoranzahl wie Navi48
.) Unified architecture d.h. weniger effizient beim Gaming als reine Gaming Designs

Das sieht nach grob 9070 non XT Niveau aus. Im besten Fall 9070 XT.
Auf RDNA5 treffen eine Menge Patente zu, die sich mit Daten-Kompression und anderen Bandbreiten-Effizienz-Maßnahmen beschäftigen.
Außerdem soll RDNA5 dafür größere/smartere Caches im Bereich L0/L1 bekommen, was den Bandbreiten-Bedarf ab L2 auch nochmal reduzieren soll.

Die (Gaming-)IPC je CU/WGP soll jedenfalls um ca. 10-20% steigen, die Taktraten werden in N3P bei kleinerem Chip wohl auch höher ausfallen.
Mit 20-30% höherer Performance als eine 9070XT kann man da eigentlich schon rechnen.

Das "Unified"-Ding kann man eigentlich auch ignorieren.
Es gibt jetzt halt nur noch einen Haupt-R&D-Pfad, aber es wird trotzdem noch je nach Einsatzzweck (RDNA für Gaming, CDNA für HPC/KI) davon abgezweigt.
Macht Nvidia schon lange genauso. "Reine Gaming Designs" gab es dort letztmals mit Pascal.


AT1 würde das 700-1000$ Segment um 5080-4090 Rohleistung. Das ist das, was noch real gekauft wird. AT0 bzw. 5090 Niveau ist nur um Reviews zu gewinnen nur das nützt AMD wenig.
Wenn kein AT1 kommt, dann gibt es auch keinen AT0 für Gaming in relevanten Mengen.
Du meinst das 1100-1500$ Segment, denn günstiger wird man 4090-Leistung wahrscheinlich die nächsten 4 Jahre nicht mehr kriegen.
Und gekauft wird halt von zu vielen dann trotzdem immer nur Nvidia.

Damit es sich lohnt, müsste AMD von AT1 halt Stückzahlen verkaufen (mit fetter Marge obendrauf), die sie gegen eine halbwegs ordentliche 6080 und 6070Ti niemals verkaufen werden, deshalb geht AMD das Risiko nicht ein.

AT0 macht mehr Sinn, weil der selbst in beschnittenem Zustand wahrscheinlich stark genug wäre, zumindest die 6080 zu schlagen und den irgendwo in der Lücke zwischen 6080 und 6090 platzieren zu können.
Sprich, in einem Preisbereich wo Nvidia keinen direkten Gegenpart anbieten kann/will.
Wenn die 6090 mit 32 oder 48GB 2999$ MSRP kostet und die 6080-24GB 1299-1499$, kann AMD für eine AT0-Karte 20% über 6080 mit 36GB locker 2000$ verlangen, selbst wenn die 6090 klar überlegen ist.

Für Cloud Gaming ist es sinnbefreit so große Dies zu bauen. Da macht man lieber 2 AT2 mit besseren Yields und lässt nur eine Instanz gleichzeitig laufen.
Das weißt du natürlich besser als Microsoft. Hätten sie mal dich gefragt, hätten sie viel Geld sparen können ;)

Ein Konsolen Die wird kaum für 700$ verkauft werden.
Warum nicht?
Wenn die Konkurrenz für vergleichbar Leistung und Speicherausstattung 800-900$ nimmt, womit man momentan schon fast rechnen muss.....

Fakt ist:
- Ein 264mm² Die in N3P kostet vermutlich ähnlich viel in der Herstellung wie N48, "dank" deutlich höherer Waferpreise.
- 18 GB GDDR7 werden vermutlich selbst im besten Fall etwas teurer sein als 16 GB GDDR6.

MLID meinte <= 550$ für AT2 und wenn AMD das vor hat, dann werden es real eher 400-500$.
Unter 500 für 264mm² N3P?
Vielleicht mit 12GB RAM... :hammer:

horn 12
2026-02-27, 00:11:32
Nun, 4090 Leistung und 24 GB GDDR7 würde weggehen wie warme Semmeln wenn der Preis bei 800 bis 900 Euro verweilen würde, da hätte man 5080 Plus 10 bis 15% obendauf und viel schneller wird gar eine 6080 vielleicht gar nicht werden.
Könnte 10 bis 15% über einer RDNA 5 Karte zu liegen kommen...


https://wccftech.com/amd-top-rdna-5-at0-gpu-might-release-for-gamers-but-in-limited-quantities/

Geringe Anzahl an 24 / 32 GB Gamer Karten
Wird wohl Teuer werden wer sich dem Gaming beugen will
Gedanke meinerseits: dafür wohl Ende 2026 oder gleich Anfang 2027

iamthebear
2026-02-27, 02:34:01
Allerdings ist die Konfiguration schon eigenartig bei RDNA5. AT2 64 CUs wie bei N48 aber nur 24 MiB L2 vs 4 MiB L2 + 64 MiB L3. Ja GDDR7 aber nur 192 bit vs 256.[quote]

Das warum ist mir relativ klar:
a) KI Anwendungen haben nichts vom VCache. Die brauchen reine Bandbreite weil die Modelle zu groß sind als dass sie in den IF$ passen
b) Spiele werden auch immer größer bzw. brauchen mehr Daten. Man braucht immer mehr IF$ um auf dieselbe Hitrate zu kommen. SRAM skaliert aber nicht mehr

[quote]Klingt bandbreitenlimitierter - aber andererseits warum sollte man eine dGPU SKU mit 64 CUs verbauen wenn die bandbreitenlimitiert ist und somit Chipfläche verschwendet?

Mein Kenntnisstand ist:
Es sind nur halb so viele CUs. AT0 Vollausbau sind 96. Das wurde auf MLIDs Slide anscheinend falsch gezählt. Jede RDNA5 CU hat aber doppelt so viele FP32 wie früher und womöglich auch sonst etwas mehr von allem wobei 1 WGP = 1 CU.
Wenn manche Sachen verdoppelt werden aber andere nicht, dann ist die Performance meistens zwischen 1x und 2x.

Und man kann davon ausgehen dass rdna5 CUs eher stärker als rdna4 CUs werden.
Entweder da stimmt einiges bei den leaks nicht oder rdna5 macht einen Sprung bei der Bandbreiteneffizienz.

Pro CU stärker, pro WGP bzw. FP32 aber schwächer

Die 18GB sind für den N48-Nachfolger, weil der nur ein 192bit SI haben wird und die 4GB-Chips wahrscheinlich erstmal exklusiv für KI-Karten bleiben werden.

Die 18GB sind denke ich gestorben. Bei den aktuellen RAM Preisen werden das wohl 12GB werden.

Da hat AT1 wohl von allen ATs am schlechtesten abgeschnitten, weil es außer HighEnd-Desktop keinen Markt für den gibt, und man dort wohl damit rechnet, dass die meisten Leute am Ende doch wieder lieber ne 6070Ti oder 6080 nehmen.

Ich denke den Trend hat man ja mit RDNA4 schon gesehen. AMD zieht sich auf Grund von schwacher Margen mehr und mehr aus dem dGPU Markt zurück.

Navi33=Navi21 war adroc (unter dem Namen Bondrewd noch zu B3D-Zeiten).

Angefangen hat damit glaube ich Greymon.
Aber von MLID gab es schon eine sehr konkrete aussage:
"Bei 1440p Navi21=Navi33, bei 1080p ist Navi33 etwas besser, bei 4K etwas schlechter"
Das war natürlich kompletter Schwachsinn und hätte spätestens bei Veröffentlichung der Die Size auffallen müssen, dass das nicht stimmen kann.

5080+20% kam meines Wissens von kepler_l2 und spiegelt eher AMD's interne Erwartung/Hoffnung wieder.
Kann schlechter ausfallen, klar.

Aktuell ist die 9070 XT gerade Mal aif 5070 Ti Niveau. Die 5080 ist 20% darüber. Jetzt soll eine Karte mit 192 Bit SI und weniger IF$ noch einmal 20% auf die 5080 drauf legen? Wie soll das gehen? Und von der Chipfläche passt das auch nicht.

Die (Gaming-)IPC je CU/WGP soll jedenfalls um ca. 10-20% steigen, die Taktraten werden in N3P bei kleinerem Chip wohl auch höher ausfallen.
Mit 20-30% höherer Performance als eine 9070XT kann man da eigentlich schon rechnen.

Und das hat MLID aus seinem Kaffeesud gelesen? Sorry aber das passt hinten und vorne nicht. Wenn AT2 so stark ist, dann sind Die Size, Speicherinterface bzw. die Tatsache dass es ein Konsolendie wird definitiv falsch.

Du meinst das 1100-1500$ Segment, denn günstiger wird man 4090-Leistung wahrscheinlich die nächsten 4 Jahre nicht mehr kriegen.
Und gekauft wird halt von zu vielen dann trotzdem immer nur Nvidia.

Eine 5080 hat 1K gekostet. Damit wäre eine AMD Karte bei gleicher Performance maximal 800-850$ wert.

Mag sein, dass aktuell alles teurer ist aber bevor die KI Blase geplatzt ist wird sowieso nichts launchen.

Damit es sich lohnt, müsste AMD von AT1 halt Stückzahlen verkaufen (mit fetter Marge obendrauf), die sie gegen eine halbwegs ordentliche 6080 und 6070Ti niemals verkaufen werden, deshalb geht AMD das Risiko nicht ein.

Angeblich hat Nvidia zum RDNA5 Launch gar keinen Konter außer die bestehende Generation.

Das weißt du natürlich besser als Microsoft. Hätten sie mal dich gefragt, hätten sie viel Geld sparen können ;)

Gibt es da irgendeine verlässliche Quelle, dass das irgendjemand für eine gute Idee hält?
Nvidia setzt ja auch keine 5090er für Cloud Gaming ein. Pro aktivem User gibt es eine GPU.

Fakt ist:
- Ein 264mm² Die in N3P kostet vermutlich ähnlich viel in der Herstellung wie N48, "dank" deutlich höherer Waferpreise.

264mm² bei 22K pro Wafer sind ca. 100$

Unter 500 für 264mm² N3P?
Vielleicht mit 12GB RAM... :hammer:

Klar mit 12GB. Bei den aktiuellen Speicherpreisen sind 18GB unwahrscheinlich.

robbitop
2026-02-27, 07:03:11
Die 264 mm2 in N3P wären in etwa äquivalent zu 380….400 mm2 in N4P. Also von der Transistorzahl könnte AT2 ähnlich sein wie N48.
Allerdings mit 3/4 des SI und 40 MiB weniger LLC fliessen etwas mehr Transistoren in den Rest der GPU. Andererseits soll es dieses Mal auch richtige RT HW geben (gemeint ist deutlich mehr als level 2 wie bis dato). Das kostet Transistoren. Mal schauen - aber dass eine next level uArch auch pro Transistor mehr Performance rausholte ist eine Weile her. Ich bin da auch erstmal skeptisch. Irgendwas passt ggf nicht.
N48 wurde ja auch lange mit zu kleiner die size in den leaks behandelt (iirc sagte mlid lange 250 mm2 und am Ende waren es iirc 380 mm2).

aceCrasher
2026-02-27, 08:47:30
Die 18GB sind denke ich gestorben. Bei den aktuellen RAM Preisen werden das wohl 12GB werden.
Ich hoffe dass du Unrecht hast. Die 12GB meiner 5070 sind eigentlich schon nicht mehr okay. Für eine deutlich schnellere Karte müssen es wirklich mind. 16GB sein, sonst ist die doch DOA. Wer kauft denn eine 700€+ Karte die Day1 schon deutlich zu wenig Speicher hat?? Das mag vielleicht im Einsteigersegment funktionieren, aber in dem Preisbereich zahle ich lieber 100€ mehr und habe dann eine angemessene Speichermenge.

rentex
2026-02-27, 08:54:45
Summa Summarum...Gaming ist tot.

robbitop
2026-02-27, 08:57:39
Zumindest echtes Gaming. ^^ Der ganze Müll für Leute mit ADHS der auch auf Handy, Tablet und Co rennt mit Gaming as a Service usw blüht auf

mczak
2026-02-27, 09:52:32
Kann mir schwer vorstellen dass die schnellste Karte von AMD bloss 12 GB hat, wenn die denn wie ich vermute etwas schneller wird als die 9070XT.
Bei einer abgespeckten Variante ist das aber gut vorstellbar, da würde dann sicher auch der Preisunterschied grösser als das bei N48 der Fall war.

AffenJack
2026-02-27, 09:59:28
Es wird bestimmt ne 18 Gb Option geben. Wie das preislich angesiedelt ist, ist ne andere Frage. Aber nur 12 Gb wird AMD nicht machen. Die XT würde ich auch nur mit 18GB erwarten. Bei der Non-XT könnte es auf 12 GB gehen wäre die Befürchtung. Meine Hoffnung da wäre, dass evtl. erst ein drittes Preiskrachermodell nur 12 GB bekommt, aber leider angesichts der aktuellen Lage kaum realistisch.

iamthebear
2026-02-27, 13:59:46
Dann müssen halt die Spielehersteller endlich einmal ihren RAM Verbrauch in den Griff bekommen. Moore Law für RAM ist tot und wir stecken mitten in einer Speicherkrise.

Ich habe gerade nachgesehen: Vor 15 Jahren habe ich weniger pro GB DDR3 bezahlt als aktueller RAM kostet (12 Euro/GB für DDR5 6000 CL30). Damals hatten die GPU Topmodelle um die 2GB verbaut.

reaperrr
2026-02-28, 01:08:08
Mein Kenntnisstand ist:
Es sind nur halb so viele CUs. AT0 Vollausbau sind 96. Das wurde auf MLIDs Slide anscheinend falsch gezählt. Jede RDNA5 CU hat aber doppelt so viele FP32 wie früher und womöglich auch sonst etwas mehr von allem wobei 1 WGP = 1 CU.
Wenn manche Sachen verdoppelt werden aber andere nicht, dann ist die Performance meistens zwischen 1x und 2x.
(...)
Pro CU stärker, pro WGP bzw. FP32 aber schwächer.
Nein.

AMD scheint die WGPs bei RDNA5 jetzt einfach CUs zu nennen, weil die beiden sub-CUs innerhalb der ehemals als WGP bezeichneten Einheit bei RDNA5 wohl endlich so gut verzahnt sind, dass der "WGP-Modus" keine Nachteile mehr hat und jetzt immer der Standardmodus ist, weshalb die begriffliche Trennung in CUs und WGPs aufgegeben wird.
Dass mit mehr FP32 je CU stimmt übrigens auch nicht:
RDNA4 hat bereits 128 je CU / 256 je WGP. Bloß der momentane DualIssue-Ansatz ist sehr limitiert und kommt relativ selten zum Tragen, das wird bei RDNA5 behoben.

Trotzdem hat eine RDNA5-"CU" noch alles, was ein RDNA4-WGP hat, bloß mit besserer Zusammenschaltung und Auslastung.

Hardwaretechnisch sind die 96 CUs bei AT0 trotzdem das, was man bei RDNA4 96 WGPs (192 CUs) nennen würde. Da fehlt nichts.

Deshalb war die MLID-Folie auch nicht falsch, sondern basierte lediglich noch auf der alten WGP/CU-Bezeichnung.
Diese Präsentationen sind ja meistens für irgendwelche Manager mit weniger Ahnung von technischen Details, da wird dann der Vergleichbarkeit zum Vorgänger wegen wohl einfach nochmal die alte Zählweise verwendet worden sein, um die nicht zu verwirren.


Die 18GB sind denke ich gestorben. Bei den aktuellen RAM Preisen werden das wohl 12GB werden.
Nie im Leben.
AMD musste schon die 9070GRE-12GB in China durch eine 16GB-Variante ersetzen, weil 12GB von AMD keiner mehr kauft.
Dass AMD's Speichermanagement im Grenzbereich immer noch schlechter als Nvidia's ist, hat sich halt rumgesprochen.

Wenn die Speicherpreise genug fallen, kommt die "10070XT" auch mit 18GB (vllt. 15GB@160bit für den Salvage).
Wenn nicht, bleibt halt die 9070XT erstmal am Markt.

Mit weniger als 15 GB für die Leistungsklasse 5070Ti/9070XT wirst du in 2027/2028 jedenfalls niemandem mehr kommen brauchen, da kaufen die Leute eher ne gebrauchte, oder ne langsamere mit 16GB.
Die Leute nehmen tendenziell eher generell weniger FPS in Kauf, als Nachladeruckler durch VRAM-Mangel, siehe 6600XT vs. 3060-12GB.

Raff
2026-02-28, 01:54:45
loß der momentane DualIssue-Ansatz ist sehr limitiert und kommt relativ selten zum Tragen, das wird bei RDNA5 behoben.

Ist das (noch) so? Ich habe den Eindruck, dass das bereits mit RDNA 4 deutlich besser vonstattengeht, also mehr Netto vom Brutto ankommt.

MfG
Raff

Nightspider
2026-02-28, 02:43:45
Summa Summarum...Gaming ist tot.
Zumindest echtes Gaming. ^^ Der ganze Müll für Leute mit ADHS der auch auf Handy, Tablet und Co rennt mit Gaming as a Service usw blüht auf

Was gehtn bei euch ab?

Dieses Jahr kommen die absoluten Kracher GTA6 und Squadron42 und mit extrem hoher Wahrscheinlichkeit Half Life 3.

Es gibt massig gute Shooter, wo ich mich kaum entscheiden kann welchen ich spielen will. Es gibt hunderte gute Indie Games.

Wenn ich dazu komme geb ich mir aktuell Star Citizen in VR oder demnächst Crimson Desert oder das neue Resident Evil.
Hab gar nicht so viel Zeit neben der Arbeit und anderen Interessen die ganzen guten Games endlich mal abzuarbeiten.

Arc Raiders und der neue Content für Diablo 2 :R bocken auch weiterhin.

Eine PS5 gibts ab 400 Euro, manchmal weniger. Gaming ist kein bisschen tot. So ein Blödsinn.

Ihr werdet hier schon depressiv von den ganzen Newsmeldungen.

basix
2026-02-28, 08:38:26
Ist das (noch) so? Ich habe den Eindruck, dass das bereits mit RDNA 4 deutlich besser vonstattengeht, also mehr Netto vom Brutto ankommt.

Kepler_L2 sagt ja :)
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-90#post-41566122
256 for both but RDNA5 has much fewer dual-issue restrictions.

https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/page-71#post-41535428
They still advertise dual-issue FLOPs, what they don't do is advertise 2x number of "streaming processors" because they don't want another Bulldozer lawsuit. I expect that will change with RDNA5

Raff
2026-02-28, 10:31:51
Ha, guter Punkt. Die von mir wiederholt vorgetragene Frage, was passieren müsste, damit sie offiziell von der doppelten ALU-Zahl sprechen, hat AMD leider nie beantwortet.

MfG
Raff

robbitop
2026-02-28, 10:34:19
IMO: Entweder keine Restriktionen mehr bei der Nutzung von VOPD mit wave64 oder (ggf noch radikaler) echte 128 fpus pro CU.
Die Bulldozerklage steckt ihnen wahrscheinlich noch schmerzhaft in den Knochen.

rentex
2026-02-28, 13:04:43
Was gehtn bei euch ab?

Dieses Jahr kommen die absoluten Kracher GTA6 und Squadron42 und mit extrem hoher Wahrscheinlichkeit Half Life 3.

Es gibt massig gute Shooter, wo ich mich kaum entscheiden kann welchen ich spielen will. Es gibt hunderte gute Indie Games.

Wenn ich dazu komme geb ich mir aktuell Star Citizen in VR oder demnächst Crimson Desert oder das neue Resident Evil.
Hab gar nicht so viel Zeit neben der Arbeit und anderen Interessen die ganzen guten Games endlich mal abzuarbeiten.

Arc Raiders und der neue Content für Diablo 2 :R bocken auch weiterhin.

Eine PS5 gibts ab 400 Euro, manchmal weniger. Gaming ist kein bisschen tot. So ein Blödsinn.

Ihr werdet hier schon depressiv von den ganzen Newsmeldungen.

Für die GPU Hersteller, ist Gaming gerade einfach "tot".

basix
2026-02-28, 13:33:25
Tot nicht. Nvidia macht immerhin ~15 Mrd. Umsatz pro Jahr nur mit Gaming und ~20 Mrd. wenn man die Sparte Professional Visualization noch dazu nimmt. Bei AMD sind es ~4...5 Mrd. Das ist schon eine schöne Stange Geld.

Verglichem mit HPC, ML/AI und Datacenter ist es aber schlicht nicht mehr Priorität Eins. Da AMD und Nvidia mittlerweile deutlich mehr Geld haben, dürfte man für Gaming aber nicht weniger R&D Geld ausgeben als bisher. Eher mehr.

Auf was wir als Gamer zudem hoffen können sind 4 Dinge:

HPC & ML/AI Research & Development führt auch zu besseren und effizienteren Gaming GPUs (mehr R&D Geld wird ausgegeben, neue und bessere Technologien werden erforscht, kreiert und eingesetzt)
ML/AI Zeugs kommt in Games positiv zum tragen (DLSS, FSR4+, FG, RR, Neural Rendering, Charakter-Animationen, Lokalisation, Physik-Simulation, ...)
Beim Top-Dog kommt eine fette GPU, obwohl teuer in der Herstellung. Grund ist die Zweitnutzung für ML/KI Zeugs
NextGen Konsolenzyklus wird in einer Zeit aufgegleist, wo AMD deutlich mehr Geld hat. Da kämen dann primär die ersten zwei Punkte von oben zum Zug.

reunion
2026-03-01, 16:04:54
AT0 gibt's, weil MS den auch für ihre XCloud will und der auch für Halbprofis/lokale KI interessant sein wird (v.a. Vollausbau mit 512bit).
AT2 gibt's, weil MS den auch für die nächste Xbox nimmt und im Desktop-Preissegment bis 600$/700€ auch für AMD noch halbwegs genug Volumen abfällt.
AT3 gibt's, weil der auch für Medusa Halo als iGPU/IO-Die fungiert.
AT4 gibt's, weil der auch für Medusa Premium als iGPU/IO-Die fungiert.

AT1 gibt's wohl nicht, für den hätte es außer Desktop-Gaming keinen Markt gegeben und der wäre zu teuer in der Entwicklung/Herstellung gewesen, um garantieren zu können, dass der die Entwicklungskosten jemals wieder reinholt.


Das ist jedenfalls schon extrem effizient. Man erschlägt mit nur 4 Designs faktisch alles von Gaming low- bis highend, über APUs, über Xbox und den lokalen AI-Bereich. Das muss man wohl auch so machen wenn man der klare Underdog ist und trotzdem Gewinne einfahren will.

iamthebear
2026-03-01, 21:26:10
Dass mit mehr FP32 je CU stimmt übrigens auch nicht:
RDNA4 hat bereits 128 je CU / 256 je WGP. Bloß der momentane DualIssue-Ansatz ist sehr limitiert und kommt relativ selten zum Tragen, das wird bei RDNA5 behoben.

Bei RDNA4 ist 1 WGP = 2 CUs. Deshalb 128 FP32 pro CU / 256 pro WGP
RDNA5 ist 1 WGP = 1 CU
d.h. 256 pro CU / 256 pro WGP
Also gleich viel FP32 pro WGP aber doppelt so viel FP32 pro CU

Trotzdem hat eine RDNA5-"CU" noch alles, was ein RDNA4-WGP hat, bloß mit besserer Zusammenschaltung und Auslastung.

Das lässt sich zum aktuellen Informationsstand kaum sagen.
Alleine von der Fläche pro WGP deutet aber alles darauf hin, dass doch etwas eingespart wurde. Auf keinen Fall ist pro WGP noch viel dazu gekommen.

RDNA4: 32 WGP auf 357mm² N4P = 11.16mm²/WGP
RDN5: 40 WGP auf 264mm² N3P = 6.6mm²/WGP
Gesamt: Das ist eine Steigerung von 1.7x ausgehen von einem bereits sehr dicht gepackten N4P Node. So viel bringt N3 nicht bei der Density.

Deshalb war die MLID-Folie auch nicht falsch, sondern basierte lediglich noch auf der alten WGP/CU-Bezeichnung.

Diese Präsentationen sind ja meistens für irgendwelche Manager mit weniger Ahnung von technischen Details, da wird dann der Vergleichbarkeit zum Vorgänger wegen wohl einfach nochmal die alte Zählweise verwendet worden sein, um die nicht zu verwirren.

Und genau das meinte ich mit "falsch gezählt". Es wurde ein Wert (warum auch immer) ein Wert von 192 angegeben. Real sind es nur 96.

Nie im Leben.
AMD musste schon die 9070GRE-12GB in China durch eine 16GB-Variante ersetzen, weil 12GB von AMD keiner mehr kauft.

Damals waren die Speicherpreise auch noch ganz andere.

Wenn die Speicherpreise genug fallen, kommt die "10070XT" auch mit 18GB (vllt. 15GB@160bit für den Salvage).
Wenn nicht, bleibt halt die 9070XT erstmal am Markt.

Ja wenn die Speicherpreise wirklich fallen, dann wird es ein 18GB Modell geben. Aktuell sieht es aber noch nicht danach aus.
Und die 9070 XT wird vermutlich ziemlich schnell eingestampft werden ähnlich der 7900 XTX, da diese kaum mehr Performance bietet aber deutlich mehr in der Fertigung kostet. 16GB RAM ist jetzt etwas für den 1K Bereich, im 600$ Bereich gibt es nur 12GB und alles unter 500$ wird wohl mit 8GB auskommen müssen.

[qutoe]Mit weniger als 15 GB für die Leistungsklasse 5070Ti/9070XT wirst du in 2027/2028 jedenfalls niemandem mehr kommen brauchen, da kaufen die Leute eher ne gebrauchte, oder ne langsamere mit 16GB.[/quote]

Fragt sich nur wer im aktuellen Markt seine bestehende Karte verkauft wenn es nichts besseres in der Preisklasse zu kaufen gibt.
Eine 6800 XT kannst du haben aber ob die 2028 noch Treiberupdates bekommt daran habe ich meine Zweifel. FSR4 gibt es schon jetzt nicht mehr.

Die Leute nehmen tendenziell eher generell weniger FPS in Kauf, als Nachladeruckler durch VRAM-Mangel, siehe 6600XT vs. 3060-12GB.

Hätte die 3060 nur 8GB würde sie sich auch besser verkaufen als die 6600XT einfach weil es eine Nvidia Karte ist. Das hat man in derselben Generation bei der 3080 vs. 6800 XT gesehen.

Natürlich ist mehr VRAM immer nett solange man ihn nicht selbst bezahlen muss.

4GB mehr VRAM kosten aktuell 40$ für AMD im Einkauf
Der nächstegrößere Die (Navi 48 vs. Navi 44 = 150mm² N4P) kostet auch um die 40$

Was wird sich wohl besser verkaufen zum selben Verkaufspreis:
Eine 9060 XT mit 16GB
Oder eine 9070 XT mit 12GB

basix
2026-03-02, 13:45:00
4GB mehr VRAM kosten aktuell 40$ für AMD im Einkauf

Unwahrscheinlich dass AMD Spot-Preise bezahlt. Die haben langfristigere Verträge.

AffenJack
2026-03-02, 14:03:58
Unwahrscheinlich dass AMD Spot-Preise bezahlt. Die haben langfristigere Verträge.

An den langfristigen Verträgen muss man mittlerweile Zweifeln, zumindest wird definitiv auch Ram kurzfristiger dazu gekauft. AMD hebt nicht wegen Rampreis GPU-Preise an oder reduziert Produktion, wenn sie das alles mit Langfristverträgen abgesichert haben. Gleiches gilt für Nvidia.

reunion
2026-03-02, 14:15:07
Die haben sicher Langfristverträge. Nur auch Langfristverträge orientieren sich am Marktpreis. Niemand geht das Risiko ein über viele Jahre einen fixen Preis zu garantieren ohne deutlichen Aufschlag. Dazu kommt noch eine variable Komponente was Stückzahlen betrifft, da man die immer nur grob abschätzen kann.

reaperrr
2026-03-03, 22:27:18
Bei RDNA4 ist 1 WGP = 2 CUs. Deshalb 128 FP32 pro CU / 256 pro WGP
RDNA5 ist 1 WGP = 1 CU
d.h. 256 pro CU / 256 pro WGP
Also gleich viel FP32 pro WGP aber doppelt so viel FP32 pro CU
Du stellst das jetzt als Fakt hin, nur um kurz darauf selber mit

Das lässt sich zum aktuellen Informationsstand kaum sagen.
zu argumentieren...


Alleine von der Fläche pro WGP deutet aber alles darauf hin, dass doch etwas eingespart wurde. Auf keinen Fall ist pro WGP noch viel dazu gekommen.

RDNA4: 32 WGP auf 357mm² N4P = 11.16mm²/WGP
RDN5: 40 WGP auf 264mm² N3P = 6.6mm²/WGP
Gesamt: Das ist eine Steigerung von 1.7x ausgehen von einem bereits sehr dicht gepackten N4P Node. So viel bringt N3 nicht bei der Density.
Und genau hier liegt der Hund hauptsächlich begraben (nicht das erste Mal in diesem Forum...).

Deine ganze Argumentation baut auf einer völlig oberflächlichen Milchmädchenrechnung auf, die gleich mehrere gravierende Punkte völlig außer Acht lässt:

- die 20 WGP/40 CU haben schon damals bei N10 nur ~1/3 der Fläche ausgemacht (81 von 251 mm², um genau zu sein), ihr müsst mal von diesem dämlichen "GPU-Fläche / WGPs = WGP-Fläche" weg!
- AT2 hat nach derzeitigen Infos im Vollausbau nur 35 WGP, nicht 40.
- AT2 hat satte 48 MB weniger an gesamtem L2/IF$, 1 MemController weniger, und 64 bit schmaleres SI im Vergleich zu N48.
Das spart MASSIV an genau den Sachen, die mit N3 nicht shrinken.
- Die Logik-Packdichte von N3P ist um ca. 1,65x höher als die von N4P.

Dass AT2 trotz den drei letzgenannten Punkten nur um ca. 26% kleiner als N48 ist, spricht für deutlich mehr Logik und/oder L0/VGPR/L1 je WGP/Groß-CU.

Schlanker ist da nichts. Würde auch keinen Sinn machen, weil AMD eher die Auslastung/IPC je FP32-ALU erhöhen muss, die ist bei RDNA3/4 noch nicht hoch genug.
Eine CU entfernen und bei der anderen nur die FP32-Einheiten zu verdoppeln wäre da völlig kontraproduktiv.


Und genau das meinte ich mit "falsch gezählt". Es wurde ein Wert (warum auch immer) ein Wert von 192 angegeben. Real sind es nur 96.

Ich würde einiges darauf verwetten, dass die CUs im alten Sinne bei RDNA5 noch da sind, und die Änderung von WGP -> "CU" in erster Linie eine Begriffsänderung ist, sich hardwaretechnisch aber bis auf eine engere Verzahnung der ehemaligen CUs wenig ändert.


16GB RAM ist jetzt etwas für den 1K Bereich, im 600$ Bereich gibt es nur 12GB und alles unter 500$ wird wohl mit 8GB auskommen müssen.

Für Nvidia, weil sie die Marktsituation ausnutzen, um ihre Marge zu erhöhen.

Was AMD angeht, solange 4GB "nur" 40$ mehr im Einkauf kosten, fährt AMD mit 16GB besser, da sie dafür locker 150-200$ mehr nehmen können.
Ich denke, Verfügbarkeit ist das eigentliche Problem, weil die Speicherhersteller Produktionslinien auf HBM4 und die großen GDDR7-Chips für KI-Karten umstellen.

Mit 12GB wird AMD den Vollausbau von AT2 nicht bringen, eher warten sie noch ein Jahr.


Und die 9070 XT wird vermutlich ziemlich schnell eingestampft werden ähnlich der 7900 XTX, da diese kaum mehr Performance bietet aber deutlich mehr in der Fertigung kostet.

Wie gesagt: Nur wenn AT2-18GB kommt, vorher nicht.

Dass die 9070XT nennenswert teurer in der Herstellung ist bezweifle ich stark.
GDDR6 ist je GB sicherlich günstiger als GDDR7, und N4P je Wafer deutlich günstiger als N3P.

Dass AT2 langsamer als 9070XT werden soll ist wie schon zuvor gesagt Quark. Und ne schnellere Karte mit nur 12GB zu bringen macht wenig Sinn.


Was wird sich wohl besser verkaufen zum selben Verkaufspreis:
Eine 9060 XT mit 16GB
Oder eine 9070 XT mit 12GB

Der Vergleich hinkt, denn so günstig, wie die günstigsten 9060XT-16GB derzeit trotz allem noch sind, würde AMD eine 9070XT-12GB nie anbieten.
Du nimmst als Unternehmen immer den höchsten Preis, zu dem du das Produkt noch loswirst.

Und für eine 10070 XT mit 18 GB kannst du so viel mehr als für eine mit 12GB verlangen, dass GDDR7 schon 40$ pro GB kosten müsste, bevor die zusätzlichen Kosten den höheren Verkaufspreis überwiegen.

BlacKi
2026-03-04, 00:10:56
Die haben sicher Langfristverträge. Nur auch Langfristverträge orientieren sich am Marktpreis. Niemand geht das Risiko ein über viele Jahre einen fixen Preis zu garantieren. Dazu kommt noch eine variable Komponente was Stückzahlen betrifft, da man die immer nur grob abschätzen kann.
stückzahlen sind vertraglich abgesichert, aber der preis variiert? klingt komisch, aber niemand weiß es genau.

ändert aber nichts daran, das für amd die preise auch steigen, selbst wenn die verträge längerfristig abgeschlossen sind.

reunion
2026-03-04, 09:40:28
stückzahlen sind vertraglich abgesichert, aber der preis variiert? klingt komisch, aber niemand weiß es genau.

ändert aber nichts daran, das für amd die preise auch steigen, selbst wenn die verträge längerfristig abgeschlossen sind.

Natürlich, das ist völlig üblich. Wir haben zB auch langfristige Öl- und Gaslieferverträge, das heißt nicht, dass sich Preissteigerungen nicht auswirken. Oder nimm einen Kreditvertrag. Wenn du fixe Zinsen willst musst du zwangsläufig einen deutlichen Aufschlag zahlen um das Risiko abzudecken.

AffenJack
2026-03-04, 10:12:53
Natürlich, das ist völlig üblich. Wir haben zB auch langfristige Öl- und Gaslieferverträge, das heißt nicht, dass sich Preissteigerungen nicht auswirken. Oder nimm einen Kreditvertrag. Wenn du fixe Zinsen willst musst du zwangsläufig einen deutlichen Aufschlag zahlen um das Risiko abzudecken.

Das mag für vielleicht 50% der benötigten Rammenge gelten, aber es ist offensichtlich, dass dies nicht für die Gesamtmengen gilt und man da anscheinend auf Bedarf reagiert, was ja durchaus auch Sinn macht bezüglich Absatzflauten durch Konkurrenzprodukte etc.. Du kaufst nicht riesige Rammengen, die du nicht loswirst.

Das passt ja auch zu den spekulierten Produktionskürzungen bei Nvidia von 30/40%. Teile des Einkaufs sind abgesichert, Teile kurzfristiger gekauft und vor allem da gibts nun die massiven Probleme.

reunion
2026-03-09, 09:04:03
LOL, damit ist wohl eine 96GB RDNA5-GPU für Mitte 2027 bestätigt. X-D
Und dafür bräuchte es zwingend ein 512-bit SI

if tiny corp was raising $20M (@ $200M), who'd be interested? business model is basically this.

buy this $11.5M building (with 5MW of power): link in our discord

wait for AMD to launch the RDNA5 96GB cards (mid 2027). preorder 3000 cards (hopefully we can negotiate for $2500 each), build 500 $20k tinyboxes with 6 of the card. run all the chinese llms. make $600k / month revenue selling tokens on openrouter (market depth is there, this is 1% of openrouter). improvements to tinygrad yield revenue improvements.

due to how power is priced in oregon it's only like $50k for the electric bill (below 4MW they price for peak, not usage, we get like 3c kWh power). we can also make ~$100k / month leasing colo space to comma.

building and cards paid off in 3 years max, investment made back. low risk of being undercut since we're using consumer GPUs and running the cheapest colo you can believe.

if someone chill wants in, i'd do it. i'm not gonna hype fake tech, but demand for tokens is going to skyrocket (look at the openclaw install numbers). with crazy good optimizations we could potentially get 3x more from the machines, and we have electricity for 3x more machines. $5.4M revenue per month. then continue to scale from there, custom chips, etc...

https://x.com/__tinygrad__/status/2030299783714500935