Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 6 (Morpheus-Kerne, 2/3 nm, H2/2025)
robbitop
2025-07-06, 08:59:16
Was man so hört soll es N2P auf N4 (V-Cache) sein.
Wobei die N2(X war es glaube ich) ggf nicht für Consumer CPUs gilt. Kann gut sein, dass die noch auf einem N3 sind.
Kleinere nides für den sram bringen in letzter Zeit kaum noch Dichtevorteile was in Kombination mit Kostennachteilen irgendwann eine schlechte Wahl für einen vcache Shrink ist. Ggf ist 4nm vorerst der letzte. IIRC gab es bei N3 keine Dichtevorteile mehr.
Nope, N2P ist der Prozess, das Tape Out des CCD war im April. N2X geht vllt. als Refresh in 2027, ähnlich wie Navi4x auf N4P (N48) und N4X (N44 und wahrscheinlich N48 Refresh für die 9080XT) setzt. N3P wird für die APUs mit weniger Kernen und das große IOD eingesetzt lt MLID-Leak. Es gibt noch ein kleines IOD in N6 und die VCache-Dies sollen N4(c?) sein
robbitop
2025-07-06, 09:02:35
Nope, N2P ist der Prozess, wie Intel. N2X geht vllt. als Refresh, ähnlich wie bei N4x.
Quelle für N2P für consumer? Laut MLID ist es N2X. Allerdings sagt er nicht für welchen Core. Aus der Vergangenheit wissen wir dass leading edge für die Servercores genutzt wird aber nicht für consumer.
Gibt es da halbwegs stichfeste leaks die N2P für Consumer besagen? Ich erinnere mich jedenfalls an keine (was aber nichts heissen muss)
Wie gesagt, N2X wäre einfach zu früh, das ginge im Refresh, ist ja der gleiche Prozess für hohe Taktraten optimiert. Und klar ist das auch für Consumer, ist doch dasselbe CCD :freak:. April + 5Q, da haste dann den Release für Desktop.
horn 12
2025-07-06, 09:21:41
Apil 2025 und dann 5 Quartale für Release Zen 6 --- Dies wäre Juli 2026 erst
also in einem Jahr in etwa !!
CrazyIvan
2025-07-06, 09:57:01
Laut Kepler kommen die verschiedenen Segmente in folgenden Prozessen:
Venice (MS server) uses N2P
Venice-Dense (Cloud server) uses N2P
Olympic Ridge (desktop) uses N2P
Gator Range (high-end laptop) uses N2P
Medusa Point 1 (premium laptop) uses both N2P+N3P for top SKUs and N3P only for lower end SKUs
All of this information has been given from AMD to OEMs and AIBs.
https://forums.anandtech.com/threads/zen-6-speculation-thread.2619444/post-41471939
Ich bin geneigt, ihm das zu glauben.
robbitop
2025-07-06, 10:44:32
Wie gesagt, N2X wäre einfach zu früh, das ginge im Refresh, ist ja der gleiche Prozess für hohe Taktraten optimiert. Und klar ist das auch für Consumer, ist doch dasselbe CCD :freak:. April + 5Q, da haste dann den Release für Desktop.
Also keine Quellen.
Laut Kepler kommen die verschiedenen Segmente in folgenden Prozessen:
https://forums.anandtech.com/threads/zen-6-speculation-thread.2619444/post-41471939
Ich bin geneigt, ihm das zu glauben.
:up:
Das ist doch mal was. Kepler hat einen guten Track record. So muss das sein.
stinki
2025-07-06, 11:13:10
Die Infos von Kepler passen vom Line-up ja auch perfekt zu den letzten Gerüchten.
Venice-classic, Olympic Ridge, Gator Range und Medusa Point 1 benutzen ja eh den gleichen 12-Core Chip. Der IoD für Medusa Point 1 in N3P ist dann gleichzeitig auch die lower end APU.
Und Venice-Dense mit 32 Cores in N2P war ja eh schon klar.
Badesalz
2025-07-06, 11:37:21
:up:
Das ist doch mal was. Kepler hat einen guten Track record. So muss das sein.Immerhin konnte so ein weiterer Teil der vielen Bedenken zerstreut werden :up:
Die Infos von Kepler passen vom Line-up ja auch perfekt zu den letzten Gerüchten.
Venice-classic, Olympic Ridge, Gator Range und Medusa Point 1 benutzen ja eh den gleichen 12-Core Chip. Der IoD für Medusa Point 1 in N3P ist dann gleichzeitig auch die lower end APU.
Und Venice-Dense mit 32 Cores in N2P war ja eh schon klar.
Wobei ich mir da nicht sicher bin, ob das wirklich so ist bei Medusa Point. Das kann sein, dass sowohl das IOD als auch ein potenzielles kleines APU-CCD (4+8c) in N3P rein für mobil existiert. Das Ding muss nicht zwingend monolithisch sein, ich fänds ja auch komisch die CPU-Kerne auf dem Die komplett zu deaktivieren, wenn man das N2P-CCD da drandübelt. Kann natürlich trotzdem sein, dass das so ist, ist nur ein Verdacht.
stinki
2025-07-06, 12:15:03
Wobei ich mir da nicht sicher bin, ob das wirklich so ist bei Medusa Point. Das kann sein, dass sowohl das IOD als auch ein potenzielles kleines APU-CCD (4+8c) in N3P rein für mobil existiert. Das Ding muss nicht zwingend monolithisch sein, ich fänds ja auch komisch die CPU-Kerne auf dem Die komplett zu deaktivieren, wenn man das N2P-CCD da drandübelt. Kann natürlich trotzdem sein, dass das so ist, ist nur ein Verdacht.
Da gebe ich dir Recht. Gerade für die Desktop Chips mit 24 Cores kann ich mir eigentlich nicht vorstellen, dass man da einen so großen IoD/APU Chip dran hängt und in dem dann alle Cores außer den 2 LP-Cores abschaltet.
Und bei dem große Medusa Point Chip hätte man ja angeblich 12-Core CCD + 4*Zen6 + 4*Zen6c + 2*Zen5LP. Ob da immer auf den richtigen CCX geschedult wird, bin ich mir auch noch nicht so sicher. Aber 44 Threads machen natürlich auf dem Papier schon was her.
amdfanuwe
2025-07-06, 14:32:14
Nicht alles durcheinander würfeln.
IO Desktop braucht 28 PCIe 5.0 für AM5, vielleicht schon wie Server gar PCIe 6.0 und neue Boards. Wie damals PCIe 4.0 auf AM4.
Mobile Medusa dürfte wie Strix Point nur 16 PCIe Lanes haben. Strix Point 4.0, Medusa 5.0?haben.
Für Mobile haben wir :
Medusa Halo, 2 CCD, 48?CU IO (Mobile Workstation) 24+2LP
Medusa Range, 2 CCD, Desktop IO 2LP+2CU? (Gaming mit dGPU) 24+2LP?
Medusa Point, 1 CCD + Medusa little 12+4+4c+2LP
Medusa Little 4+4c+2LP+8CU
Bumblebee 2+2c+2LP+4?CU
Für Desktop:
wie Medusa Range
G Modelle mit Medusa Little 4 bis 10 Cores
Server:
Bis 8x 32Core CCD + 2x Server IO
Classic 8x 12Core CCD +2x Server IO
Dann noch
Enterprise Server, IOT, Edge, Threadripper, Embedded
CrazyIvan
2025-07-06, 15:22:39
@amdfanuwe
Danke nochmal für die Zusammenfassung. Und genau so klingt es für mich auch wirklich nach einem runden Portfolio.
Gerade Medusa Little wird sicher mit einer ordentlichen NPU kommen und im Corporate Bereich einschlagen wie eine Bombe.
amdfanuwe
2025-07-06, 15:58:05
Medusa dürfte auch ziemlich günstig in der Herstellung werden. Medusa Little in Massenproduktion N3 und Medusa Point bekommt ein in Massen hergestelltes kleines CCD dazu.
Das 12Core CCD in N2 macht schon Sinn: Höherer Takt für Desktop, Effizienz für Mobile und Server. Mal sehen, ob das Intels Sargnagel wird.
latiose88
2025-07-06, 17:58:58
ist das so wenn es NPU Kerne hat,das es dann die übriggen Kerne dann zwecks low bzw Idle Verbrauch abschalten könnte?
Das würde zumindest den hohen low Verbrauch endlich mal den gar ausmachen und damit dann mit Intel mithalten.Mal sehen wie es so kommen wird.
Nightspider
2025-07-06, 19:01:20
Die NPU ist keine x86 Architektur, was redest du für ein Unsinn ?
Die kann mit normaler Software nix anfangen. Und bisher gibts auch kaum Software die was mit den integrierten NPUs anfangen kann.
Das würde zumindest den hohen low Verbrauch endlich mal den gar ausmachen und damit dann mit Intel mithalten
Der hohe Idle Verbrauch liegt ja am bisherigen Chiplet Design und der Verbindung zwischen CCD und IOD die bei Zen6 aber komplett überarbeitet wird mit Silizium-Brücke oder organischem Substrat in Form von Infinity FanOut Links wie bei Navi31.
davidzo
2025-07-06, 19:14:36
Ich glaube er meint die LP KLerne im I/O Die?
Und ja, genau das wäre der Sinn der Sache von LPe Cores: Das Infinity fabric schlafen legen zu können. Intel hat es vorgemacht wie man CPUs aus vielen Chiplets zusammen setzen kann ohne dass der Idleverbrauch explodiert.
Zossel
2025-07-06, 19:38:29
Ich glaube er meint die LP KLerne im I/O Die?
Und ja, genau das wäre der Sinn der Sache von LPe Cores: Das Infinity fabric schlafen legen zu können. Intel hat es vorgemacht wie man CPUs aus vielen Chiplets zusammen setzen kann ohne dass der Idleverbrauch explodiert.
Und wie kommen die Dinger an die Daten im DRAM?
iamthebear
2025-07-06, 21:01:05
Wobei die N2(X war es glaube ich) ggf nicht für Consumer CPUs gilt. Kann gut sein, dass die noch auf einem N3 sind.
Ich denke nicht, dass AMD 2 verschiedene Zen 6 CCDs baut.
Das würde also bedeuten, dass nur Zen6c N2 ist.
Wenn Zen 6 in 3nm kommt dann bedeutet das wohl auch, dass die Info über die extrem hohen Taktraten ebenso falsch ist.
Kleinere nides für den sram bringen in letzter Zeit kaum noch Dichtevorteile was in Kombination mit Kostennachteilen irgendwann eine schlechte Wahl für einen vcache Shrink ist. Ggf ist 4nm vorerst der letzte. IIRC gab es bei N3 keine Dichtevorteile mehr.
Erstens das und zweitens bringt mehr Density sowieso nicht viel denn mehr als 96MB VCache werden wenig zusätzlich Performance bringen und ein kleinerer Die als das Compute Tile wird beim Packaging kompliziert. Da braucht es dann wieder Stützsilizium.
Das ist doch mal was. Kepler hat einen guten Track record. So muss das sein.
Kepler ist doch kein Leaker. Der hat seine Infos doch nur aus öffentlich zugänglichen Linuxtreibern.
Alles andere ist nur private Spekulation. Das hast man bei Zen 5 gut gesehen was aus seinen "50% IPC" geworden ist.
Er war damals auch felsenfest der Meinung, dass Navi 31 AD102 locker schlägt.
davidzo
2025-07-06, 21:12:59
Und wie kommen die Dinger an die Daten im DRAM?
Ist das so schwierig sich vorzustellen?
Die LP Cores sind im I/O Die wo auch der Speichercontroller, PCIelanes, IGP, etc. sind. Der OS Scheduler packt alle Threads auf die LP Cores und legt den Compute Die und das dazugehörige Fabric interface schlafen.
robbitop
2025-07-06, 21:56:48
Ich denke nicht, dass AMD 2 verschiedene Zen 6 CCDs baut.
Ich hatte da an Zen6c CCD gedacht. Zen5c CCDs waren ja auch in N3 und Zen5 in N4
Der_Korken
2025-07-06, 22:10:32
Und wie kommen die Dinger an die Daten im DRAM?
Genauso wie das die mobilen APUs mit 2W Idle-Verbrauch machen. Das Hindernis scheint nicht der DRAM-Zugriff, sondern wirklich das IOD und dessen IFOP-Links zu sein.
iamthebear
2025-07-07, 00:22:58
Ich hatte da an Zen6c CCD gedacht. Zen5c CCDs waren ja auch in N3 und Zen5 in N4
Das ist natürlich durchaus möglich. Dann wäre aber sowohl alle Nodes als auch das Gerücht der fast 7GHz in den MLID Leaks falsch denn selbst mit N3X kann ich mir das nicht vorstellen.
Bzw. umgekehrt wenn N2P oder N2X wirklich 7GHz liefern, dann verstehe ich auch warum AMD bereit ist die Mehrkosten zu bezahlen.
Genauso wie das die mobilen APUs mit 2W Idle-Verbrauch machen. Das Hindernis scheint nicht der DRAM-Zugriff, sondern wirklich das IOD und dessen IFOP-Links zu sein.
Das Problem bei aktuellen Desktop CPUs ist, dass sobald Last auf einem regulären Kern ist wacht der gesamte Ringbus auf und wenn dann auch noch die Spannung nicht pro Kern geregelt werden kann hat man auch noch 15 von 16 Kerne bei maximaler Boostspannung am dahinidlen.
Mit LPE Cores wird einfach das gesamte CCD abgeschaltet und erst wieder aktiviert wenn die Hintergrundaktivität ein gewisses Maß überschreitet (oder gar nicht falls das System im Modern Standby ist).
MSABK
2025-07-07, 00:26:13
7 Ghz? Man sollte den Hypetrain im Dorf lassen. Alles über ST 6 Ghz wäre ein Wunder. Gut vlt 6,1 Ghz. Node hin oder her, das muss gekühlt werden können.
Nightspider
2025-07-07, 02:24:16
Dir ist schon klar das Zen 5 bis 5,7 Ghz boostet?
>6 Ghz sind da schon realistisch mit nur einem Node Sprung.
Zen 6 macht aber einen riesigen Sprung von N4P auf N2P/X und die Verbindung zwischen IO und CCD wird ebenfalls effizienter.
Das ist ungefähr der Sprung von Zen 3 mit N7 zu Zen 5 mit N4P. Vielleicht sogar größer, je nachdem wie gut N2P am Ende wird.
Node hin oder her, das muss gekühlt werden können.
So eine blöde Aussage.
Der Node ist ja auch nicht der wichtigste Faktor, neben der Architektur selbst.
Badesalz
2025-07-07, 08:03:19
7 Ghz? Man sollte den Hypetrain im Dorf lassen. Alles über ST 6 Ghz wäre ein Wunder.:rolleyes: :freak:
Alles zwischen 6.4 und 6.6 ist erwartungsgemäß.
Ich hatte da an Zen6c CCD gedacht. Zen5c CCDs waren ja auch in N3 und Zen5 in N4
Ich weiss gar nicht ob das überhaupt Sinn ergibt, wenn ein Jahr später schon das 33-Kern-Zen7-CCD kommen soll... Ich hatte das schonmal im Verdacht, dass es mit Zen6 nur ein CCD geben könnte. Das 32-Kern war sicher mal geplant, würde aber aus 2 CCX bestehen. Das ist halt nicht sonderlich effizient.
davidzo
2025-07-07, 08:55:27
Das Problem bei aktuellen Desktop CPUs ist, dass sobald Last auf einem regulären Kern ist wacht der gesamte Ringbus auf und wenn dann auch noch die Spannung nicht pro Kern geregelt werden kann hat man auch noch 15 von 16 Kerne bei maximaler Boostspannung am dahinidlen.
AMD hat keinen Ringbus sondern eine point to point Verbindung mit Crossbars an den Enden.
Aber ansonsten liegst du richtig. AMD hat bisher das Kunststück fertig gebracht die Cores und den L3 in einem CCD von der gleichen Voltage Plane zu speisen. Das ist ziemlich simpel und trägt sicher dazu bei dass der CCD bisher so kompakt ist. Aber sicher lässt das noch einiges Potential auf dem Tisch sowihl was power als auch Taktraten angeht. Infinity fabric PHYs für CCD und I/O Die sowie memory controller und SOC sind jeweils eigene Spannungen.
AMD kann bisher einzelne Cores im CCD nur clock gaten, womit zwar die aktive Power gesenkt wird, aber die Leckströme im Idle bestehen bleiben. Außerdem können sie das jeweils andere CCD abschalten bzw. vollständig Power gaten.
Btw könnte hier ein Grund sein wieso Zen2 so effizient war. Durch die 2x 4Core Aufteilung konnte AMD den zweiten CCX leichter in einen tieferen Schlafmodus schicken (CC6) als das bei einem 8Kern CCX möglich ist.
Ein 12Kern CCX macht das Ganze nur noch schlimmer, verschlechtert also den Idle Energieverbrauch.
Ein kleinerer Fertigungsnode hat da normalerweise auch wenig entgegen zu wirken:
Leckströme steigen tendenziell mit kleineren Strukturbreiten, weil Gateoxide dünner werden → mehr Gate Leakage durch Tunneling; Channel Length kürzer wird → Subthreshold Leakage steigt (Short Channel Effects); Drain-Induced Barrier Lowering (DIBL) nimmt zu.
GAA soll diesen Effekten zwar entgegenwirken, weswegen N2P ja auch so beliebt ist.
Aber prinzipiell hat AMD hier ein Problem dass sie langsam mal auf CCX Ebene lösen müssen, sonst sind sie trotz LP Cores weiterhin sehr ineffizient bei Teillast.
Intel hat vollständig eigene Voltage Domains per P-Core, was sicher mit schuld an einigem Ballast ist den Intel in der cove Architektur hat. Aber bekanntermaßen sind Intel CPUs sehr gut im Teillast- und Idle-Verbrauch. Das Dilemma für Intel ist eher dass sie die E-Cores mit jeweils einer Voltage Domain clustern und man sich bei Teillast entscheiden muss ob ein einzelner P-Core effizienter wäre als ein ganzes E-Core Cluster aufzuwecken.
AMDs Lösung im Mobilbereich bewegt sich eigentlich Richtung kleinerer CCXe und getrenntem Cache Pool sowie getrennter Spannung. Phoenix und Strix haben jeweils getrennte Spannungen für Classic und Dense Kerne und Medusa light wird hier wohl auch einiges an Akkulaufzeit herausholen können.
Das ist ein Mittelweg ähnlich wie Apple, die auch eigene Voltage Domains für P und E-Cores haben.
Wenn man jetzt aber Gegenüber 4+8 bei Strix point zurück auf ein 12Kern CCX geht ist das für die Mobile-Strategie eigentlich ein Rückschritt.
Die LPE Cores im IO-DIE bringen nur was im Idle, nicht so viel unter Teillast, Spiele-Last.
Ich weiss gar nicht ob das überhaupt Sinn ergibt, wenn ein Jahr später schon das 33-Kern-Zen7-CCD kommen soll... Ich hatte das schonmal im Verdacht, dass es mit Zen6 nur ein CCD geben könnte. Das 32-Kern war sicher mal geplant, würde aber aus 2 CCX bestehen. Das ist halt nicht sonderlich effizient.
Das Gegenteil ist der Fall. 2x 16C CCX sind effizienter als 1x 32C. Letzteres hat aber den größeren Cache Pool und geringere Core to Core Latenz und ist daher in einigen Anwendungen schneller. Allerdings steigt bei einem großen Cache pool auch die Core to Core Latenz der ersten 16 Cores wie auch die L3 latenz absolut. Es gibt einen Punkt der je nach Anwendung unterschiedlich sein dürfte, wo die Latenzvorteile des kleineren CCX die Vorteile bei der hitrate des größeren CCX überwiegen.
Deswegen gibts lt. MLID ja auch keine CCX mehr ab Zen7 sondern eine Art 3D-Mesh, bei dem es ein Base-Cache-Die gibt, auf dem die Kerne gestackt werden, auf dem Kern-Die ist dann kein L3$ mehr. Mit wenig effizient meine ich, dass diese Stackingvariante deutlich effizienter sein dürfte (3x11 Kerne) anstatt 2 16 Kern-CCX).
Badesalz
2025-07-07, 11:49:06
Aber prinzipiell hat AMD hier ein Problem dass sie langsam mal auf CCX Ebene lösen müssen, sonst sind sie trotz LP Cores weiterhin sehr ineffizient bei Teillast.Zwei Pferdefüße in unterschiedlichen Ecken. Die einen machen aus Desktop-CPUs, Server-CPUs, die anderen verfahren genau umgekehrt...
MSABK
2025-07-07, 12:34:27
Wenn man jetzt aber Gegenüber 4+8 bei Strix point zurück auf ein 12Kern CCX geht ist das für die Mobile-Strategie eigentlich ein Rückschritt.
Die LPE Cores im IO-DIE bringen nur was im Idle, nicht so viel unter Teillast, Spiele-Last.
Langfristig wird wahrscheinlich Strix Point wegfallen und eher Chips darunter und Richtung Strix Halo kommen denke ich. Strix Point ist preislich gesehen auch unattratktiv platziert.
latiose88
2025-07-07, 15:55:16
Also ich finde auch das 7 GHz übertrieben sind .
Wenn ich bedenke Zen 3 konnte bis zu 4,8 GHz packen und was war am Ende ,da waren es nur so bis 4,2/4,3 GHz maximal gewesen beim ryzen 9 5950x weil die temperaur und der Stromverbrauch zu rasch gestiegen waren . Bei 4,8 GHz braucht man dann gewiss Stickstoff oder sowas aber nicht mehr mit Luftkühlung zu kühlen . Bei Zen 4 mag zwar 5,7 GHz gewesen sein aber nicht allcore Takt weil sogar bei 5,4 GHz Ende ist und die CPU bei rund 95 Grad und ein Ende war . Wenn man Lust auf drosseln kann man das rein drücken .
Bei kommenden CPU wird so bei 6 - 6,1 GHz Schluss sein . Ich habe mich da echt so viel Mühe gemacht aber scheinbar reicht das nicht aus diese Taktrate zu erreichen .
Ich bin einer der die CPU auf 100 % Auslastung bringt auch ohne cb oder sowas . Ich strebe ja auch CPU Leistung an aber irgendwann ist halt mal Schluss und mit Gehalt wird es leider nicht besser . Tya ich wünschte echt das mit den 7 GHz aber das ist unmöglich zu schaffen . Von Intel wird das wohl in nächster Zeit auch nix kommen . Dabei profitiert meine Anwendung sehr gut auf mehr allcore takt,das ist also nicht das Problem. Aber man sollte nicht vergessen,auf den Boden der Tatsache zu bleiben .
Badesalz
2025-07-07, 20:30:25
@latiose88
Ich schrieb doch 6.4 bis 6.6. Wie kommst du jetzt noch plötzlich auf 7Ghz? Und was haben deine OC-Versuche miz Zen6 zu tun?
Birdman
2025-07-07, 21:15:21
Mit Glück werden wir bei einer SKU 6.0Ghz sehen, alles andere ist Hype-Train...
Mortalvision
2025-07-07, 21:18:46
Warum so dicke mehr Leistung rausprügeln? Angesichts gestiegener Energiekosten wären 15-20% mehr IPC allein schon bei gleichbleibendem Verbrauch ein riesiger Erfolg!
Badesalz
2025-07-07, 21:20:49
Mit Glück werden wir bei einer SKU 6.0Ghz sehen, alles andere ist Hype-Train...Das wäre unterhalb jedweder Erwartung, noch bevor MLID ein Wort darüber verlor. Kommst du damit genauso schlecht zurecht wie der Groß der Crew hier? :freak:
latiose88
2025-07-07, 22:30:16
hat doch bisher gezeigt wie hoch die Erwartungen bisher immer waren.Am Ende traten die meisten ja doch nicht ein,sondern weit unter dem was Erwartet worden ist.Wenn jeder realistischer Einschätzen würde,würden gewiss nicht so viele daneben liegen.
latiose88
2025-07-07, 22:37:38
@latiose88
Ich schrieb doch 6.4 bis 6.6. Wie kommst du jetzt noch plötzlich auf 7Ghz? Und was haben deine OC-Versuche miz Zen6 zu tun?
Das richtete an die wo 7 Ghz geschrieben hatte als mindest Takt.
Es mag zwar sein das durch den Shrinkt mehr Takt zu erwarten ist aber man sollte schon mit Verstand sehen.Und wenn man alle Kerne auf 100 % Anschlag am Laufen hat,dann wird der Takt ja eh einbrechen.
Eigentlich würde ja der Ryzen 9 9950x bis 5,4 ghz gehen.Aber bei 100 % Vollauslastung geht der Takt auf maximal 5,2 ghz herunter.
Zudem würde bei so dermaßen hohen Takt die Skala beim Stromverbrauch sprengen. Da reichen dann gewiss keine 200 Watt mehr aus ,nicht mal bei 6 ghz.
Temperatur wird ebenso steigen.Luftkühlung wird also die Temperatur nicht mehr gut kühlen lassen,also wird bestimmt schon vor den 6 ghz die Puste ausgehen.
Zumindest 5,8 ghz wird mit Luftkühlung möglich sein.Das wären dann rund 600 mhz mehr Allcore Takt bei gleichen Stromverbrauch und gleicher Temperatur.
Der Shrink macht bestimmt keine 40 % aus und beim Umbau wird AMD auch eingeschränkt sein.Zudem wissen wir einfach zu wenig um uns da ein Urteil machen zu können.
Und was ich auch gelernt habe die Theoreitsche IPC und die Praktische also reale IPC also die Ist IPC. Da gibt es ebenso unterschiede. Klar erwarten welche mehr als 15 % IPC Steigerung,mehr Takt usw.Aber ist halt unrealistisch,alles auf einmal.
Badesalz
2025-07-08, 06:53:34
Das richtete an die wo 7 Ghz geschrieben hatte als mindest Takt.
Es mag zwar sein das durch den Shrinkt mehr Takt zu erwarten ist aber man sollte schon mit Verstand sehen.[/quzote]Deswegen schrieb ich 6.4-6.6.
[quote]Und wenn man alle Kerne auf 100 % Anschlag am Laufen hat,dann wird der Takt ja eh einbrechen.Kannst du mal 2-3 Usernamen aufzählen die hier im Thread sind bei welchen die vermutest, sie haben 2025 keinen Plan wie sich das mit dem Boost-Takt verhält? Oder wem erzählst du das?
Mit Glück werden wir bei einer SKU 6.0Ghz sehen, alles andere ist Hype-Train...
Also da werfe ich auch meinen Hut in den Ring und sage es wird 6,0 bis maximal 6,2GHz werden. Es dürfte schon ne Steigerung geben mit dem Prozess und Optimierung seit Zen5. Der größere Taktsprung soll aber erst bei Zen7 kommen, der dürfte ordentlich über 6,5GHz ankommen, hier sollte ja dann A16 zum Einsatz kommen (nicht A14, was MLID immer angibt) und offenbar ist die hohe Taktsteigerung hier auch Designziel.
Nightspider
2025-07-08, 15:27:31
Mit Glück werden wir bei einer SKU 6.0Ghz sehen, alles andere ist Hype-Train...
Mit Glück schafft man nur 5% mehr Takt mit 2 vollen Node Sprüngen?
:uconf3:
Und die 16% von Zen3 auf Zen4 mit nur einem Node war dann Gottes Werk und weil alle Planeten in Reihe standen? ;D
Also manchmal... :facepalm:
latiose88
2025-07-08, 17:09:09
Das sind auch nur die durschnitts Werte also die darf man nicht auf alle übertragen und nicht bei jedem Programm liegt automatisch der höchste Wert an . Braucht ja nur avx sein und schön war's das wieder damit und ich kann nur aufzeigen der wo 7 GHz als ist gesetzt hatte und nicht mehr.
robbitop
2025-07-08, 17:50:11
Unabhängig davon ob es mehr Takt geben wird, sind nodesprünge häufig nicht für maximale Taktraten (kritischer Pfad) verantwortlich. 5 GHz gab es mit 32nm (bzw im Fall vom Power6 mit 65nm) , 22 nm kam das nicht dran und es brauchte mehrere Iterstionen von 14nm bis das geknackt wurde. 6 GHz gibt es in Intels 3(?) Iteration von deren 10 nm (aka Intel 7).
Nightspider
2025-07-08, 18:00:29
Das sind auch nur die durschnitts Werte also die darf man nicht auf alle übertragen und nicht bei jedem Programm liegt automatisch der höchste Wert an .
Und Nachts ist es dunkel. Das die Taktraten je nach Programm unterschiedlich sind weiß hier jeder.
Ich habe den Boosttakt Zen 3 vs. Zen 4 genommen, das sind max. 4,9 Ghz vs. 5,7 Ghz.
Wenn ich den Basistakt nehme liegen zwischen 5950 und 7950 mit 3,4 vs 4,5 Ghz sogar 32% Taktunterschied dazwischen.
Ich kann auch den Basis Takt von den 8 Kernern vergleichen, dann hat der 7700X 18% mehr Takt als der 5800X. Beim Boost liegen 14% dazwischen.
Die Basis Taktraten kannst du definitiv auf jedes Programm übertragen.
Unabhängig davon ob es mehr Takt geben wird, sind nodesprünge häufig nicht für maximale Taktraten (kritischer Pfad) verantwortlich. 5 GHz gab es mit 32nm (bzw im Fall vom Power6 mit 65nm) , 22 nm kam das nicht dran und es brauchte mehrere Iterstionen von 14nm bis das geknackt wurde. 6 GHz gibt es in Intels 3(?) Iteration von deren 10 nm (aka Intel 7).
Je nachdem wie man die maximalen Taktraten eines Nodes definiert.
Genauso kann man aber auch sagen das Zen5 nicht die maximalen Taktraten von N4P nutzt, wenn man schon mit Zen4 bei N5 die gleichen Taktraten geschafft hat und mit N4P definitiv mehr möglich ist als mit N5.
Laut TSMC ist N4P bei der iso Power -22% besser oder schafft +11% mehr Performance.
https://fuse.wikichip.org/wp-content/uploads/2021/10/wikichip_tsmc_logic_node_q3_2021.png
robbitop
2025-07-08, 19:12:34
Die Performanceangabe hat aber nicht notwendigerweise mit dem maximalen Takt zu tun. Sxhau dir die Historie der Nodesprünge soch selbst an. Da gab es stets und ständig große Prozentzahlen bei Performance. Der kritische Pfad wurde trotzdem meist nicht besser. IMO kommt sowas auch ganz ganz stark aus dem Design und der Verdrahtungsebenen selbst.
Wenn Zen 6 deutlich höher taktet muss das nicht vom Node kommen.
Badesalz
2025-07-08, 19:22:29
Wenn Zen 6 deutlich höher taktet muss das nicht vom Node kommen.Wenn Zen6 irgendwo bei 6.4-6.6 liegt, liegt das garantiert zum Teil am Node.
Badesalz
2025-07-08, 19:26:39
5 GHz gab es mit 32nm (bzw im Fall vom Power6 mit 65nm) , 22 nm kam das nicht dran und es brauchte mehrere Iterstionen Power 8 war in 22nm und taktete mit: 5Ghz. Power 9 war in 14nm und taktete mit 4Ghz.
Das ist nicht gelöst von den Entscheidungen beim Design, aber neuere Nodes brachten bisher immer SPIELRÄUME mehr von diesem Kuchen abbeißen zu können.
Die zwischen 6.4 und 6.6 gibt es nicht wegen dem neuen Node, aber teils dank jenem. Weil, man nicht mehr elendig lange Pipelines baut, einerseits, und andererseits achtet man schon auf das Verbraten... Die ersten 5Ghz beim Power gabs imho nur in dem Storage und sonst zog sich das Teil bei 4.7 schon seine 160W weg. Damals.
Nightspider
2025-07-08, 21:09:34
Die Performanceangabe hat aber nicht notwendigerweise mit dem maximalen Takt zu tun
Sagt ja auch keiner. Zumindest nicht bezogen auf die gleiche Architektur.
Aber der Architektur unabhängige maximale Takt, wo auch immer der liegt, steigt halt trotzdem mit jedem Node, weil sich diese Angabe ja auch quasi nur auf einzelne Transistoren beziehen müsste. Sonst wärs ja sinnlos.
Keine Ahnung ob TSMC immer paar simpelste Schaltkreise testet, mit wenigen Transistoren um diese +Performance Angaben zu ermitteln.
Irgendwoher müssen sie die Zahlen ja haben und testen müssen sie die neuen Prozesse ja auch schon während der ganzen Entwicklungszeit.
Sxhau dir die Historie der Nodesprünge soch selbst an.
Dafür wurden die Kerne halt immer breiter und es gab mehr Kerne. Ohne die reduzierte Power der Nodes wären die Verbräuche ja schon immer explodiert.
Ich überlege sogar gerade, ob man das eventuell so verallgemeinern kann "Wenn der Takt bei einem neuen Node nicht steigt, wird die verbesserte Effizenz für die breitere Architektur (bzw. Core Count) genutzt."
IMO kommt sowas auch ganz ganz stark aus dem Design
Natürlich, dadurch entstehen ja die Unterschiede zwischen vers. Designs bei gleichem Prozess. Das Design bzw. die Architektur ist ja ein weiterer Faktor in der Gleichung.
Backside Power Delivery wird die Gleichung auch wieder ändern ohne das an den Transistoren etwas verändert wird. Genauso Advanced Stacking, wo ein einzelnder Cache Layer die Effizienz gleichmal über den Haufen wirft, im positiven Sinne.
Das Design muss eben auch die Taktvorteile eines Nodes nutzen können. Wenn das Design gar nicht auf höheren Takt ausgelegt ist nützen bessere Nodes auch nichts.
Wenn Zen 6 deutlich höher taktet muss das nicht vom Node kommen.
Im Prinzip ist das korrekt aber 2 neue Nodes bringen so viel Verbesserungen an allen Fronten (Transistordichte, Cache-Taktbarkeit, kürzere Wege innerhalb eines Cores zwischen den Einheiten, benötigte Spannung bei den Transistoren, teilweise noch Cachedichte, und , und, und...), das es schon dumm wäre zu behaupten, die 2 Nodes hätten damit nichts zu tun. :)
aber neuere Nodes brachten bisher immer SPIELRÄUME mehr vin diesem Kuchen abbeißen zu können.
Gute Umschreibung (y)
vinacis_vivids
2025-07-09, 02:11:14
Zen 4 macht schon ~6,0Ghz unter H2O Cooling. Und die Werte sind 3 Jahre alt:
https://skatterbencher.com/2022/11/25/overclock-ek-water-cooled-ryzen-7950x-pc-to-6ghz/
Mit PBO +150Mhz sind boost 5,85Ghz möglich. Für Zen 4 also irgendwo 5,7-5,85Ghz erreichbare boost clock in Games möglich.
Zen 5 ist auch 6,0Ghz Wall derzeit:
https://skatterbencher.com/2024/10/11/6-ghz-ek-cooled-ryzen-9-9950x/
Die 6,0Ghz sind auch mit dem 9600X und 9700X erreichbar also uArch bedingt limitiert.
Fürst Gaming dürfte der getunte 9600X & 9700X @ 6,0 Ghz mit 6600er DDR5 RAM und synchroner FCLK=MEMCLK der absolute Killer sein in der günstigen Oberklasse.
latiose88
2025-07-09, 12:24:32
Ja schon es hat wenn man genau hin schaut nur ein Kern 6 GHz und eines 5,7 GHz geschafft . Zumindest die Vorschau ohne Video Play gemacht zu haben . So viel zu alle Kerne erreichen 6 GHz . Scheinbar packt das noch nicht mal eine Wasserkühlung wirklich . Mit Luftkühlung ist dann 6 GHz unmöglich zu schaffen . Es hat ja auch keiner behauptet das es Standard mit allen Kübler möglich ist. Mal sehen wie weit man dann mit Zen 6 auf allen Kernen mit nur Luftkühlung kommen wird .Das es auch da nen Taktplus geben wird bestreitet keiner . Ich lasse mich einfach überraschen weil geplant ist ja auch wenn ich erst so spät zen 5 kriege,auf Zen 6 zu wechseln . Alleine der Takt plus ist schon Mal ein aufrüsten von Zen 5 auf Zen 6 es wert durchgeführt zu werden . Auch wenn ich nicht weiß wie viele Kerne es am Ende von der Skala es geben wird .
Es wird also dann wenn es so weit sein wird überlegt werden . Erst mal beobachte ich den maximalen Takt unter Luft es haben wird . Ich lasse also gerne erst mal andere den Vortritt. Kann auch gerne warten bis Zen 7 kommt und dann günstig auf Zen 6 aufrüsten . Klar kriege ich dann kaum noch was für Zen 5 aber naja hilft ja nix . Wobei mein bester Kumpel den händeringend mit Kusshand nimmt weil so günstig bekommt man an so eine CPU und so sonst ja nicht mehr . Vor allem von seinem besten Kumpel ist der Preis sogar noch besser als von fremden .
PS: kann man Anwendung nicht mit Anzahl der Kerne erschlagen so muss man es mit dem CPU Takt wagen . Also Ende der Steigerung bei Kerne ist bei mir schon erreicht. Nun ist es der CPU Takt dran . In Zukunft würde ich mir echt mal 7 GHz auf allen Kernen wünschen .Das geht erst wenn es noch weiter geshrinkt wird. Dann ist das mit Luftkühlung auch kühlbar . Im Moment ja nicht . Das ist dann Thema bei weiteren Generationen . Jedoch schaue ich Mal wie weit es nach oben geht . Zumindest 200 MHz sind schon Mal rund fast 2 % Mehrleistung .
Ja meine Anwendung liebt den Takt der CPU sehr gerne . Bei 7 GHz wäre das eine ordentliche Steigerung kann man so sagen . Dann wird auch die Anwendung nicht mehr mit machen .
Badesalz
2025-07-10, 11:05:02
Ich dachte grad an RDNA 3.5 und was und warum Samsung dazu beigetragen hat... Und den Meldungen, Samsung wird die IODs beisteuern. Und warum sie das bekamen. Hatten sie da nochmal etwas im Angebot?
Wenn ich das vorsichtig zusammentue, dürfte Zen6 für mich merkbar weniger Leistung in Idle und Teillast verbraten BZW. viel besseres Verhältnis zwischen Vollast und Teillast/Idle haben als die Zens davor. TSMC ist das Schnuppe. Sowas klärt Lisa mit C.C. bei einer unaufgeregten Tasse Tee :wink:
PS:
Wenn sich das bewähren kann, wird das wahrscheinlich beim Zen7 auch die Boards/Chipsätze betreffen. Somit erscheint mir auch für Zen7 AM6 wahrscheinlich.
https://wccftech.com/amd-ryzen-zen-6-cpu-samples-distributed-architecture-evolution-more-cores-per-ccd-new-dual-imc-design/
bestätigt quasi alles, was MLID geleakt hat. Bisher ist nur der Node des IOD unbekannt, 1usmus schreibt hier nur neuer EUV-Node, was N3P oder N4P wäre. MLID lag hier ja öfter mal falsch, er behauptete ja auch lange Halo hätte eine N3-GPU, was nicht stimmte, ich würde also sagen, dass das IOD auch N4P ist nicht N3P, zumal die Maske einfach in N4C, welcher fast 10% Produktionskosten einspart, einfach weiterverwendet werden kann, sobald der produziert wird. N4C soll später im Jahr rampen.
Badesalz
2025-07-11, 10:23:48
"Architecture To Be A “Evolution”!
Da bin ich aber enttäuscht :tongue: Hat der Mike Clark nicht erzählt, Zen5 ist nur das Sprungbrett für Zen6? :wink:
Leider nichts zu den Nodes der CCDs (?)
BavarianRealist
2025-07-11, 10:34:40
Wenn es zwei Memory-Controller geben soll, dann dürfte es ebenso zwei I/O-Dice geben. Womöglich ist eines davon in N4P für die Highend-Lösungen.
Der zweite I/O-Die könnte in N6 verbleiben, denn wieso sollte man für alle "billigeren" Zen6 CPUs/Lösungen ein teures I/O-Die einsetzen? So könnte man zusätzlich differenzieren und die Preisabstände zwischen den einzelnen CPUs deutlicher werden lassen. Das würde vor allem dann Sinn machen, falls Zen6 wirklich einen riesigen Sprung macht, sodass die schnellen Zen6 dann richtig teuer werden, damit die alten CPUs (vor allem die Zen5) nicht plötzlich wertlos werden. Oder anders: die Highend-Gaming Zen6-CPU dürfte dann eher so 999$ kosten, weil man es verlangen kann.
Badesalz
2025-07-11, 10:38:04
Oder anders: die Highend-Gaming Zen6-CPU dürfte dann eher so 999$ kosten, weil man es verlangen kann.lass es auch 1199$ sein. Das hatte bisher keine große Relevanz. Die absolute Mehrheit interessiert sich diesbezüglich nur für x800X3D und wer nur Kerne braucht, braucht selten auch X3D dazu.
Das CCD ist hinlänglich bekannt und vielseitig mit N2 bestätigt, unter anderem das Tapeout des Venice-CCDs, was ja dem consumer-CCD entspricht.
BavarianRealist
Das entspricht auch dem MLID-Leak. Es gibt offenbar ein High-End-IOD mit NPU usw. (MLID behauptet N3P, aber es wird wohl doch N4P und später dann N4C denke ich) und ein billiges IOD in N6.
Der_Korken
2025-07-11, 11:01:11
"Architecture To Be A “Evolution”!
Da bin ich aber enttäuscht :tongue: Hat der Mike Clark nicht erzählt, Zen5 ist nur das Sprungbrett für Zen6? :wink:
Leider nichts zu den Nodes der CCDs (?)
Ich denke spätestens seit Zen 5 sollte man in die Begriffe "Evolution" und "Revolution" nicht zu viel reininterpretieren in Hinblick auf Performance. Zen 5 war ein kompletter Redesign, hat aber inklusive Taktraten den bisher kleinsten Generationensprung gebracht. Das Polishing danach ändert vielleicht wenig an der Architektur, kann aber viel an der Performance ändern. Das wäre immer noch im Sinne von Mike Clarks Aussagen. Man muss ja bedenken, dass Zen 5 wahrscheinlich schon seit 2019 in Arbeit ist, wo man noch gar nicht wusste, wo genau Zen 3 und Zen 4 rauskommen würden oder welche Bottlenecks sich bis dahin auftun würden.
Das einzige, was uns vielleicht etwas pessimistisch machen könnte ist, dass Zen 5 sehr auf Datacenter ausgelegt zu sein scheint und in ST/INT/Latenz-lastigen Szenarien wenig Verbesserung gebracht hat.
Badesalz
2025-07-11, 11:27:09
Könnte aber auch sein, daß sie eben im zweiten Schritt mit "ST/INT/Latenz" und dem neuen Node nachziehen können :tongue: Ich glaub jetzt nochmal so eine Zen6% Nummer wird schon schwieriger zu überstehen.
Wobei über die Latenz könnte man reden. Die Frametimes-Konstanz ist beim 9800X3D über jegliches Intel-Niveau. Ergo jenseits von 7800X3D. Das sind ja fast schon idealwerte was da rauskam.
PS:
Haben sie denn noch vor die kleineren in non-X3D zu bringen? Wenn man das nicht braucht, braucht man entweder eh nichts neues oder man kauft sich eher einen 9900X.
So gut das mit dem 9800X3D doch noch ausgegangen ist... Ein 9700X ergibt irgendwie genauso viel Sinn wie ein 9950X3D (?) :|
latiose88
2025-07-11, 12:21:00
Naja wenn man nur kleine Anwendung Verwendet und spiele die älter sind als die aktuellen und man nur wenig Geld zur Verfügung hat ,ist so ne 9700x durchaus eine Option .
Mein bester Kumpel zockt nur in full hd und ohne Raytracing . Sind da die x3d viel besser wohl eher nur ein wenig weil die Last nicht so auf die CPU liegt .
Da könnte sich also sowas wie ein 9700x schon rechnen weil 8 Kerne beim zocken ja so langsam Standard sind siehe Boderlands 4 .
Und bei Klasse wie 1000 € Rum für alles mit GPU wird es halt dann schwer . Ich kann ihm kaum was mit x3d empfehlen weil viel zu teuer und ob man nun einen 7800x3d oder ein 9700x nimmt ,das tut sich nicht wirklich viel in der Hinsicht .
Wenn dann noch so ein Argument wie ja 5 Jahre sollte der PC schon für spiele reichen ,dann muss man halt abwägen .Es wird auf jedenfall keine highend GPU werden weil alleine schon bei full HD wird das eh zu overpowered sein.
Der Kauf wird im September stattfinden . Solange ist das ja nicht mehr und bei Thema Hardware tut sich ja nun nicht mehr so viel denke ich mal .
Nightspider
2025-07-12, 01:37:04
MLID:
Verschiedene AMD Quellen: 7 Ghz oder mehr sind das Ziel.
Mindestens 6,4 Ghz sollten wir laut ihm erwarten.
Er hat wohl jetzt über einen Monat gewartet um es zu teilen weil er es aus allen Quellen verifizieren wollte und er selbst weiß wie verrückt das klingt.
Olympic Ridge mit N2X late 26, vielleicht wirklich zum Jahresende November/Dezmber
Edit:
7 Ghz wären 22% mehr als die 5,7 Ghz die Zen5 im 9950X schafft.
Zen 3 auf Zen 4 waren 16% mehr Boost Takt.
Badesalz
2025-07-12, 10:12:12
Naja wenn man nur kleine Anwendung Verwendet und spiele die älter sind als die aktuellen und man nur wenig Geld zur Verfügung hat ,ist so ne 9700x durchaus eine Option Wenn man halt kleinere Brötchen backt, ist da nicht eher ein gebrauchter 7800X3D eine viel bessere Option, wenn der Run auf den 9800X3D losgeht? :rolleyes:
Mindestens 6,4 Ghz sollten wir laut ihm erwarten.Ah ja. Mit den 6.4-6.6 meinte ich natürlich allcore :wink:
Und nein. Ich sehe nicht an welcher Stelle das bei dem Node und dem, daß man fürs Desktop die Watts nur halten möchte, ein hype-train sein soll.
Die Messlatte (Watt) ist mit Zen5 ausreichend tief gehängt worden. Da muss man sich im Gegensatz zu mobilen Designs nicht mehr zwingend weiter noch und nöcher überschlagen.
Die Zielgruppe die da nicht beim Laptop trotzdem mehrmals draufschaut wird mit MiniPCs und APUs ausreichend gut bedient.
dargo
2025-07-12, 10:19:35
Hier das Video dazu.
FtKuHaKevrk
Wahrscheinlich wieder zu viel Hype im voraus. Aber 7Ghz oder gar drüber könnte tatsächlich ein Plattformwechsel von AM4 schon rechtfertigen. Wobei ich bei solchen Zahlen sehr skeptisch bin, insbesondere was das Powerbudget dann angeht. Wenn das Ding dann säuft wie ein Loch ist es auch ziemlich gähn. Schauen wir mal...
Badesalz
2025-07-12, 10:24:28
Hier das Video dazu.Für die geistig benachteiligten? Trotzdem danke für deine Unterstützung :wink:
Wobei ich bei solchen Zahlen sehr skeptisch bin, insbesondere was das Powerbudget dann angeht. Wenn das Ding dann säuft wie ein Loch ist es auch ziemlich gähn. Schauen wir mal...Kriegst auch nicht alles mit oder? :freak:
dargo
2025-07-12, 10:31:03
Kriegst auch nicht alles mit oder? :freak:
Was soll ich darauf antworten? Nein... ich verfolge nicht jeden scheiß im Detail schon 1-2 Jahre vor Release. Wofür auch? Schon der 9800X3D war für mich enttäuschend im Bereich Powerbudget und am liebsten wäre mir wenn der 10xxxX3D wieder runter geht.
Badesalz
2025-07-12, 10:41:35
Was soll ich darauf antworten? Nein... ich verfolge nicht jeden scheiß im Detail schon 1-2 Jahre vor Release.Ja das verstehe ich schon eher, aber irgendwie flog das schon zigfach rum (nicht einfach 3DC), daß es für AMD einer der primären Sachen ist den Verbrauch auf dem Niveau von Zen5 zu halten.
Für dich war der Powerbudget von 9800X3D enttäuschend?? Ja SO gut ist AMD imho nicht, daß sie auch deine Erwartungen erfüllen können. Danach allgemein zu gehen wäre ihnen gegenüber imho auch bisschen unfair :wink:
Das musst du mit denen dann selbst ausmachen. Mitstreiter werden sich da wohl nur sehr selten finden.
Der_Korken
2025-07-12, 10:51:21
Ohje, das gibt wieder enttäuschte Gesichter beim Launch. Entweder sind die 7Ghz genauso valide wie die +25% IPC für Zen 4, die MLID damals nichtmal 6 Monate vor Launch noch gebracht hat oder Zen6 macht den Prescott.
Badesalz
2025-07-12, 10:53:27
@Der_Korken
Oder wir haben nur 6.5 allcore. Und 6.9 im Turbo was aber auf mehr als nur einem Kern und auch kleines Stückchen länger wie beim Zen5 voll gehalten werden kann.
Ich werde zwar deine tiefe Enttäuschung verstehen, aber ich schätze ich selbst komme damit irgendwie klar.
Ohje ohje ohjemine.. Unheilsprophetie :usweet:
Ich denke eher, 6,4 Maximum für Zen6 und knapp 7GHz für Zen7. Da ist sicherlich was durcheinandergekommen.
Leonidas
2025-07-12, 11:07:21
Das Olympic Ridge auf N2X fresse ich genauso wenig. Zeigt eher darauf hin, das MLID leider nicht die Systematiken dahinter versteht. Wenn Desktop = N2X, dann auch Normalserver = N2X (da gleiches 12-Kern-CCD). Dann würde der Launch nur mit Dense-Server erfolgen (da 32-Kern-CCD auf N2P), was einfach unwahrscheinlich ist.
The_Invisible
2025-07-12, 11:13:51
AMD mit ihren Hypebotschaftern immer, glaubt das wirklich noch wer :freak:
Badesalz
2025-07-12, 11:17:43
Ich denke eher, 6,4 Maximum für Zen6 und knapp 7GHz für Zen7. Da ist sicherlich was durcheinandergekommen.Das ist aber entgegen meinen unterm Tisch Infos. Zen7 ist die Stufe wo das gehalten wird und man dafür wieder mit den Watts bisschen runtermöchte.
Die Schritte sind - jedenfalls theoretisch - so gedacht, daß man mit einem, einen wenigsten kleinen Wow erzeugen möchte, mit dem nächsten dann pramatischer vorgeht. Von den Lorbeeren des vorherigen Schrittes mitgetragen. In Abwechslung.
Zen5 war pragmatisch.
AMD mit ihren Hypebotschaftern immer, glaubt das wirklich noch wer :freak:Ja aber ehrlich mal! Wie gelackmeiert man bisher doch spätestens mit Zen4 und Zen5 wurde. Egal ob Epyc oder Ryzen.
Zeit für die Tablette oder was ist da los?
dildo4u
2025-07-12, 11:59:57
Apple hat was schnelleres wenn Zen 6 kommt gerade im Notebook ist Zen 5 viel zu langsam alles was wie Absurde Spekulation klingt muss kommen um Konkurrenzfähig zu bleiben.
https://i.ibb.co/Xk326xvR/Screenshot-2025-07-12-115711.png (https://ibb.co/zH7nCV0v)
https://i.ibb.co/Nnp0w51G/Screenshot-2025-07-12-120108.png (https://ibb.co/tPc0ygZ1)
https://www.youtube.com/watch?v=v7HUud7IvAo&t=285s
Nightspider
2025-07-12, 12:12:34
Das Olympic Ridge auf N2X fresse ich genauso wenig. Zeigt eher darauf hin, das MLID leider nicht die Systematiken dahinter versteht. Wenn Desktop = N2X, dann auch Normalserver = N2X (da gleiches 12-Kern-CCD). Dann würde der Launch nur mit Dense-Server erfolgen (da 32-Kern-CCD auf N2P), was einfach unwahrscheinlich ist.
Naja ist es denn so unwahrscheinlich das AMD bei HPC/Server die Dense Varianten priorisieren will und dafür einen anderen Node nimmt mit N2P?
Dense in N2P und Classic in N2X würde ich jetzt nicht ausschließen, so hat man richtig hoch taktende Chips für die EPYC CPUs mit weniger Cores im Desktop und bei EPYC CPUs mit kleinerem Core Count.
Bei Zen7 geht man bei den EPYC CPUs ja noch stärker einen eigenen weg ohne integrierten L3 auf dem CCD.
Und da man in den mobilen Zen6 APUs jetzt scheinbar CPU Kerne im IO Die hat wären die angeklebten N2X Chips jetzt auch kein wirklicher Nachteil im Idle oder bei geringer Last.
Das der IO Part und damit die IO Kerne in einem anderen Node kommen war ja sowieso bekannt.
Von TSMC gabs aber noch keine Performance Angaben zu N2X oder? Hab jetzt auf die schnelle nichts gefunden.
Nightspider
2025-07-12, 12:22:29
Und da AMD und TSMC extrem eng zusammenarbeiten kann ich mir sogar vorstellen das AMD als erster Zugriff auf die N2X Risc Production bekommt. Mit 60-75mm² sind die Chips ja auch ziemlich winzig und dürften noch akzeptable Yieldraten in so einem Risc Prozess erreichen, kann ich mir vorstellen.
Vielleicht wird es ja nicht mal der offizielle N2X sondern so ein Zwischending aus N2P und N2X. Wäre nicht das erste mal das AMD einen Node nutzt der nicht offiziell in den Büchern steht sondern eine Mischung ist.
Badesalz
2025-07-12, 12:45:02
AMD ist neben Apple IMHO auch der einzige der als so eine Art Entwicklungspartner bei TSMC läuft. Das kann also bestens möglich sein, daß sie nicht von der Stange bedient werden.
PS:
Es gibt Erwachsene die noch was mit Cinebench posten. Cool :usweet:
Das Olympic Ridge auf N2X fresse ich genauso wenig. Zeigt eher darauf hin, das MLID leider nicht die Systematiken dahinter versteht. Wenn Desktop = N2X, dann auch Normalserver = N2X (da gleiches 12-Kern-CCD). Dann würde der Launch nur mit Dense-Server erfolgen (da 32-Kern-CCD auf N2P), was einfach unwahrscheinlich ist.
Jo da hast recht, N2P wird schon der Node sein, den sowohl AMD als auch Intel nutzen werden. Das schließt natürlich N2X für einen späteren Refresh nicht aus, da ja die Masken einfach weiterverwendet werden können, wie es aussieht.
AMD mit ihren Hypebotschaftern immer, glaubt das wirklich noch wer :freak:
Es gibt nen riesigen Unterschied zwischen Leak und Toms Schlussfolgerungen. Bei ersterem hat er einen sehr guten Track Record, bei letzterem liegt er zu 99% daneben. Wenn ich das Gelaber mit seinen 3 oder 4 Nodesprüngen schon höre. AMD überspringt einen Node N4 -> N3P -> N2P; oder seine phantastischen Zeitpläne, Venice kommt noch dieses Jahr - ja ne is klar... ist natürlich Unsinn. Venice dürfte nach Olympic Ridge kommen. Ich wette, der Ramp ist Anfang nächsten Jahres irgendwann für N2P, die Massenproduktion des CPU-Package dürfte dann im Sommer starten, Produktlauch Desktop dann so Semptember und Venice November herum
Ich wette, Olympic Ridge wird in N2P (X im Refresh)+N4P/C im High-End und N2P+N6 im Mainstream gefertigt und die maximale Taktrate liegt bei 6,4GHz. Das IOD in N3P ist unwahrscheinlich und mehr als 6,4GHz ist einfach zu fantastisch, als dass man das glauben kann.
Leonidas
2025-07-12, 15:14:28
Naja ist es denn so unwahrscheinlich das AMD bei HPC/Server die Dense Varianten priorisieren will und dafür einen anderen Node nimmt mit N2P?
Der Zeitverzug wäre zu hoch. 3 Quartale Unterschied, man würde NVL zuerst herauskommen lassen müssen.
KarlKastor
2025-07-12, 16:06:42
Oder wir haben nur 6.5 allcore.
Nur? Bei welcher TDP soll das passieren?
Wir haben mal eben +50% Kerne und ihr wollt den allcore Takt gleichzeitig massiv anheben. Das funktioniert nicht.
Dazu wird die TDP nicht viel höher gehen, wenn man auf AM5 bleibt.
Der_Korken
2025-07-12, 16:22:37
Ich denke eher, 6,4 Maximum für Zen6 und knapp 7GHz für Zen7. Da ist sicherlich was durcheinandergekommen.
Das mit Zen 7 dachte ich mir auch. Selbst 6,5Ghz fände ich schon sportlich für Zen 6. Alles unter der Voraussetzung, dass AMD keine IPC-Regressionen in Kauf nimmt, aber ich hoffe dass sie da seit dem Bulldozer-Unfall geheilt sind.
Apple hat was schnelleres wenn Zen 6 kommt gerade im Notebook ist Zen 5 viel zu langsam alles was wie Absurde Spekulation klingt muss kommen um Konkurrenzfähig zu bleiben.
Die mobilen Zen 5 haben afaik eine halbierte FPU gegenüber den Desktop-Kernen. Zumindest ist mir schon letztes Jahr aufgefallen, wie "schwach" der ST-Sprung von Strix Halo war. Granite Ridge schafft immerhin kann über 140 im CB24-ST. Man muss aber bedenken, dass Zen 5 im Gegensatz zum M4 noch SMT kann und Full-Speed AVX512 (ist die FPU des M4 überhaupt 256bit breit oder nur 128?). Es gibt also auch Szenarien, wo Zen 5 deutlich besser dastehen würde, aber die liegen halt eher im Datacenter-Bereich. Den besseren "Consumer"-Core hat definitiv Apple. Vor allem, da er in ST auch nur 1/2 bis 1/3 des Stroms von Zen 5 benötigt, was die Leistung umso beeindruckender macht. Ja, N4 vs N3, aber trotzdem.
Nightspider
2025-07-12, 17:15:28
@Hot:
Seit wann setzt AMD Refresh Modelle von Chiplets auf?
Eher glaube ich das es eine Mischform ist aus N2P und N2X.
Zossel
2025-07-12, 17:20:30
Ja, N4 vs N3, aber trotzdem.
Wenn jetzt alle auf N2 hoppeln wird man besser sehen welchen Anteil die eigentliche Schaltung hat.
y33H@
2025-07-12, 18:36:00
Zumindest bei sehr ähnlichen Frequenzen.
w0mbat
2025-07-12, 19:03:19
Nova Lake 8GHz rumor wann?
Nova Lake 8GHz rumor wann?Wann auch immer das mehr Klicks gibt als Zen 6 7GHz+
Echt mal, 50% mehr Kerne auf möglichst gleicher Fläche und Abwärme/Fläche, und dann einen solchen Speed-Bump, am Besten dann auch noch mit massiven IPC-Steigerungen statt nur Low-Hanging-Fruit-Fixes um die recht cleane Zen-5-Basis wieder mit mehr Komplexität zu füllen? :biggrin: ... Ne. Realismus ftw.
@Hot:
Seit wann setzt AMD Refresh Modelle von Chiplets auf?
Eher glaube ich das es eine Mischform ist aus N2P und N2X.
AMD hat bisher nie eine P-Variante genutzt für die CPU. Das wäre jetzt das erste Mal, man braucht eben nichts weiter machen als die neuen CPUs in N2X vom Band laufen zu lassen, da X ja einfach die Maske weiterverwenden kann. Intel könnte das im Refresh übrigens auch tun.
Badesalz
2025-07-13, 10:00:07
Nova Lake 8GHz rumor wann?2027
@all
Ok. Ihr habt Recht. Lasst uns den Gang um 250MHz runterschalten. Wobei das schon sehr sehr großer Reinfall für all die Leaker-Typen wäre.
6.3Ghz allcore, 6.7Ghz Turbo? :usweet:
Zossel
2025-07-13, 10:12:01
Zumindest bei sehr ähnlichen Frequenzen.
Nö, Rumms/Watt ist eine bessere Metrik.
robbitop
2025-07-13, 12:12:57
Nö, Rumms/Watt ist eine bessere Metrik.
Wobei wir mit ARL gesehen haben (der in der Metrik gut ist), dass das für die Masse offenbar nur ein relevantes Kriterium ist, wenn auch der absolute Rums sehr gut ist. Wenn aber der Rums des Wertbewerbsproduktes deutlich höher ist, scheint der Rums pro Watt vielen doch egal zu sein. ^^
w0mbat
2025-07-13, 12:31:01
AMD hat bisher nie eine P-Variante genutzt für die CPU. Das wäre jetzt das erste Mal, man braucht eben nichts weiter machen als die neuen CPUs in N2X vom Band laufen zu lassen, da X ja einfach die Maske weiterverwenden kann. Intel könnte das im Refresh übrigens auch tun.
Granite Ridge ist N4P.
OgrEGT
2025-07-13, 13:21:12
https://videocardz.com/newz/amd-zen-6-to-primarily-use-tsmc-n2p-n3p-for-low-end-mobile-skus
AMD Zen 6 to primarily use TSMC N2P, N3P for low-end mobile SKUs
Granite Ridge ist N4P.
Nope. Alle APUs sind N4, alle CPUs sind N4, das einzige Produkte, bei dem AMD N4P einsetzt (und auf N4X upgradete) war Navi4.
robbitop
2025-07-13, 14:21:04
Nope. Alle APUs sind N4, alle CPUs sind N4, das einzige Produkte, bei dem AMD N4P einsetzt (und auf N4X upgradete) war Navi4.
Anscheinend liegst du hier im Unrecht:
https://www.techpowerup.com/327388/amd-granite-ridge-zen-5-processor-annotated#:~:text=The%20%22Zen%205%22%20CCD%20is,(4%20nm)%20foundry%20node.
The "Zen 5" CCD is built on the TSMC N4P (4 nm) foundry node.
https://www.techpowerup.com/325035/amd-strix-point-silicon-pictured-and-annotated?cp=2#:~:text=The%20first%20die%20shot%20of,the%20newer%20TSMC%20N4P%20 node.
The first die shot of AMD's new 4 nm "Strix Point" mobile processor surfaced, thanks to an enthusiast on Chinese social media. "Strix Point" is a significantly larger die than "Phoenix." It measures 12.06 mm x 18.71 mm (L x W), compared to the 9.06 mm x 15.01 mm of "Phoenix." Much of this die size increase comes from the larger CPU, iGPU, and NPU. The process has been improved from TSMC N4 on "Phoenix" and its derivative "Hawk Point," to the newer TSMC N4P node.
Granite Ridge und Strix Point laut TPU N4P
Ah ok, scheint ja dann doch N4P zu sein.
Nightspider
2025-07-13, 17:13:37
Auf Wikipedia steht sogar N4X. :ugly:
Außer in der Tabelle, da steht wieder nur N4. :ugly:
iamthebear
2025-07-13, 17:29:59
AMD hat bisher nie eine P-Variante genutzt für die CPU. Das wäre jetzt das erste Mal, man braucht eben nichts weiter machen als die neuen CPUs in N2X vom Band laufen zu lassen, da X ja einfach die Maske weiterverwenden kann. Intel könnte das im Refresh übrigens auch tun.
Ganz so schnell dürfte es doch nicht gehen. Man muss zumindest den ganzen Testvorgang neu starten um festzustellen welche CPU man mit welchen Frequenzen ausliefern kann.
Auch nicht zu vergessen: N3X hat damals die Leckströme mehr als verdreifacht. Das erklärt wohl auch warum dies nur für Desktop im Gespräch ist.
Nightspider
2025-07-13, 17:46:05
TSMC says that when compared to N3P, chips made on N3X can either lower power consumption by 7% at the same frequency by lowering Vdd from 1.0V to 0.9V, increase performance by 5% at the same area, or increase transistor density by around 10% at the same frequency. Meanwhile, the key advantage of N3X compared to predecessors is its maximum voltage of 1.2V, which is important for ultra-high-performance applications, such as desktop or datacenter GPUs.
Kann der Verbrauch trotz größerer Leckströme sinken? Dachte das sind diametrale Eigenschaften.
mboeller
2025-07-13, 19:00:51
TSMC says that when compared to N3P, chips made on N3X can either lower power consumption by 7% at the same frequency by lowering Vdd from 1.0V to 0.9V, increase performance by 5% at the same area, or increase transistor density by around 10% at the same frequency. Meanwhile, the key advantage of N3X compared to predecessors is its maximum voltage of 1.2V, which is important for ultra-high-performance applications, such as desktop or datacenter GPUs.
Kann der Verbrauch trotz größerer Leckströme sinken? Dachte das sind diametrale Eigenschaften.
die Tabelle auf Tomshardware gibt einen guten Überblick über die möglichen Verbesserungen bei den TSMC-Prozessen:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13782193&postcount=4101
Ich fand das im anderen Thread lustig, weil man in etwa bei ca. 8.2GHz landen würde wenn ZEN5 in N2P statt N4P noch mal auflegen würde (laut google ist N4P in etwa 11% schneller als N5). ZEN6 wird diese Frequenzen natürlich nicht erreichen (nur damit niemand annimmt ich gehe bei ZEN6 von >8GHz aus). Für mich wäre ein Art "AMD-M4" mit 5.5GHz ST außerdem wesentlich sinnvoller als ein update des ZEN5 mit 8GHz
w0mbat
2025-07-13, 19:11:59
Takt skaliert halt immer. Wenn GAA gut läuft, kann ich mir >6,5GHz schon vorstellen. Dann noch ~10% mehr IPC und 12C/24T CCDs mit 48MB L3$ und neuem D2D interconnect. Zen 6 könnte der größte Sprung seit Zen 2 sein.
Der_Korken
2025-07-13, 20:49:24
TSMC says that when compared to N3P, chips made on N3X can either lower power consumption by 7% at the same frequency by lowering Vdd from 1.0V to 0.9V, increase performance by 5% at the same area, or increase transistor density by around 10% at the same frequency. Meanwhile, the key advantage of N3X compared to predecessors is its maximum voltage of 1.2V, which is important for ultra-high-performance applications, such as desktop or datacenter GPUs.
Zen 5 läuft afaik mit knapp 1,4V, um die 5,75Ghz zu erreichen. Der 9800X3D schafft mit 1,2V nur 5,2-5,25Ghz, der 9950X3D mit besserem Binning vermutlich 5,4-5,45Ghz. N2(P) wird also entsprechend weniger als 1,2V zulassen, d.h. allein dadurch ist der maximale Frequenz-Boost über die besseren Prozesse gar nicht ausreizbar.
die Tabelle auf Tomshardware gibt einen guten Überblick über die möglichen Verbesserungen bei den TSMC-Prozessen:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13782193&postcount=4101
Ich fand das im anderen Thread lustig, weil man in etwa bei ca. 8.2GHz landen würde wenn ZEN5 in N2P statt N4P noch mal auflegen würde (laut google ist N4P in etwa 11% schneller als N5). ZEN6 wird diese Frequenzen natürlich nicht erreichen (nur damit niemand annimmt ich gehe bei ZEN6 von >8GHz aus). Für mich wäre ein Art "AMD-M4" mit 5.5GHz ST außerdem wesentlich sinnvoller als ein update des ZEN5 mit 8GHz
Hm wenn man das Milchmädchen ranlässt und N3 mit N4P von der Performance her gleichsetzt ist der Sprung von N4P auf N2P gewalig, 40% etwa...
y33H@
2025-07-13, 22:04:50
Das Design muss das ja auch hergeben, nicht nur der Node ...
Es ging ja jetzt wohl erst mal nur darum, was die Nodes hergeben. Man kann die Diskussion auch extra anstrengend machen...
Der_Korken
2025-07-13, 22:41:02
Wenn man jetzt mal die 5,4Ghz@1,2V von Zen 5 nimmt, dann wären selbst mit voller Takt-Möhre "nur" 7,56Ghz@1,2V drin. Dass AMD das so nicht designen wird, ist wohl unstrittig. Allein schon, weil sie im Gegenzug Null Verbrauchsreduktion hätten und dadurch keinen Spielraum auf mehr Kerne zu gehen. Das lässt die 7Ghz von MLID, die laut ihm sogar eher noch konservativ sein sollen, imho schon ziemlich lächerlich aussehen.
Badesalz
2025-07-13, 23:03:00
7Ghz ist aber "7,56Ghz" minus 560MHz :wink:
Wenn 6.3Ghz allcore, 6.7Ghz Turbo stimmen sollte, ist das Geseier von MLID auch egal. Könnte trotzdem noch sein, daß der non-X3D halt bisschen höher taktet...
Für nicht-Epyc Userschaft sowieso ein Sturm im Wasserglas. Alle anderen ersaufen jetzt schon in Leistung und wer es nicht tut, der braucht eher schnellere GPUs.
latiose88
2025-07-14, 00:33:27
Es gibt welche die wollen noch mehr bei cpu Leistung ersaufen. Ob das jemals möglich ist die Anwendung mit purer cpu Leistung zu erschlagen, ist ja ne andere frage.
w0mbat
2025-07-14, 00:46:09
GAA kann halt schon einiges ändern. Oder auch nicht. Wird man sehen.
Dazu kostet der neue D2D interconnect weniger Energie, also ist mehr für die CPU übrig.
Der_Korken
2025-07-14, 01:44:39
7Ghz ist aber "7,56Ghz" minus 560MHz :wink:
Wenn 6.3Ghz allcore, 6.7Ghz Turbo stimmen sollte, ist das Geseier von MLID auch egal. Könnte trotzdem noch sein, daß der non-X3D halt bisschen höher taktet...
7,56Ghz@1,2V. Wenn N3X damit angepriesen wird, dass es "sogar" mit 1,2V läuft, dann tut N3P es wohl nicht und N2P damit auch nicht. Wenn also weniger Maximalspannung möglich ist, dann sind die glatten 7Ghz doch wieder näher an "volle Takt-Möhre" dran. Der 9950X ist auch mit der Spannung etwas runter gegenüber dem 7950X statt den 9950X höher zu treten.
Was aber gut sein kann ist, dass der X3D diesmal den vollen Boost-Takt schafft. Bisher lief er aus irgendeinem Grund nicht mit mehr als 1,2V. Aber wenn höhere Spannungen eh nicht mehr möglich sind ...
7Ghz ist aber "7,56Ghz" minus 560MHz :wink:
Wenn 6.3Ghz allcore, 6.7Ghz Turbo stimmen sollte, ist das Geseier von MLID auch egal. Könnte trotzdem noch sein, daß der non-X3D halt bisschen höher taktet...
Für nicht-Epyc Userschaft sowieso ein Sturm im Wasserglas. Alle anderen ersaufen jetzt schon in Leistung und wer es nicht tut, der braucht eher schnellere GPUs.
Das ist denke ich vorbei, mit oder ohne X3D ist für den Boost bei der Gen egal. Designziel wird wohl irgendwas um die 6,5 gewesen sein und das hat man wohl auch erreicht. Es ist also theoretisch möglich, dass Zen7 dann die 7 auch packt, ich denke, dass kann man festhalten aus der Diskussion.
Badesalz
2025-07-14, 09:41:55
Es gibt welche die wollen noch mehr bei cpu Leistung ersaufen.Für ST ist das eh schon so. Das ist also eher die MT-Geschichte. Die "800" werden nun paar Kerne mehr haben und die "900" werden auch paar mehr haben. Und dann nochmals "950"... Das ist alles schon überfluss.
Die paar handvoll mit massiv MT-Software können jetzt dann mit 48 Threads hantieren oder? Mit all den sonstigen Goodies. Ich glaub nicht, daß hier irgendwo der Schuh drücken sollte. Sonst wären sie eh schon auf irgendeinem Threadripper unterwegs.
@Korken
#1107 scheint richtig, aber dann fand ich den #1103 diesbezüglich kleinwenig chaotisch ;)
Nightspider
2025-07-14, 10:41:46
Allein schon, weil sie im Gegenzug Null Verbrauchsreduktion hätten und dadurch keinen Spielraum auf mehr Kerne zu gehen. Das lässt die 7Ghz von MLID, die laut ihm sogar eher noch konservativ sein sollen, imho schon ziemlich lächerlich aussehen.
Sagt ja keiner das alle 12 Kerne gleichzeitig so hoch takten.
Je mehr Kerne, desto geringer der Boost Takt, logisch.
Mein 9800X3D macht Stock auch nur ~5,2 Ghz, wenn alle Kerne ausgelastet sind @ Stock. Mit OC 5,4 Ghz aber da habe ich noch nicht das Maximum ausgelotet.
MSABK
2025-07-14, 10:48:58
Was ist Gator Range (HighEnd Laptop) Strix Point Nachfolger?
Der_Korken
2025-07-14, 10:53:11
Sagt ja keiner das alle 12 Kerne gleichzeitig so hoch takten.
Je mehr Kerne, desto geringer der Boost Takt, logisch.
Mein 9800X3D macht Stock auch nur ~5,2 Ghz, wenn alle Kerne ausgelastet sind @ Stock. Mit OC 5,4 Ghz aber da habe ich noch nicht das Maximum ausgelotet.
Im Desktop wäre das tatsächlich halb so wild, weil die MT-Leistung dort nicht so sehr benötigt wird. Im Laptop oder Server wäre das aber eine mittlere Katastrophe, wenn die neue Gen im Powerlimit nicht oder kaum schneller wäre als die alte. Quasi so wie Blackwell vs Ada im Laptop, nur dass AMD zusätzlich zwei volle Nodes verbrannt hätte.
Nightspider
2025-07-14, 10:55:57
Im Laptop oder Server wäre das aber eine mittlere Katastrophe, wenn die neue Gen im Powerlimit nicht oder kaum schneller wäre als die alte.
Die kleinen APUs machen einen Full Node Sprung und die mittleren bis großen APUs bekommen CCDs die 2 Node Sprünge gemacht haben.
Also worüber machst du dir Sorgen?
Blackwell nutzte den gleichen Node, den braucht man gar nicht erst erwähnen, imo.
latiose88
2025-07-14, 10:58:19
@badesalz da hast du natürlich völlig Recht . Ich hatte selbst mal threadipper gehabt .ich merkte schnell das ist nicht die richtige Plattform und so für mich .
Und die Anzahl der Kerne und deren nutzen war weit weniger als ich gedacht hatte.
Ich kenne auch nicht viele Anwendung die so viele Kerne wirklich nutzen . Und im Moment befinden wir uns ja seid Jahren in Stagnation kann man so sagen .
Muss ja nix schlechtes heißen . Im Moment ist mir höherer allcore Takt lieber als noch mehr Kerne .
Zumindest die Grenzen bei mir habe ausgelotet . Nun kommt es nur noch drauf an welche Hardware so am Ende wirklich kommen wird.
Was ist Gator Range (HighEnd Laptop) Strix Point Nachfolger?
Dragon Range (Zen4) -> Fire Range (Zen5) -> Gator Range (Zen6)
eine Desktop-Zen-CPU im Mobil-Träger.
Phoenix Point (2023) -> HawkPoint & Strix Point (2024/25) -> Gorgon Point (2026) -> Medusa Point (2027)
wobei es hier echt kompliziert wird.
- (7x4x) Phoenix und Phoenix2 (kleiner Phoenix ohne NPU) -> (8x4x und x 200) Hawk Point ist eine neue Revision der beiden Phoenix
- (AI300) Strix Point; Kraken Point ist ein kleiner Strix Point und hierzu gibts noch Kraken2, der noch kleiner ist
- (AI400) Gorgon Point ist ein Refresh/neue Revision von Strix Point, Kraken Point und Kraken2
- (AI500) Medusa1; Medusa1+CCD; Medusa2 (kleiner Medusa1)
2025er Mobil-Lineup derzeit:
Ryzen x 100 -> Rembradt (bisher aber nicht aufgetaucht unter dem Branding)
Ryzen x 200 -> Hawk Point
Ryzen AI300 -> Strix/Kraken/Kraken2/Halo
Ryzen 9xxx -> Fire Range
Der_Korken
2025-07-14, 12:33:33
Die kleinen APUs machen einen Full Node Sprung und die mittleren bis großen APUs bekommen CCDs die 2 Node Sprünge gemacht haben.
Also worüber machst du dir Sorgen?
Blackwell nutzte den gleichen Node, den braucht man gar nicht erst erwähnen, imo.
Du kannst aber aus den Node-Sprüngen nicht gleichzeitig den vollen Takt-Vorteil und den vollen Verbrauchsvorteil mitnehmen. Wenn du voll auf Takt gehst, dann ist die Verbrauchsreduktion nach meinem Verständnis genau null und das kann sich AMD bei den Notebook- und Server-Modellen nicht leisten.
BavarianRealist
2025-07-14, 12:56:49
Wenn AMD wirklich ein extra Zen6-Die auf N2X entwickeln sollte, dann macht das nur Sinn, wenn sich dieses deutlich in der Performance vom N2P-Die unterscheidet.
Für diesen Fall würde ich erwarten, dass AMD Zen6 in N2P extrem auf Effizienz trimmen dürfte, weil das helfen würde, die hohen Cores-Anzahlen (128 und mehr) im Server effizient laufen zu lassen. Dann dürfte das Taktziel (wie auch für die Notebooks) deutlich niedriger sein als für die N2X-Variante, womöglich kaum höher als beim aktuellen Zen5, also vielleicht um die 6Ghz, im Server-Einsatz dann entsprechend niedriger.
Eine N2X-Variante macht doch nur Sinn, wenn dieser Prozess dann auch ausgereizt wird, d.h. hier würde ich dann durchaus ein sehr, sehr hohes Takt-Ziel für möglich halten, womöglich deutlich über 7GHz. Diese Variante wäre dann nicht nur für Desktops (Gamer) interessant, sondern vor allem auch die hoch-taktenden Server, insbesondere, wo Lizenzen nach Core zu bezahlen sind.
Der_Korken
2025-07-14, 13:02:29
Das könnte natürlich eine Erklärung wie die 7Ghz sein. Das sind dann aber schon eine Menge Masken, die AMD am Ende braucht und der N2X-Die würde wohl auch erst 2027 kommen.
N2P ist zu N2X voll kompatibel. Da brauchst nix neues entwickeln, das ist wie Polaris30. Ich denke, daher hat Tom auch sein N2X, das ist halt für einen möglichen Refresh drin, aber eben erst Ende27, weil N2X erst irgendwann in 26 rampen soll.
Interessanterweise ist übrigens auch eine N4X-Variante von Zen5 möglich aus dem gleichen Grund, kann durchaus auch hier sein, dass wir noch einen Refresh sehen.
Nightspider
2025-07-14, 13:40:50
Du kannst aber aus den Node-Sprüngen nicht gleichzeitig den vollen Takt-Vorteil und den vollen Verbrauchsvorteil mitnehmen. Wenn du voll auf Takt gehst, dann ist die Verbrauchsreduktion nach meinem Verständnis genau null und das kann sich AMD bei den Notebook- und Server-Modellen nicht leisten.
Die Effizienz wird sowieso besser bei den APUs, auch mit N3P. Höhere Performance bei gleichem Verbrauch erhöht auch die Effizienz und da die Kerne schneller wieder runtertakten können wird auch der Verbrauch gesenkt.
APUs laufen eh meistens im teillast Bereich und idlen bei Office und Webbrowsing herum. AMD wird die verschiedenen Betriebspunkte logischerweise möglichst sinnvoll wählen.
Und Serverchiplets bekommen sowieso 2 Node Sprünge, ich verstehe also nicht warum du dir Gedanken darum machst.
Egal welcher Node gewählt wird, der Betriebspunkt aus Takt und Spannung wird über die finalen Effizienzwerte entscheiden.
aceCrasher
2025-07-14, 15:55:11
Dragon Range (Zen4) -> Fire Range (Zen5) -> Gator Range (Zen6)
eine Desktop-Zen-CPU im Mobil-Träger.
Phoenix Point (2023) -> HawkPoint & Strix Point (2024/25) -> Gorgon Point (2026) -> Medusa Point (2027)
wobei es hier echt kompliziert wird.
- (7x4x) Phoenix und Phoenix2 (kleiner Phoenix ohne NPU) -> (8x4x und AI200) Hawk Point ist eine neue Revision der beiden Phoenix
- (AI300) Strix Point; Kraken Point ist ein kleiner Strix Point und hierzu gibts noch Kraken2, der noch kleiner ist
- (AI400) Gorgon Point ist ein Refresh/neue Revision von Strix Point, Kraken Point und Kraken2
- (AI500) Medusa1; Medusa1+CCD; Medusa2 (kleiner Medusa1)
2025er Mobil-Lineup derzeit:
Ryzen AI100 -> Rembradt (bisher aber nicht aufgetaucht unter dem Branding)
Ryzen AI200 -> Hawk Point
Ryzen AI300 -> Strix/Kraken/Kraken2/Halo
Ryzen 9xxx -> Fire Range
Die gerebrandeten Phoenix/Hawk Point chips haben kein "AI" im Namen. Die heißen einfach "Ryzen 7 250" anstatt "8840U". Das AI im Namen haben nur die Chips mit mindestens 50 TOPS, also Strix Point, Krackan Point und Strix Halo.
Zossel
2025-07-14, 16:45:17
Die Effizienz wird sowieso besser bei den APUs, auch mit N3P. Höhere Performance bei gleichem Verbrauch erhöht auch die Effizienz und da die Kerne schneller wieder runtertakten können wird auch der Verbrauch gesenkt.
Für eine Aufgabe Y müssen x-mal die Eingangskapazitäten von Transistoren umgeladen werden. Tue ich das mit weniger Spannung brauche ich weniger Energie für diese Aufgabe.
Um weniger Spannung nutzen zu zu können dürfen die Transistoren nicht so schnell geschaltet werden.
Wer von uns beiden ist der Doofe?
Nightspider
2025-07-14, 19:06:05
Ich weiß nicht was du von mir hören willst.
Das man für weniger Takt weniger Spannung benötigt weiß hier jeder.
Das die Kerne schneller wieder runtertakten, wenn die Aufgaben zeitiger erledigt sind, weiß auch jeder.
Zossel
2025-07-14, 20:01:24
Ich weiß nicht was du von mir hören willst.
Eine fundierte und nachvollziehbare Begründung für deine These.
Nightspider
2025-07-14, 20:40:47
Welche These?
Badesalz
2025-07-15, 07:02:37
Für diesen Fall würde ich erwarten, dass AMD Zen6 in N2P extrem auf Effizienz trimmen dürfte, weil das helfen würde, die hohen Cores-Anzahlen (128 und mehr) im Server effizient laufen zu lassen. Dann dürfte das Taktziel (wie auch für die Notebooks) deutlich niedriger sein als für die N2X-Variante, Gehört das nach Speku? Wann hatten die sehr breiten Epycs (oder Xeons...) nicht spürbar weniger Takt? :|
Zossel
2025-07-15, 07:13:34
Welche These?
Schneller wieder zu pennen spart nicht zwingend Energie, siehe auch den Einsatz von speziellen Low-Power Kernen für bestimmte Szenarien.
Tobalt
2025-07-15, 07:31:53
Jo, wenn man mal den Idle Verbrauch auf Null rundet, dann bleibt als vergleichende Metrik die Task Energy. Und die sinkt natürlich mit abnehmender Spannung, was aber nur auf eher niedrigen Taktraten möglich ist.
mboeller
2025-07-15, 08:14:55
hab mal nach Charts für TSMC-N2 gesucht. N2P dürfte noch ein wenig besser performen. 1.2V sind das max. für N2 (bei anandtech) und ca. 0,8v das max. bei Tomshardware.
anandtech
https://images.anandtech.com/doci/18832/tsmc-n2-symposium-2023-2.png
Tomshardware:
https://cdn.mos.cms.futurecdn.net/niitwZ4TY5ckKDEQMUnuwd-1200-80.png
Artikel:
https://www.anandtech.com/show/18832/tsmc-outlines-2nm-plans-n2p-brings-backside-power-delivery-in-2026-n2x-added-to-roadmap
https://www.tomshardware.com/news/tsmc-reveals-2nm-fabrication-process
Höhere Performance bei gleichem Verbrauch erhöht ... die Effizienz
Ja, davon ist im Allgemeinen auszugehen :-)
Egal welcher Node gewählt wird, der Betriebspunkt aus Takt und Spannung wird über die finalen Effizienzwerte entscheiden.
Auch damit liegst du meiner bescheidenen Meinung nach vollkommen richtig.
... und da die Kerne schneller wieder runtertakten können wird auch der Verbrauch gesenkt
Oha, in dem Halbsatz bzw der Argumentationskette verbirgt sich eine logische Lücke, da du nicht explizit angibst im Vergleich zu was der Verbrauch deiner Meinung nach sinkt, und der Leser dies deshalb nach seinem eigenem Gusto auslegen kann:
1) Im Vergleich zu einer CPU mit gleicher Effizienz aber zeitlich gleichverteilter Aufgaben-Abarbeitung?
2) Im Vergleich zu einer CPU mit [edit] niedrigerer Effizienz und Abarbeitung der Aufgaben im entsprechend vergleichbaren Burstbetrieb?
3) Im Vergleich zu einer CPU mit [edit] niedrigerer Effizienz und zeitlich gleichverteilter Aufgaben-Abarbeitung?
[edit: Da war noch ein schwerer Formulierungsbug meinerseits. Wenn die neue CPU eine höhere Effizienz aufweisen soll, hat die alte CPU damit eine niedrigere Effizienz]
Falls du Fall 1 meinst, liegst du bei üblichen Lastbetrieb falsch, wie Zossel und Tobalt ausgeführt haben.
( Bei sehr geringer Arbeitslast und dazu vergleichsweise hohem Idle-Verbrauch und einer Architektur die diesen Zustand positiv ausnutzen kann, könnte jedoch der Fall eintreten, dass tatsächlich der Burstbetrieb effizienter als der Dauerbetrieb sein kann. Aber ich möchte bezweifeln dass dieser Betriebsfall für Consumer CPUs und APUs relevant ist. Für z.B. Deep-Space Raumsonden dagegen sollte dieser Anwendungsfall durchaus berücksichtigt werden.)
Fall 2 ist trivial, eine höhere Effizienz führt bei sonst vergleichbaren Randbedingungen zu einem niedrigerem Verbrauch.
Fall 3 lässt sich nicht pauschal beantworten, da nicht klar ist, welcher Effekt unter welchen Bedingungen dominiert.
Wer von uns beiden ist der Doofe?
Ich denke die Frage beantwortet sich selber, allein schon durch die Wortwahl :-)
Ein Verzicht auf rhetorische Fragen die nur der Provokation dienen fände ich persönlich angenehm.
Badesalz
2025-07-15, 09:10:59
Ja, davon ist im Allgemeinen auszugehen :-)Jep. Ich glaub auf der Seite hier hatten wir allgemein wohl eine leichte Prosperität an eher trivialen Thesen.
davidzo
2025-07-15, 09:38:11
hab mal nach Charts für TSMC-N2 gesucht. N2P dürfte noch ein wenig besser performen. 1.2V sind das max. für N2 (bei anandtech) und ca. 0,8v das max. bei Tomshardware.
Wenn N2P nochmal +5% performance oder -10% Power obendrauf liegt haben wir folgendes Bild:
ST Load: +20% mehr Performance bei gleichem Verbrauch. Wenn die Zen6 Cores also nicht zu sehr anwachsen und viel durstiger werden, dann könnte das 15-20% mehr Taktrate sein.
MT Load: +50% mehr Cores aber nur -25% Power, bzw. bei N2P eventuell -35%. In dem Fall würde bei den MT Taktraten genau gar nichts passieren bzw. würden diese eher noch etwas sinken.
N3E bringt direkt mal 18% mehr Leistung ggü. N3(N4P) lt. THG-Tabelle und N2P 15-20% mehr als N3E.
Milchmädchen:
1,18*1,15=1,357 -> 35,7% mehr Leistung ggü. Zen5s N4P (oder ARLs N3B).
Nightspider
2025-07-15, 10:57:58
Schneller wieder zu pennen spart nicht zwingend Energie, siehe auch den Einsatz von speziellen Low-Power Kernen für bestimmte Szenarien.
Wenn ich den Browser oder eine neue Website öffne, taktet meine CPU für einen kurzen Moment 20-30% höher.
Wenn das Programm oder die Website geladen ist sinkt der Verbrauch wieder.
Wenn die CPU nun 20-30% schneller ist und genauso viel verbraucht wie die alte CPU dann taktet die schnellere CPU logischerweise auch schneller wieder herunter wodurch der Verbrauch sinkt.
Und wenn die neue und die alte CPU beispielsweise in einer Handheld Konsole das Framelimit 40fps erreichen sollen, dann muss die neue CPU vielleicht nie auf das maximum takten und bleibt automatisch im sparsameren Powerstate und spart dadurch strom.
Für viele Aufgaben takten mein 9800X3D beispielsweise im Desktop Betrieb höchstens mal auf 3,5 - 4,5 Ghz und bleibt bei einem sparsameren Powerstate. Der alte 5800X3D ist dabei immer auf den höchstmöglichen Takt gesprungen.
Badesalz
2025-07-15, 11:22:36
(Fehler)
Nightspider
Ich glaub, das kann man so nicht rechnen - wenn die CPU schneller ist, arbeitert sie auch mehr.
Nightspider
2025-07-15, 12:13:03
Ich glaub, das kann man so nicht rechnen
Natürlich ist es nicht das Gleiche, wie wenn man den Fokus auf Effizienz für Mobile legt und lieber die maximale Leistung opfert um bei der durchschnittlichen Effizienz mehr herausholen zu können.
Aber das war ja gar nicht mein Punkt.
Es ging darum das sich die Effizienz auch verbessert, wenn man das Performance-Plus eines neuen Nodes bei gleicher Leistungsaufnahme komplett mitnehmen will.
wenn die CPU schneller ist, arbeitert sie auch mehr.
Das will man ja auch. :cool:
Das ist im mobilen Bereich natürlich nicht der Fokus aber darum gings ja auch nicht.
Ich hoffe ja das die 10-15% IPC für Zen 6 stimmen. Wenn dann noch 10-15% Takt dazu kommen finde ich ist Zen 6 ein rundes Paket. Ich denke das ist das maximum was wir von Zen 6 erwarten können.
Für Zen 7 hoffe ich das MLID recht hat mit den 15-25% IPC bezüglich ST/INT. Ich denke das ist auch realistisch für Zen 7, weil die Ingenieure bei AMD sich bei Zen 7 sich nicht mehr so stark um die FPU kümmern müssen, da diese ja meines Wissens nach mit Zen 6 mit Intel FPU bezüglich des Featuresets gleich ziehen. Falls ich bezüglich der FPU falsch liege kann man mich gerne korrigieren. (Ich weiß dass das hier der Zen 6 Thread ist, aber für Zen 7 haben wir so wie ich sehe noch keinen Thread).
w0mbat
2025-07-15, 17:15:58
Ich würde eher mit etwas weniger IPC rechnen, dafür mehr Takt und mehr Kerne, plus neues interconnect. Das ist schon eine ganze Menge.
Der_Korken
2025-07-15, 17:21:48
Wir reden bei Zen 7 über einen Chip, der frühestens in 3 Jahren auf den Markt kommen wird. Da wird selbst AMD noch nicht wissen, wie schnell er genau werden wird. Und 10-15% Takt für Zen 6 können zwar stimmen, aber das heißt noch lange nicht, dass der maximale Takt auch um diesen Wert steigt. Wie ich bereits sagte: Die besten Bins schaffen max. 5,4Ghz bei 1,2V. Da wären 10-15% am Ende 5,95 bis 6,2Ghz. Nur damit hier keiner enttäuscht ist, wenn wir weit entfernt von den 7Ghz-Luftschlössen landen.
Nightspider
2025-07-15, 17:35:35
Die besten Bins schaffen max. 5,4Ghz bei 1,2V. Da wären 10-15% am Ende 5,95 bis 6,2Ghz. Nur damit hier keiner enttäuscht ist, wenn wir weit entfernt von den 7Ghz-Luftschlössen landen.
Redest du jetzt von MultiCore Volllast und Stock Settings?
Weil mein 9800X3D macht > 5,45 Ghz nachdem ich 3min ins BIOS gestolpert bin. ;)
5,5 bis 5,6 müssten möglich sein.
Zossel
2025-07-15, 18:03:03
Redest du jetzt von MultiCore Volllast und Stock Settings?
Weil mein 9800X3D macht > 5,45 Ghz nachdem ich 3min ins BIOS gestolpert bin. ;)
5,5 bis 5,6 müssten möglich sein.
"AMD Ryzen 7 7700 8-Core Processor" während ein "openssl speed" läuft.
Alle Einstellungen sind default und ootb.
$ while true; do sleep 0.5; awk '/MHz/ {print $4}' /proc/cpuinfo | sort -nr | head -n1; done
5339.935
5339.782
5339.884
5339.901
5339.918
5339.879
5339.129
5341.411
5339.895
5339.827
5339.869
5339.935
5339.936
5339.817
5339.870
5339.877
5339.505
5339.505
5339.873
5339.345
5339.764
5339.654
5171.815
5337.521
5216.804
5338.442
5338.698
5339.961
5339.948
5338.970
5339.634
5339.778
5339.861
5338.894
5145.934
5339.230
5339.920
5339.851
5339.867
5339.754
5339.851
5339.937
5339.839
5339.780
5339.911
5339.916
5339.870
5339.871
5339.888
5339.911
5339.698
5339.957
5339.866
5339.597
5339.823
5339.942
5339.926
5339.862
5339.801
5339.913
5339.758
5328.675
5339.770
5339.829
5339.616
5339.738
5338.761
5339.793
5339.897
5338.982
5339.879
^C
$
Wir reden bei Zen 7 über einen Chip, der frühestens in 3 Jahren auf den Markt kommen wird. Da wird selbst AMD noch nicht wissen, wie schnell er genau werden wird. Und 10-15% Takt für Zen 6 können zwar stimmen, aber das heißt noch lange nicht, dass der maximale Takt auch um diesen Wert steigt. Wie ich bereits sagte: Die besten Bins schaffen max. 5,4Ghz bei 1,2V. Da wären 10-15% am Ende 5,95 bis 6,2Ghz. Nur damit hier keiner enttäuscht ist, wenn wir weit entfernt von den 7Ghz-Luftschlössen landen.
Bleibt dir ja überlassen, aber ich denke schon, dass es mehr Takt geben wird, wenn das Taktziel höher ist. Warum soll 7GHz zu weit weg sein, wenn das fürs Design einfach vorteilhaft ist? 7GHz ist ne Entscheidung... Netburst war auch ne Entscheidung, aber ne schlechte. Hoffen wird, dass AMD das besser entscheidet, aber ich könnt mir schon vorstellen, dass das der Plan bei der Zen5-Architektur als Grundkonzept ist, den Takt suksessive zu steigern in weiteren Generationen.
Der_Korken
2025-07-15, 18:38:03
Redest du jetzt von MultiCore Volllast und Stock Settings?
Weil mein 9800X3D macht > 5,45 Ghz nachdem ich 3min ins BIOS gestolpert bin. ;)
5,5 bis 5,6 müssten möglich sein.
Ist der Post ernst gemeint?
Edit: Bevor das missverstanden wird: es geht darum dass ich natürlich immer von Stock vs Stock spreche.
Badesalz
2025-07-15, 18:54:17
Ah? Ich dachte es geht darum, daß sich die Leute nicht allzusehr auf Zen6, spätestens auf Zen7, freuen.
hmm...
Nightspider
2025-07-15, 18:58:54
Ist der Post ernst gemeint?
Edit: Bevor das missverstanden wird: es geht darum dass ich natürlich immer von Stock vs Stock spreche.
So ein Beitrag, ohne CPU oder Testbedingungen zu nennen, ist halt bisschen sinnfrei oder?
Die 16C CPUs takten halt Richtung 5,7 Ghz bei SC Last, womit der von mir zitierte Beitrag von dir halt schon wieder nicht stimmen würde.
Und wenn die Leaker von den maximalen Taktraten reden sind bestimmt immer die SC Boost Taktraten gemeint.
Sonst wird es Äpfel-Birnen Kompott.
latiose88
2025-07-15, 20:06:28
Nun wir gehen ja davon aus daß es ein 2*12 Kerner also 24 Kerne kommen wird . Und AMD sagte ja das dank der breiteren Kerne auch von Zen 6 profitieren würden .ich wüsste nicht wo AMD bei Zen 6 verbessene würde. Aber selbst dann würde es ja wenn AMD den allcore Takt erhöhen würde und das neben mehr Kerne auch da mehr Leistung dabei raus kommen .So sehe ich das ja.
Der_Korken
2025-07-15, 20:41:51
So ein Beitrag, ohne CPU oder Testbedingungen zu nennen, ist halt bisschen sinnfrei oder?
Die 16C CPUs takten halt Richtung 5,7 Ghz bei SC Last, womit der von mir zitierte Beitrag von dir halt schon wieder nicht stimmen würde.
Und wenn die Leaker von den maximalen Taktraten reden sind bestimmt immer die SC Boost Taktraten gemeint.
Sonst wird es Äpfel-Birnen Kompott.
Ich meine auch die maximalen Boost-Taktraten. Lastszenarien sind kein guter Indikator, weil der genaue Takt dann größtenteils vom PPT (und somit der Effizienz) abhängt. Die 5,7Ghz, die du erwähnst, benötigen aber irgendwas um die 1,35V+, während ich mich mit 5,4Ghz bewusst auf 1,2V beschränkt habe, weil das so das Maximum zu sein scheint, was in N2(P) noch funktioniert. Darauf +15% sind 6,2Ghz. Mehr erwarte ich persönlich nicht von Zen 6.
basix
2025-07-15, 20:50:55
6.66 GHz ist schon lange das Target. Ganz klar ;)
latiose88
2025-07-15, 20:52:00
also kann man sagen je kleiner alles wird,desto weniger Spannung verträgt die CPU so.Das würde auch bedeuten das der Spielraum immer kleiner für die CPUS an sich wird.Was freilich für Intel und co immer mehr zu einem Problem wird.
Zossel
2025-07-15, 22:02:22
6.66 GHz ist schon lange das Target. Ganz klar ;)
U.a wegen irgendwelcher Religionsheinis(*) wurden die CPUs die mit 666MHz liefen als 667MHz CPUs gelabelt.
(*) Irgendwas mit Teufel /Satan oder so.
basix
2025-07-15, 23:17:08
OK, machen wir 6.9 GHz draus. Oder ist das für ein paar andere wieder ein Problem? :D
mboeller
2025-07-16, 06:40:49
U.a wegen irgendwelcher Religionsheinis(*) wurden die CPUs die mit 666MHz liefen als 667MHz CPUs gelabelt.
(*) Irgendwas mit Teufel /Satan oder so.
du meinst die Number of the Beast ... betrifft aber auch www
BavarianRealist
2025-07-17, 14:08:45
Die Preis-Entwicklung der verschiedenen Wafer (nach Nodes) dürfte für die künftige Entwicklung bei AMD eine sehr wichtige Rolle spielen, siehe hier:
https://www.3dcenter.org/image/view/17640/_original
Es fällt auf, dass vor allem 5nm/4nm gewaltig teurer geworden ist, weil hier aktuell viele Produkte laufen und ab diesem Prozess keine Konkurrenz zu TSMC exisitiert. Zudem gibt es diesen Prozess auch in den USA verfügbar, 3nm/2nm erstmal nicht. 7nm/6nm kostet nur noch die Hälfte davon, was wohl auch daran liegt, dass hier Samsung noch mit bieten kann.
Für AMD könnte das bedeuten: es wird Zeit, dass man erste Lowend/Mainstream-Produkte auch bei Samung in Fertigung bringt. Zudem dürfte es demnach kaum I/O-Dice in 5/4nm geben, weil einfach unnötig teuer, wenn dann gleich in 3nm.
MLID hat Neuigkeiten zu Zen6. Medusa1 bestätigt sich langsam:
8+8c-Kerne (wahrscheinlich abgespeckt wie bei Strix/Kraken mMn) in N3P und 8 CUs (nicht mehr als das), Tom nennt das einen Renoir-Moment, bei dem ja auch 8 statt 12 CUs vom Vorgänger schneller waren. Alternativ kann diese APU mit dem CCD betrieben werden.
Ich hab aber wieder ein paar Anmerkungen zu seinen Schlussfolgerungen:
1.) die LP-Cores werden nur alternativ zu den normalen Cores laufen, ich bezweifle ernsthaft, dass das als 10 Kerne gesehen werden kann...
2.) die N3P-Cores werden mMn deaktiviert, wenn das CCD angeschlossen wird, die Leistungsdichte ist bei N2P einfach deutlich höher aus meiner Sicht, die CPU wäre langsamer bei dem Powerbudget, wenn man die aktiv ließe, außerdem werden die APU-Kerne wieder nicht AVX512 in voller Geschwindigkeit packen.
Er sagt mittlerweile auch, Medusa ist RDNA4 und nicht 3.5. Das ergibt für mich auch deutlich mehr Sinn. Und er sagt, das IOD im Desktop ist weiterhin 6nm, nicht N3P, dieses scheint aus den Dokumenten verschwunden zu sein.
Zudem gibts offenbar AMD Magnus, eine Riesen-Semi-Custom APU mit eigenem UDNA-Grafikchip, 384Bit und 11 Zen6-Kernen (ja 11) und er denkt, dass ist die PS6.
https://youtu.be/GKdRXEgV82g
Badesalz
2025-07-18, 10:39:03
Zudem gibts offenbar AMD Magnus, eine Riesen-Semi-Custom APU mit eigenem UDNA-Grafikchip, 384Bit und 11 Zen6-Kernen (ja 11) und er denkt, dass ist die PS6.Das ist der eine Punkt den ich für am wahrscheinlichsten halte.
Der_Korken
2025-07-18, 10:42:28
Tom nennt das einen Renoir-Moment, bei dem ja auch 8 statt 12 CUs vom Vorgänger schneller waren.
Bei Renoir ging es von 11 auf 8 CUs. Jetzt würde es von 16 auf 8 gehen. Auch wenn die Strix iGPU ziemlich am Speicherdurchsatz hängt, sehe ich nicht wie Medusa da noch schneller sein will.
Und er sagt, das IOD im Desktop ist weiterhin 6nm, nicht N3P, dieses scheint aus den Dokumenten verschwunden zu sein.
mööp :(
Am besten gibt man den Desktop-Usern dann auch noch wieder die Asbach-IFOP-Technik, um noch ein paar Cent zu sparen.
Würde AMD echt wünschen, dass Nova Lake einschlägt wie ne Bombe, auch wenn es danach nicht aussieht ...
robbitop
2025-07-18, 11:03:45
Es ist schon merkwürdig, dass man nach dem man bei APUs so reingebuttert hat jetzt wieder Fahrt rausnehmen will. 8 CUs vs 16 CUs wäre selbst mit RDNA4 vs 3 ein Rückschritt.
Ich hätte als nächsten Schritt eigentlich mindestens (!) 16 CUs RDNA4 und einen kleinen LLC/IF$ erwartet damit es voran geht.
Aber ggf ist das wieder so eine Generation wie Renoir wie Tom sagt - kleine IGP und alter GPU IP (RDNA3.5) - und der richtige Sprung kommt dann eben erst danach. So wie damals mit Rembrandt nach Renoir
MSABK
2025-07-18, 11:11:01
Bei Renoir ging es von 11 auf 8 CUs. Jetzt würde es von 16 auf 8 gehen. Auch wenn die Strix iGPU ziemlich am Speicherdurchsatz hängt, sehe ich nicht wie Medusa da noch schneller sein will.
mööp :(
Am besten gibt man den Desktop-Usern dann auch noch wieder die Asbach-IFOP-Technik, um noch ein paar Cent zu sparen.
Würde AMD echt wünschen, dass Nova Lake einschlägt wie ne Bombe, auch wenn es danach nicht aussieht ...
Vlt verbauen sie einen Cache und die 8CU sind am Ende schneller.
aceCrasher
2025-07-18, 11:23:26
Aber ggf ist das wieder so eine Generation wie Renoir wie Tom sagt - kleine IGP und alter GPU IP (RDNA3.5) - und der richtige Sprung kommt dann eben erst danach. So wie damals mit Rembrandt nach Renoir
Aber... warum? Man würde damit den Ruf verspielen die besten iGPUs zu bieten. Strix Point kann sich gerade noch so durchsetzen gegen die Intel Gegenstücke. Wenn mann jetzt mit den CUs zurückrudert, während Intel auf noch breitere Designs setzt, dann wird man die Leistungskrone auf jeden Fall abgeben. Strix Halo und ähnliche Produkte lasse ich hier jetzt mal bewusst außen vor.
MSABK
2025-07-18, 11:31:57
AMD hat im mobilen Bereich irgwndwie den Faden verloren. Ich erkenne aktuell im Bestand nicht was sie erreichen wollen und die Gerüchte sehen noch fragwürdiger aus wohin sie wollen.
E39Driver
2025-07-18, 11:37:53
Zudem gibts offenbar AMD Magnus, eine Riesen-Semi-Custom APU mit eigenem UDNA-Grafikchip, 384Bit und 11 Zen6-Kernen (ja 11) und er denkt, dass ist die PS6.
https://youtu.be/GKdRXEgV82g
Vermutlich werden es physisch ganz normal 12 Kerne sein und man lässt aus Redundanzgründen einen inaktiv. Wie seinerzeit mit dem Cell bei der PS3 gehandhabt.
aufkrawall
2025-07-18, 11:38:33
Vielleicht spielt real einfach niemand auf den Dingern, weil es absolut ätzend ist. FSR 3.1 sieht auch auf NB-Displays absolut schlimm aus und ist trotzdem nicht billig. Diese Hardware ist einfach Murks. Falls bei Intel noch ein Qualitäts-Update für XeSS kommt, wischt das komplett den Boden mit den AMD-APUs.
dildo4u
2025-07-18, 11:39:48
Die Speicherbandbreite rechtfertigt natürlich keine dickere GPU.
Selbst eine Mobile 5050 tauert über jede APU nur Strix Halo ist vergleichbar mit 40CU.
https://i.ibb.co/d4phSqVJ/Screenshot-2025-07-18-114434.png (https://ibb.co/RT651ms4)
https://youtu.be/IsDWPb6QCrs?si=yL11Vsz2MbAUuK4h&t=273
eSvOL8gJUmY
robbitop
2025-07-18, 11:49:15
Aber... warum? Man würde damit den Ruf verspielen die besten iGPUs zu bieten. Strix Point kann sich gerade noch so durchsetzen gegen die Intel Gegenstücke. Wenn mann jetzt mit den CUs zurückrudert, während Intel auf noch breitere Designs setzt, dann wird man die Leistungskrone auf jeden Fall abgeben. Strix Halo und ähnliche Produkte lasse ich hier jetzt mal bewusst außen vor.
Ich finde es auch eigenartig.
Ggf ist es nach wie vor so dass der Markt starke GPUs in APUs einfach nicht belohnt. Man muss aus Geschäftssicht jedes mm2 Silizium als Opportunität sehen. Bekommt man für die Mehrfläche einer GPU überproportional mehr? Wenn nicht kann man auch einfach nur mehr APUs verkaufen. Kommt man wenigstens linear für die Mehrfläche mehr für eine starke GPU vs eine schwache? Wenn nicht kann man das weglassen. m Endeffekt steht das Kontingent immer in Wettbewerb zu anderen SKUs. Und die für die man am meisten pro mm2 bekommt sind die sinnvollste Wahl.
In der Vergangenheit war es jedenfalls häufig so dass starke GPUs bei APUs vom Massenmarkt nicht belohnt worden sind. Intels deutlich meist verkaufteste APUs sind mit kleinen IGPs. Hauptsache CPU ist gut. AMDs Renoir hat sich auch gut verkauft. Ggf hat sich Strix Halo nicht besonders gut verkauft. (Verkaufszahlen immer normiert zum aktuellen Marktanteil natürlich) Aber ggf hat sich das ja auch mal geändert.
robbitop
2025-07-18, 11:50:56
Vielleicht spielt real einfach niemand auf den Dingern, weil es absolut ätzend ist. FSR 3.1 sieht auch auf NB-Displays absolut schlimm aus und ist trotzdem nicht billig. Diese Hardware ist einfach Murks. Falls bei Intel noch ein Qualitäts-Update für XeSS kommt, wischt das komplett den Boden mit den AMD-APUs.
Ich vermute auch, dass auf den nicht gaming Laptops (also keine dgpu) kaum gespielt wird. Auf den richtigen Gaming Modellen mit großem Bildschirm, dGPU, high refreshrate dann ggf schon.
Badesalz
2025-07-18, 11:57:56
@aufkrawall
https://i.ibb.co/d4phSqVJ/Screenshot-2025-07-18-114434.png (https://ibb.co/RT651ms4)
Hier haben die Intelsysteme irgendwie nichtmal in die Tabelle geschafft :|
@robi
Ein Gerücht was AMD selbst streut, um die Konkurrenz zu trollen, ist eher unwahrscheinlich? (keine Rhetorik)
robbitop
2025-07-18, 12:00:31
Hab ich auch schon überlegt. Kann natürlich auch sein. In der letzten Vergangenheit waren die APU leaks IIRC aber alle sehr sehr akurat ubd das zT auch schon 1 Jahr vor release. Phoenix und Little Phoenix (der hier damals sehr angezweifelt wurde - iirc auch wegen der Zen4c Cores) wussten wir schon ca 1 Jahr vor Release die Specs. Strix iirc war auch recht früh klar. Auch Hawk.
Die 16 Strix CUs sind extrem ineffizient... das wird schon klappen, wenn der Takt massiv steigt, eben wie bei Renoir. Wenn man auf LPDDR5 hängenbleibt hat man ja auch kaum mehr Bandbreite als Strix. Da ist es ja eh nicht sinnvoll mehr CUs zu verbauen.
Für mehr GPU-Leistung gibts ja noch Halo, also besteht auch gar kein Druck mehr, soviel GPU-Leistung zu verbauen. Medusa1 ist mMn als Nachfolger zu Kraken zu sehen, genau wioe Kraken 4+4c-Kerne, genau wie Kraken 8 CUs. Als quasi Strix-Nachfolger ist dann Medusa1+CCDs zu sehen, die interne GPU ist dann halt nicht mehr so wichtig. Strix wird ja auch sehr oft zusammen mit Geforce verbaut, ist halt einfach hochpreisig. Strix war mMn wirtschaftlich zwar ein großer Erfolg, aus technischer Sicht aber mMn ein ziemlicher Fail...
AMD hat im mobilen Bereich irgwndwie den Faden verloren. Ich erkenne aktuell im Bestand nicht was sie erreichen wollen und die Gerüchte sehen noch fragwürdiger aus wohin sie wollen.
Das Gegenteil ist der Fall. Bei der jetzigen Generation hat man alleine 4 Chips am Start: Halo, Strix, Kraken, Kraken2. Mit Medusa wirds halt einfacher, Medusa und Halo, das wars. Man spart sich eine große APU und substituiert das durch das CCD. Kraken2 wird sicherlich bleiben und später in der folgenden Generation durch Bumbelbee ersetzt werden.
Vermutlich werden es physisch ganz normal 12 Kerne sein und man lässt aus Redundanzgründen einen inaktiv. Wie seinerzeit mit dem Cell bei der PS3 gehandhabt.
Jo stimmt, man wird einen großen Kern deaktivieren. Es sind 4+8c aber eben aktiv nur 3+8. Das dürften den Yield perfektionieren...
Die GPU ist übrigens auch interessant, die soll ja 232mm² haben. Ob der N2P ist?
[...]
mööp :(
Am besten gibt man den Desktop-Usern dann auch noch wieder die Asbach-IFOP-Technik, um noch ein paar Cent zu sparen.
Würde AMD echt wünschen, dass Nova Lake einschlägt wie ne Bombe, auch wenn es danach nicht aussieht ...
Es ist ja im Grunde egal, ob das IOD in 3, 4 oder 6nm gefertigt wird. Aber es wird wohl sehr sicher die Anbindung geben, die auch Medusa nutzen wird und ein neues Speicherinterface, das CUDIMM-Speicherbandbreiten unterstützt, ist meines Wissens auch bereits bestätigt. Das ist mir am wichtigsten, ob da jetzt ne fancy NPU und mehr als RDNA2 drin ist, ist mir total wurscht... Lt. Tom soll das neue IOD ja 155mm² groß sein und direkt an den beiden CCDs sitzen, sodass die 3 Chips zusammen einen Monolithen auf dem Träger bilden, was für die Kühlung ja vorteilhaft ist, anders als bisher. Das bisherige IOD ist nur ca. 120mm² groß. MMn gibts ein neueres Speicherinterface bis >8000GT/s-Support, vollen CUDIMM-Support, die gleiche PCIe5-Config wie bisher, die gleiche RDNA2-IGP wie bisher und ne 50 TOPs-NPU -> 155mm² in N6.
Der_Korken
2025-07-18, 13:54:22
Es ist ja im Grunde egal, ob das IOD in 3, 4 oder 6nm gefertigt wird. Aber es wird wohl sehr sicher die Anbindung geben, die auch Medusa nutzen wird und ein neues Speicherinterface, das CUDIMM-Speicherbandbreiten unterstützt, ist meines Wissens auch bereits bestätigt. Das ist mir am wichtigsten, ob da jetzt ne fancy NPU und mehr als RDNA2 drin ist, ist mir total wurscht... Lt. Tom soll das neue IOD ja 155mm² groß sein und direkt an den beiden CCDs sitzen, sodass die 3 Chips zusammen einen Monolithen auf dem Träger bilden, was für die Kühlung ja vorteilhaft ist, anders als bisher. Das bisherige IOD ist nur ca. 120mm² groß. MMn gibts ein neueres Speicherinterface bis >8000GT/s-Support, vollen CUDIMM-Support, die gleiche PCIe5-Config wie bisher, die gleiche RDNA2-IGP wie bisher und ne 50 TOPs-NPU -> 155mm² in N6.
Die NPU und die Grafikleistung sind mir persönlich wumpe. Ich hätte allerdings gerne eine iGPU, die in 2D auch 4K-Content absolut flüssig meistert und einen IOD, der den Idle-Verbrauch nicht wieder auf 20-30W hochschraubt. Hätte AMD dort einen mobilen Die recyclet, wäre ich zuversichtlich gewesen, dass die ganzen Stromsparfunktionen dort gut implementiert sind. Jetzt wo AMD dafür wieder einen eigenen Die noch dazu nur in 6nm auflegt, wird das bestimmt wieder alles hingerotzt und null optimiert, weil die Desktop-Kundschaft es ja eh frisst. Da zählt nur, ob das Teil noch die letzten 0,1fps mit 200W Extraverbrauch rauskratzt. Eigentlich erstaunlich, dass AMD dort überhaupt eine iGPU einbaut.
Die NPU und die Grafikleistung sind mir persönlich wumpe. Ich hätte allerdings gerne eine iGPU, die in 2D auch 4K-Content absolut flüssig meistert und einen IOD, der den Idle-Verbrauch nicht wieder auf 20-30W hochschraubt. Hätte AMD dort einen mobilen Die recyclet, wäre ich zuversichtlich gewesen, dass die ganzen Stromsparfunktionen dort gut implementiert sind. Jetzt wo AMD dafür wieder einen eigenen Die noch dazu nur in 6nm auflegt, wird das bestimmt wieder alles hingerotzt und null optimiert, weil die Desktop-Kundschaft es ja eh frisst. Da zählt nur, ob das Teil noch die letzten 0,1fps mit 200W Extraverbrauch rauskratzt. Eigentlich erstaunlich, dass AMD dort überhaupt eine iGPU einbaut.
Warten wir es mal ab ;). Bisschen früh das Urteil und wie gesagt, das am Fertigungsprozess bei einem IOD aufzuhängen ist halt unsinnig. Und RDNA2-IGP heißt ja nicht, dass das nicht gefixt ist oder man einen uralten Videoprozessor verbaut - das wird schon aktuell sein.
Ich persönlich glaube ja, dass das IOD N4P ist und später in N4c produziert wird. Das N6 ist mMn tatsächlich das alte IOD, was für die billigen CPUs weiterverwendet wird mit IFOP, aber das ist halt nur meine Einschätzung, da gibts keine Anhaltspunkte für...
Zossel
2025-07-18, 14:22:43
Aber... warum? Man würde damit den Ruf verspielen die besten iGPUs zu bieten. Strix Point kann sich gerade noch so durchsetzen gegen die Intel Gegenstücke.
Wahrscheinlich verkauft sich das nicht, und der Kram hängt doch eh an der Bandbreite vom DRAM.
robbitop
2025-07-18, 15:38:47
Die 16 Strix CUs sind extrem ineffizient... das wird schon klappen, wenn der Takt massiv steigt, eben wie bei Renoir.
Die 16 CUs sind bandwidth starved. Deshalb brräuchte es zukünftig auch langsam mal einen kleinen IF$.
Aber: es bringt Energieeffizienz weil man den Takt senken kann. CUs bringen die Leistungsaufnahme nur linear hoch. Takt hoch 3. wegen der f/V curve und V eben quadratisch in die Leistungsaufnehme eingeht
aceCrasher
2025-07-18, 15:42:38
Wahrscheinlich verkauft sich das nicht, und der Kram hängt doch eh an der Bandbreite vom DRAM.
Dann sollen sie halt einen LLC verbauen (bsp. 8 MB), so wie Intel in Lunar Lake auch.
Rein wirtschaftlich ist glaube ich der nur-8CU-und-kein-Cache-Ansatz sinnvoller, das wird einfach das Problem sein. Wie gesagt, für größeres gibts ja Halo.
robbitop
2025-07-18, 16:08:46
Genau. 8 CUs selbst wenn es RDNA4 ist wäre (was noch nicht klar ist) nur eine Minimallösung wie Renoir. Ggf ein wenig schneller als der Vorgänger aber nur ein blutleerer Sprung. Und wenn die TDP klein wird (15W) wird man mit dem Takt runter müssen und es sieht noch schlechter aus ggü Strix. Vor allem Vergleich zu dem was möglich wäre so man denn wollte. IMO wäre ein beherzter Sprung möglich mit 16+ CUs RDNA4 und einem kleinen IF$. Die Frage ist warum sie das nicht tun. Und ich vermute es wird nicht genug belohnt denn das würde relativ viel der kostbaren N3P Fläche kosten und teuer werden.
Mit Lunar Lake hat Intel ja eine relativ starke und sparsame mobile APU mit dicker APU vorgestellt. War anscheinend kein großer Erfolg. Dicke GPU bei einer APU ist ggf nicht so nachgefragt bei Gamern. Die nehmen ggf lieber dGPUs.
Die Halo SKUs war ja sehr interessant- aber viel zu teuer. Eine Integration muss auch preislich was bringen ansonsten wird halt ein Laptop mit kleiner dGPU gekauft anscheinend.
Hoffentlich lässt Valve für das Deck2 eine vernünftige APU bauen. Schön effizient bei 15W. Und dazu braucht es etwas mehr Breite und wahrscheinlich etwas LLC.
robbitop
2025-07-18, 16:18:12
Rein wirtschaftlich ist glaube ich der nur-8CU-und-kein-Cache-Ansatz sinnvoller, das wird einfach das Problem sein. Wie gesagt, für größeres gibts ja Halo.
Halo ist schon wieder sehr groß. Und wenn sie beim Preis nicht deutlich besser werden, wird der Erfolg nicht viel besser werden. Strix Halo war iirc in den SKUs teurer als wenn man einfach was mit dGPU nimmt und genau das Gegenteil sollte bei höherer Integration der Fall sein.
mczak
2025-07-18, 18:14:18
Ich finde ja immer noch der Strix Halo IOD ist etwas zu gross (und damit in der Fertigung etwas zu teuer) geworden. Das fängt an bei relativ grossen ungenutzten Flächen und auch z.B. die 32MB MALL Cache scheinen etwa doppelt so viel Fläche zu belegen wie die 32MB L3 eines CCD.
Wenn man natürlich eh nicht plant wirklich grosse Stückzahlen davon zu verkaufen fällt das nicht so ins Gewicht, aber vielleicht lässt sich da ja bei zukünftigen Chips noch etwas optimieren.
Der_Korken
2025-07-18, 18:19:49
Warten wir es mal ab ;). Bisschen früh das Urteil und wie gesagt, das am Fertigungsprozess bei einem IOD aufzuhängen ist halt unsinnig. Und RDNA2-IGP heißt ja nicht, dass das nicht gefixt ist oder man einen uralten Videoprozessor verbaut - das wird schon aktuell sein.
Ich persönlich glaube ja, dass das IOD N4P ist und später in N4c produziert wird. Das N6 ist mMn tatsächlich das alte IOD, was für die billigen CPUs weiterverwendet wird mit IFOP, aber das ist halt nur meine Einschätzung, da gibts keine Anhaltspunkte für...
Ich hoffe auch auf eine von vornherein geplante N4-Lösung. Mir juckt es mittlerweile seit Monaten in den Fingern, mein AM4-System in den Zweitrechner zu verbannen und mit einen 9800X3D mit B850-Borad zu holen. Das angebliche 12-Kern-CCD plus mehr ST und ein deutlich besserer IOD+FanOut sieht aber nach einem deutlich besserem Zeitpunkt zum Umsteigen aus. Ich will aber nicht 18 umsonst gewartet haben, wenn AMD die Hälfte der Goodies dann doch wieder rauswirft.
iamthebear
2025-07-18, 23:39:01
Die Frage ist was ein N4P IO Teil im Desktop bringen würde:
Keine NPU, nur minimale iGPU, keine CPU Kerne, kein SRAM. Da ist nichts wo es sich auf Grund der Density auszahlen würde und ob der IO Teil jetzt ein paar Watt mehr zieht oder ein paar MHz schneller läuft ist relativ egal. Für etwas mehr RAM Bandbreite wird es schon reichen und falls nicht sind die Gaming L3 Hitrates bei 14MB sowieso gut genug, dass die Bandbreite relativ egal ist und latenzmäßig war Zen 5 ja auch schon OK.
Für was würden sich die meisten Desktop Gaming Kunden wohl entscheiden (Nimm 4 von 5)
a) 12 statt 8 Kerne im CCD
b) N2P/X mit guten Taktraten statt N3 CCD
c) VCache Die
d) Preis bleibt ca. bei 500$ statt 700$
e) Fancy IOD in N3P mit NPU, LPE Cores, dickerer iGPU, höhere RAM Taktraten, mer PCIe 5 Lanes etc.
Ich kann euch sagen, dass >80% den IOD opfern würden weil dieser in keinem einzigen Review deutlich mehr Performance bringen wird.
Wenn man nur auf den X3D und Zockerei aus ist, können die das CCD auch einfach mit dem alten IOD bringen und fertig. Der Speicher ist bei 144MB L3$ eh scheissegal fürs zocken.
OgrEGT
2025-07-19, 08:41:43
Es wird mir zwar schwer fallen aber bei Zen6X3D 12C werde ich wohl schwach und schicke meinen 5800X3D in Rente...
Ärgerlich wäre es wenn nach dem 12C 144MB X3D noch ein 12C 240MB X3D2 kommen würde...
robbitop
2025-07-19, 08:50:22
So ist es nunmal Hardware wird obsolet. Den perfekten Kaufzeitpunkt gibt es nicht und man sollte immer kaufen wenn man was neues braucht. (ich kaufe mittlerweile nur noch Komponenten wenn die alten zu langsam werden. früher hab ich ständig das neuste haben wollen und HW gekauft obwohl die alte noch top war. und dabei habe ich um Größenordnungen mehr Geld als damals. Es ist wohl das Alter ^^)
Der 5800X3D wird für viele Spiele und PC Konfigurationen noch eine gute Weile gut genug bleiben. Bis dato jedenfalls eine CPU die (mich) lange zufrieden macht. Nie wieder CPUs ohne großen LLC für mich ^^
basix
2025-07-19, 09:05:26
Es wird mir zwar schwer fallen aber bei Zen6X3D 12C werde ich wohl schwach und schicke meinen 5800X3D in Rente...
Ärgerlich wäre es wenn nach dem 12C 144MB X3D noch ein 12C 240MB X3D2 kommen würde...
Bei mir ebenso, kann mehr CPU Bumms schon gebrauchen.
Aber wenn es dann noch eine zweite X3D Version geben sollte: Man kann die CPU ja verkaufen oder +1 Jahr auf Zen 7 warten ;)
Badesalz
2025-07-19, 09:48:16
Der 5800X3D wird für viele Spiele und PC Konfigurationen noch eine gute Weile gut genug bleiben. Für 2000er und 3000er wohl ja. Höher, passt das schon irgendwie nicht mehr :wink:
Die Frametime-Stabilität und damit über Bande auch die minFPS ist für AMD-Verhältnisse mit 9800X3D schon eine kleine Revolution gewesen.
robbitop
2025-07-19, 12:11:20
Für 2000er und 3000er wohl ja. Höher, passt das schon irgendwie nicht mehr :wink:
Die Frametime-Stabilität und damit über Bande auch die minFPS ist für AMD-Verhältnisse mit 9800X3D schon eine kleine Revolution gewesen.
Mit 2000er und 3000er meinst du Geforce? Also mein 5800x3d harmoniert super mit meiner 5070ti @3,3 GHz. Alles bis dato super flüssig.
Besser geht immer. In der Spielepraxis hat man aber oft genug andere bottlenecks und das was die CPU liefert reicht meist für sehr sehr hohe Frameraten. Noch höher geht immer aber bis dato bei mir alles sehr sehr angenehm.
Kombiniert mit M/FG nochmal flüssiger. Ich bin jedenfalls noch super zufrieden auch wenn natürlich immer mehr gehen würde. Das gilt aber dann auch doppelt für die GPU (5090 ist sicherlich doppelt so schnell und damit ist die Performancedifferenz höher als beim 9800x3d vs 5800x3d).
Es gibt sicher ein paar Müllspiele die durch Ineffizienz die Leistung zerstören - dann weniger bei einem 9800x3d aber auch dort unnötig doll. Ich spiele keinen SW Müll. Wer das (oder die wenigen anderen Ausnahmen) gern spielt profitiert sicherlich. Bei meinen Spielen bis dato aber hohe fps durchweg
Badesalz
2025-07-19, 12:25:28
@robbitop
Wozu es verhindern wollen, daß die sozial schwächeren sich endlich einen gebrauchten 5800x3d holen können, während die eine Stufe drüber sich endlich einen gebrauchten 9800X3D holen können, während die Oberen - diese Bewegung lostretend - sich einen neuen Zen6 X3D holen?
:up:
robbitop
2025-07-19, 12:43:05
Kann ja jeder machen wie er will. Ich verschwende mein Geld so wenig wie möglich und investiere es lieber so dass es sich vermehrt. :)
Badesalz
2025-07-19, 13:37:37
Du hast mit dem knappen Budget auch mehr Verantwortung. Verständlich.
Zossel
2025-07-19, 14:06:31
Kann ja jeder machen wie er will. Ich verschwende mein Geld so wenig wie möglich und investiere es lieber so dass es sich vermehrt. :)
Denk daran das dir morgen der berühmte Dachziegel auf die Rübe fallen kann.
iamthebear
2025-07-19, 17:26:28
Es wird mir zwar schwer fallen aber bei Zen6X3D 12C werde ich wohl schwach und schicke meinen 5800X3D in Rente...
Ärgerlich wäre es wenn nach dem 12C 144MB X3D noch ein 12C 240MB X3D2 kommen würde...
Ich denke nicht, dass es jemals eine 240MB Version geben wird.
Das Ziel bei Spielen ist:
.) Alle Daten die während dem letzten Frame benötigt wurden sollen in den L3 passen, denn diese werden beim nächsten Frame meistens wieder benötigt.
.) Alle anderen Daten, die nicht jeden Frame benötigt werden können vom DRAM geladen werden.
Bei aktuellen Spielen sollte locker alles in die 144MB passen. Für zukünftigen Spiele würden 240MB noch etwas Reserve geben aber wenn man bei aktuellen Spielen nichts bei der Framerate sieht dann wird AMD die CPU nicht auf den Markt bringen.
Nightspider
2025-07-20, 14:04:36
.) Alle anderen Daten, die nicht jeden Frame benötigt werden können vom DRAM geladen werden.
Warum? Da warten die Recheneinheiten deiner Meinung nach wohl nicht auf Datensätze?
Bei aktuellen Spielen sollte locker alles in die 144MB passen. Für zukünftigen Spiele würden 240MB noch etwas Reserve geben aber wenn man bei aktuellen Spielen nichts bei der Framerate sieht dann wird AMD die CPU nicht auf den Markt bringen.
Dafür hätte ich gerne belegbare Zahlen, sonst sind das nur Annahmen.
Wenn es stimmt habe ich kein Problem damit aber Hitrate Graphen verlaufen in einer Kurve und neue Triple-A Spiele, die wirklich alle 8 Kerne oder mehr nutzen, sind nochmal eine andere Hausnummer als die alten CrossGen oder Remake Titel, mit denen wir in den letzten Jahren noch überhäuft wurden.
Ich bleibe dabei, das 240MB 10-15% bringen könnten.
robbitop
2025-07-20, 15:41:10
Man müsste einfach mal einen profiler mitlaufen lassen - dann würde man die hitrates sehen. Das wäre schon interessant. Dass Memorytuning beim 9800x3d noch etwas bringt zeigt ja dass da noch was zu holen ist. Aber wie immer greift (spezifisch zur jeweiligen Anwendung) das Gesetz des sinkenden Grenzertrags.
Ich befürchte allerdings, dass Cachegröße nicht rasant wachsen wird, da sram Zellen kaum noch shrinken und wafer mit immer neueren Nodes immer und immer teurer werden.
Ggf irgendwann mal wenn man den IOD als aktiven Interposer baut. In einem alten node. Dann kann man potenziell mehr Fläche nutzen (und vergleichsweise günstig).
IIRC hatte Intel ja sowas vor mit dann deutlich mehr LLC. Allerdings ist die balance zwischen Größe und Latenz wichtig. Beide sind leider diametrale Auslegungagrößen. AMDs VCache ist so toll weil er für die Größe echt bemerkenswert schnelle Latenz hat.
Mal schauen was der 12C CCD damit macht. Ggf kann man den Effekt aber mehr als überkompensieren wenn der Interconnect zwischen IOD und CCD mal schneller wird. Da verliert man ja immer ordentlich was (sicherlich 20+ ns). Mit besserem packaging ginge ggf mehr. Andererseits sehen wir bei den APUs (monolitisch) auch keine echten Verbesserungen dort und auch bei Halo wo es ja einen moderneren Interconnect gab. Aber ggf hat man für die SKUs die Fabric nicht extra getunt und behält sich das vor wenn alle SKUs entweder monolitisch oder mit modernem Interconnect laufen. ZB zu Zen6?
Nightspider
2025-07-20, 15:57:51
Irgendjemand hier meinte ja das Strix Halo keine besseren Latenzen hätte trotz direkter Anbindung.
Habs jetzt aber noch nicht nachgelesen.
Zossel
2025-07-20, 16:02:18
Man müsste einfach mal einen profiler mitlaufen lassen - dann würde man die hitrates sehen. Das wäre schon interessant. Dass Memorytuning beim 9800x3d noch etwas bringt zeigt ja dass da noch was zu holen ist. Aber wie immer greift (spezifisch zur jeweiligen Anwendung) das Gesetz des sinkenden Grenzertrags.
https://chipsandcheese.com/p/intels-lion-cove-p-core-and-gaming
Zossel
2025-07-20, 16:03:16
Irgendjemand hier meinte ja das Strix Halo keine besseren Latenzen hätte trotz direkter Anbindung.
Habs jetzt aber noch nicht nachgelesen.
LPDDRx hat schlechtere Latenzen als DDRx.
robbitop
2025-07-20, 16:43:44
https://chipsandcheese.com/p/intels-lion-cove-p-core-and-gaming
Sehr sehr guter Artikel. Leider wurde kein AMD Zen 5 und Zen 5 X3D mit getestet. Wäre interessant zu sehen wie sich die Vergeößerung des L3 auf die hitrates auswirkt.
Grob lag die missrate in Spielen ja bei ~10% bei Lion Cove mit 36 MiB. Ein X3D sollte diese dann um ~60% reduzieren. Also auf grob 6%.
Wenn man sieht was das bringt, impliziert das schon wie nightspider vermutet, dass da noch Potential ist. Aber dann braucht es für den gleichen Sprung überproportional mehr Cache.
latiose88
2025-07-20, 17:03:56
Danke dir, interessanter Artikel.
Anwendung scheinen halt anderst zu reagieren als Spiele. Bin gespannt wie es ist bei Anwendung wo perfekt in den l1 cache passen und wo die missrate perfekt niedrig ist. Und wo die Anzahl an Kernen ab 3inen gewissen Punkt keine Steigerung mehr bringt.
Da bin ich gespannt was da der Nachfolger noch an Verbesserung für einen bereit hält.
Villeicht ja dann sinkender stromverbrauch. Das wäre cool und führt dann wiederum zu weniger Abwärme.
Intel hat ja weniger l3 cache als die AMD cpus.
Und dennoch ist die Leistung gleich.
Das erklärt auch warum x3d keinen boost bei mir gebracht hatte. Warum weil der l3 cache garnicht wirklich ausgelastet gewesen war.
Das ist wie wenn man alles an Geschwindigkeit erhöhen würde aber das Auto nicht schneller fahren kann oder es noch mehr fps auf spielen gibt aber die Bilder bei Spielen auf einen gewissen fps begrenzt worden wäre also ein limiter.
Nun ja der Ansatz ist ja ähnlich bei amd und Intel.
Scheinbar spielt halt nicht immer die Anzahl an kernen eine Rolle.
Zossel
2025-07-20, 19:05:27
Danke dir, interessanter Artikel.
Anwendung scheinen halt anderst zu reagieren als Spiele.
Anwendungen die Geschäftslogik abbilden laufen ähnlich scheiße. Liegt einfach in der Natur der Sache.
Bin gespannt wie es ist bei Anwendung wo perfekt in den l1 cache passen und wo die missrate perfekt niedrig ist. Und wo die Anzahl an Kernen ab 3inen gewissen Punkt keine Steigerung mehr bringt.
Sowas?
$ # Nur Nullen
$sudo perf stat -e L1-dcache-loads,L1-dcache-load-misses xz < testfile > /dev/null
Performance counter stats for 'xz':
133.120.866.326 L1-dcache-loads
676.827.200 L1-dcache-load-misses # 0,51% of all L1-dcache accesses
15,900858301 seconds time elapsed
15,606849000 seconds user
0,282961000 seconds sys
$# Nur Zufall
$ sudo perf stat -e L1-dcache-loads,L1-dcache-load-misses xz < yetanothertestfile > /dev/null
Performance counter stats for 'xz':
1.091.004.996.346 L1-dcache-loads
17.494.865.441 L1-dcache-load-misses # 1,60% of all L1-dcache accesses
518,069852542 seconds time elapsed
517,178189000 seconds user
0,559818000 seconds sys
$ du -h *
1,9G testfile
2,0G yetanothertestfile
$
KarlKastor
2025-07-20, 19:39:00
Irgendjemand hier meinte ja das Strix Halo keine besseren Latenzen hätte trotz direkter Anbindung.
Strix Point hat auch keine besseren Latenzen. Da sind beide CCX auf einem Die.
Vielleicht niedrigerer Takt um niedrigeren Verbrauch zu ermöglichen?
latiose88
2025-07-21, 03:18:52
@zossel was sind denn alles bitte sehr,Anwendungen die Geschäftslogik abbilden so alles ?
iamthebear
2025-07-21, 04:04:02
Warum? Da warten die Recheneinheiten deiner Meinung nach wohl nicht auf Datensätze?
Dafür hätte ich gerne belegbare Zahlen, sonst sind das nur Annahmen.
Wenn es stimmt habe ich kein Problem damit aber Hitrate Graphen verlaufen in einer Kurve und neue Triple-A Spiele, die wirklich alle 8 Kerne oder mehr nutzen, sind nochmal eine andere Hausnummer als die alten CrossGen oder Remake Titel, mit denen wir in den letzten Jahren noch überhäuft wurden.
Ich bleibe dabei, das 240MB 10-15% bringen könnten.
Bei Spielen wiederholt sich der gesamte Ablauf jedes Frame wobei ein Großteil des Ablaufs bzw. der verwendeten Daten sich nicht vom vorherigen Frame unterscheidet.
Wie viele Daten ein Spiel pro Frame verwendet ist unterschiedlich.
Ein paar Beispiele:
.) Beim alten csgo waren es weniger als 16MB. Ob 32MB oder 16MB haben damals keinen Unterschied gemacht.
.) Zu Zen 3 Launch Zeit hatten die meisten Spiele schon mehr als 16MB wodurch sich ein kräftiger Performanceschub beim Gaming ergeben hat.
.) Beim 5800X3D Launch war der Nutzen des VCache noch überschaubar. Techpowerup hatte um die 10% mehr Performance als der 5800X gemessen in einem sehr angestaubten Parkour, computerbase 15%:
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-7-5800x3d-test.80163/seite-2#abschnitt_spielebenchmarks_in_720p_fhd_und_uhd
Besonderes Beispiel: Valorant hat von Zen 2 auf Zen 3 noch 80% zugelegt da nun das gesamte Spiel in den L3 passt und die CPU Anforderungen sonst relativ gering sind.
Von 5800X auf 5800X3D sind es nur mehr 10%, da mehr als 32MB einfach nicht mehr benötigt werden.
.) Ein Jahr später: computerbase testet erneut, diesmal mit frischem Parkour mit neuen Spielen und schon ist der 5800X3D 28% schneller da die neuen Spiele even schon deutlich mehr als 32MB nutzen:
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-7-7800x3d-test.83744/#abschnitt_spiele_in_720p_reduzierter_parcours_alle_cpus
Sehr sehr guter Artikel. Leider wurde kein AMD Zen 5 und Zen 5 X3D mit getestet. Wäre interessant zu sehen wie sich die Vergeößerung des L3 auf die hitrates auswirkt.
Grob lag die missrate in Spielen ja bei ~10% bei Lion Cove mit 36 MiB. Ein X3D sollte diese dann um ~60% reduzieren. Also auf grob 6%.
Wenn man sieht was das bringt, impliziert das schon wie nightspider vermutet, dass da noch Potential ist. Aber dann braucht es für den gleichen Sprung überproportional mehr Cache.
chips and cheese hat damals den 7950X3D getestet:
https://chipsandcheese.com/p/hot-chips-2023-characterizing-gaming-workloads-on-zen-4
Hier die Hitrates:
https://substackcdn.com/image/fetch/$s_!_2yP!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ff3942580-8bb4-40d6-bed0-1b2cc7c785e9_1245x422.png
Bei COD waren es 96% Hitrate, bei Elder scrolls Online 98%.
Oder umgekehrt:
COD 0.81Misses pro 1000 Instructions
Wenn wir von einer IPC grob von 1 ausgehen (siehe Arrow Lake Review) so bedeutet dies einen Speicherzugriff alle 250ns.
Zum Vergleich: Die Speicherlatenz liegt bei ca. 60-70ns.
Kleine Milchmädchenrechnung:
Wenn wir die Faustregel "Vierfacher Cache, halbe Misses" ansetzen kommen wir auf:
96MB: 4 Speicherzugriffe pro Mikrosekunde
144MB: 3.3 Speicherzugriffe
240MB: 2.5 Speicherzugriffe
240MB vs. 144MB wären dann 0.8 Speicherzugriffe pro Mikrosekunde bzw. 5.6% gespart. Das ist der best case unter der Annahme dass:
a) Jeder Speicherzugriff vom Main Thread stammt und somit die Frametime verzögert
b) Während dem Speicherzugriff nichts OoO ausgeführt werden kann
c) Jeder Speicherzugriff auch tatsächlich sinnvoll war und nichts spekulativ geladen wurde.
In der Realität würde ich eher von 1-2% ausgehen. Die werden dann aber schnell wieder aufgefressen wenn auf Grund von 1 Schicht mehr VCache die Taktraten um 100MHz gesenkt werden müssen.
Zossel
2025-07-21, 06:06:54
@zossel was sind denn alles bitte sehr,Anwendungen die Geschäftslogik abbilden so alles ?
Dieses komische Zeug was dich bei der Maloche nervt :-)
https://dreckstool.de/
https://www.golem.de/news/spass-zum-wochenende-zeigt-uns-eure-legacy-it-schaetze-2507-198212.html
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.