PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 7 (2nm+, Sockel AM6, DDR6-Speicher, 2027/28)


Leonidas
2025-09-21, 06:11:19
3DC News-Übersicht zu Zen 7:
https://www.3dcenter.org/news/amd-zen-7

stinki
2025-09-24, 16:43:44
Zen 7 soll ja angeblich in 2028 die erste CPU in TSMC A14 werden, warten wir es ab ... mit Zen 6 und TSMC N2 hat es AMD ja anscheinend auch geschafft ...

HOT
2025-09-25, 09:58:29
Und Tom hat geleakt, dass er nach wie vor AM5 sein wird, also sehr sicher nicht AM6. Der bisherige Stand ist

Zen7
- 16 Kerne pro CCD/CCX in maximal 2 CCDs
- TSMC A14
- IOD von Zen6 in N3P
- nativer CUDIMM-Support
- AM5

Badesalz
2025-09-25, 10:07:33
Wobei das alles noch sehr cool und fair ist, daß Zen5 und Zen6 noch AM5 geblieben sind.
Ich sehe das beim Zen7 aber nicht mehr die Notwendigkeit. Ich glaub vorerst nicht daran.

dildo4u
2025-09-25, 10:12:12
Das ist nötig wenn Intel eine Plattform bringt die dir bis 2030 Support bietet.
Wenn AM5 dann in 2026 zu Ende ist wäre das Katatrophal im direkten Vergleich.

Badesalz
2025-09-25, 10:16:27
Hä? Intel will nicht mehr Plattformen nur für eine einzige CPU-Gen bieten? :usweet: UND, wie lange bietet AMD schon Support für AM5?

dildo4u
2025-09-25, 10:21:09
Hä? Intel will nicht mehr Plattformen nur für eine einzige CPU-Gen bieten? :usweet: UND, wie lange bietet AMD schon Support für AM5?
Die Leaks sagen der Langzeit support ändert sich gegenüber den aktuellen Sockel.

https://youtu.be/sqnjiEOHx78?si=Z2U8J_OjFQJjPnBV&t=1314

HOT
2025-09-25, 11:03:44
Wobei das alles noch sehr cool und fair ist, daß Zen5 und Zen6 noch AM5 geblieben sind.
Ich sehe das beim Zen7 aber nicht mehr die Notwendigkeit. Ich glaub vorerst nicht daran.

Wenn man noch kein DDR6 2028 nutzen will ergibt eine neue Plattform überhaupt keinen Sinn.

Badesalz
2025-09-25, 11:10:55
Aha. Und deswegen soll/muss AMD weiter auf AM5 hängen? Verstehe ich nicht. Ja ok, Intel hat das 2025 (Planung) jetzt gelernt :usweet: AMD macht das mit AM5 seit 4 Jahren und das wird es noch beim Zen6 geben.

Das werden bis Zen7 kommt also 8 Jahre sein. Warum sollte Intels 1954 2028 AMD von AM6 abhalten? Ich sehe den Zusammenhang nicht. Das scheint mir etwas herbeifantasiertes zu sein.

Wenn man noch kein DDR6 2028 nutzen will ergibt eine neue Plattform überhaupt keinen Sinn.Das könnte sein.

HOT
2025-09-25, 12:52:44
Realistischerweise würde ich beide Plattformen mit DDR6 und PCIe6 erst 2030 erwarten. Wenn da was früher kommt nett, aber einfach unwahrscheinlich.

Exxtreme
2025-09-25, 13:03:06
Aha. Und deswegen soll/muss AMD weiter auf AM5 hängen? Verstehe ich nicht. Ja ok, Intel hat das 2025 (Planung) jetzt gelernt :usweet: AMD macht das mit AM5 seit 4 Jahren und das wird es noch beim Zen6 geben.


Die Problematik ist halt, ohne PCIe 6 macht RAM mit mehr Bandbreite kaum Sinn. Und ohne neuen RAM braucht man auch keinen neuen Sockel. Und PCIe 6 kommt wohl erst 2030. Also bleibt alles cool und Intel lernt jetzt wohl auch dazu, dass neue Sockel zu spammen nicht unbedingt das ist, was Kunden wollen.

Windi
2025-09-25, 14:01:50
Das einzige was an AM5 veraltet ist, ist der Chipsatz.
Und das kann man schnell ändern.

HOT
2025-09-25, 14:04:36
Jo da wirds sicherlich nen neuen Promontory geben.

Zossel
2025-09-25, 15:46:04
Die Problematik ist halt, ohne PCIe 6 macht RAM mit mehr Bandbreite kaum Sinn.
PCIe ist nicht einzige Consumer von RAM-Bandbreite. Die CPUs nuckeln auch an der RAM-Bandbreite.

robbitop
2025-09-25, 16:54:02
Die Problematik ist halt, ohne PCIe 6 macht RAM mit mehr Bandbreite kaum Sinn. Und ohne neuen RAM braucht man auch keinen neuen Sockel. Und PCIe 6 kommt wohl erst 2030. Also bleibt alles cool und Intel lernt jetzt wohl auch dazu, dass neue Sockel zu spammen nicht unbedingt das ist, was Kunden wollen.
Ich denke, dass CPU cores auch ordentlich RAM Bandbreite brauchen. Je mehr von denen die was tun desto mehr Bandbreite braucht man. Weiß nicht ob im Consumerbereich PCIe Karten jetzt echte RAM Konsumenten (über den IMC der CPU) sind.
Das was am intensivsten bei Consumers sein sollte sind GPUs. Aber da werden die draw calls über den PCIe geschickt und da limitiert in der Regel so schnell nichts. 1 Gen kann man da oft zurück gehen ohne Performanceverluste manchmal sogar 2 (bzw neuste Gen und dann halbe bzw viertel Lanes bevor es wirklich Performance kostet).
Aber RAM konsumiert die GPU nur indirekt über die CPU für das Spiel ackern muss um dann am Ende draw calls rauszuschieben.

][immy
2025-09-25, 20:14:22
Das ist nötig wenn Intel eine Plattform bringt die dir bis 2030 Support bietet.
Wenn AM5 dann in 2026 zu Ende ist wäre das Katatrophal im direkten Vergleich.

Wenn Intel so was bringt, haben sie jetzt ewig nicht mehr gemacht einen Sockel so lange zu behalten.

Hätte aber gedacht das Zen 6 schon mit ddr6 kommt, wenn es nicht mal zen7 wird, dann muss mein 5800x3d aber noch lange durchhalten. Aber so wahnsinnig viel hat sich halt auch nicht mehr getan was die Performance angeht, wenn man mal von Spezialfällen absieht. Zen 5 skaliert einfach nur gut mit vielen Kernen, was beim gaming nicht so eine große Rolle spielt.

Semmel
2025-09-25, 21:40:58
[immy;13817877']
Hätte aber gedacht das Zen 6 schon mit ddr6 kommt, wenn es nicht mal zen7 wird, dann muss mein 5800x3d aber noch lange durchhalten.

Mein Plan war ja auch, AM5 komplett zu überspringen.
Aber wenn selbst Zen 7 noch auf AM5 kommt, dann dauert mir das vielleicht doch zulange. :D

E39Driver
2025-09-26, 07:52:50
Würde doch technisch nichts gegen DDR6 Support auf einem Sockel AM5 Rev.2 sprechen. Bringt man halt Zen7 mit DDR5/DDR6 Kombicontroller raus. Auf älteren AM5-Boards läuft er dann eben mit DDR5 weiter. Und passend zum Release gibt's dann neue AM5-Boards mit neuen Chipsatz und DDR6 Support.

Semmel
2025-09-26, 08:21:25
Würde doch technisch nichts gegen DDR6 Support auf einem Sockel AM5 Rev.2 sprechen. Bringt man halt Zen7 mit DDR5/DDR6 Kombicontroller raus. Auf älteren AM5-Boards läuft er dann eben mit DDR5 weiter. Und passend zum Release gibt's dann neue AM5-Boards mit neuen Chipsatz und DDR6 Support.

An sowas haben die Board- und RAM-Hersteller kein Interesse. Die wollen neue Plattformen verkaufen. AMD wird auf sowas Rücksicht nehmen. Haben sie bei AM4/AM5 auch getan.
AM4 würde künstlich beerdigt, indem man erst den 5800X3D durch den langsameren 5700X3D ersetzt und danach auch diesen abgeschafft hat, obwohl er sich gut verkauft hat.
Dadurch will man offensichtlich den Kauf der "neuen" AM5-Plattform ankurbeln.

HOT
2025-09-26, 08:40:57
Würde doch technisch nichts gegen DDR6 Support auf einem Sockel AM5 Rev.2 sprechen. Bringt man halt Zen7 mit DDR5/DDR6 Kombicontroller raus. Auf älteren AM5-Boards läuft er dann eben mit DDR5 weiter. Und passend zum Release gibt's dann neue AM5-Boards mit neuen Chipsatz und DDR6 Support.

Es wird kein DDR6 auf der alten Plattform geben, es wird keinen vorherigen DDR6-Support geben bevor DDR6 final draußen ist. Rechne mit DDR6 für 2030 bei beiden Herstellern.

basix
2025-09-26, 09:13:41
Das einzige was an AM5 veraltet ist, ist der Chipsatz.
Und das kann man schnell ändern.

Zen 6 & Zen 7 könnten eine Art AM5+ lieferen:

Neues IOD mit neuer iGPU / besseresVideo/Media Encoding/Decoding / DP2.1 / HDMI 2.2 / USB 4.0
Neuer Chipsatz mit PCIe 5.0 Uplink zur CPU, mehr PCIe 5.0 Lanes und USB 4.0


Das zusammen mit deutlich reduziertem Idle-Stromverbrauch und WiFi 7.0 ist bereits ein ziemlich ansehliches Plattform-Upgrade. Und nützt deutlich mehr als PCIe 6.0 und DDR6.

PCIe 6.0 und DDR6 sind mMn einfach nicht nötig im Consumer Bereich. PCIe 6.0 ist für Gaming GPUs und NVMe Consumer-SSDs Perlen vor die Säue. Es gibt fast keine Use Cases ausserhalb von ML/AI und AVX512 Spezialfällen, die davon profitieren würden. Und selbst da ist es besser, einfach genug DRAM/VRAM zu haben. CUDIMM dürfte in Richtung DDR5-10'000 oder gar mehr marschieren (von Corsair gibt es Demos mit DDR5-11'600). Das schliesst die Lücke zu DDR6-Speicherbandbreite enorm. Dazu die vergrösserten L3-Caches der CCDs, was die Speicherbandbreite auch etwas entlasten wird.

AM4 würde künstlich beerdigt, indem man erst den 5800X3D durch den langsameren 5700X3D ersetzt und danach auch diesen abgeschafft hat, obwohl er sich gut verkauft hat.
Dadurch will man offensichtlich den Kauf der "neuen" AM5-Plattform ankurbeln.
Also den 5700X3D kann man noch kaufen. Aber wenn ich sehe, dass der 7800X3D nicht so viel teurer ist, wieso nicht AM5 kaufen, wenn man ein neues System zulegt? B650 und B850 Mainboards kriegt man für vernünftige Preise. Und dazu die potentielle Aufrüstbarkeit bis Zen 7, welche auf AM4 nicht gegeben ist.

Alle mit einem bestehenden AM4 System haben vermutlich mittlerweile auf 5800X3D oder 5700X3D (oder vielleicht auch 5600X3D) geupgradet. Etwas schnelleres als das wirst du auf AM4 schlicht nicht sehen (ausserhalb von mehr Cores) und insbesondere der 5700X3D ist ziemlich preiswert gewesen.

HOT
2025-09-26, 09:43:49
Igor hatte in Video, wie genau PCIe5 schon implementiert sein muss, damit das nicht in Probleme läuft (er hatte ne Asrock-Karte, die mit PCIe5 nicht vernünftig lief), ich denke, die PCIe6-Implementation ist einfach so teuer für Board und GPU-Hersteller, dass man hierauf noch lange verzichten wird. Es ist dem Kunden einfach nicht verkaufbar, dass ein gutes Standardbrett über 400$ kostet dann. Bandbreite ist ja ebenfalls kein Problem, bis DDR5 10000 kann man mit CUDIMMs und Premiumboards mit 2 DIMM-Slots sicherlich noch so wachsen, da braucht man kein DDR6 für. Für Intel gilt das analog.

Es ist im Prinzip ein AM5+, auch wenn AMD das nicht so nennen wird. Ähnliches hat man ja mit AM4 beim X570 ja auch gemacht.

latiose88
2025-09-26, 10:07:59
@basix am4 ist für die wo auch noch Windows 7 nutzen wollen für bestimmte alte Sachen. Ich stehe vor der Qual der Wahl. Kaufe ich aktuelle am5 kann ich Windows 7 vergessen aber habe dann ne aktuelle Plattform .kaufe ich am4 dann kann ich auch Windows 7 nutzen siehe x470 oder b450 Mainboard. Dort gibt es Treiber für Windows 7. Oder kaufe ein am5 System plus ne retro Kiste extra dazu .
VM Software ginge zwar auch aber man muss sich gut auskennen was man da macht.
Kommt dann noch ein Windows XP dazu zu Windows 7 wird es komplizierter . Ich brauche also zu Windows 10 also Windows 7 und teilweise Windows XP .
Wie würdest du dich dann am Ende entscheiden wann du weißt das es Windows XP und Windows 7 spiele haben würdest und diese aktiv zocken willst aber auch neuere spiele zocken wollen würdest. In diesem Sinne wird es nicht leicht werden. Was mache ich nur.
Diese Spiele machen nur Probleme unter Windows 10 .stürzen ab ,hängen sich auf oder machen sonst was. Hersteller Support gibt es keine mehr. Treiber helfen auch nix weil eh neuer als die spiele. Ich bringe die null besser zum laufen. Ne Lösung gibt es keine . Habe schon alle möglichen Lösungen durch. Ne zufriedenstellende Lösung gibt es keine.
Windows 10 bringt also auch Fluch rein also nicht nur Segen. Mir bleibt keine andere Wahl als auf die älteren Betriebssysteme zu setzen. Windows 10 ist in der Hinsicht doof. Bin gespannt wie deine Meinung dazu steht. Das ganze werde ich nicht drum Rum kommen . Aktuelle sitze ich vor einem PC der keine aktuellen spiele mehr abspielen kann. Wobei z.b borderlands 4 ne Ausnahme wäre mit abspielen. Sofern ich Interesse dran haben würde. Mich wundert es das so nen alter PC der fast 9 Jahre alt ist sowas kann. Damals wohl die richtige Hardware gekauft gehabt. Um eine neue GPU komme ich ja eh nicht drum Rum . Nun ja Mal sehen wie es weiter geht. Meine Situation wird sich dennoch kaum optimal lösen lassen ,das ist sicher .

Der_Korken
2025-09-26, 10:10:59
PCIe 5 ist ja quasi dieses Jahr erst so richtig angekommen im Markt. Auch wenn es Board+CPU schon Ende 2021 (!) zu kaufen gab, kamen die GPUs, die das unterstützen, erst 2025. Mit Betonung auf "unterstützen", denn einen praktischen Nutzen hat es abseits von pathologischen Szenarien wie einer 9060XT 8GB nicht. PCIe-5-SSDs gibt es zwar schon länger, aber auch da gab es außerhalb von Nischenanwendungen keine praktische Relevanz und die ersten Gens dieser SSDs waren solche Schluckspechte, dass die eine Heatsink brauchten, um ihre Datenrate überhaupt ausfahren zu können. Das bessert sich auch erst seit kurzem. PCIe 6 wird noch Jahre uninteressant bleiben.

Da bin ich definitiv bei basix, dass eine neuere iGPU, ein neuerer Chipsatz und besserer Idle-Verbrauch mehr Leuten nützt.

amdfanuwe
2025-09-26, 13:03:13
Alle mit einem bestehenden AM4 System haben vermutlich mittlerweile auf 5800X3D oder 5700X3D (oder vielleicht auch 5600X3D) geupgradet.

Nö. Habe von 1600X auf 5600 aufgerüstet. Und das auch mehr aus Neugier ob es auch wirklich geht, nachdem das Bios angeboten wurde.
Funktionierte und reicht mir.
Nur PCIe 3.0 auf dem Board führte allerdings schon dazu, dass eine GPU mit 8 x PCIe für mich nicht in Frage kommt.

Es ist dem Kunden einfach nicht verkaufbar, dass ein gutes Standardbrett über 400$ kostet dann.
Da PCIe abwärtskompatibel ist, kann man dann auch günstigere Boards auflegen, die nur PCIe 5.0 unterstützen. Wer dann wirklich PCIe 6.0 braucht, ist auch bereit das Feature zu bezahlen.
Da Problem liegt eher darin, welche Kosten es bei der implementierung in der CPU verursacht und ob der Sockel noch dafür geeignet ist.

basix
2025-09-26, 13:27:23
Nö. Habe von 1600X auf 5600 aufgerüstet. Und das auch mehr aus Neugier ob es auch wirklich geht, nachdem das Bios angeboten wurde.
Funktionierte und reicht mir.

Na gut, dann nicht alle. Aber alle die aufrüsten wollten ;)

w0mbat
2025-09-29, 00:55:49
Venice mit CoWoS-L, yay oder nay?

CrazyIvan
2025-09-29, 08:04:58
Nay!
Laut HighYield ist es InFO-oS (anscheinend die neue Gesamtbezeichnung von TSMC für alle InFO-Arten wie InFO-R, -L, etc.) - identisch zu Halo.
https://youtu.be/maH6KZ0YkXU?si=C9HK8zZl5XUmLYdV

robbitop
2025-09-29, 10:59:33
w0mbat = highyield auf youtube

basix
2025-09-29, 11:36:28
Nay ;)

CoWoS dürfte zwei Probleme haben:
- Kosten
- Fertigungs-Kapazität (siehe HPC Beschleuniger)

InFO ist weniger performant, dafür sind die Kosten niedriger. Für ein Chiplet-to-Chiplet Interface, welches nur etwa 100-200 GByte/s liefern muss, ist die Performance mehr als ausreichend. RDNA3 lieferte knapp ~900 GByte/s pro MCD. Niedrige Kosten sind zudem deutlich wichtiger als maximale Performance, da auch Consumer-Produkte im Spiel sind. Und Strix Halo hat gezeigt, dass InFO sehr gut ausreicht.

https://3dfabric.tsmc.com/english/dedicatedFoundry/technology/3DFabric.htm

Wenn man irgendwas mit CoWoS machen will: CoWoS-R ;)
- Aber auch hier: CoWoS-R dürfte für HPC beschleuniger interessant sein. MI300 war mal so angedacht.

CrazyIvan
2025-09-29, 12:48:06
w0mbat = highyield auf youtube
LOL - na dann einmal Zirkelreferenz bitte :biggrin:

/edit: Generell schließe ich mich basix' Argumentation an.

w0mbat
2025-09-29, 15:54:59
Ich stimme euch ja in allem zu und es macht einfach zu viel Sinn, dass Zen 6 einfach den D2D IC von Strix Halo uebernimmt. Was ja nur eine Art "Testchip" ist. Aber AMD kann davon ja auch gelernt haben.

Es gibt die Moeglichkeit, dass es fuer Client und Server andere Loesungen gibt.
Oder, dass InFO-oS einfach nicht effizient genug ist und man deshalb auf eine silicon bridge geht.

Wieso man dann aber aber CoWoS-L anstatt InFO-LSI nehmen sollte weiss ich auch nicht.

Ich bin aber gespannt wie Zen 6 final aussieht und es koennte wirklich eine CoWoS-L Ueberraschung geben.

w0mbat
2025-09-29, 18:05:57
Koennte auch sein, dass Venice zu gross fuer InFO ist, also der reticle Faktor nicht ausreicht. Und dann InFO fuer Ryzen. Ware eine coole Loesung. Wenn der pitch passt, koennte man die gleichen CCDs sowohl fuer InFO als auch fuer CoWoS nutzen.

Zossel
2025-09-29, 18:40:20
Wieso man dann aber aber CoWoS-L anstatt InFO-LSI nehmen sollte weiss ich auch nicht.

Würde sich sich der Stromverbrauch bei den unterschiedlichen o.g. physikalischen Interconnects großartig unterscheiden? (Das Schieberegister würde ja bei beiden Möglichkeiten raus fliegen)

amdfanuwe
2025-09-29, 19:00:26
Der Unterschied zwischen CoWoS und InFO besteht aus dem unterschiedlichen Ansatz, wie die Chips verarbeitet werden
the “back-end, chip-first” InFO (Integrated FanOut) technology
the “back-end, chip-last” CoWoS (Chip-on-Wafer-on-Substrate) technology.
https://semiwiki.com/semiconductor-manufacturers/tsmc/290560-highlights-of-the-tsmc-technology-symposium-part-2/
Schenken sich wohl beide nichts. je nach Chipgröße oder Substratgröße wird das eine oder andere den besseren Yield liefern.

Silicon bridge oder LSI bei TSMC, halte ich für zu aufwändig und damit zu teuer.
Sehe auch nicht die Notwendigkeit dafür. So hoch wie bei HBM sind die Anforderungen nicht. Bei RDNA3 wurden die MCDs wohl auch mit 512 Bit angebunden wodurch praktisch eine Cache Line /Takt (64 Byte/Takt) übertragen wird. Wenn mich ChatGPT nicht anlügt, waren das ~5300GB/s interne Bandbreite zwischen GCD und den 6 MCD beim 7900XTX.
Ein MCD kommt damit auf ~800GB/s.
Das wäre wesentlich schneller als DDR5 dual Channel liefern kann (DDR5 6000 ~96GB/s)

CrazyIvan
2025-09-29, 19:52:39
Koennte auch sein, dass Venice zu gross fuer InFO ist, also der reticle Faktor nicht ausreicht. Und dann InFO fuer Ryzen. Ware eine coole Loesung. Wenn der pitch passt, koennte man die gleichen CCDs sowohl fuer InFO als auch fuer CoWoS nutzen.
IIRC kann man das allein an den Oberkategorien InFO oder CoWoS nicht festmachen. CoWoS-S hat bspw. ein anderes Limit als -R oder -L. Aber da hat sich in den letzten Jahren (seit dem letzten detaillierten AT-Artikel) viel getan. Keine Ahnung, was z. B. mit Wafer Stitching geht. Ich habe zu der Thematik sehr viel gelesen, verstehe aber immer noch recht wenig. Gibt es irgendwo einen neueren Artikel, der eine halbwegs zugängliche Abgrenzung der Methoden beschreibt?

basix
2025-09-29, 21:27:31
Es gibt die Moeglichkeit, dass es fuer Client und Server andere Loesungen gibt.

Klar, kann möglich sein. Für Consumer und nur 2-3x Chips dürfte InFO_oS aber besser geeignet sein.


Oder, dass InFO-oS einfach nicht effizient genug ist und man deshalb auf eine silicon bridge geht.

Effizienz dürfte nicht limitieren, nicht bei 100...200 GByte/s. Strix Halo ist ja nicht ineffizient ;)

w0mbat
2025-09-29, 22:17:12
Ich meine Energie- oder Flächeneffizienz.

InFO-oS für Ryzen und CoWoS-L für Epyc klingt cool.

Nightspider
2025-11-08, 04:26:11
https://i.ibb.co/x87rqfPv/Zen7-Grimlock.jpg

dargo
2025-11-08, 08:00:50
Und Tom hat geleakt, dass er nach wie vor AM5 sein wird, also sehr sicher nicht AM6. Der bisherige Stand ist

Zen7
- 16 Kerne pro CCD/CCX in maximal 2 CCDs
- TSMC A14
- IOD von Zen6 in N3P
- nativer CUDIMM-Support
- AM5
Das wäre sehr cool. :up: Zen7 X3D könnte dann meine nächste CPU werden. :)

Edit:
Was sich auch toll anhört... endlich wird der Chiplet mit 98mm² einiges größer.

B_mJQnNZl7k

Hoffentlich profitiert davon die Thermik auch ordentlich.

HOT
2025-11-08, 09:21:43
Im neuen Video sagt er klar, dass das IOD relativ sicher N6 wird, von N3P war gar keine Rede mehr. Das ergibt für mich auch viel mehr Sinn. Und es wird weder LP-Cores noch eine NPU enthalten. Da das Ding weiterhin N6 ist, würde ich auch hier weiterhin auf RDNA2 tippen, nicht 3,5 oder 4.

LP-Cores und NPUs sind bei Zen7 offenbar auch durch die Bank völlig verschwunden.


Interessant ist auch, dass der Cache bei Zen7 komplett neu sein soll.


Ist aber auch krass, wenn man sich das überlegt, eine CPU mit 16 Kernen und 224MB L3$ als Spiele-X3D-CPU die ich einfach in mein X670E Pro X stecken kann ist schon echt übel. Ich würd dafür mal nicht weniger als 999$ ansetzen.

Badesalz
2025-11-08, 12:56:49
und NPUs sind bei Zen7 offenbar auch durch die Bank völlig verschwunden.Wozu auch, wenn man das dann im Vorbeigehen mit AVX erledigen kann.

HOT
2025-11-08, 13:39:41
Granite Ridge -> N4 CCD 8 Kerne, 32MB L3$, N6 IOD IFOP, N6 VCache 64MB
Olympic Ridge -> N2P CCD 12 Kerne, 48MB L3$, N6 IOD mit LowLatency-Verbindung, N6 VCache 96MB
Grimlock Ridge -> A14 CCD 16 Kerne, 64MB L3$, N6 IOD mit LL-Verbindung, N4 VCache 160MB
Aber auch -> A14 CCD 8 Kerne, 32MB L3$, N6 IOD mit LL, kein VCache

The_Invisible
2025-11-08, 14:14:02
Ist aber auch krass, wenn man sich das überlegt, eine CPU mit 16 Kernen und 224MB L3$ als Spiele-X3D-CPU die ich einfach in mein X670E Pro X stecken kann ist schon echt übel. Ich würd dafür mal nicht weniger als 999$ ansetzen.

Wenn die Wohlfahrt AMD den nicht für 499 raushaut bin ich enttäuscht :D

dildo4u
2025-11-08, 14:24:54
1000€ kannst vergessen 16 Kerne sind ein Witz in 2028, das Top Modell muss mindestens 32 haben.
Wenn die 52 Kerne für Novalake Stimmen.

16 Pcore plus 32E

https://www.tomshardware.com/pc-components/cpus/intel-nova-lake-specs-leaked-up-to-52-cores-and-150w-of-tdp-for-intels-amd-zen-6-rival

iamthebear
2025-11-08, 14:59:22
Die Befürchtung die ich habe ist:
.) Der 8 Kern CCD kann keinen VCache aufnehmen und wird mit 32MB L3 kaum schneller sein als ein 9700X der ja schon extrem soeicherlimitiert ist.

.) Das 16 Kern CCD ist ca. 40% größer als Zen 5. Gleichzeitig ist bereits N2 schon doppelt so teuer als N5. A14 wird sicher noch einmal ein Stück rauf gehen mitten im AI Boom.
Das wird nicht billig werden.

Ich befürchte, dass der Preis pro Kern gleich bleiben wird und AMD nur das Portfolio nach oben erweitern wird.

Was Intel angeht so muss man einmal abwarten, ob die überhaupt einen konkurrenzfähigen Die auf den Markt bringen. Und die dual compute Tile Variante wird dieselben Probleme haben wie AMD aktuell.

Badesalz
2025-11-08, 15:27:04
1000€ kannst vergessen 16 Kerne sind ein Witz in 2028, das Top Modell muss mindestens 32 haben.
Wenn die 52 Kerne für Novalake Stimmen.Das wäre mir neu: Seit wann gibt Intel wieder den Takt an? Was deutet darauf, daß es bald wieder so sein könnte? Und wenn es 64E sind? Wayne? Bist du auch so ein Cinebench-Troll oder um was geht es?
Die Befürchtung die ich habe ist:
.) Der 8 Kern CCD kann keinen VCache aufnehmen und wird mit 32MB L3 kaum schneller sein als ein 9700X der ja schon extrem soeicherlimitiert ist.Ah. Verstehe. Du machst dir Gedanken, ob Zen7 nicht kaum schneller wird als Zen5. Verstehe :uclap:

bbott
2025-11-08, 18:34:26
Vor allem sind 63E Kerne wohl sehr wahrscheinlich TDP limitiert, laufen evtl. sogar unter sweet Spot.

Badesalz
2025-11-08, 18:41:11
Die core-flood ist daheim völlig uninteressant. Teilweise sogar kontraproduktiv, weil das Verwalten der Threads und der Kerne samt der ständigen Verschieberei ebenfalls Leistung kostet. Es gibt Sweetspots für alles...

Da das für Intel grad aber der einzige Strohhalm ist, schicken sie wieder einmal all die dildos los, damit diese uns die Welt nochmal genauer erklären. Ja, schon klar :uclap:

Der_Korken
2025-11-08, 19:41:58
Was sich auch toll anhört... endlich wird der Chiplet mit 98mm² einiges größer.

Hoffentlich profitiert davon die Thermik auch ordentlich.

Wo siehst du denn bei aktuellen CPUs ein thermisches Problem? Seit der 3D-Cache unten liegt, ist auch da alles im grünen Bereich. Ich würde mir eher Sorgen machen, dass der Sprung von N4P auf A14 nicht genug Effizienzverbesserungen mitbringt, um eine Verdopplung der Kerne bei gleichzeitig größeren (=durstigeren) Kernen kompensieren kann, sodass die Thermik schlechter ausfallen dürfte als bei einem 9800X3D.

Im neuen Video sagt er klar, dass das IOD relativ sicher N6 wird, von N3P war gar keine Rede mehr. Das ergibt für mich auch viel mehr Sinn. Und es wird weder LP-Cores noch eine NPU enthalten. Da das Ding weiterhin N6 ist, würde ich auch hier weiterhin auf RDNA2 tippen, nicht 3,5 oder 4.

LP-Cores und NPUs sind bei Zen7 offenbar auch durch die Bank völlig verschwunden.

Für mich weiterhin nicht nachvollziehbar. Zwischen N6 und A14 liegen dann knapp vier (!) Fullnode-Sprünge. Will AMD ernsthaft im Jahre 2028 (oder wann immer Zen 7 kommen soll) ernsthaft noch ihre Schrott-iGPU von 2022 verbauen, die keine 4K240 ausgeben kann und laut einiger Nutzer im Netz nicht mal alle 4K-Videos flüssig wiedergeben kann? Irgendwie habe ich so das Gefühl, dass alle die für Zen 6+7 auf niedrigen Idle-Verbrauch und eine moderne iGPU hoffen, die den 2D-Part im Desktop komplett übernehmen kann, bitter enttäuscht werden.

1000€ kannst vergessen 16 Kerne sind ein Witz in 2028, das Top Modell muss mindestens 32 haben.
Wenn die 52 Kerne für Novalake Stimmen.

Ich hatte das schon vor einiger Zeit im Nova-Lake-Thread geschrieben: Für mich ist dieses Konstrukt ein Rohrkrepierer. Die mit Abstand meistverkaufte Dekstop-CPU 2024 und 2025 ist ein Achtkerner, weil die allermeisten sie für Spiele brauchen. Die 2-CCD-Modelle sind eine Nische, die hohe MT-Leistung eines 9950X oder 285K wird kaum für etwas gebraucht. Was zur Hölle sollen die Leute mit nochmal doppelt so vielen Kernen anfangen? Zumal es weiterhin nur Dual-Channel ist. Weder Intel noch AMD wollen solche MT-Monster für <1000$ verkaufen, weil sie die 8-12-Kerner dann für <300$ verrammschen müssten und ehrlicherweise kaum jemand mehr brauchen wird im Desktop. Es sei denn, sie betreiben absurdes Upselling, z.B. -500Mhz Takt für alle 1-CCD-Modelle und 3D-Cache ausschließlich für die 2-CCD-Modelle.


Ah. Verstehe. Du machst dir Gedanken, ob Zen7 nicht kaum schneller wird als Zen5. Verstehe :uclap:

Bei Gaming- oder ST-Workloads ohne Vektorisierung wäre ich nach wie vor skeptisch, ob AMD überhaupt großes Interesse hat sich hier groß zu verbessern. Bei Zen 5 wurde gerade erst die FPU komplett verdoppelt (inkl. Register!), während andere Bereiche zwar auf dem Papier aufgebohrt wurden, aber wenig Ertrag bei rausgekommen ist. Die Decoder wurden zwar auch verdoppelt, können aber ohne SMT nur zur Hälfte genutzt werden und das ganze Frontend ist laut Chips&Cheese komplett latenzlimitiert (deutlich mehr als Zen 4). Einzig der 3D-Cache hält Zen 5 in Games am Leben. Ohne 3D-Cache sieht Zen 5 selbst gegen die "Gaming-Krücke" Arrow Lake mies aus.

Jetzt kam erst heute oder gestern die Meldung, dass Zen 6 Support für schnellere INT8/FP8/FP16-Instruktionen bekommt - also wieder eine Vektor-Verbesserung. In den HPC-Benchmarks auf Phoronix wird das Teil wie bereits Zen 5 sicherlich gut abgehen, aber ob für die Schwuppdizität auf normalen Consumer-Geräten viel rumkommen wird, bleibt imho fraglich. Als die M5-Benches neulich rauskamen, hab ich noch gesagt, es würde mich nicht wundern, wenn AMD die ST-Leistung des M5 selbst mit Zen 7 nicht erreichen wird.

Badesalz
2025-11-08, 21:07:47
Die Decoder wurden zwar auch verdoppelt, können aber ohne SMT nur zur Hälfte genutzt werden Wer macht denn SMT aus?
und das ganze Frontend ist laut Chips&Cheese komplett latenzlimitiert (deutlich mehr als Zen 4).Sie haben ein ganze Weile wiederholt, daß mit Zen5 die Sprungschanze gebaut wurde, für Zen6 und Zen7.

Also ich bin auf Zen6 schon mehr gespannt als auf Zen5. Egal wie es ausgeht.

latiose88
2025-11-08, 21:13:18
Was bei Zen 6 wird es wie bei Zen 5 weiter aufgebort.Ich hatte bei Zen 5 keine steigerung gehabt.Es verpufft also mal wieder das ganze.Wenn wenigstens dann Zen 6 sparsamer werden würde und bei den Temperaturen besser abschneiden,wäre das durchaus eine Option gewesen,aber das ist ja bestimmt nicht der Fall.

Badesalz
2025-11-08, 21:26:52
Wenn sie diesmal beim non-X3D keinen signifikanten Schritt machen können wird es diesmal Shitstorms geben. Ich nehme einfach so an, sie wissen das...

Der_Korken
2025-11-08, 21:27:27
Wer macht denn SMT aus?
Sie haben ein ganze Weile wiederholt, daß mit Zen5 die Sprungschanze gebaut wurde, für Zen6 und Zen7.

Also ich bin auf Zen6 schon mehr gespannt als auf Zen5. Egal wie es ausgeht.

Für SMT muss ich aber auch zwei Threads pro Kern haben. Meine Aussage ist nicht, dass Zen 5 eine schlechte Architektur ist, sondern dass ihre Stärken nicht da liegen, wo der durchschnittliche Gamer oder Consumer sie bräuchte. Insofern kann die Aussage mit der Sprungschanze auch so verstanden werden, dass Zen 6+7 gerade bei viel MT und Vektorisierung erst so richtig loslegen, während branchiger, latenziger und INTiger Code nur die Krumen abbekommt, die beim Aufbohren von FPU und Cache so abfallen.

Aber eigentlich wäre das im Zen-6-Thread besser aufgehoben.

dargo
2025-11-08, 21:46:58
Wo siehst du denn bei aktuellen CPUs ein thermisches Problem? Seit der 3D-Cache unten liegt, ist auch da alles im grünen Bereich.
Über 80°C wenn die CPU mal etwas gefordert wird finde ich jetzt auch nicht so super prickelnd. Angeblich auch noch mit Wakü.
https://youtu.be/Ti1P9-iPk9o?si=OHZqaIo7WO2JtiKb&t=206

Scheinbar wirds ihr auch schon etwas zu warm da der Takt gedrosselt wird. Unter 70°C liegen jedenfalls noch >5,2Ghz an.

iamthebear
2025-11-08, 21:52:59
Ah. Verstehe. Du machst dir Gedanken, ob Zen7 nicht kaum schneller wird als Zen5. Verstehe :uclap:

Zen 5 ohne VCache ist großteils DRAM limitiert. Das hat man ja gut beim 9700X vs. 7700X gesehen. Das wird mit noch mehr Compute Performance kaum besser werden.
An der Speicherlatenz wird sich nicht viel ändern. Der L3 bleibt auch gleicht. Wo soll da die Performancesteoigerung herkommen? Gut etwas schneller wird es sein, aber es würde mich wundern wenn 8 Kern Zen 7 den 7800X3D schlagen würde, der ja dann schon 6 Jahre alt ist.

Der_Korken
2025-11-08, 22:20:11
Zen 5 ohne VCache ist großteils DRAM limitiert. Das hat man ja gut beim 9700X vs. 7700X gesehen. Das wird mit noch mehr Compute Performance kaum besser werden.
An der Speicherlatenz wird sich nicht viel ändern. Der L3 bleibt auch gleicht. Wo soll da die Performancesteoigerung herkommen? Gut etwas schneller wird es sein, aber es würde mich wundern wenn 8 Kern Zen 7 den 7800X3D schlagen würde, der ja dann schon 6 Jahre alt ist.

Man muss bei Zen 5 noch den IOD berücksichtigen, der imho selbst für Zen 4 schon etwas schwach ausgefallen ist. Die IFOP-Bandbreite eines CCDs reicht gerade mal aus, um 2/3 des Lesedurchsatzes und 1/3 des Schreibdurchsatzes von DDR5 6000 auszureizen. Der 9700X läuft also "quasi" nur mit DDR4 4000.

Edit:

Über 80°C wenn die CPU mal etwas gefordert wird finde ich jetzt auch nicht so super prickelnd. Angeblich auch noch mit Wakü.
https://youtu.be/Ti1P9-iPk9o?si=OHZqaIo7WO2JtiKb&t=206

Scheinbar wirds ihr auch schon etwas zu warm da der Takt gedrosselt wird. Unter 70°C liegen jedenfalls noch >5,2Ghz an.

Naja, durchgehend >100W CPU-Power (nicht Package Power!). Da machste halt nix. 16 Zen-7-Kerne werden nicht weniger verbrauchen, wenn man sie lässt - alles eine Frage des Powerlimits.

aceCrasher
2025-11-08, 22:27:21
Gut etwas schneller wird es sein, aber es würde mich wundern wenn 8 Kern Zen 7 den 7800X3D schlagen würde, der ja dann schon 6 Jahre alt ist.
Der 8-Kern Zen 7 wird laut den Leaks 64MB L3$ haben + alle Verbesserungen seit Zen 4, ich bin mir ziemlich sicher dass der deutlich schneller sein wird als ein 7800X3D. Ich bin glaube sogar dass ein 8-Kern Zen 6 mit 48MB L3$ schneller als ein 7800X3D sein wird, neuem IOD und höherem Takt sei dank.

Badesalz
2025-11-08, 23:00:05
Zen 5 ohne VCache ist großteils DRAM limitiert. Das hat man ja gut beim 9700X vs. 7700X gesehen.Das hätte einem schon auffallen müssen als man sehen konnte wieviel Tuning von Speicher(timings) bringt...
Ist das aber nicht auch bei den Blauen so, daß sie voll am DRAM hängen? Das war eigentlich immer die blaue Domäne richtig Leistung über DRAM zu holen. tja
Dürfte aber bedeuten, daß auch die core-flood nichts bringt. Egal, ob Blau oder Grün.

sondern dass ihre Stärken nicht da liegen, wo der durchschnittliche Gamer oder Consumer sie bräuchte.Real ist 9800x3d 14% schneller im 7-zip als 7800x3d. 16% schneller im Photoshop (Puget). In Games waren die Steigerungen der minFPS und die glatten Frametimes teilweise richtig fett.
Keine Ahnung grad warum es unwahrscheinlich sein soll wenigstens das beizubehalten. Grad wo es anscheinend wieder Taktsprünge geben soll. Wovon ich nicht glaube, daß sie dafür die Pipeline groß in die Länge ziehen werden.

Der_Korken
2025-11-09, 00:33:12
Das hätte einem schon auffallen müssen als man sehen konnte wieviel Tuning von Speicher(timings) bringt...
Ist das aber nicht auch bei den Blauen so, daß sie voll am DRAM hängen? Das war eigentlich immer die blaue Domäne richtig Leistung über DRAM zu holen.


Ich fand eher, dass AMD historisch deutlich mehr RAM hing als Intel. Zen 1 und 2 hatten deutlich höhere absoluten Latenzen (+20ns) als die damals kurzen Ring-Busse von Skylake, wodurch logischerweise AMD mehr RAM-limitiert war (gerade Zen+ ging richtig ab mit RAM-Tuning). Zen 3 weiß ich nicht mehr. Zen 4 ohne 3D-Cache war gegenüber Raptor Lake aber wieder deutlich abhängiger. HWUB hatte das mal getestet und so aus dem Gedächtnis war der Unterschied zwischen DDR5 5200 mit schlechen Timings und DDR5 6000 mit EXPO/XMP ca. 15-20% auf Zen 4, 8-10% auf Raptor Lake und 5-8% auf Zen 4 X3D. Von Zen 5 habe ich solche Tests bisher nicht gesehen, d.h. keine Ahnung wie es sich zu Arrow Lake verhält. Durch den 9800X3D ist das RAM-Tuning halt eh relativ witzlos geworden.


Real ist 9800x3d 14% schneller im 7-zip als 7800x3d. 16% schneller im Photoshop (Puget). In Games waren die Steigerungen der minFPS und die glatten Frametimes teilweise richtig fett.
Keine Ahnung grad warum es unwahrscheinlich sein soll wenigstens das beizubehalten. Grad wo es anscheinend wieder Taktsprünge geben soll. Wovon ich nicht glaube, daß sie dafür die Pipeline groß in die Länge ziehen werden.

Dafür dass davon noch 4% Takt sind, finde ich den Gewinn schon dürftig für knapp 2 Jahre Entwicklungszeit. Persönlich hoffe ich natürlich auch auf einen starken Zen 6 (oder 7), weil ich meinen Zen 3 doch so langsam mal in Rente schicken möchte, aber ich habe mir angewöhnt lieber Gerüchte lieber pessimistisch zu deuten. Was bezüglich Zen 5 im Vorfeld spekuliert wurde, war ja jenseits von Gut und Böse. Selbst zu Zen 4 gab es ein paar Monate vor dem Launch noch "Leaks" von MLID dass Zen 4 angeblich +25% IPC haben sollte.

Skysnake
2025-11-09, 07:01:33
Ich hatte das schon vor einiger Zeit im Nova-Lake-Thread geschrieben: Für mich ist dieses Konstrukt ein Rohrkrepierer. Die mit Abstand meistverkaufte Dekstop-CPU 2024 und 2025 ist ein Achtkerner, weil die allermeisten sie für Spiele brauchen. Die 2-CCD-Modelle sind eine Nische, die hohe MT-Leistung eines 9950X oder 285K wird kaum für etwas gebraucht. Was zur Hölle sollen die Leute mit nochmal doppelt so vielen Kernen anfangen? Zumal es weiterhin nur Dual-Channel ist. Weder Intel noch AMD wollen solche MT-Monster für <1000$ verkaufen, weil sie die 8-12-Kerner dann für <300$ verrammschen müssten und ehrlicherweise kaum jemand mehr brauchen wird im Desktop. Es sei denn, sie betreiben absurdes Upselling, z.B. -500Mhz Takt für alle 1-CCD-Modelle und 3D-Cache ausschließlich für die 2-CCD-Modelle.

Was bringt mir bitte upsellung im Consumer Bereich? Selbst im professionellen Bereich ist Intels Upselling mit GR-AP in die Hose gegangen und da gibt es ja sogar noch vergleichsweise viele Anwendungsfälle die man einfach 1:1 skalieren kann.

Im Desktop Umfeld ist ST Leistung einfach der Killer und mit noch mehr Kernen musst du entweder die TDP anheben. Das Zeug was du nicht nutzt vergrößert ja die Latenzen UND zieht selbst auch etwas Power. Es bringt also einfach nichts....



Bei Gaming- oder ST-Workloads ohne Vektorisierung wäre ich nach wie vor skeptisch, ob AMD überhaupt großes Interesse hat sich hier groß zu verbessern. Bei Zen 5 wurde gerade erst die FPU komplett verdoppelt (inkl. Register!), während andere Bereiche zwar auf dem Papier aufgebohrt wurden, aber wenig Ertrag bei rausgekommen ist. Die Decoder wurden zwar auch verdoppelt, können aber ohne SMT nur zur Hälfte genutzt werden und das ganze Frontend ist laut Chips&Cheese komplett latenzlimitiert (deutlich mehr als Zen 4). Einzig der 3D-Cache hält Zen 5 in Games am Leben. Ohne 3D-Cache sieht Zen 5 selbst gegen die "Gaming-Krücke" Arrow Lake mies aus.

Ähm die Register wurden nicht verdoppelt. Man ist "nur" von AVX512 2 cycle auf AVX512 1 cycle execution gegangen. Hat also die breite der bestehenden! FPUs verdoppelt.



Jetzt kam erst heute oder gestern die Meldung, dass Zen 6 Support für schnellere INT8/FP8/FP16-Instruktionen bekommt - also wieder eine Vektor-Verbesserung. In den HPC-Benchmarks auf Phoronix wird das Teil wie bereits Zen 5 sicherlich gut abgehen, aber ob für die Schwuppdizität auf normalen Consumer-Geräten viel rumkommen wird, bleibt imho fraglich. Als die M5-Benches neulich rauskamen, hab ich noch gesagt, es würde mich nicht wundern, wenn AMD die ST-Leistung des M5 selbst mit Zen 7 nicht erreichen wird.

Bitte Bitte solche dünnbrett Werte nicht mit HPC assoziieren. Das hat nichts aber auch rein gar nichts mit HPC zu tun sondern rein mit AI. Ansonsten nutzt das niemand....

Beim Vergleich mit M5 muss man aufpassen. RISC vs CISC. Man kann Instruktionen also nicht einfach 1:1 verrechnen. Am Ende kommt es darauf an wie schnell eine Aufgabe erledigt wird und da kann CISC im Zweifel mit weniger Instruktionen schneller am Ziel sein.

Bei sehr einfach gehaltenem Code kann aber natürlich RISC auch schneller sein weil man eben den ganzen Ballast gar nicht mitschleppen muss der hier und da mal die Latenzen erhöht.

Vermutlich wichtiger wird aber wohl die Sklairungsgröße sein. Zumindest mit AMDs Chipkets kann ich ja viel viel größere Systeme bauen als mit M5.

Das sind einfach unterschiedliche Designziele. Da sollte es nicht verwundern das AMD und Intel in dem Designziel von Apple eben schlechter abschneidet. Dafür sind Sie halt sonst nicht gefährdet und Apple hat man als Kunden verloren. Die machen ihr eigenes Ding.

Badesalz
2025-11-09, 08:25:19
Durch den 9800X3D ist das RAM-Tuning halt eh relativ witzlos geworden.Das hat bei uns hier u.a. Lehdro gemacht und ich bin mir 100% sicher - da ich es mitverfolgt habe - daß er darüber das Gegenteil erzählen kann :|
Dafür dass davon noch 4% Takt sind, finde ich den Gewinn schon dürftig für knapp 2 Jahre Entwicklungszeit.Wobei aber, an der Stelle hast du auch irgendwie Recht, aber das ist trotzdem nicht die implizierte Stagnation. Das Fähnchen im Winde muss nicht oder?

robbitop
2025-11-09, 09:15:16
Zen 5 ohne VCache ist großteils DRAM limitiert. Das hat man ja gut beim 9700X vs. 7700X gesehen. Das wird mit noch mehr Compute Performance kaum besser werden.
An der Speicherlatenz wird sich nicht viel ändern. Der L3 bleibt auch gleicht. Wo soll da die Performancesteoigerung herkommen? Gut etwas schneller wird es sein, aber es würde mich wundern wenn 8 Kern Zen 7 den 7800X3D schlagen würde, der ja dann schon 6 Jahre alt ist.

Pro CCD werden es doch 12 Cores ab Zen 6. Entsprechend gibt es doch auch 50% mehr L3 Cache oder hat sich das schon revidiert?

HOT
2025-11-09, 09:16:04
Richtig. 32MB Zen5, 48MB Zen6 und 64MB Zen7.

Badesalz
2025-11-09, 09:24:36
Richtig. 32MB Zen5, 48MB Zen6 und 64MB Zen7.Hat der iamthebear nur vergessen. Nur kurz vergessen...

latiose88
2025-11-09, 12:41:54
Was bringt mir bitte upsellung
Ist upselling nicht mit noch mehr Kernen verbunden als eh schon vorhanden sind ?


Im Desktop Umfeld ist ST Leistung einfach der Killer und mit noch mehr Kernen musst du entweder die TDP anheben. Das Zeug was du nicht nutzt vergrößert ja die Latenzen UND zieht selbst auch etwas Power. Es bringt also einfach nichts....
.

Das heißt was du sagst das die Einheiten nicht ganz ausgelastet worden weil bestimmte Befehle eben brach liegen aber dennoch Strom brauchen. Wie als Beispiel wo man mehr Kerne hat ,diese zwar ausgelastet werden aber nie zu 100 % und das obwohl man smt abgeschaltet hatte. Wenn man dann den Turbo Modus etwas erhöht weil eigentlich nur ein pro Kern aber dieser dann für alle Kerne hoch schraubt . Durch das erhöht sich ja auch die Temperatur aber der Gewinn ist sehr gering. Wenn da aber dann wie im meinem Fall nur die Temperatur steigt aber der Stromverbrauch gleich bleibt aber die Leistung minimal nach oben geht,wie sieht es denn dann so aus?

OgrEGT
2025-11-09, 12:54:18
Ich weiß nicht welche Software du da nutzt aber diese scheint bestimmte Rechenoperationen zu nutzen die ggf auf den modernen CPUs keine steigende Rolle mehr spielen und entsprechend nicht mehr skaliert werden...?
Will sagen dass die Kerne mit den Operationen deiner Software gar nicht ausgelastet werden können...
Hinzu kommt ggf dass die Software nicht gut über viele Kerne skalieren kann...
So wie ich dich verstanden habe lässt du immer mehrere Instanzen des gleichen Programms parallel laufen... das hieße du würdest für weitere Leistung immer noch mehr Kerne für mehr Instanzen benötigen die aber alle dann nicht optimal ausgelastet laufen werden... da stellt sich natürlich irgendwann auch die Kosten/Nutzen Frage...

Badesalz
2025-11-09, 13:01:31
Befehle liegen brach... my Lord :usad:

latiose88
2025-11-09, 13:37:41
@OgrEGT
Genau so ist es. Es ist sogar noch schlimmer als du geschrieben hast.
Ich hatte einen 24 kernen wie threadripper 7960x gehabt. Der konnte sich vom 16 kernen nicht absetzen. Obwohl ich smt sogar abgeschaltet hatte . Mit smt wäre es wohl bei 40 % Auslastung gewesen.
Nun ja die CPU habe ich nicht mehr. Habe bald das ganze Geld zurück bekommen von dem wo ich es gekauft hatte .
Und das obwohl ich 2 Instanzen gleichzeitig ausführe. Naja letzendes wird es am Ende sogar ein 265k . Er mag zwar weniger Threads haben aber ist perfekt ausgelastet und ist sogar schneller als der 9950x oder 7950x .
Ich Frage mich also was für Vorteile ich von Zen 6 oder so haben könnte wenn ich weiter warten würde. Mir liegen alle Ergebnisse dieser genannten CPUs vor und kann daher gut beurteilen wie meine Software sich verhält .
Ich könnte also auch ein Zen 4 cpu wie den 7950x nehmen weil ne Steigerung gibt es null bei mir.
Villeicht wird ja dann bei gleicher Leistung Zen 6 sogar sparsamer aber ich glaube das nicht.
Oder was passiert wenn die Steigerung ganz brach liegen würde ,sinkt dann der Stromverbrauch oder bleibt dann alles gleich ?
Denn mehr Leistung erwarte ich nicht. Was ich auch ganz erstaunt war ist ,obwohl der 8 Kerner so wenig Kerne hat ,ist dieser nur 10 % hinter einem 16 Kerner gewesen. Normalweise ist die Leistung ja zumindest 50 % höher beim 16 Kerner.
Nur bei super schlecht skalieren der Software kommt so ein Ergebnis zu Stande. Ich scheine eine super schlechte Software zu verwenden. Oder Zen 5 skalierte nur bei optimaler Nutzung richtig davon . Zwischen 7700 und 9700x gibt es jedenfalls ne starke Steigerung . Genau so wie man es zwischen Zen 4 und Zen 5 auch erwartet.
Zwischen 265k und 285k gibt es auch einen Unterschied und der ist bei rund 3% Unterschied. Zumindest da gibt es bei Intel noch eine kleine Steigerung. Aber aufgrund der Preis unterschied ,lohnt sich das nicht für mich.

Nun bei dir die Frage . Wenn du weißt wie genau bei dir die Software skaliert und du auch die genauen Prozente es ne Steigerung geben wird,was würdest du mit diesen Infos machen. Und die Infos beeinflusst ja auch gut den Kauf . Der 265k ist also bei mir 15 % schneller als der 9950x . Der 245k dürfte auf dem Level wie der 9700x bei Leistung sein wenn nicht sogar 5% über dem. Das ist nur eine Rechnung weil die Werte dieser CPU liegen mir nicht mehr vor.
Das heißt wenn das stimmt dürfte der 245k ein 14 Kerner 5 % hinter dem 9950x bei der Leistung landen.

Selbst das wäre ja schon beeindruckend . Aber so viel Geld würde ich dabei ja nicht mehr sparen. Was sind schon 60 € weniger kosten ,wenn man dann um die 20 % weniger Leistung haben würde.

Ich verfolge dennoch wie sich Zen 6 so entwickelt. Auch wenn mir die Anzahl der Kerne die mehr wird nic bringen. Dann bliebe am Ende nur noch mehr Takt übrig. Das ist für ein Kauf wohl zu wenig. Zumindest für die meisten wäre es das. IPC null ,mehr Kerne null. Vielleicht habe ich ja Glück und es werden dann 500-600 MHz mehr Takt . Oder aufgrund der zu geringen Auslastung ,erhöht sich der Takt. Ich weiter. Das wäre cool aber ich glaube selbst nicht daran.
Ich finde es dennoch interessant wie stark ich mich von den anderen unterscheide . Ob man das als positiv oder negativ sehen kann ,sieht ja jeder anderst.

Skysnake
2025-11-09, 13:51:56
Du schreibst ziemlich wirres Zeug. Da versteht ni3mand so recht was du willst.

Es geht darum, daß es z.b. Codes gibt die keinen Vektoecode verwenden. Die profitieren also genau 0 von allen Verbesserungen in den Vektoreinheiten.

Dann gibt es Codes die skalieren ab einer gewissen Thread Größe einfach nicht mehr weil die typischen Probleme zu klein sind oder das Schema halt einfach Mist ist.

Auf HW Seite ist es z.b. viel einfach 8 Kerne zu Verbinden als 16 oder gar 128. Selbst wenn du nur wenige nutzt wird deine Latenz höher sein. Usw usf.

Sprich wenn di niedrigere Absolute Ziele setzt bezüglich amaximaler aggregierter Leistung dann kannst du hier und da noch ein paar Prozent rausholen.

Am Ende ist halt immer die Frage wie viel Spezialisierung kann man sich leisten.

latiose88
2025-11-09, 14:23:47
@skynake

Ja sorry das es für euch so verwirrend rüber kommt .
Gibt es so ein Spezial Fall auch wo die keinen Vektoecode verwenden und gleichzeitig die typischen Probleme zu klein sind. So das es dann keine Skalierung mehr gibt.
Takt scheint wohl noch zu helfen. Auch wenn ich beim 24 Kerner den Turbo Takt angehoben hatte ,da gab es noch eine kleine Steigerung. So das die CPU am Ende nicht schlechter als der 16 Kerner ist. Ich weiß 20/ MHz sind nicht viel aber wenn das die temperaur um 10 Grad anhebt ist es halt nicht mehr so lustig. 90 Grad ist für mich nicht mehr wenig.

Dann ist halt da das Ende angekommen. Ich dachte bei CPU Intel und AMD hätten ähnliche Aufbau . Aber scheinbar unterscheidet sich Intel zur Zeit doch noch etwas von AMD.
Die meisten profitieren nicht davon wie Intel aufgebaut ist. Ich tue das ja schon. Es heißt ja immer bei Intel ist x86 stärker ausgeprägt als bei AMD. Ob das aber stimmt ist ne andere Sache.

Und wie du schon sagst wird wohl bei weniger Kernen die Probleme groß genug sein. Zumindest die CPU ist völlig überfordert und so richtig 100 % ausgelastet. So das jede Verbreiterung der CPU hilft es besser abzuarbeiten.
Darum gibt es ja auch zwischen ryzen 7 7700x und ryzen 7 9700x ganze 20 % mehr Leistung .
Ich dachte immer wenn eine CPU richtig überfordert wäre ,das es dann nicht mehr viel bringen würde.
Sowas ist bei euch ja normal das es Steigerung gibt. Das ich das bei so wenig Kernen erlebe ist mal eine erfreuliche Sache. Dann müsste ja auch ein Zen 6 12 Kerner ware wunder vollbringen. Dieser wird dann zumindest die selbe Leistung haben wie ein 16 Kerner .
Aber der Preis wird wirklich sehr hoch ausfallen. Kann mir nicht vorstellen das AMD da nicht ordentlich zulangen wird.

Das wird wohl auf AMD Seite die Konter CPU schlechthin für mich sein. Aber für mich wird diese CPU zu spät kommen. Warum das wenn man die Leistung dann schon haben wird weil ich mit Sicherheit nicht mehr warten will ,dann ist das so .

PS was denn für eine Latenz . Meinst du damit die Core to Core damit. Die 2 chiplet Sache oder ? Also die Chance Latenz scheint es wohl nicht zu sein. Woher ich das weiß weil ich mal die Cache Test auf diese Software mit einem Tool habe machen lassen. Selbst beim Zen 3 war die Cache Latenz gering . Die spielt bei der Software keine Rolle .
Ob die Core to Core Latenz eine spielt ,kann ich leider nicht beurteilen. Oder kann man das aufgrund der Ergebnisse wo ich geschildert hatte es sehr wohl ? Weil ja ein 8 Kerner dieses Problem nicht hat aber ein 16 oder 12 er schon. Zumindest war ein Zen 4 12 Kerner ganz schön abgeschlagen bei der Leistung gewesen. Ob es bei Zen 5 auch so ist ne gute Frage.

bbott
2025-11-09, 14:58:39
@latiose88
Klar unterscheiden sich AMD und Intel CPUs seit Generationen immens im internen Aufbau. Die letzten sehr ähnlich bis identischen dürften, die 486er gewesen sein.
Der C2D (2,2 Ghz) war beim xvid Decoder bei mir ca 40% schneller als mein Athlon X2, ABER ich konnte auf dem X2 eine zweite Instanz starten. Dann war der X2 viel schneller als der C2D mit einer Instanz. Der X2 war noch bedienbar und Surfen Office etc. Möglich bis hin zu einfacheren alten Games. Habe ich nun auf dem C2D eine weitere Instanz gestartet, ging suf dem System nichts mehr, 0 bis 5 fps (beide stream) statt 26 fps und das Sytemen war unbedienbar, minutenlang eine Maus- und Tastatureingaben, möglich.


Wenn das IOD keine NPU erhällt, als auch kein CPU Mini Kerne, keine viel bessere iGPU? Was bleibt denn dann noch?!
PCIe wird bei 5.0 bleiben, mehr Lanes sind nicht möglich. Dann bleibt nur noch der Memory Controller und Energie Effizenz, welche aber eigentlich durch das Packeting verbessert werden.
Da das IOD für Zen 6 und 7 sehr wahrscheinlich gleich sein werden, wird man aber lange auf NPU verzichten müssen und die GPU am besten noch RDNA2?!

Badesalz
2025-11-09, 15:04:32
Wenn das IOD keine NPU erhällt, als auch kein CPU Mini Kerne, keine viel bessere iGPU? Was bleibt denn dann noch?!Wie lief das denn vor dem ganzen Chichi?
Das worauf es bei CPUs schon immer ankam? Rechenleistung samt Perf/Watt?

OgrEGT
2025-11-09, 15:07:13
Passt doch? Wozu den ganzen NPU LPE Kram im Desktop? RDNA2 für Bildausgabe langt doch auch?
Klar im Notebook wärs was anderes bzw. APUs für bspw. HTPC... da macht LPE und RDNA4 / FSR4 / Redstone mehr Sinn...
Edit
BS war schneller...

latiose88
2025-11-09, 15:13:57
@bbott
Nun ja das war damals so gewesen. Heute ist das ja nicht mehr so . Wenn eine CPU schneller ist das eine . Wenn man aber trotzdem alles bedienen kann ist es das andere. Oder willst du damit sagen wenn man alles noch bedienen kann dann ist die CPU nicht zu 100 % ausgelastet ? Und wenn man in der Zeit nix machen außer diese Anwendung die richtig ordentlich Leistung kostet zu verwenden . Dann lohnt es sich ja schon. Wenn ich aber noch eine dritte Sache nebenbei mache wie zocken ,dann dürfte es interessant werden. Da dürfte dann gewiss der ryzen 9 7950x bzw 9950x dann schneller sein. Aber gut ,sowas hatte ich früher mal gemacht gehabt. Am Ende war das aber ziemlich umständlich gewesen. Ich musste dafür nämlich process Lasso verwenden.
Ob ich das wieder so machen werde ,weiß ich nicht.
Man muss aber auch dazu sagen das ich nur 4 Kern spiele verwende. Darum ging das auch prima . Bei Spielen die mehr als 4 Kerne verwenden wird es hingegen sehr schwer werden.

Nightspider
2025-11-09, 15:15:06
Es ist doch überhaupt noch nicht gesichert in welchem Prozess oder in welchen Prozessen der oder die IO Dies für Zen6 / Zen7 kommen und RDNA2 ist nichts weiter als eine Mutmaßung von HOT.

AMD wollte letzte Woche noch RDNA2 absägen aber hier kann ja jeder glauben was er will.

The_Invisible
2025-11-09, 15:23:03
Es ist doch überhaupt noch nicht gesichert in welchem Prozess oder in welchen Prozessen der oder die IO Dies für Zen6 / Zen7 kommen und RDNA2 ist nichts weiter als eine Mutmaßung von HOT.

AMD wollte letzte Woche noch RDNA2 absägen aber hier kann ja jeder glauben was er will.

Vor allem gaga wenn man dann folien zu zen7 sieht die irgendeinen uplift zu zen6 zeigen der ja selbst noch gerücht zwecks specs ist.

Der Hype bei AMD läuft, da machen selbst so fails wie die treibergeschichte nix :freak:

Badesalz
2025-11-09, 16:56:19
Der Hype bei AMD läuft, da machen selbst so fails wie die treibergeschichte nix :freak:Ja auch damit hinken sie aktuell noch ein Stückchen Nvidia hinterher :uup:

latiose88
2025-11-09, 19:33:23
@bbott so wie damals ist es ja heutzutage nicht mehr,das der Pc nicht mehr zu bedinen ist.Liegt wohl daran das selbst ein Core Ultra 7 265k auch 20 Kerne hat.Das heißt das die CPU zwar voll ausgelastet ist aber nicht so viel das sich der Pc nicht mehr zu bedinen lässt.Finde ich gut so das es nicht mehr so wie Früher ist.Scheinbar hat sich auch Intel bei MC gut verändert.

HOT
2025-11-09, 20:35:10
Es ist doch überhaupt noch nicht gesichert in welchem Prozess oder in welchen Prozessen der oder die IO Dies für Zen6 / Zen7 kommen und RDNA2 ist nichts weiter als eine Mutmaßung von HOT.

AMD wollte letzte Woche noch RDNA2 absägen aber hier kann ja jeder glauben was er will.

Sie wollten die Optimierung von RDNA2 herunterfahren und sicherlich nur alle 3 Monate ein Update bringen, das kann aber noch bis 2030 so weitergehen. Der Treiber ist kein Hindernis.

Ich habe das gemutmaßt, weil RDNA2 in 6nm existiert und man für die CPU nicht mehr braucht. Dann paart man das mit einem modernen Videoprozessor und gut.

Der Witz des neuen IODs sind nicht die Features, wäre ja eh teils sinnlos bei gleichem Sockel, sondern besseres Powermanagement,echter CUDIMM-Support und LowLatency.

Skysnake
2025-11-09, 20:58:19
@latiose88

Bitte nicht falsch verstehen aber du redest einfach nur irgendwelche wirren Sachen daher. Sorry da kann man nichts mit anfangen und es hinterlässt auch nicht den Eindruck als ob du auch nur irgendeine Ahnung von CPU Architekturen hättest. Du wirfst einfach alles mögliche in einen Topf ohne irgendwas zu erklären....

Ich weiß daher gar nicht wo ich anfangen soll zu erklären das du Dinge vermutlich nicht verstanden hast. Sorry, aber da scheint einfach nichts zu passen weil jegliche Grundlage fehlt.

Der_Korken
2025-11-09, 21:23:18
Ähm die Register wurden nicht verdoppelt. Man ist "nur" von AVX512 2 cycle auf AVX512 1 cycle execution gegangen. Hat also die breite der bestehenden! FPUs verdoppelt.

Bitte Bitte solche dünnbrett Werte nicht mit HPC assoziieren. Das hat nichts aber auch rein gar nichts mit HPC zu tun sondern rein mit AI. Ansonsten nutzt das niemand....


Die Anzahl der Register wurde auch von 192 auf 384 verdoppelt, während die INT-Register von 224 auf 240 fast gar nichts abbekommen haben (was laut Chips&Cheese öfters ein Bottleneck ist). Zumal die Registerbreite mit Zen 4 zuvor verdoppelt wurde (also >Faktor 4 Registerspace vs Zen 3!). Bei einigen 128bit-Instruktionen haben sich außerdem die Latenzen von Zen 4 zu Zen 5 verschlechtert (von 1 auf 2), was den Kern ohne die Verwendung von breiten Instruktionen natürlich schlecht aussehen lässt. Das alles ist schon ein ziemliches Statement von AMD, wo sie ihre Prioritäten sehen.

Dass low precision Formate, die angeblich mit Zen 6 kommen sollen, hauptsächlich für AI-Berechnungen genutzt werden können, passt da eben ins Bild, weil Zen 5 (und in Teilen auch Zen 4) dann das "Sprungbrett" wäre, um den Durchsatz für AI-Berechnungen nach oben zu schrauben. Die Aussage von Mike Clark wäre dann korrekt, aber nicht in der Weise, wie wir als Consumer uns das gewünscht hätten.


Vermutlich wichtiger wird aber wohl die Sklairungsgröße sein. Zumindest mit AMDs Chipkets kann ich ja viel viel größere Systeme bauen als mit M5.

Das sind einfach unterschiedliche Designziele. Da sollte es nicht verwundern das AMD und Intel in dem Designziel von Apple eben schlechter abschneidet. Dafür sind Sie halt sonst nicht gefährdet und Apple hat man als Kunden verloren. Die machen ihr eigenes Ding.

Sehe ich auch so. Oder überspitzt gesagt: Ryzen ist ein Abfallprodukt einer für Datacenter optimierten Architektur (sowohl innerhalb als auch zwischen den Kernen), die mit gestapeltem Riesencache auch in Spielen ganz passabel läuft. ST eher mittelmäßig, Effizienz außerhalb von Volllast eher meh.

Das hat bei uns hier u.a. Lehdro gemacht und ich bin mir 100% sicher - da ich es mitverfolgt habe - daß er darüber das Gegenteil erzählen kann :|
Wobei aber, an der Stelle hast du auch irgendwie Recht, aber das ist trotzdem nicht die implizierte Stagnation. Das Fähnchen im Winde muss nicht oder?

OK, wenn das mit dem 9800X3D anders ist, dann nehme ich das zurück. Beim 5800X3D und 7800X3D waren die Gewinne eher überschaubar.

Wegen Fähnchen im Wind: Ich sage ja nicht der Fortschritt wäre Null. Aber er ist gemessen an der Entwicklungszeit und früheren Zen-Iterationen eben sehr dürftig. Sowohl Zen 2, 3 und 4 haben taktbereinigt imho mehr gebracht als Zen 5, welcher wiederum das bisher größte Redesign der Zen-Serie war. Der Fortschritt landet halt. größtenteils bei vektorlastigen Code, siehe meine Ausführung oben im Post.

Sie wollten die Optimierung von RDNA2 herunterfahren und sicherlich nur alle 3 Monate ein Update bringen, das kann aber noch bis 2030 so weitergehen. Der Treiber ist kein Hindernis.

Ich habe das gemutmaßt, weil RDNA2 in 6nm existiert und man für die CPU nicht mehr braucht. Dann paart man das mit einem modernen Videoprozessor und gut.

Der Witz des neuen IODs sind nicht die Features, wäre ja eh teils sinnlos bei gleichem Sockel, sondern besseres Powermanagement,echter CUDIMM-Support und LowLatency.

Für die CUs mag man nicht mehr brauchen, aber der Videoprozessor gehört modernisiert und ich fände es - gerade auch in Hinblick auf Energieeffizienz - sehr komisch wenn AMD das alles nochmal im uralten N6 auflegt und das dann ernsthaft bis 2030 so lassen will. Da kann man die iGPU auch gleich wieder weglassen, wenn man damit auf einem modernen OLED nichtmal den Desktop in voller Auflösung und voller Bildfrequenz darstellen kann.

aceCrasher
2025-11-09, 21:31:24
@bbott so wie damals ist es ja heutzutage nicht mehr,das der Pc nicht mehr zu bedinen ist.Liegt wohl daran das selbst ein Core Ultra 7 265k auch 20 Kerne hat.Das heißt das die CPU zwar voll ausgelastet ist aber nicht so viel das sich der Pc nicht mehr zu bedinen lässt.Finde ich gut so das es nicht mehr so wie Früher ist.Scheinbar hat sich auch Intel bei MC gut verändert.
Liegt eigentliche eher daran dass ein halbweg kompetenter OS scheduler Nutzerinteraktionen und das UI priorisiert.

latiose88
2025-11-09, 22:55:50
@Skysnake

Wo liegt denn bei dir nun das Problem.Ich habe Praxisnahe Tests selbst durchgeführt.Um Ergebnisse von den CPUS zu erhalten mmuss ich nun keine Wissenschaft draus machen.Ich muss mich auch nicht ganz beim Aufbau der CPU auskennen um zu erkennen was Sache ist.
Ich merkte solche Sachen wie AVX 2 nur bei bestimmten Punkten ne kleine Leistungssteigerung führt.AVX 512 jedoch nicht mehr.Meine Anwendung ist mehr eine AVX 128 basierte Software.
Die Tatsache das ich 2 x das selbe Programmm benutzen muss um Optimal eine CPU mit mehr als 8 Kerne zu Nutzen,spricht auch nicht dafür das es wirklich guten Nutzen für viele Kerne hat.Auch andere Software braucht nur mehr den Ram als die CPU.Habe also vermehrt Programme die mehr Speicher als CPU Leistung brauchen.Bei Games sind es alte Games die teilweise mit neueren CPUS Probleme haben.Sehe ich ja bei Mini Pc Intel System.Es kann aber auch sein das es die Intel Onbard GPU ist die da Probleme macht.
Und was soll das ganze nun ändern,wenn mir alle erhältlichen CPUS die es zu kaufen gibt(bis auf den Ultra 5 235k,245k und einem 6 Kerner),habe ich alles selbst in der hand.
Gibt es die Möglichkeit wenn neuere CPUS wie Zen 6 bei nicht Optimaler Nutzung dann der Stromverbrauch nach unten gehen kann oder ist das ein Wunsch denken.
Ich meine damit,der 7950x lag wirklich bei 230 Watt,aber der 9950x lag auf einmal bei 260 Watt.Gleiche Einstellung,gleiche Software,gleiches Betriebsystem aber unterschiedliche Werte beim Stromverbrauch.
Eigentlich dachte ich ja bei Zen 5 das die CPU niemals höher als 230 Watt gehen könnte,wenn nicht eigentlich eine 200 Watt CPU.
Davon ist aber die Realität leider entfernt.Hoffe das es bei Zen 6 besser wird.Wobei mit den 12 Kerner naja ob das dann besser wird,ist ne andere Frage.Da der Allcore Takt mit Sicherheit steigen wird.Um wie viel weis ich doch nicht,das weis keiner so genau.AMD selbst wird es aber beim Testen wissen.

latiose88
2025-11-09, 23:02:33
@aceCrasher ja ok ,aber auch da gibt es grenzen.
Der Ryzen 7 9700x war das System dann Träge gewesen.Es stand 100% CPU last an.Die CPU wurde sogar heißer weil sie richtig voll Ausgelastet worden ist.Udn die 140 Watt ist bei einem 9700x nicht ohne.War selbst überascht gewesen,das so eine CPu das alles mit macht.Über die Temperatur hinaus ging die CPU zum Glück nicht.Damit ist klar,die 8 Kerne sind zu wenig für mich.Sowas würde ich einem System nicht antuen wollen.Die dann wohl sehr oft am Limit laufen würde.Das wäre dann CPU Qäulen am Ende. Da wird der beste OS scheduler nicht mehr helfen,bei CPU am Anschlag.Und es passierte auch das die Maus sich in Zeitlupe gelaufen ist.So eine Sache wie damalige Systeme es getan hatten.
Ich wollte alles aus einer CPU holen,aber irgendwann ist das Ende eben erreicht.mag sein das Zen 6 der unteren Sache da abhilfe schaffen wird.Billig wird das dennoch nicht.
Das gute ist der Extra Cache richtet bei mir nix aus.Da spare ich zumindest schon mal Geld.

Ich war damals sogar noch härter drauf gewesen und wollte sowas einem Laptop antuen.Gut das ich da keinen gekauft hatte.Der wäre nach 3-4 Jahren dann durch gewesen vor lauter Hitze.

Skysnake
2025-11-10, 06:32:50
Oh man...

Es kann zum Beispiel sein das eine Vektorinstruktion drin ist die AVX512 einschaltet was zu höherem Power draw bei Intel und den aktuellen AMD führt.

Bei Multichiplet musst du auch aufpassen ob du nicht Prozesse/Threads hast die wild hin und her springen. Gerade auch was den Cache anbelangt kann fad Fatal sein.

Und so geht es gerade weiter.

Und was heißt 100% Auslastung? Den CPU usage Wert aus dem OS? LOL das ist einfach nur time slices die vergeben werden. Das sagt überhauptnichts darüber aus was die Anwendung macht. Dir kann auch einfach bessy writing machen.

Wenn du wissen willst was deine CPU macht muss du dir das Pinning anschauen und die CPU Clountrr alles andere ist einfach nur bullshit.

Und ich gehe mal stark davon aus das deine Software einfach Rotz Code ist wie ein Großteil der Software. Vor allem Im privaten Bereich. Selbst kommerzielle Software ist ja oft genug einfach nur erbärmlich...

Aber wir wissen ja weder welches OS du verwendest noch welche Anwendung.

OgrEGT
2025-11-10, 07:20:39
Wie wäre es denn einen Latiose-MPEG-Software-CPU-Auslastung Thread zu erstellen wo wir uns ausschließlich zu diesem Thema austauschen können? Das Thema kommt bei jeder neuen CPU Spekulation immer wieder auf und passt zwar anfangs immer irgendwie dazu führt aber auch immer wieder zum derailen der jeweiligen CPU Threads...

latiose88
2025-11-10, 08:10:47
@skysnake danke dir für deine Antwort. Ich verwende Windows 10 aber bei den Test kam auch Windows 11 zum Einsatz.
Ändert nix dran,weil beide in der hinsicht gleich Arbeiten.
Und beide dürften das selbe Problem haben,Intel als auch AMD.Weil bei AMD 2 Chiplets und bei Intel die e Kerne und die P Kerne.Ich kann also nix genaueres sagen ,gehe auch davon aus die Arbeiten hin und her Wechseln.Konnte ich anfangs ganz stark beobachten.Nun da Ht weg ist hat sich das ganze nicht mehr so stark ausgeprägt gezeigt.Es spielt auch die Anzahl der Threads eine Rolle.
Und was meinst du mit CPU Clountrr ist das ein Tool oder verschrieben?
Und das mit der Auslastung wird vermutlich nur dann zu spüren sein,wenn sich der Pc nicht mehr so stabil anfühlt.

Das Problem wird mit Zen 6 sich ja ändern,dank der 12 Kerne pro Chiplet.

Tesseract
2025-11-10, 08:59:15
warum sollte das was ändern? wenn das system hängt baut der scheduler scheiße. wahrscheinlich windows, oder? da teilen sich alle threads mit gleicher priorität die cores und die mit IO (plattenzugriffe etc.) werden hochgestuft. wenn du irgendwas laufen hast was drölfzig threads mit IO erzeugt können andere threads die irgendwie an dem UI hängen (z.B. browsertab) verhungern. unter linux beispielweise bekommen prozesse per round robin immer regelmäßig CPU-zeit. wenn ein prozess drölfzig threads hat und ein anderer einen muss der eine nicht mit drölfzig anderen kämpfen sondern bekommt in regelmäßigen abständen einen core.

mach mal, nachdem dein programm gestartet wurde, den taskmanager auf und stell die priority auf below normal oder low, dann bleibt es wahrscheinlich auch nicht mehr hängen, egal ob die CPU 40 oder 4 cores hat.

latiose88
2025-11-10, 09:30:11
Ah OK also darum hat das Programm selbst auch diese Einstellung welche prioität zum Einstellen. Wenn man beide auf hoch stellt ,dann kann es also mal kommen das entweder der eine oder der andere mehr Beachtung bekommt und so kommt es das einer immer im Nachteil ist und der andere im Vorteil oder das beide gleich wenig sind und sich abwechselnd als Nummer eins sehen.
Durch das kommen dann unterschiedliche Ergebnisse dabei raus. Und der scheduler hat Probleme damit wenn zwei Programme gleichzeitig ein Wettkampf draus machen. Das habe ich noch garnicht beachtet. Ich kann das Ergebnis also selbst beeinflussen in dem ich einen fest als normal und den anderen als hoch einstufe.

robbitop
2025-11-10, 09:35:40
Naja RDNA2 wäre jetzt wirklich in neuen Produkten, wenn der Treiber in den Maintenance (aka Legacy) Mode geht wirklich ein komisches Zeichen. Auch wenn es akut kein Problem ist, sendet es an die Consumer trotzdem ein merkwürdiges Zeichen.

latiose88
2025-11-10, 09:50:34
Ja wenn sich onboard GPU bei AMD im Kreis dreht dann werden sich die wenigstens wegen einer onboard GPU Gedanken machen. Bei Intel gibt es ebenso keinen echten Fortschritt. Die Kooperation könnte AMD wohl unter Druck setzen. Bin gespannt was AMD da manchen wird.

HOT
2025-11-10, 10:57:30
[...]

Für die CUs mag man nicht mehr brauchen, aber der Videoprozessor gehört modernisiert und ich fände es - gerade auch in Hinblick auf Energieeffizienz - sehr komisch wenn AMD das alles nochmal im uralten N6 auflegt und das dann ernsthaft bis 2030 so lassen will. Da kann man die iGPU auch gleich wieder weglassen, wenn man damit auf einem modernen OLED nichtmal den Desktop in voller Auflösung und voller Bildfrequenz darstellen kann.


Ist ja nicht wahr, es macht ja Bild und genau das soll es ja tun. Wir werden aber sicherlich eine moderinisierte Ausgabe sehen, Videoprozessor und HDMI/DP 2.1 Support (mehr bps allerdings aber nur für neue AM5-Boards oder auch gar nicht sondern nur mobil).

Der_Korken
2025-11-10, 11:12:24
Ist ja nicht wahr, es macht ja Bild und genau das soll es ja tun. Wir werden aber sicherlich eine moderinisierte Ausgabe sehen, Videoprozessor und HDMI/DP 2.1 Support (mehr bps allerdings aber nur für neue AM5-Boards oder auch gar nicht sondern nur mobil).

"Irgendein" Bild ja, aber dass 4K240 auf einer 6 Jahre alten RX5700 gehen, aber auf einem ein Jahr alten Zen 5 nicht, ist schon ziemlich albern. Wenn ich den Monitor also eh immer an eine dGPU anschließen muss, kann ich mir den Diespace für die iGPU auch sparen. Das sind so Sachen, die mich komplett abfucken: Man baut eine Lösung zu 90% fertig und lässt die letzten 10% weg, sodass es entweder komplett den Nutzen verliert oder den User unnötigerweise zu Tode nervt.

HOT
2025-11-10, 11:14:20
Das macht man ja nur wegen der Kosten... wenn du mehr willst, kauf halt ne GPU. Wenn AM5 bis 2030 hält, wird man auch keine höheren Auflösungen bekommen mMn.

Skysnake
2025-11-10, 11:28:08
Ah OK also darum hat das Programm selbst auch diese Einstellung welche prioität zum Einstellen. Wenn man beide auf hoch stellt ,dann kann es also mal kommen das entweder der eine oder der andere mehr Beachtung bekommt und so kommt es das einer immer im Nachteil ist und der andere im Vorteil oder das beide gleich wenig sind und sich abwechselnd als Nummer eins sehen.
Durch das kommen dann unterschiedliche Ergebnisse dabei raus. Und der scheduler hat Probleme damit wenn zwei Programme gleichzeitig ein Wettkampf draus machen. Das habe ich noch garnicht beachtet. Ich kann das Ergebnis also selbst beeinflussen in dem ich einen fest als normal und den anderen als hoch einstufe.
Du bedenkt ganz ganz viele nicht...

Und das sind Dinge mit denen ich auf dem gleichen System mit der gleichen Software Unterschiede im Bereich von Faktoren bis zu 10x gesehen habe....

Von daher absoluter Bullshit. Du schaust dir nur an welche OS plus CPU Kombi besser mit Scheiße klarkommt....

latiose88
2025-11-10, 11:55:48
@skysnake
Ja ist doch so günstiger. Das macht doch jeder der nicht so viel Geld zur Verfügung flat um noch tuu viel Geld auszugeben. Warum sollte ich mehr ausgeben wollen wenn der Gewinn nicht vorhanden ist. Oder würdest du mehr ausgeben wenn du eh weißt das es nix bringt ? Und vorallem wenn andere Software ähnlich scheiße ist ,dann kommt man nicht aus . Wenn man also die Qual der Wahl hat ,dann bleibt nicht mehr viel übrig.
Bin gespannt auf die Antwort. Drauf verzichten ist jedenfalls keine Option und das Programmieren selbst lernen das ist zu komplex um das selbst zu schaffen. Also ich sehe da keine anderen Optionen.

OgrEGT
2025-11-10, 13:47:54
"Irgendein" Bild ja, aber dass 4K240 auf einer 6 Jahre alten RX5700 gehen, aber auf einem ein Jahr alten Zen 5 nicht, ist schon ziemlich albern. Wenn ich den Monitor also eh immer an eine dGPU anschließen muss, kann ich mir den Diespace für die iGPU auch sparen. Das sind so Sachen, die mich komplett abfucken: Man baut eine Lösung zu 90% fertig und lässt die letzten 10% weg, sodass es entweder komplett den Nutzen verliert oder den User unnötigerweise zu Tode nervt.
Mmn wärs auch nicht schlimm wenn diese Highend Desktop CPUs a la 10800X3D auch gar keine iGPU hätten... wenn dann nutzen diese doch i.d.R. nur kurzfristig bei dGPU Wechseln wenn überhaupt... nicht vergessen es gibt ja noch APUs wo bereits jetzt RDNA>3 verbaut ist...

Skysnake
2025-11-10, 14:05:30
@skysnake
Ja ist doch so günstiger. Das macht doch jeder der nicht so viel Geld zur Verfügung flat um noch tuu viel Geld auszugeben. Warum sollte ich mehr ausgeben wollen wenn der Gewinn nicht vorhanden ist. Oder würdest du mehr ausgeben wenn du eh weißt das es nix bringt ? Und vorallem wenn andere Software ähnlich scheiße ist ,dann kommt man nicht aus . Wenn man also die Qual der Wahl hat ,dann bleibt nicht mehr viel übrig.
Bin gespannt auf die Antwort. Drauf verzichten ist jedenfalls keine Option und das Programmieren selbst lernen das ist zu komplex um das selbst zu schaffen. Also ich sehe da keine anderen Optionen.

Ja wäre vermutlich sinnvoll. Das wird meiner Einschätzung nach in eine ziemliche Arbeit ausarten. Aber dann wäre es vielleicht mal erledigt und wir hätten auch etwas für die Allgemeinbildung getan.

Gibt ja leider doch viel zu wenig Leute dir Ahnung von solchen Dingen haben. Damit kämpfe ich leider beruflich regelmäßig...

Der_Korken
2025-11-10, 14:12:24
Mmn wärs auch nicht schlimm wenn diese Highend Desktop CPUs a la 10800X3D auch gar keine iGPU hätten... wenn dann nutzen diese doch i.d.R. nur kurzfristig bei dGPU Wechseln wenn überhaupt... nicht vergessen es gibt ja noch APUs wo bereits jetzt RDNA>3 verbaut ist...

Mein Anwendungsfall wäre Strom sparen und weniger Lautstärke. Mir geht der Verbrauch meiner 9070 bei Videos oder Bilder gucken mittlerweile auf den Sack, weil er gerade hoch genug ist, dass alle paar Minuten die Lüfter für 30 Sekunden anspringen. Und ehrlich gesagt sind 100W Systemverbrauch dafür auch unwürdig im Jahr 2025. Die Technik das alles ordentlich und effizient zu machen ist längst da und wird in APUs eingesetzt, aber im Desktop lässt man die letzten 10% weg, sodass es dort dann gar nicht mehr funktioniert.

bbott
2025-11-10, 15:18:07
Ich wollte damit sagen das bei 100% CPU load AMD CPUs eher IO Interrupt besser gemanagt haben, auch dürfte HT vs FSB einen Vorteil gebracht haben.

Lehdro
2025-11-10, 15:51:04
Das hat bei uns hier u.a. Lehdro gemacht und ich bin mir 100% sicher - da ich es mitverfolgt habe - daß er darüber das Gegenteil erzählen kann :|

OK, wenn das mit dem 9800X3D anders ist, dann nehme ich das zurück. Beim 5800X3D und 7800X3D waren die Gewinne eher überschaubar.

Sowohl für 5800X3D und 9800X3D bringt RAM Tuning noch spürbare Boosts - vorausgesetzt man ist überhaupt beim Memorysubsystem im Limit. Limitiert die Rechenleistung bzw. reicht der V-Cache um diese auszulasten (bei Zen 3 deutlich einfacher), geht da natürlich nicht mehr viel. Also extrem vom Game und auch dem Szenario dort abhängig.

PCGH hat beim 9800X3D Tuning durchschnittlich(!) >15% avg. & >20% lows gemessen, der Großteil davon kommt vom RAM Tuning, zumal deren CPU nicht einmal die vollen +200 FMAX mitmachte. Bei den lows z.B. habe ich bei mir auch ~20% Verbesserung gemessen, allerdings von EXPO 6000 CL30 auf 6000 CL28 handoptimiert. Averages stiegen da aber bei mir nur noch marginal, unter 10%, Sonderfälle ausgenommen. Die Raid/large scale PVP Szenarien in MMORPGs sind so ziemlich das ekelhafteste was mir untergekommen ist, da waren die Steigerungen deutlich drüber, da hat gerade der gemächliche 5800X3D noch einmal einen richtigen Nachbrenner gezündet mit stellenweise >33% mehr durchschnittlichen FPS und überproportionalen 1% low Zuwächsen. Der optimierte 9800X3D legt da oben drauf noch einmal >100% in den lows zu.

Zum Thema: Je mehr Zen 6 und Zen 7 unter Beibehaltung des alten I/O Dies (sofern das denn so stimmt) an Rechenleistung zulegen, umso wichtiger wird V-Cache und auch Speichertuning. Wäre schön wenn sich ein paar Hardwarejournalisten diesem Thema annehmen würden, wenn Zen 6 und dann 7 rauskommt. Also:
Alle 4 Gens mit einem festgelegtem "Stock" Speed und dann alle 4 mit optimierten 6400 CL28 o.ä.. Würde fast wetten das sich Zen 5 damit z.B. etwas deutlicher von Zen 4 absetzen würde...

Der_Korken
2025-11-10, 16:14:35
Für Zen 6 soll es einen neuen IOD geben, der laut MLID auch für Zen 7 genutzt werden soll. Klingt erstmal plausibel. Die Streitfrage ist, wieviel AMD in den IOD investiert, was Fertigung, iGPU und NPU/LPE-Cores angeht. Letztere sind laut MLID vom Tisch, bei der Fertigung ist von N6 bis N3 bisher alles mal irgendwo aufgetaucht, wobei N4 für mich am logischten klingen würde. N3 ist zu teuer und N6 imho nicht gut genug.

Edit: Mir fällt gerade auf, dass auf der MLID-Slide steht, dass der Zuwachs von Zen 7 auf Zen 7X3D bei 20% in non-gaming-Anwendungen liegen soll. Eine halbwegs genaue Schätzung ist zum jetzigen Zeitpunkt natürlich unmöglich, selbst wenn diese Information korrekt ist, aber es würde zeigen, dass AMD selber davon ausgeht, dass ein 3D-Cache in Zukunft schlicht benötigt wird, um aus den Kernen noch genug Leistung rauszuholen - auch abseits von Spielen.

HOT
2025-11-10, 16:39:31
Im letzten Video hat Tom rein von N6 gesprochen, es soll mal Designversuche mit N4 gegeben haben, die aber gecancelt wurden. Ich würd ernsthaft von N6 ausgehen, keine NPU, keine LPE-Cores - wenn man hier was anderes erwartet macht man sich mMn was vor. N3 war mMn immer ne Ente, da sich das stets auf die APU bezogen haben dürfte. Die dürften ja auch natives USB4 und DP2.1 bekommen und auch LPE-Kerne.

Ich vermute, dass wir weiterhin mit RDNA2 beglückt werden aber einen aktuelleren Videoprozessor bekommen und ich zweifle auch an nativem USB4 für das IOD. Die Fortschritte sind mMn im Powermanagement zu finden, die Anbindung für geringe Latenzen ist nagelneu und lt. MLID nicht mit Strix Halo kompatibel sondern explizit auf niedrige Latenzen optimiert. Die Anbindung der CCDs soll nicht mehr über IFOP erfolgen sondern über ein eigens dafür optimiertes Protokoll über Silicon Bridges im Träger.

Ich sehe auch überhaupt kein Problem darin, das Ding bis 2030 in N6 zu fertigen, wenn wir eh AM5 bis 2030 durchschleppen, wird es ja auch keine besseren Verbindungen geben, kein PCIe6, kein DDR6, keine bessere Videoanbindung und sicherlich natives USB4 nur über den dann aktuellen Promontory (24?)-Chipsatz.

Badesalz
2025-11-10, 17:10:04
Halten wir nochmal kurz fest: +20% für 9800X3D bei den relevantesten minFPS durch Timingtuning bei 6000. Danke für deine Aufmerksamkeit.

OgrEGT
2025-11-10, 17:37:48
Bis zu / im Schnitt / ab?
Edit
Grad gesehen avg...
Well not Bad...

bbott
2025-11-10, 18:13:10
Halten wir nochmal kurz fest: +20% für 9800X3D bei den relevantesten minFPS durch Timingtuning bei 6000. Danke für deine Aufmerksamkeit.
Die mehr Kerne dürften sicher aber quch Latenzen erzeugen, ich würde dahingehend ehervvon einem nullsummen Spiel ausgehen. Je nach Anwendung, ob RAM, Cache oder CPU Latenzen relevanter sind, profitiert oder verliert die Anwendung.

latiose88
2025-11-10, 18:34:32
@bbott meintest du mit dem Beitrag 101 etwa mich damit ?

Badesalz
2025-11-10, 18:43:30
Die mehr Kerne dürften sicher aber quch Latenzen erzeugen, ich würde dahingehend ehervvon einem nullsummen Spiel ausgehen. Da war die Nummer mit 9800X3D mit gemeint. Weil Korken das nur ganz kurz vergessen hat...

Lehdro
2025-11-10, 19:19:18
Die mehr Kerne dürften sicher aber quch Latenzen erzeugen, ich würde dahingehend ehervvon einem nullsummen Spiel ausgehen. Je nach Anwendung, ob RAM, Cache oder CPU Latenzen relevanter sind, profitiert oder verliert die Anwendung.
Jap. Aber es gibt auch mehr gemeinsam nutzbaren L3 pro CCX/CCD bei mehr Kernen auf/in ebendiesen. Kann auch gut sein dass das gerade im Gaming die Latenzen zum Speicher besser kaschiert, was wohl wichtiger ist als paar wenige ns im L3.

Badesalz
2025-11-10, 19:29:50
Latenzen zwischen den Alus und dem Hauptspeicher - der ganze Weg also - werden sinken.

Hochzeit2
2025-11-11, 13:54:29
OK, wenn das mit dem 9800X3D anders ist, dann nehme ich das zurück. Beim 5800X3D und 7800X3D waren die Gewinne eher überschaubar.

Wegen Fähnchen im Wind: Ich sage ja nicht der Fortschritt wäre Null. Aber er ist gemessen an der Entwicklungszeit und früheren Zen-Iterationen eben sehr dürftig.


Als jemand der vor ca. 1Jahr das Upgrade vom 5700X zum 5800x3D gemacht hat, bezeichne ich die Aussage als dreckig unehrlich.

Wie wäre es mit ein paar Fakten?!

bbott
2025-11-11, 15:06:18
Jap. Aber es gibt auch mehr gemeinsam nutzbaren L3 pro CCX/CCD bei mehr Kernen auf/in ebendiesen. Kann auch gut sein dass das gerade im Gaming die Latenzen zum Speicher besser kaschiert, was wohl wichtiger ist als paar wenige ns im L3.
Es ist halt wie immer Scenario xy läuft etwas schneller und dort dies jnd das, dann werden aber alle Optimierungen auf addiert und man erhällt, fantastische IPCs. Nur leider hat man Performance fressen vergessen :freak:

Badesalz
2025-11-11, 18:41:53
Ja wäre vermutlich sinnvoll. Das wird meiner Einschätzung nach in eine ziemliche Arbeit ausarten. Aber dann wäre es vielleicht mal erledigt und wir hätten auch etwas für die Allgemeinbildung getan.

Gibt ja leider doch viel zu wenig Leute dir Ahnung von solchen Dingen haben. Damit kämpfe ich leider beruflich regelmäßig...Jungen... Ich hab die komplette vorherige Seite verpennt :usad: Du hast aktuell wirklich ausgelastete Pulsader :smile:

Du selbst bist aber auch schon ewig auf den Podiumsplätzen unterwegs. Sind die Zulieferer schlechter als vor 5 Jahren? ODer gehts darum, daß es nicht langsam besser wird?

HOT
2025-11-11, 20:14:41
Als jemand der vor ca. 1Jahr das Upgrade vom 5700X zum 5800x3D gemacht hat, bezeichne ich die Aussage als dreckig unehrlich.

Wie wäre es mit ein paar Fakten?!

Wird dann ja auch gerne mal vergessen, dass sämtliche X3D CPUs mit deutlich weniger Takt laufen als ihre non-X3D-Counterparts. Das wird erst mit dem 9850X3D gelöst werden.

Skysnake
2025-11-11, 23:12:02
Jungen... Ich hab die komplette vorherige Seite verpennt :usad: Du hast aktuell wirklich ausgelastete Pulsader :smile:

Ein bisschen 🤪


Du selbst bist aber auch schon ewig auf den Podiumsplätzen unterwegs. Sind die Zulieferer schlechter als vor 5 Jahren? ODer gehts darum, daß es nicht langsam besser wird?
Schwer zu sagen. Auf der einen Seite entwickelt sich die HW aktuell sehr schnell weiter wobei immer extremere Kniffe benutzt werden um die Leistung zu steigern und auf der anderen Seite kämpft die Software mit technischen Schulden die immer weiter anwachsen. Oft genug sind halt Dinge schon seit Jahren wenn nicht Jahrzehnten falsch gemacht worden nur hat es damals kaum einen Unterschied gemacht. Aber heute fällst du hakt voll auf sie Fresse bei den CPUs weil die halt genau wie GPUs die hohe Leistung auch nur ausfahren können, wenn der Code gewisse Randbedingungen erfüllt und das ist halt oft einfach nicht der Fall.

Ein Klassiker ist zum Beispiel die Division in der Inneren Schleife oder fehlendes Memory Padding um Cache linear alignt zu sein. Oder große 2^n Sprünge so das man sich den Cache kaputt macht und was ganz leicht durch verschieben um eine Cache Line gefixed werden kann.

Und so geht es gerade weiter.

IO ist auch ein beliebtes Thema. Genial ist da z.b. ein serielles ZIP zum sparen von Platz durch Kompression, wenn man mit hunderten bis tausenden cores rechnet.....

Oder Leute die den MS Compiler unter Windows nutzen und dann für Linux den GCC dabei aber mit O0 kompilieren und nicht mal mit reziprogen Wert aktivieren, was MS aber macht und sich dann wundern warum es unter Linux um Größenordnungen langsamer läuft als unter Windows...

Das ganze Zeug ist halt echt komplex und die Mentalität "Ach was interessiert mich die reale HW das macht doch der Compiler", das ganze Layer on Layer der IT und ähnliches ist halt die Saat für dieses Dilemma. An sich ist das alles kein Hexenwerk, aber es gibt genug kommerzielle Software bei der die Entwickler nicht mal wissen was unter Linux cgroups sind. Und dazu kommt noch das in großen Softwarehäusern alles schön aufgeteilt wird und es für alles irgendwelche Spezialisten gibt, aber Leute die das ganze zusammen halten und harte Vorgaben machen gibt es eher weniger ist ja auch klar kostet Zeit und damit Geld und widerspricht der amerikanischen Fake it until you make it Mentalität sowie dem Minimal valuable Product Ansatz.

Sprich die sind selbst schuld dran. Und ja auch Milliardenschwere Softwarwunternehmen sind davon nicht ausgenommen. Es ist halt letztlich einfach zum kotzen wie viel Inkompetenz es auf der einen Seite gibt und auf der anderen wie viel Überheblichkeit dass dad ja alles kein Problem sei und z.b. Es kaum eine Möglichkeit gibt dafür einen Dr. Zu bekommen....

Leonidas
2025-11-11, 23:22:27
AMD Prozessoren-Architektur Roadmap 2022-2026+
https://www.3dcenter.org/news/neue-offizielle-roadmaps-zu-zukuenftigen-amd-prozessoren-und-grafikchips

Badesalz
2025-11-12, 06:37:04
Wird dann ja auch gerne mal vergessen, dass sämtliche X3D CPUs mit deutlich weniger Takt laufen als ihre non-X3D-Counterparts.Hab grad nach Basistakt beim 9700X und 9800X3D gesucht, aber irgendwie sah das blöd aus :| Turbo waren es 300Mhz...

@Skysnake
Gibt es dazu eigentlich Gen für Gen eine generisch großflächige Kommunikation der HW-Hersteller, paar Monate vor der Einführung, daß dies und jenes sich nun zeimlich ändert und im Gegensatz zu davor man jetzt auf dies und jenes zu achten hätte? Und übrigens dies und das wäre jetzt der heiße Shit um sich signifikant zu beschleunigen ohne auf den Gens davor langsamer zu werden? Gibt es eine etablierte Struktur aus Infokanälen dafür?
Die Compilerheinis kriegen das schon eher mit bzw. bei denen klingeln sie auch selbst durch, aber man kann nicht einfach alles nur auf den Compiler schieben :|

(ok cgroups wäre eine andere Baustelle =))

edit:
Scheint mir in so einem Thread auch nicht unbedingt völlig OT zu sein :usweet:

Skysnake
2025-11-12, 08:54:17
Meines Wissens nach gibt es da keine generischen Kanäle sondern immer nur 1:1 Verbindungen. Was natürlich im Zweifel blöd ist wenn man wie Intel aktuell massiv Leute reduziert.

Es gibt aber doch auch öfters die Situation, dass die HW Hersteller den Source Code von kommerzieller Software für Optimierungen und Debugging haben.

Es ist daher ziemlich schwer auseinander zu halten was von den Software Firmen selbst kommt und was Sie die HW Hersteller machen lassen.

Hat für beide Seiten Vorteile. Die Software Hersteller brauchen kein Geld ausgeben und Expertise aufbauen und die HW Hersteller müssen nicht über Details ihrer HW reden....

Wobei man sagen muss so viel man über Intel schimpft Sie waren immer ziemlich offen bezüglich ihrer HW im Vergleich zu AMD und vor allem nVidia.

Wobei man sagen muss es hat bei denen auch schwer nachgelassen.

"Lustig" sind auch Mocrocode Updates die die Performance deutlich senken. Manchmal aber auch steigern.

Man muss echt Performance Tests vor und nach jedem Update machen....

Habe ich schon mal erwähnt, dass das alles verdammt komplex geworden ist?

mksn7
2025-11-12, 09:09:11
Viele der Dinge die Skysnake anspricht sind ja auch nicht neu. Die grundlegenden Prinzipien von cache lines oder assoziativen caches gibt es seit Ewigkeiten. Multicore und NUMA gibt es schon lange.

An vielen Stellen sind es eher graduelle Änderungen, wie kontinuierlich wachsende core counts, die die entsprechende Optimierung kontinuierlich wichtiger werden lassen. Aber da sehe ich eher Fortsetzungen von längeren Trends. Also selbst wenn ich zukunftsicher sein möchte, brauche ich kein geheimes Insiderwissen der Hersteller.

Grundlegendere Änderungen, die bedacht werden müssten sind eher sowas wie ISA Erweiterungen. Und da ist AVX512 ja auch schon einige Zeit her.

Wenn man auf eine vier Jahre alte CPU ordentlich optimiert hat, wird das auf einer nagelneuen CPU auch super laufen. Als Softwareentwickler möchte ich sowieso nicht auf Eigenheiten einer einzelnen neue CPU optimieren, sondern muss breite Performanceportabilität für das was jetzt und in der nahen Zukunft installiert sein wird sicherstellen.


Ich denke für Systemadministration/integration ist das Insiderwissen über die konkrete neue Hardware wichtiger. Ob sowas wie SNC/NPS aktiviert wird, DRAM clocks, dual/single rank DIMMs, Power/Clock Verhalten, SMT on/off, mitigations...

Skysnake
2025-11-12, 11:23:09
Ja, für Admins sind die von dir genannten Werte wichtiger, da auch nur Sie diese beeinflussen können.

Aber AMD CPUs haben wenn Sie mehr als ein Chiplet pro NUMA node haben ein NUMA Verhalten innerhalb eines NUMA nodes was nicht zu erwarten ist. Innerhalb eines NUMA nodes sollten alles Cores identisch ein also UMA.

Und so was fickt dich als Admin dann im Zweifel weil die Softwareentwickler auf NUMA optimiert haben, das aber eben nicht mehr richtig ist und du dann der Depp bist der die Anwendung im Zweifel auch nicht umgebogen bekommst.

Und so geht es halt gerade weiter.

Und Performancewerte bezüglich die usw bekommst du nicht als normaler Entwickler vor allem nicht die Latenzen. Sprich du musst den Mist reverse Engineern.

Badesalz
2025-11-12, 11:27:14
Wenn man auf eine vier Jahre alte CPU ordentlich optimiert hat, wird das auf einer nagelneuen CPU auch super laufen. Als Softwareentwickler möchte ich sowieso nicht auf Eigenheiten einer einzelnen neue CPU optimieren, Alles richtig. Irgendwie scheint das in Skysnakes RL aber nicht so zu funktionieren.

Ein Cyberpunk lief übrigens davor wie danach auf vorherigen Gens. Auf den 200ern war die Leistung aber erst überhaupt ansehbar, als Intel Beistand leistete...

@Skysnake
NV -> programmiere einfach nur Cuda, wir machen das dann schon :usweet:

Wobei man sagen muss so viel man über Intel schimpft Sie waren immer ziemlich offen bezüglich ihrer HW im Vergleich zu AMD und vor allem nVidia.
Bei AMD weiß ich nicht welchen Sinn das für sie ergeben sollte. Lebt das nicht davon, daß die Leute einfach und selbst ERFAHREN KÖNNEN worauf man nun achten sollte? :|

Ok in dem Fall geht es mir eher um Dokus und keine Präsenzveranstaltungen, aber verstehen hier alle warum es für eine Firma gut erscheint "BMW M driving experience" zu machen? :| Oder auch nur "ADAC Fahrtraining"?
Es gibt eh kaum mehr ASM Architekturgurus als Cobol-Gurus. Was soll das also bringen nicht die Offenheit diesbezüglich geradezu zu pushen?

Skysnake
2025-11-12, 11:31:50
Naja, du musst es halt dokumentieren und Kuratoren und entsprechend bekannt machen. Das läuft bei AMD seit langem ziemlich bescheiden.

Der_Korken
2025-11-13, 13:34:12
Als jemand der vor ca. 1Jahr das Upgrade vom 5700X zum 5800x3D gemacht hat, bezeichne ich die Aussage als dreckig unehrlich.

Wie wäre es mit ein paar Fakten?!

Das Video von HWUB wo sie Zen 4, Zen4 X3D und Raptor Lake verglichen haben, such ich heute abend raus. Ansonsten bitte bei solchen Unterstellungen bedenken, dass die Performance-Gewinne im Verhältnis zu non-3D-Modellen gesehen werden muss. Wenn du auf einem 5800X3D durch massiven Subtiming-Tuning 10% oder 15% rausgeholt hast, es auf einem 5800X aber 30% gewesen wären, dann ist ersteres für mich eben "kaum was".

HOT
2025-11-13, 14:00:38
Das Video von HWUB wo sie Zen 4, Zen4 X3D und Raptor Lake verglichen haben, such ich heute abend raus. Ansonsten bitte bei solchen Unterstellungen bedenken, dass die Performance-Gewinne im Verhältnis zu non-3D-Modellen gesehen werden muss. Wenn du auf einem 5800X3D durch massiven Subtiming-Tuning 10% oder 15% rausgeholt hast, es auf einem 5800X aber 30% gewesen wären, dann ist ersteres für mich eben "kaum was".

Das ist bei HUB oft nur ein kleiner Teil an Games, der da getestet wird, das sagt Steve auch immer und er verändert die Spieleauswahl auch gern zwischendurch. Hast du einen anderen Parcours, hast du auch ein anderes Ergebnis.

Und wie gesagt, die X3D-hater vergessen immer, dass die CPUs deutlich niedriger takten, das hat erst ab dem 9850X3D ein Ende.

Der_Korken
2025-11-13, 14:08:39
lol, was hat das mit Hate zu tun? Irgendwie hängen sich alle an meiner Aussage von vor 5 Seiten auf:

Durch den 9800X3D ist das RAM-Tuning halt eh relativ witzlos geworden.

Aber gut, vielleicht bin ich da von meinem alten Zen 1 nur anderes gewohnt, wo RAM-Tuning einen Unterschied wie Tag und Nacht gemacht hat. Der läuft mittlerweile auf einem Billig-Board mit Billig-RAM im Zweitsystem und irgendwie bilde ich mir ein, dass der mit den getunten B-Dies selbst bei leichteren Anwendungen deutlich fluffiger lief. Da sind die X3Ds deutlich pflegeleichter geworden.

Lehdro
2025-11-13, 14:26:36
Aber gut, vielleicht bin ich da von meinem alten Zen 1 nur anderes gewohnt, wo RAM-Tuning einen Unterschied wie Tag und Nacht gemacht hat. Der läuft mittlerweile auf einem Billig-Board mit Billig-RAM im Zweitsystem und irgendwie bilde ich mir ein, dass der mit den getunten B-Dies selbst bei leichteren Anwendungen deutlich fluffiger lief. Da sind die X3Ds deutlich pflegeleichter geworden.
Ich möchte mal zugunsten des Realismus einhaken:

Der Unterschied eines 3200CL18 Garbage Bin DDR4 Kits zu einem 3600CL14 B-Die Kit ist gigantisch. Damals waren die Unterschiede dort relativ groß, denn von 3200CL14/3600CL16 B-Die XMP/EXPO zu dementsprechenden tuned Settings ist kaum noch etwas zu holen im Vergleich - als Baseline in Tests für Zen 3 z.B. diente oft 3200CL16 - also irgendetwas dazwischen. 3800CL14 B-Die tuned ist dann wieder ein richtig krasser Sprung im Vergleich, vor allem wenn man das ganze Dual Ranked umsetzt, aber auch nicht selbstverständlich zu erreichen. Zen 3 lechzte nach Bandbreite UND geringen Latenzen - DDR4 ootb bot nix davon. DDR5 hingegen bringt schon ordentlich Bandbreite und feingranulareren Zugriff (Latenzkritisch) ab Werk mit, weswegen nur hohe Taktraten eben fast nix bringen wenn man die Latenzen nicht im Zaum behält, mal ganz abgesehen von den üblichen Fallstricken wie MCLK, UCLK und FCLK.

Bei Zen 4 haben wir als tatsächliche, realistische Baseline hingegen 6000CL30 "vorgesetzt" bekommen, daran muss sich alles messen. Das wäre ungefähr so als hättest du Zen 1 mit 3200CL14 XMP getestet, anstatt 2667CL18 JEDEC. Klar dass die Steigerung dann nach oben hin geringer aussieht. Aber teste mal von 5200CL40 JEDEC aus, so wie das z.B. PCGH macht - der wirkliche Stock Zustand. Dann würdest du auch nicht mehr von "kaum was" reden.

/rant over

rentex
2025-11-13, 15:07:03
Sollte man eigentlich langsam wissen, das RAM OC auf nem X3D, eher kosmetischer Natur ist. Wurde schon mehrfach belegt.

Nightspider
2025-11-13, 15:18:38
Sollte man eigentlich langsam wissen, das RAM OC auf nem X3D, eher kosmetischer Natur ist. Wurde schon mehrfach belegt.

Quatsch nicht so einen Unsinn. Es gibt Programme die noch massiv von RAM OC profitieren und wo der V-Cache nicht so viel bringt.

Die sind deutlich in der Minderheit, vor allem bei Spielen aber das heißt nicht das RAM OC sinnlos ist.

robbitop
2025-11-13, 15:18:53
Ich möchte mal zugunsten des Realismus einhaken:

Der Unterschied eines 3200CL18 Garbage Bin DDR4 Kits zu einem 3600CL14 B-Die Kit ist gigantisch. Damals waren die Unterschiede dort relativ groß, denn von 3200CL14/3600CL16 B-Die XMP/EXPO zu dementsprechenden tuned Settings ist kaum noch etwas zu holen im Vergleich - als Baseline in Tests für Zen 3 z.B. diente oft 3200CL16 - also irgendetwas dazwischen. 3800CL14 B-Die tuned ist dann wieder ein richtig krasser Sprung im Vergleich, vor allem wenn man das ganze Dual Ranked umsetzt, aber auch nicht selbstverständlich zu erreichen. Zen 3 lechzte nach Bandbreite UND geringen Latenzen - DDR4 ootb bot nix davon. DDR5 hingegen bringt schon ordentlich Bandbreite und feingranulareren Zugriff (Latenzkritisch) ab Werk mit, weswegen nur hohe Taktraten eben fast nix bringen wenn man die Latenzen nicht im Zaum behält, mal ganz abgesehen von den üblichen Fallstricken wie MCLK, UCLK und FCLK.

Bei Zen 4 haben wir als tatsächliche, realistische Baseline hingegen 6000CL30 "vorgesetzt" bekommen, daran muss sich alles messen. Das wäre ungefähr so als hättest du Zen 1 mit 3200CL14 XMP getestet, anstatt 2667CL18 JEDEC. Klar dass die Steigerung dann nach oben hin geringer aussieht. Aber teste mal von 5200CL40 JEDEC aus, so wie das z.B. PCGH macht - der wirkliche Stock Zustand. Dann würdest du auch nicht mehr von "kaum was" reden.

/rant over

Das ist ein guter Punkt. Aber dennoch sollte eine CPU bei der die Hitrate im Cache höher ist weniger Gains haben bei Memorytuning als eine mit schlechterer Hitrate.
Zen 1 hatte noch mikrige 8 MiB L3 Cache pro CCX und 512 kiB L2 Cache.
Seit Zen 2 gibt es 16 MiB L3 Cache pro CCX, seit Zen 3 32 MiB L3 Cache pro CCX. Zen 4 vergrößerte den L2 auf 1 MiB. Das wird massiv die Hitrates verbessert haben. X3D hat den L3 auf 96 MiB erhöht pro CCX und nun liegt man auf Faktor >10 pro CCX. Da kommt trotz Logaritmus Funktion der Hitrate mit Cachegröße schon ordentlich was dabei raus.
Es liegt also im Bereich des Erwartbaren, dass die relativen Gains mit großen Caches / Hitraten kleiner sein sollten. Auch wenn die RAM Baseline relativ gesehen höher ist und den Vergleich verzerrt. Ersterer Effekt ist IMO damit nicht wegzudiskutieren und es würde mich wundern, wenn der nicht ggü dem von dir benannten Effekt (dem ich zustimme) dominant ist. :)

Am Ende haben alle irgendwie recht ^^
Ggf. müsste man nur anstatt relative Begriffe (die jeder anders versteht) quantitative Begriffe nutzen.

Quatsch nicht so einen Unsinn. Es gibt Programme die noch massiv von RAM OC profitieren und wo der V-Cache nicht so viel bringt.
IMO: beides stimmt -> Kommt drauf an, was der Flaschenhals ist. Ist es Bandbreite (was sicherlich in Anwendungen eher der Fall sein kann), bringt RAM OC natürlich viel. Ist es Latenz (meist bei Spielen der Fall), bringt bessere Cachehitrate mehr als Ram Tuning.

Der_Korken
2025-11-13, 16:06:31
Das ist bei HUB oft nur ein kleiner Teil an Games, der da getestet wird, das sagt Steve auch immer und er verändert die Spieleauswahl auch gern zwischendurch. Hast du einen anderen Parcours, hast du auch ein anderes Ergebnis.


Besser als nichts. Wie gesagt: Irgendwelche Tests, wo jemand eine X3D-CPU mit manuell durchoptimierten RAM nochmal 10 oder 15% schneller bekommen hat, sind ganz nett, aber sobald es an die Subtimings geht, wird der Aufwand immens, wenn man es auch vernünftig durchtesten will und nicht nur "bench-stable". Meine Aussage ergibt erst im Vergleich zu Non-X3D Sinn.


Bei Zen 4 haben wir als tatsächliche, realistische Baseline hingegen 6000CL30 "vorgesetzt" bekommen, daran muss sich alles messen. Das wäre ungefähr so als hättest du Zen 1 mit 3200CL14 XMP getestet, anstatt 2667CL18 JEDEC. Klar dass die Steigerung dann nach oben hin geringer aussieht. Aber teste mal von 5200CL40 JEDEC aus, so wie das z.B. PCGH macht - der wirkliche Stock Zustand. Dann würdest du auch nicht mehr von "kaum was" reden.

/rant over

Hier mal die Ergebisse aus besagten Video: https://www.youtube.com/watch?v=XW2rubC5oCY

Da wird trash tier DDR5 4800 CL40 gegen DDR5 6000 CL30 getestet und der 7950X3D in diesem Fall gewinnt knapp 8% avg und der 7700X satte 20%. Wie du schon sagtest, ist aber DDR5 4800 JEDEC nicht die Baseline, sondern DDR5 6000 EXPO. Ich glaube gerne, dass man von da mit Subtimings durchaus noch was rausholen kann, aber wenn +25% Takt und Primärlatenzen (CL sogar 66% besser!) so "wenig" bringen, erwarte ich von Subtimings keine Wunder. Bei Zen 5 kann es nochmal anders aussehen, weil der RAM da mehr limitiert als bei Zen 4, aber das habe ich oben schon längst eingeräumt. Einen entsprechenden Vergleich mit Zen 5 kenne ich aber nicht.

Lehdro
2025-11-13, 16:41:33
Das ist ein guter Punkt. [...]
Volle Zustimmung!

Am Ende haben alle irgendwie recht ^^
Ggf. müsste man nur anstatt relative Begriffe (die jeder anders versteht) quantitative Begriffe nutzen.
Darum ging es mir halt eigentlich. Von "kaum was" ist die Rede, aber 20% sind gemeint. Ich finde 20% gigantisch, gerade bei den low Perzentilen. Im Vergleich zu Zen 1 oder halt auch non X3D ist das halt wenig, aber quantitativ eben trotzdem nicht.
Besser als nichts. Wie gesagt: Irgendwelche Tests, wo jemand eine X3D-CPU mit manuell durchoptimierten RAM nochmal 10 oder 15% schneller bekommen hat, sind ganz nett, aber sobald es an die Subtimings geht, wird der Aufwand immens, wenn man es auch vernünftig durchtesten will und nicht nur "bench-stable".
Klar. Aber es sind halt 15-20% bei den low FPS, also das was am meisten zählt. Den Tod musst du dann sterben wenn du die Performance haben willst.

Meine Aussage ergibt erst im Vergleich zu Non-X3D Sinn.

Dass der non X3D da besser skaliert streitet ja keiner ab, es geht mir eher um den Fakt das ~20% zusätzlich eben nicht "wenig" sind, sondern maximal "weniger". Nur mal zur Relation: Mal darüber nachdenken wie das zum Beispiel bei AMD vs. Intel zu verschiedenen Zeiten als Performancekluft aussah - da war die jeweils unterlegene Seite dann "nicht empfehlenswert" bei ähnlichen Geschwindigkeitsdifferenzen. Aber hier ist es plötzlich "wenig" oder nicht lohnenswert bzw. der Rede wert. ;)

Da wird trash tier DDR5 4800 CL40 gegen DDR5 6000 CL30 getestet und der 7950X3D in diesem Fall gewinnt knapp 8% avg und der 7700X satte 20%.
Schau auf die 1% lows. Da sind es 12% und 24%. Sprich: deutlich besser bei non X3D, aber immer noch solide beim X3D. Subtimings legen da sicher noch einmal ähnlich oben drauf.
Wobei: Der 7950X3D ist ein blöder Kandidat dafür. Ein 7800X3D hätte zwecks Vergleichbarkeit (Kerne + Schedulingprobleme) eher gepasst. Aber irgendetwas ist ja immer.

Bei Zen 5 kann es nochmal anders aussehen, weil der RAM da mehr limitiert als bei Zen 4, aber das habe ich oben schon längst eingeräumt. Einen entsprechenden Vergleich mit Zen 5 kenne ich aber nicht.
Hängt nicht nur von Zen 4 oder 5 ab, sondern viel mehr von den getesteten Games und den Szenarien in diesen. PCGH hatte zu 7800X3D und auch 9800X3D Tuning Guides aufgestellt (online hinter Paywall) und durch deren Testparcours gejagt, iirc lagen da beide bei um die 30-35% Steigerungen in der Spitze. Logisch dass auch dort die 1% lows am meisten zulegen - aber genau darum geht es ja eigentlich (zumindest bei mir).

Badesalz
2025-11-13, 17:48:31
Quatsch nicht so einen Unsinn. Das ist bei mir übrigens der Unterschied zwischen dir und rentex. Wir beide ziehen uns das rein und sind oft unterschiedlicher Meinung. rentex hat einfach eine Meinung ohne je etwas gelesen oder gesehen zu haben :usweet:

@robi
Ich weiß nicht... Fall ich da auf meine alten bereits überholte Voreingenommenheit (alte Erfahrungswerte halt...), wenn sich das so anhört, als wenn eine CPU es nicht so toll tun würde, wenn sie sich mit dem Tunig von Speichertimings so stark in den minFPS steigern kann, gegenüber einer die selbst mit getunten nicht dran kommt, wenn die erste ungetunt läuft? Das täuscht jetzt nur oder?

Erstens. Zweitens, gilt das weitgehend für minFPS. Auch wenn eben die mieserweise am relevantesten sind. Was mich zu der frage führt, bezüglich Hitraten und dem sonstigem Zeug und irgendwie so einer im Nebel schwebenden Implizieren, V-Cache ist halt auch nur V-Cache...(?):
Gibt es hier jemanden der in einfachen Worten erklären kann wie die Einbrüche die wir minFPS nennen, entstehen? Vielleicht fällt dann auch mal auf, daß auch die starken Steigerungen über Mainmem Timings durch den V-Cache so erst möglich werden? :conf:

latiose88
2025-11-13, 19:21:05
Das ist ein guter Punkt. Aber dennoch sollte eine CPU bei der
IMO: beides stimmt -> Kommt drauf an, was der Flaschenhals ist. Ist es Bandbreite (was sicherlich in Anwendungen eher der Fall sein kann), bringt RAM OC natürlich viel. Ist es Latenz (meist bei Spielen der Fall), bringt bessere Cachehitrate mehr als Ram Tuning.
Interessant ,eigentlich ist also bei Anwendung die Bandbreite wichtig. Scheint aber nicht auf jeder Anwendung zu zählen.
Bei mir verbessert sich dank mehr Bandbreite also von ddr5 4800 auf 6000 MHz nur um 5 % was ja echt nicht viel ist.
Beim Intel Core ultra 7 265k sind es l2 36 MB und l3 30 MB
Ryzen 9 9950x l2 16 MB und l3 64 MB

Die Software ist auf dem 265k um 15 % schneller. Trotz weniger Threads und weniger l3 Cache .ich finde 15 % als viel an. Das heißt die Anwendung ist laut die von dir dann Cachehitrate . Dabei war die schon bei Zen 3 und Zen 4 gut gewesen aber scheinbar war sie noch immer limitiert gewesen. Freut mich ,dann ist das so. Und l2 Cache scheint wohl der heiße Gewinn zu sein. Das hat dann alles abgefedert. Achja das ist echt cool.

rentex
2025-11-14, 07:10:03
@Badesalz @Nightspider Lebt ruhig in eurer Welt...

Nightspider
2025-11-14, 08:05:18
Wir sind nur nicht die einzigen, die wissen das RAM OC in einigen Anwendungen auch bei X3D CPUs noch viel bringt.

Skysnake
2025-11-14, 08:19:01
Warum soll es nichts bringen? Wenn das Problemset größer ist als der Cache dann bringt der genau nichts. Das ist bei jedem Cache völlig gleich welcher so.

Badesalz
2025-11-14, 08:26:45
@Badesalz @Nightspider Lebt ruhig in eurer Welt...Du lebst aber auch nicht grad außerhalb der deinen :rolleyes:

@Skysnake
Im den meisten Fällen ist es wohl eher so, auf dem Consumerdesktop und vor allem beim Zocken, daß der von der CPU vorgeahnte Problemset sich für sie plötzlich unerwartet stark ändert :wink: Die Soft versucht solche Übungen erst garnicht wirklich. Anwendungen laufen halt in geordneteren Bahnen. Deswegen hauen da beim MainMem auch die Timings und nicht der Durchsatz rein.

Skysnake
2025-11-14, 10:43:17
Ne, Timings hauen rein wenn du dependencies im Code hast, die dir vorgeben was du jetzt genau machen sollst. Sprich Code der viele bedingte Sprünge hat zum Beispiel.

Sowas nenne ich buisness Logic.

Badesalz
2025-11-14, 10:55:09
Oder so. Passt ja eigentlich auch ;)

@all
Hej Volks, wir haben ja jetzt "x86 Ecosystem Advisory Group". Nun das:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/67266-x86-ecosystem-advisory-group-amd-und-intel-einigen-sich-auf-erste-standards.html

Intel will 2026/2027 APX einführen. Kurz gesagt sind das 32 statt der bisherigen 16 Register.
ACE sehe ich bei Zen7. Matrixgedöns auch.

Was ist mit APX?
https://www.techpowerup.com/342881/intel-officially-confirms-avx10-2-and-apx-support-in-nova-lake

latiose88
2025-11-14, 11:10:31
Ist apx nicht für wissenschaftliche Sachen wie Konstruktionen bei Archetektur usw von Vorteil ?

mksn7
2025-11-14, 12:43:17
Ne, Timings hauen rein wenn du dependencies im Code hast, die dir vorgeben was du jetzt genau machen sollst. Sprich Code der viele bedingte Sprünge hat zum Beispiel.

Sowas nenne ich buisness Logic.

Mehr noch als bedingte Sprünge sind doch indirekte loads ala pointer chasing das Paradebeispiel für DRAM latency sensitive code. Bedingt springen kann man auch ohne data dependency.

Über control dependencies kann man wenigstens drüber spekulieren ( mileage may vary, abhängig von der Vorhersagbarkeit), über data dependency nicht.

Oder meinst du instruction fetch misses? Ich wage zu behaupten dass die Szenarien wo der instruction fetch aus dem DRAM ein relevanter limiter ist, selten sind im Vergleich zu data misses.

Der_Korken
2025-11-14, 13:21:44
Oder so. Passt ja eigentlich auch ;)

@all
Hej Volks, wir haben ja jetzt "x86 Ecosystem Advisory Group". Nun das:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/67266-x86-ecosystem-advisory-group-amd-und-intel-einigen-sich-auf-erste-standards.html

Intel will 2026/2027 APX einführen. Kurz gesagt sind das 32 statt der bisherigen 16 Register.
ACE sehe ich bei Zen7. Matrixgedöns auch.

Was ist mit APX?
https://www.techpowerup.com/342881/intel-officially-confirms-avx10-2-and-apx-support-in-nova-lake

Intel selbst schreibt zu den Registern:

Intel APX doubles the number of general-purpose registers (GPRs) from 16 to 32. This allows the compiler to keep more values in registers. As a result, code compiled with Intel APX contains 10% fewer loads and more than 20% fewer stores than the same code compiled for an Intel® 64 baseline.2 Register accesses are not only faster, but they also consume significantly less dynamic power than complex load and store operations.

https://www.intel.com/content/www/us/en/developer/articles/technical/advanced-performance-extensions-apx.html

Könnte schon ganz nett sein etwas Last von den AGUs, TLBs und dem L1 zu nehmen. Ich finde es ja immer interessant wie breit das Speichersystem auf Core-Ebene ausgelegt im Verhältnis zu den ALUs, wenn man das mal mit der ARM-Konkurrenz vergleicht. Vielleicht brauchen Intel/AMD wegen CISC vs RISC intern auch etwas weniger ALU-Ops für den gleichen Code, aber trotzdem sind mehr logische Register nicht verkehrt. An Physischen mangelt es nicht.

Kann jemand diesen Abschnitt genauer erklären für einen Halbwissenden wie mich?

Intel APX adds conditional forms of load, store, and compare/test instructions and adds an option for the compiler to suppress the status flag writes of common instructions. These enhancements expand the applicability of if-conversion to much larger code regions, cutting down on the number of branches that may incur misprediction penalties. All of these conditional instruction set architecture (ISA) improvements are implemented through EVEX prefix extensions of existing legacy instructions.

Was bedeuten conditional loads/stores und wie würde das konzeptionell helfen die Kosten für mispredictions zu senken?

Badesalz
2025-11-14, 14:05:26
Intel selbst schreibt zu den Registern: Oh dann hab ich was falsch formuliert. Sah das im Gesamtkontext echt so aus als wenn ich gefragt hätte was APX ist?

mksn7
2025-11-14, 14:19:28
Was bedeuten conditional loads/stores und wie würde das konzeptionell helfen die Kosten für mispredictions zu senken?

Statt mithilfe einer branch instruction über den load drüber zu springen, kann der instruction ein Prädikat mitgegeben werden. Nur wenn das True ist, hat die instruction einen Effekt. Wenn da kein branch mehr ist, muss auch nicht spekuliert werden, also kann auch nicht mispredicted werden.

Muss aber nicht immer schneller sein. Linus Torvalds hat mal einen Rant über cmov (das ist ein conditional move, gibts schon länger, genau das gleiche Prinzip) geschrieben. Über den branch kann drüber spekuliert werden wenn das Prädikat noch nicht verfügbar ist, ein conditional erzeugt eine data dependency. Aber für OoO ist ist es generell schon besser, weil unabhängige Arbeit hinter der conditional instruction sorgenfrei vorgezogen werden kann.



Die größere Anzahl an Registern ist nett und reduziert ein paar spills und moves, aber das ist auch die Klasse an instructions die moderne CPUs entweder fast kostenlos machen oder für die meist Ausführungsressourcen übrig sind.

Der_Korken
2025-11-14, 16:06:36
Oh dann hab ich was falsch formuliert. Sah das im Gesamtkontext echt so aus als wenn ich gefragt hätte was APX ist?

Das war keine Antwort, sondern eine in meinen Augen erwähenswerte Zusatzinfo zu APX. Ich kannte sie jedenfalls noch nicht.

Statt mithilfe einer branch instruction über den load drüber zu springen, kann der instruction ein Prädikat mitgegeben werden. Nur wenn das True ist, hat die instruction einen Effekt. Wenn da kein branch mehr ist, muss auch nicht spekuliert werden, also kann auch nicht mispredicted werden.


Also, wenn ich das richtig verstehe: Aktuell schreibt man vor den load einen conditional jump, der einfach hinter den load springt, sodass es für die CPU erstmal so aussieht, als wäre alles hinter dem Load auch spekulativ, obwohl es das semantisch gar nicht ist? Dann wäre sowas tatsächlich nice.


Die größere Anzahl an Registern ist nett und reduziert ein paar spills und moves, aber das ist auch die Klasse an instructions die moderne CPUs entweder fast kostenlos machen oder für die meist Ausführungsressourcen übrig sind.

Funktioniert sowas denn auch, wenn ich im Code im Falle eines spills dann explizit stores und loads auf die gleiche Adresse stehen habe? Um hier den Weg über den L1 zu vermeiden, müsste die CPU ja vorher schon weit genug in die Zukunft lesen und sehen, dass nach dem store auf Adresse x nur noch ein load auf x kommt und x danach nicht mehr gebraucht wird. Physische Register sind ja genug vorhanden, aber der Compiler muss da natürlich immer store/load-Ketten draus machen, um ISA-konform zu bleiben. Wenn man von vornherein diese Instruktionen gar nicht im Code hat, spart man sich nicht nur so eine aufwändige Erkennung, sondern auch Platz im L1I und Slots in den Decodern (bzw. dem µOp-Cache).

Badesalz
2025-11-14, 16:14:06
Die größere Anzahl an Registern ist nett und reduziert ein paar spills und moves, aber das ist auch die Klasse an instructions die moderne CPUs entweder fast kostenlos machen oder für die meist Ausführungsressourcen übrig sind.Ich kann mir schlecht vorstellen, daß Apple Silicon etwas macht nur damit es im Datenblatt schöner als beim x86 aussieht.

mksn7
2025-11-14, 21:16:50
Also, wenn ich das richtig verstehe: Aktuell schreibt man vor den load einen conditional jump, der einfach hinter den load springt, sodass es für die CPU erstmal so aussieht, als wäre alles hinter dem Load auch spekulativ, obwohl es das semantisch gar nicht ist?


Ja, genau. Die Dinge, die von der übersprungenen Instruktion abhängen sind natürlich schon echt spekulativ.


Funktioniert sowas denn auch, wenn ich im Code im Falle eines spills dann explizit stores und loads auf die gleiche Adresse stehen habe? Um hier den Weg über den L1 zu vermeiden, müsste die CPU ja vorher schon weit genug in die Zukunft lesen und sehen, dass nach dem store auf Adresse x nur noch ein load auf x kommt und x danach nicht mehr gebraucht wird. Physische Register sind ja genug vorhanden, aber der Compiler muss da natürlich immer store/load-Ketten draus machen, um ISA-konform zu bleiben. Wenn man von vornherein diese Instruktionen gar nicht im Code hat, spart man sich nicht nur so eine aufwändige Erkennung, sondern auch Platz im L1I und Slots in den Decodern (bzw. dem µOp-Cache).

Gehts hier um die größere Zahl an Register? Die ermöglichen dass das assembly weniger spills enthält, und weniger push/pop instructions. Das feature was du beschreibst klingt wie die stack engine, die neuere CPUs haben. Die instructions brauchen aber trotzdem fetch und decode Bandbreite, da spart man, wie du sagst, durch mehr Register ein wenig.


Ich sage nicht dass mehr Register nicht bringen, aber die Auswirkung ist insgesamt eher klein.

iamthebear
2025-11-14, 21:21:41
Die L1 loads/stores zu reduzieren ist glaube ich eher mehr eine Energiesparsache, denn die Latenz wird dadurch nicht besser.

Aber die L1 loads/stores sind doch noch nicht alles. Es muss doch beim Schreiben in den L1 ja auch zuerst einmal die Adresse berechnet werden sofern diese nicht schon in einem anderen Register liegt (z.B. Stackpointer+Konstante).

Badesalz
2025-11-15, 06:43:23
AVX10 und ACE also schon, aber APX kommt auch mit Zen7 noch nicht. Richtig?
(was meine eigentliche Frage war, nicht was APX ist...)