Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Panther Lake (18A, 2025+)


Seiten : 1 2 [3] 4

dildo4u
2026-01-09, 15:26:38
Schätze mal AMD kann nur abschätzen was die Dinger in der Produktion kosten könnten.

Es wird massiv teurer sein als der alte 4nm TSMC Node aber Intel muss natürlich seine eigene Fertigung auslasten damit es sich rechnet daher kommen Dumping Preise.

ChaosTM
2026-01-09, 15:34:51
Zumindest hat INTEL wieder eine scheinbar funktionierende, mit TSMC vergleichbare, Fertigung und das ist wichtiger als irgendwelche CPUs.

Je mehr Spieler im HighEnd Bereich noch intakt sind, desto besser.
TSMC, Intel, Samsung

dildo4u
2026-01-09, 15:40:35
Hoffentlich CPU Benches sind noch unter NDA nur den TSMC Grafik Chip konnte man auf der CES Testen

Undertaker
2026-01-09, 15:45:25
Es gibt bereits Geekbench-Leaks, PTL wird im Vollausbau CPU-seitig irgendwo zwischen StrixP und StrixH landen.

Edit: MT natürlich, ST werden beide geschlagen.

dildo4u
2026-01-09, 15:57:05
Abwarten 285H ist schneller als 370HX Laut Geekbench.

Der Index hat sie gleichauf.

https://www.notebookcheck.net/Ryzen-AI-9-HX-370-vs-Ultra-9-285H-vs-Ryzen-AI-Max-395_17543_18542_18628.247596.0.html

Undertaker
2026-01-09, 16:17:54
Wenn der 285H auf HX370 Level liegt und PTL den 6+8C ARL schlägt, was genau ist dann noch offen? Das Ausmaß des Vorsprunges, aber das PTL schneller wird ist kaum anzuzweifeln.

mironicus
2026-01-09, 18:50:28
Panther Lake Gaming Benchmarks. Strix Halo ist aber immer noch fast doppelt so schnell und hier war nur ein HP Zbook als Vergleich gelistet, was auch nur so 50-70 Watt verbraucht.

l_5HTStMvvo

dildo4u
2026-01-09, 19:03:09
Jup wundert mich wie stark Strix Halo in Cyberpunk ist(+80%) laut dem Video kann die B390 nur max 25 Watt nehmen?
Rest für die CPU?

Undertaker
2026-01-09, 19:39:17
Ohne Intels Tool hier zu kennen, ist vermutlich nur der GPU-Part gemeint – sonst wären die Ergebnisse unrealistisch gut. Keine Ahnung ob das irgendwo genannt wurde, aber bei 25W GPU-Verbrauch würde ich für den gesamten Chip hier irgendetwas um 40W TDP-Limit erwarten.

Edit: Das verglichene Strix Halo Gerät verbraucht bei CyberPunk insgesamt ca. 110W sustained, der isolierte Chipverbrauch ist im Test allerdings nicht angegeben: https://www.notebookcheck.com/Leistungsstarke-MacBook-Pro-Alternative-HP-ZBook-Ultra-G1a-14-im-Test.1000784.0.html

dildo4u
2026-01-09, 21:16:14
Wundert mich auch dachte Strix Halo drosselt mher im 14 Zoll Notebooks.

ryan
2026-01-09, 22:28:24
Ohne Intels Tool hier zu kennen, ist vermutlich nur der GPU-Part gemeint – sonst wären die Ergebnisse unrealistisch gut. Keine Ahnung ob das irgendwo genannt wurde, aber bei 25W GPU-Verbrauch würde ich für den gesamten Chip hier irgendetwas um 40W TDP-Limit erwarten.

Edit: Das verglichene Strix Halo Gerät verbraucht bei CyberPunk insgesamt ca. 110W sustained, der isolierte Chipverbrauch ist im Test allerdings nicht angegeben: https://www.notebookcheck.com/Leistungsstarke-MacBook-Pro-Alternative-HP-ZBook-Ultra-G1a-14-im-Test.1000784.0.html


Maximal bei 50 Watt wenn man wccftech (https://wccftech.com/we-tested-intel-panther-lake-arc-b390-igpu-in-several-games-it-truly-is-a-game-changer/) Glauben schenken will. Das wäre vom power budget ziemlich genau 50% für CPU und GPU. Da frage ich mich, ob das budget nicht noch mehr Richtung GPU gehen sollte. Bei wccftech liegt Strix Halo mit 54 Watt übrigens 12% vorne in Cyberpunk.

Despite these higher ratings, in gaming, the laptop hardly breached the 50W barrier

In Cyberpunk 2077, the Intel Arc B390 iGPU delivered 99.45 FPS on average at 1080p using the Medium Preset and Balanced XeSS preset. The Strix Halo iGPU scores 111.92 FPS in the same benchmark at a 54 Watt TDP


Bei hothardware (https://hothardware.com/news/intel-panther-lake-gaming-benchmarks-with-tap) liegt Strix Halo in anderen Spielen eher bei +50%. Das variiert stark je nach power Budget, wobei Strix Halo logischerweise besser nach oben skaliert.

dildo4u
2026-01-10, 07:32:21
Laut Leaks hat die Handheld Version nur 2 PCores vermutlich weil das dann der IGP weniger von Power Budget wegnimmt.
Die 25 Watt sind vermutlich das Minimum für die 16 Kern CPU wo gute Taktraten gehalten werden.


CB hatte eine Gerät mit 65 Watt TDP zum Test

https://www.computerbase.de/artikel/grafikkarten/core-ultra-300-erste-arc-b390-benchmarks.95713/

ryan
2026-01-10, 12:12:17
CB hatte eine Gerät mit 65 Watt TDP zum Test

https://www.computerbase.de/artikel/grafikkarten/core-ultra-300-erste-arc-b390-benchmarks.95713/


Das ist nicht die TDP. Die haben bei PTL das gesamte Notebook ohne Display vermessen und kommen auf knapp 60 Watt. Für den Chip alleine vielleicht 50 Watt, das würde mit der wccftech Angabe gut hinkommen. Die F1 25 fps sind leider zu hoch für ein GPU Test, da hätten sie höhere settings nehmen sollen.

davidzo
2026-01-10, 12:13:22
Laut Leaks hat die Handheld Version nur 2 PCores vermutlich weil das dann der IGP weniger von Power Budget wegnimmt.

Es scheint nur ein Salvage von den X7 X9s zu sein. Also der große Compute Die mit den 8LP Cores + 4LPE.
Imo ist das schade bzw. verschenktes Potential, denn sechs Kerne ist für gaming immer noch völlig ausreichend bzw. der power+$/watt sweetspot. Bei AMD sind 5600X, 7600X und 9600X bei der performance kaum von deren 8Kern kollegen auseinander zu halten.
Gerade der Modulare Aufbau bei PTL sollte doch so eine Flexibilität erlauben dass man beim "non extreme" Core G3 wenigstens den kleinen CPU-Die hätte verwenden können. 4+0+4 und 2+0+4 wären ideal gewesen für den G3 extreme und vanilla G3. Ich glaube auch nicht das gaming Code wirklich viel cross Die Bandbreite braucht und damit vom gemeinsamen L3 zwischen P und E cores profitiert. Die Latenz und Größe des L3 ist wichtiger und zwar für die latenzkritischen Renderthreads. AI/logic thread, asset streaming thread, networking, animation etc. nutzen alle völlig andere Daten und sharen nicht wirklich mit den render threads. Es gibt also keinen wirklichen Grund dass große CPU Die besser für gaming wäre.

Dass man keine vierte Die Konfiguration auflegt und sich die packaginglinie dafür spart wirkt mutlos, so als wenn man nicht wirklich an den eigenen Erfolg glaubt, bzw. die Stückzahlen weiterhin so gering einschätzt dass es billiger ist mehr deaktiviertes 18A Silizium zu verticken als die cutting edge Diesize zu optimieren.

Undertaker
2026-01-10, 12:45:45
LNL hatte eine 4+4C CPU bei kleinerer GPU und war damit mMn gerade noch gut ausgewogen für CPU-lastige Spiele. PTL braucht damit mMn durchaus etwas mehr CPU für seine große GPU. Zumal es auch in Spielen die Effizienz steigern kann, ein paar mehr CPU-Kerne bei geringerer Frequenz laufen zu lassen als vice versa, gerade für Hintergrundthreads. Nicht vergessen, dass wir über eine Architektur ohne SMT sprechen, d.h. der Vergleich mit Zen bzgl. Kernzahl hinkt etwas.

robbitop
2026-01-10, 13:18:17
Schade dass Tom Petersen sagt Linuxtreiber sind keine Prio für Gaming. Damit bleibt für SteamOS und Co ein Nachteil. Und Windows auf einem Handheld -> meh. Und so sehr bekleckert mit Ruhm hat sich MS mit ihrer Handheldvariante von Windows auch noch nicht.

MSABK
2026-01-10, 15:32:14
Mit Strix Halo kann man den Chip nicht vergleichen. Wobei PL schon schnell ist, keine Frage. Endlich geht es mal voran bei den iGPUS und man bekommt auch moderne Technologien. AMD rettet im Handheld aktuell der Linux-Support. iGPU bringt halt wenig return für die Firma und deshalb geht es da langsam voran.

robbitop
2026-01-10, 15:53:28
Schon irgendwie ironisch. Als Intel dominiert hat hat AMD sich total Mühe gegeben eine gute GPU als IGP zu verbauen und das auch vermarktet (gerade in den Bulldozer Zeiten) und Intel hat sich null interessiert (und die IGP hat auch im Markt offenbar keinen Unterschied gemacht). Und jetzt ist es anders herum.
Zeigt wie immer: ohne Wettbewerb werde Unternehmen träge und selbstzufrieden und springen nur noch so hoch sie müssen. :)
Eigentlich ist das klar aber es ist ein schönes Beispiel wo es sich wirklich fast um 180 grad gedreht hat ^^

Mal schauen ob es AMD ermutigt seine APU Strategie zu überdenken. Wenn man sich die gen over gen Sprünge von Intel, QCom und Apple anschaut und wie die kedes Jahr abliefern sind die kleinen 2 Jahresprünge in den APUs wirklich auffällig bei AMD

davidzo
2026-01-10, 16:56:49
AMD rettet im Handheld aktuell der Linux-Support. iGPU bringt halt wenig return für die Firma und deshalb geht es da langsam voran.

RDNA4 wäre aber auch eine Katastrophe für einen monolititschen IGP chip. Die PPA ist viel schlechter als RDNA3.5.
Der Vergleich zwischen Navi33 und Navi44 ist brutal. 13,3 vs 29,7Mrd Transistoren, also mehr als 100% mehr für läppische 30% mehr performance.

AMD hat imo richtig getan bei den IGPs nicht auf die teuren RDNA4 Raytracingverbesserungen zu setzen, da das feature im Entrylevel eh kaum nutzbar ist. 8CU RDNA4 und einen womöglich trotzdem größerer Die wäre deutlich langsamer gewesen in rasterizing workloads. Selbst bei Strix Halo habe ich lieber eine 40CU RDNA3.5 GPU als eine 20CU RDNA4 GPU. In allem anderen außer RT Edgecases ist die 40CU RDNA3.5 GPU nämlich schneller.

UDNA WGPs könnten wieder kleiner werden. Jedenfalls ist die Density bei Mi455X beeindruckend. Im gleichen Node wie Mi355X gefertigt sind die beiden Interposer schmaler geworden. Die XCDs darunter können also nicht viel größer sein, liefern aber den doppelten FP8 Durchsatz bzw. das Vierfache in 4bit Genauigkeit. Die Transistormenge liegt zudem unter nvidias Rubin, wobei es auch einfach sein kann dass die beiden unterschiedlich zählen (HBM base die, active interposer dazu zählen?).

Der_Korken
2026-01-10, 17:06:51
RDNA4 wäre aber auch eine Katastrophe für einen monolititschen IGP chip. Die PPA ist viel schlechter als RDNA3.5.
Der Vergleich zwischen Navi33 und Navi44 ist brutal. 13,3 vs 29,7Mrd Transistoren, also mehr als 100% mehr für läppische 30% mehr performance.

Nach deiner Rechnung ist N4 also 2,3x mal so dicht gepackt wie N6, denn N33 und N44 sind beide 200mm² groß. Dass Transistorenzahlen zwischen <=N5 und >N5 nicht vergleichbar sind, haben wir zu Zen4 und RDNA3-Release schon etliche Male durchgekaut.

Daredevil
2026-01-10, 17:31:43
Im "MiniPC" und stationären Einsatz ist Strix Halo eine gute Alternative für viele Einsatzzwecke, im mobilen Einsatz ist Strix Halo einfach nur ein Lastgen Loser, welcher dringend eine moderne GPU benötigt um GPU Performance, AI Performance und Laufzeit deutlich zu verbessern, damit man sich auch von seinen eigenen Produkten abhebt.

https://s1.directupload.eu/images/260110/pi8xt5z6.png

https://s1.directupload.eu/images/260110/8i5sn4vt.png

https://s1.directupload.eu/images/260110/95tos29e.png

https://s1.directupload.eu/images/260110/ryi5dtmp.png
Q:https://www.youtube.com/watch?v=v7HUud7IvAo

Wo sich Panther Lake hier einfügen würde, kann man sich in etwa vorstellen. ^^

Badesalz
2026-01-10, 17:46:15
Im "MiniPC" und stationären Einsatz ist Strix Halo eine gute Alternative für viele Einsatzzwecke, im mobilen Einsatz ist Strix Halo einfach nur ein Lastgen Loser, welcher dringend eine moderne GPU benötigt Das ist nur mein subjektiver Eindruck, aber ich finde du wirkst irgendwie betrunken :|

dildo4u
2026-01-10, 17:54:40
Ich bezweifle das AMD Probleme haben wird Strix Halo abzusetzen es gibt Mittlerweile Tonnen China Buden die Handhelds und Mini Desktops bauen.
Die Chips fallen vermutlich nicht unter die Import Sperren von Trump.

robbitop
2026-01-10, 17:55:11
RDNA4 wäre aber auch eine Katastrophe für einen monolititschen IGP chip. Die PPA ist viel schlechter als RDNA3.5.
Der Vergleich zwischen Navi33 und Navi44 ist brutal. 13,3 vs 29,7Mrd Transistoren, also mehr als 100% mehr für läppische 30% mehr performance.

AMD hat imo richtig getan bei den IGPs nicht auf die teuren RDNA4 Raytracingverbesserungen zu setzen, da das feature im Entrylevel eh kaum nutzbar ist. 8CU RDNA4 und einen womöglich trotzdem größerer Die wäre deutlich langsamer gewesen in rasterizing workloads. Selbst bei Strix Halo habe ich lieber eine 40CU RDNA3.5 GPU als eine 20CU RDNA4 GPU. In allem anderen außer RT Edgecases ist die 40CU RDNA3.5 GPU nämlich schneller.

UDNA WGPs könnten wieder kleiner werden. Jedenfalls ist die Density bei Mi455X beeindruckend. Im gleichen Node wie Mi355X gefertigt sind die beiden Interposer schmaler geworden. Die XCDs darunter können also nicht viel größer sein, liefern aber den doppelten FP8 Durchsatz bzw. das Vierfache in 4bit Genauigkeit. Die Transistormenge liegt zudem unter nvidias Rubin, wobei es auch einfach sein kann dass die beiden unterschiedlich zählen (HBM base die, active interposer dazu zählen?).
Naja CDNA und RDNA. CDNA steht iirc auf roadmaps bis zu Version 5 mittlerweile. Ob das so viel mit RDNA5/UDNA (davon ist mittlerweile keine Rede mehr) zu tun hat?
Und ob RDNA5 pro CU wirklich kleiner (insbesondere in Bezug auf transistors) als RDNA4 wird? Gabs das schonmal? Ada war pro SM übrigens auch massiv größer in Bezug auf transistors als Ampere und stand auch in keinem Verhältnis zur Mehrleistung.
Zumindest geht es in Bezug auf Perf/W erst seit RDNA4 wieder ordentlich voran. RDNA3 und 3.5 waren dort eher sehr kleine Sprünge.

Ggf wäre eine SKU mit 24 RDNA3.5 CUs und 16 MiB IF$ interessant gewesen.

Daredevil
2026-01-10, 18:09:06
Ich bezweifle das AMD Probleme haben wird Strix Halo abzusetzen es gibt Mittlerweile Tonnen China Buden die Handhelds und Mini Desktops bauen.
Die Chips fallen vermutlich nicht unter die Import Sperren von Trump.
Genau da sind sie ja auch gut. In Geräten wo man keine hervorragende Effizienz benötigt, da stationär oder "mobile Workstation". Da kann Panther Lake kaum anstinken, weil die eben überhaupt kein passendes Produkt dort haben und wenn sie Nvidia dazu packen als dGPU, geht die Effizienz und Laufzeit wieder flöten. Der einzige der mobile Power, Effizienz und Laufzeit vereint ist Apple. Wenn Intel ein Nvidia Tile auf ihr Substrat klebt, dann ändern sich die Spielregeln vermutlich, dann könnte jemand sogar Apple mal näher kommen.

Handhelds laufen zwar auch irgendwie unter "mobile Geräte", aber da weiß jeder Gamer ziemlich genau, dass die Kiste nach 2-3Stunden leer ist. ^^

ryan
2026-01-10, 22:28:37
In Black Myth: Wukong liegt Panther Lake 2.8x vor Lunar Lake, das ist abnormal. Eine RTX 4050 mit 85W liegt noch 16% vor Panther Lake.

https://youtu.be/KI7ytGtoawg?t=301

Daredevil
2026-01-10, 22:36:29
Damit wäre man als Vergleich vermutlich irgendwo zwischen M5 und einem fiktiven M5Pro, also für 95% aller Notebooknutzer komplett ausreichend inkl. Casual Gaming.
Der kleine Panther Lake wäre deutlich unter dem M5 in der GPU Leistung und müsste sich demnach mit dem ebenso fiktiven MacBook mit iPhone SoC messen lassen.
Was man alles so mit der Latest and Greatest Fertigung bekommen kann. :D
Ich bin so sehr gespannt auf die Preise der ersten Produkte. Hoffentlich verkackt Intel das nicht.

Lawmachine79
2026-01-10, 23:22:22
Sehen sehr viel versprechend aus die neuen Tests zu Panther Lake. Scheinen genau zwischen Strix Point und Strix Halo zu landen. Ob das attraktiv ist, wieso der Preis entscheiden. Strix Halo Produkte sind völlig überteuert, da kann man sich gleich eine Notebook mit einer 5070 kaufen.

Ist Panther Lake denn eine grundneue Architektur oder ist das im Grunde noch dasselbe wie zb ein 13700HX! Denn ich denke diese Architektur ist nicht zu retten. Klar, man kann es hier und da tweaken und weniger Scheisse machen, aber bei Notebooks geht aus meiner Sicht kein Weg an Strix Point/Krakan Point (oder jetzt halt Gorgon Point) vorbei, solange Intel keine grundlegend neue Architektur auffährt.

Ich würde mich freuen, wenn man wieder was brauchbares von Intel kommt, weil die Auswahl bei Notebooks einfach viel besser ist, wenn Intelnotebooks in Frage kommen. Und wenn man gute Notebooks will, ist AMD aufgrund der geringen Auswahl und des überschaubaren Gesamtangebot inzwischen auch teurer.

Der_Korken
2026-01-11, 01:01:00
Ist Panther Lake denn eine grundneue Architektur oder ist das im Grunde noch dasselbe wie zb ein 13700HX! Denn ich denke diese Architektur ist nicht zu retten. Klar, man kann es hier und da tweaken und weniger Scheisse machen, aber bei Notebooks geht aus meiner Sicht kein Weg an Strix Point/Krakan Point (oder jetzt halt Gorgon Point) vorbei, solange Intel keine grundlegend neue Architektur auffährt.

Der 13700HX ist doch noch der alte 7nm Intel-Schmonz. Arrow Lake mit TSMC N3B war im Desktop schon deutlich effizienter als die alten Raptoren, wenn man das Powerlimit nicht stumpf auf lässt. Auf die Kerne allein bezogen. würde ich sagen ähnlich effizient wie Zen 5 (welcher aber nur N4 ist). Ich habe den Überblick verloren, was bei Intel jetzt genau in welchem Prozess gefertigt wird, aber die Kerne scheinen aus Intels eigenem 18A-Prozess zu kommen, dem ich aufgrund der Neuheit mal unterstelle, dass er besser als TSMCs betagter N3B-Prozess ist. Da AMD im Consumer-Bereich aktuell durch Abwesenheit glänzt, was neue Produkte angeht, dürfte Panther Lake voerst die Speerspitze der Effizienz unter x86 sein.

Lawmachine79
2026-01-11, 01:21:47
Der 13700HX ist doch noch der alte 7nm Intel-Schmonz. Arrow Lake mit TSMC N3B war im Desktop schon deutlich effizienter als die alten Raptoren, wenn man das Powerlimit nicht stumpf auf lässt. Auf die Kerne allein bezogen. würde ich sagen ähnlich effizient wie Zen 5 (welcher aber nur N4 ist). Ich habe den Überblick verloren, was bei Intel jetzt genau in welchem Prozess gefertigt wird, aber die Kerne scheinen aus Intels eigenem 18A-Prozess zu kommen, dem ich aufgrund der Neuheit mal unterstelle, dass er besser als TSMCs betagter N3B-Prozess ist. Da AMD im Consumer-Bereich aktuell durch Abwesenheit glänzt, was neue Produkte angeht, dürfte Panther Lake voerst die Speerspitze der Effizienz unter x86 sein.
14700HX war auch Scheiße. Alle Intel-CPUs in Notebooks, die richtig Power haben, sind de facto Desktop CPUs mit Desktop Verbrauch aber ohne Desktop Platz für Desktop Kühlung. Sogar die effizienten Intel-Notebook-CPUs haben absurd hohe PL2-Werte und die effizienten sind langsam. Intel hat keine einzige CPU wie den 370HX. Sie haben nicht einmal eine CPU wie den 7840HS.

Der_Korken
2026-01-11, 01:56:00
14000 ist das gleiche wie 13000 - also sogar physisch der gleiche Chip. Ab 200 ist es wie gesagt schon mal eine deutlich bessere Fertigung, die einen großen Unterschied macht. Wenn man das richtig konfigurieren würde, ist das imho konkurrenzfähig zu dem, was AMD anbietet. Irgendwelche unsinnigen PL2-Werte sind natürlich ein Argument, wobei ich hier nicht verstehe, warum Intel bzw. die Notebook-Hersteller sich mit so einem Unsinn ihre Konfig versauen. Wer will mit sowas denn ernsthaft arbeiten?

w0mbat
2026-01-11, 02:00:18
Lunar Lake war der Bruch. Neue P- und E-core Architektur mit Lion Cove und Skymont. Und neue Process Node (hier TSMC). Panther Lake ist der Nachfolger. Leicht optimierte Architektur (Cougar Cove und Darkmont) auf Intel's eigener 18A node. Mit Gate-All-Around Transistoren und Backside Power Delivery Network.

Hat gar nichts mehr mit der 13er- oder 14er-Serie zu tun. Alles neu.

Daredevil
2026-01-11, 02:00:20
Seit Arrow Lake und Lunar Lake sind die Karten bei Intel völlig andere. Zum Glück haben sie ne Kehrtwende gemacht und gehen nicht mehr auf Brechstange, die eh keine Brechstange mehr war.

Battle of the SoCs ^^
Apple vs Intel vs Qualcomm vs AMD - Best Laptop Chip?
https://www.youtube.com/watch?v=WSTMHDpKjwM

https://s1.directupload.eu/images/260111/bxn2n9zw.png

https://s1.directupload.eu/images/260111/ve44qbyy.png

https://s1.directupload.eu/images/260111/lfniefbw.png

Lawmachine79
2026-01-11, 02:04:51
Ja, schön, Benchmarks, da sahen die Intel-Laptops CPUs immer gut aus. Aber Benchmarks werden mit Netzstecker gemacht und dem Bencher ist egal, wie laut "der Gerät" ist. Das sehe ich in einem Desktop genauso, aber in einem Laptop ist alles nix wert, was mit erheblicher Lärmentwicklung erkauft werden muss. Und wenn das wieder so eine 157 Watt-Geschichte bei Intel ist, kann man es in die Tonne treten. Vereinfacht gesagt: bei AMD war es bisher so, dass sie - grobe Beschreibung - 80 Prozent ihrer Leistung mit 20% ihrer TDP mobilisiert haben, bei Intel war es umgekehrt (Baustelle AMD Idle-Verbrauch mal abgesehen, da dreht es wieder). Ich bin mit meinem HX370-Laptop topzufrieden, das einzige was mich ärgert, ist, dass da tatsächlich noch so 30-40% iGPU-Performance fehlt, was einen bei vielen Games in den gut spielbaren Bereich hilft; genau das liefert Panther Lake anscheinend. Ich suche einen Laptop, der bei schweren Officelasten lautlos ist (Adobe, Word mit tonnenweise Track Changes und Comments, dabei zig Chrome Tabs offen, einige davon Youtube, parallel dann Teams-VC), top DPC-Latenzen hat und bei D2R in nativer Auflösung mit Upscaling 90 Frames bringt (letzteres ist die Schwäche vom 370HX). Und er muss USB4 haben, weswegen alles mit "Range" im CPU-Namen bei AMD leider raus ist.

Daredevil
2026-01-11, 02:16:41
Ist wie gesagt anders, Intels neue Architektur fühlt sich enorm wohl bei niedriger Stromzufuhr.
Ich habe jetzt nur auf die schnelle eigene 245K Arrow Lake Ergebnisse parat, aber hier mal kurz als Vergleich:

Cinebench24 ( Package Limit im XTU forciert )

245K Stock 200w (1493pts)
Points per Watt: 7,46pts

245K Stock 100w
Points per Watt: 9,28pts

245K Stock 75w
Points per Watt: 10,49pts

245K Stock 50w (966pts)
Points per Watt: 11,36pts

245K Stock 40w
Points per Watt: 11,45pts

245K Stock 30w
Points per Watt: 9,06pts

245K Stock 25w
Points per Watt: 7,33pts

Ich suche einen Laptop, der bei schweren Officelasten lautlos ist (Adobe, Word mit tonnenweise Track Changes und Comments, dabei zig Chrome Tabs offen, einige davon Youtube, parallel dann Teams-VC), top DPC-Latenzen hat und bei D2R in nativer Auflösung mit Upscaling 90 Frames bringt (letzteres ist die Schwäche vom 370HX). Und er muss USB4 haben, weswegen alles mit "Range" im CPU-Namen bei AMD leider raus ist.
Ich weiß ich werde jetzt wieder gevierteilt, aber... a MacBook Pro can do that. Sehr wahrscheinlich Panther Lake aber auch. ^^

Lawmachine79
2026-01-11, 02:43:59
Ist wie gesagt anders, Intels neue Architektur fühlt sich enorm wohl bei niedriger Stromzufuhr.
Ich habe jetzt nur auf die schnelle eigene 245K Arrow Lake Ergebnisse parat, aber hier mal kurz als Vergleich:

Cinebench24 ( Package Limit im XTU forciert )

245K Stock 200w (1493pts)
Points per Watt: 7,46pts

245K Stock 100w
Points per Watt: 9,28pts

245K Stock 75w
Points per Watt: 10,49pts

245K Stock 50w (966pts)
Points per Watt: 11,36pts

245K Stock 40w
Points per Watt: 11,45pts

245K Stock 30w
Points per Watt: 9,06pts

245K Stock 25w
Points per Watt: 7,33pts


Ich weiß ich werde jetzt wieder gevierteilt, aber... a MacBook Pro can do that. Sehr wahrscheinlich Panther Lake aber auch. ^^
K.a. ob ein Macbook das kann. Ich bin ein PC-Mann. Ich will auch deren Software nicht. Und zum Zocken kann man die Dinger eh in die Tonne treten. Aber mit meinem IPad Pro arbeite ich gerne.

dildo4u
2026-01-11, 05:52:55
Genau da sind sie ja auch gut. In Geräten wo man keine hervorragende Effizienz benötigt, da stationär oder "mobile Workstation". Da kann Panther Lake kaum anstinken, weil die eben überhaupt kein passendes Produkt dort haben und wenn sie Nvidia dazu packen als dGPU, geht die Effizienz und Laufzeit wieder flöten. Der einzige der mobile Power, Effizienz und Laufzeit vereint ist Apple. Wenn Intel ein Nvidia Tile auf ihr Substrat klebt, dann ändern sich die Spielregeln vermutlich, dann könnte jemand sogar Apple mal näher kommen.

Handhelds laufen zwar auch irgendwie unter "mobile Geräte", aber da weiß jeder Gamer ziemlich genau, dass die Kiste nach 2-3Stunden leer ist. ^^
Hängt das nicht von der Konfig ab?Du kannst Strix Halo drosseln bei bedarf.

2X Verbauch 2X Leistung, der Gegner bei 100 Watt sind Systeme mit RTX 5050 die natürlich ineffektiv sind da die noch zusätzlich eine CPU braucht.

https://i.ibb.co/5X1fNx60/Screenshot-2026-01-11-054738.png (https://ibb.co/Psrf7zNL)

reunion
2026-01-11, 09:38:07
Im "MiniPC" und stationären Einsatz ist Strix Halo eine gute Alternative für viele Einsatzzwecke, im mobilen Einsatz ist Strix Halo einfach nur ein Lastgen Loser, welcher dringend eine moderne GPU benötigt um GPU Performance, AI Performance und Laufzeit deutlich zu verbessern, damit man sich auch von seinen eigenen Produkten abhebt.

https://s1.directupload.eu/images/260110/pi8xt5z6.png

https://s1.directupload.eu/images/260110/8i5sn4vt.png

https://s1.directupload.eu/images/260110/95tos29e.png

https://s1.directupload.eu/images/260110/ryi5dtmp.png
Q:https://www.youtube.com/watch?v=v7HUud7IvAo

Wo sich Panther Lake hier einfügen würde, kann man sich in etwa vorstellen. ^^

Ist dir das nicht zu blöd als "Hardware-Berater" hier laufend derart offensichtlich deine Sympathie für Intel raus zu stellen? Das Z Flow ist ein Tablet, dass natürlich im Akkubetrieb deutlich drosselt. Die anderen Geräte sind Notebooks. Alle Benchmarks die man bis jetzt sehen konnte sehen Strix Halo selbst bei der Perf/Watt auf Augenhöhe mit PTL und das trotz Uraltprozess und einer GPU-Arch von 2022. Die Intel-Kerne saufen wohl noch immer zu viel. Zumindest ist es nicht anders zu erklären, dass Intel bei 50W TDP satte 25W für die CPU reserviert und deshalb nur 25W für die GPU übrig bleiben. Was man gerade deshalb aber umso mehr loben muss ist die GPU-Architektur von Intel, die echt gut zu sein scheint.

reunion
2026-01-11, 09:57:11
Seit Arrow Lake und Lunar Lake sind die Karten bei Intel völlig andere. Zum Glück haben sie ne Kehrtwende gemacht und gehen nicht mehr auf Brechstange, die eh keine Brechstange mehr war.


Das ist auch faktenwidrig was du hier behauptest. Vergleiche mal einen Arrow Lake und Lunar Lake bei sehr kleiner TDP vs. Zen 5. Bei Last auf ein oder zwei Kernen geht das noch halbwegs, Multi-Core brechen die Intel-Dinger nach wie vor weg - das ist genau das, was auch Lawmachine79 anspricht. Und da reden wir von 3nm TSMC-Chips bei Intel, während AMD noch immer mit 4nm fährt.

ryan
2026-01-11, 10:44:50
Das ist auch faktenwidrig was du hier behauptest. Vergleiche mal einen Arrow Lake und Lunar Lake bei sehr kleiner TDP vs. Zen 5. Bei Last auf ein oder zwei Kernen geht das noch halbwegs, Multi-Core brechen die Intel-Dinger nach wie vor weg - das ist genau das, was auch Lawmachine79 anspricht. Und da reden wir von 3nm TSMC-Chips bei Intel, während AMD noch immer mit 4nm fährt.


Kannst du das belegen? Meine Erinnerung ist hier eine andere. Arrow Lake-H ist sehr konkurrenzfähig bei der Last Effizienz. Es gab einen sehr großen Sprung von Raptor Lake auf Arrow Lake.

Bei niedriger Last sind Lunar Lake und Panther Lake allerdings eine andere Liga gegenüber Arrow Lake und AMD wegen der verbesserten LPE Kerne im Compute Tile.

Daredevil
2026-01-11, 11:14:23
Ist dir das nicht zu blöd als "Hardware-Berater" hier laufend derart offensichtlich deine Sympathie für Intel raus zu stellen? Das Z Flow ist ein Tablet, dass natürlich im Akkubetrieb deutlich drosselt. Die anderen Geräte sind Notebooks. Alle Benchmarks die man bis jetzt sehen konnte sehen Strix Halo selbst bei der Perf/Watt auf Augenhöhe mit PTL und das trotz Uraltprozess und einer GPU-Arch von 2022. Die Intel-Kerne saufen wohl noch immer zu viel. Zumindest ist es nicht anders zu erklären, dass Intel bei 50W TDP satte 25W für die CPU reserviert und deshalb nur 25W für die GPU übrig bleiben. Was man gerade deshalb aber umso mehr loben muss ist die GPU-Architektur von Intel, die echt gut zu sein scheint.


Das ist auch faktenwidrig was du hier behauptest. Vergleiche mal einen Arrow Lake und Lunar Lake bei sehr kleiner TDP vs. Zen 5. Bei Last auf ein oder zwei Kernen geht das noch halbwegs, Multi-Core brechen die Intel-Dinger nach wie vor weg - das ist genau das, was auch Lawmachine79 anspricht. Und da reden wir von 3nm TSMC-Chips bei Intel, während AMD noch immer mit 4nm fährt.
1.
Nein, mir ist es nicht zu blöd Begeisterung zu zeigen für die beste Hardware auf dem Markt, deswegen habe ich u.a. folgende Hardware Zuhause

Workstation: MacStudio M3 Ultra
Gaming: Ryzen+Blackwell
Couch Gaming: PS5Pro

Alle Komponenten sind best in Class, weil ich das beste will und ich nur mit dieser Hardware meine Probleme lösen kann.
Nicht mal meine WiFi7 Karte ist von Intel, weil die Vollidioten ihren Chip mit ihren CPUs gekoppelt haben. Auf nem Ryzen startet das System nicht mehr, wenn ne Intel WiFi Karte steckt. Meine offensichtliche Sympathie ist also nur eine Reflexion deines Fanboytums, weil sonst würdest du nicht meine Fakten hinterfragen ohne selber welche zu liefern.

2.
Die Tests sind im Batteriebetrieb, also stark gedrosselt. Deswegen gibt es weder ein Temp Limit noch ist der Vergleich unfair. Dass die Kiste zu heiß wird ist falsch, weil dann wäre Strix Halo am Stromkabel im Vergleich nicht deutlich schneller. Ich habe ziemlich genau gesagt, dass ich Stix Halo im mobilen Bereich mangelhaft finde, im stationären und bei hoher Lautstärke macht er sein Job gut und teilweise erstklassig. ( AI Benchmarks )

3.
Zeig mir mal die Benchmarks, wo Panther Lake auf Augenhöhe von Strix Halo liegt und diesen Kategorien: CPU SC, CPU MT, GPU, AI, Effizienz Teillast, Idle Verbraucht und Leistung mit Cable on or off.
Strix Halo wird hier in GPU und AI Leistung teuer erkauft glänzen, alles andere ist schlicht nicht seine Stärke. Weswegen er seine Stärke, wie bereits gesagt, in mobile Workstations und Desktops hat. Dort kann Intel nichts liefern, nichts.

Und nochmal zurück zu der Unterstellung der Sympathie:
Alle X86 CPU Architekturen sind meilenweit hinter Apple, für Platz zwei oder drei würde ich nie Sympathie finden, ich freue mich aber sehr, dass jemand den Windschatten erreicht, oder wie CB mal geschrieben hat:
Die zwei Größen aus dem Windows-Wettbewerb schlägt Apple zudem mit vielfachem Multiplikator in puncto Effizienz. Bei der Leistung pro Watt liefert Apple Silicon schlichtweg eklatant mehr.

4.
Was WM anspricht ist keine heavy Multitasking Leistung, sondern einfache Teillast, dort liefert Intel mit ihrer neuen Architektur mehr für den eingesetzten Strom, da wir drei unterschiedliche Kernarten haben, die deutlich flexibler sind als Universalcores von Zen5. Ehrlich gesagt sind die zwei kleinen Kernarten überhaupt das sehr spannende an Panther Lake im mobilen Umfeld.

5.
Wenn du etwas behauptest und mich Wiederlegen möchtest, im Happy to learn.
Dann liefer aber bitte Fakten, weil sonst kann ich deine Worte nicht nachvollziehen.

Tschau Kakao.

Lawmachine79
2026-01-11, 11:31:29
Ui hier hängt der Haussegen aber gewaltig schief.

Tobalt
2026-01-11, 12:53:44
big little ist schon immer (offensichtlich) ein Vorteil, gerade im Desktop bzw
single user betrieb mit diversen Anwendungen. Es krankte an der optimalen Fertigung und mglw. Softwareseitigen Unterstützung.

Auch AMD wird dies irgendwann umsetzen.

robbitop
2026-01-11, 13:09:14
Tun sie doch schon länger. Seit Phoenix 2 gibt es heterogene APUs mit Zen4+Zen4c Cores. Mit Strix Point und Krackan Point dann auch mit Zen 5/c. Mit Zen6 sollen sogar noch LP Cores dazu kommen die noch kleiner und sparsamer sind und nicht mehr pro Takt die gleiche Leistung liefern.

Tobalt
2026-01-11, 13:12:09
Oh Ok 😊

damit weniger spam: Clearwater Forest zeigt auch schön, wo die Reise hingeht und dass das viel gescholtene Reticle Limit von High NA EUV bestenfalls eine Randnotiz ist.

MSABK
2026-01-11, 14:01:14
Interessant, es gab wohl ein Asus G14 Gaming-Laptop mit PantherLake und iGPU. Soll wohl fertig gewesen sein und doch gecancelt worden sein.

https://videocardz.com/newz/asus-quietly-pulled-its-arc-b390-powered-zephyrus-g14-from-ces-after-it-appeared-in-intels-own-demo-room

Noch eine Gen, dann könnte es vlt langen für iGPU Gaming im breiten Rahmen.

mocad_tom
2026-01-11, 14:44:34
Aufgrund hoher Nachfrage wird jeder Laptop-Hersteller bestimmte miteinander kombinierte Kontingente an Panther Lake erhalten.

Die werden da ein tolles Zenbook auflegen und das wird halt direkt ein Zephyrus kannibalisieren.

Die Treiberunterstützung bei Intel rund um dieses Lo-Power-Island ist mittlerweile krass ausgereift.

Ein Meteor Lake mit aktueller Firmware und aktuellen Treibern steht absolut top da - das war Treiberarbeit.

Und die Low-Power-Islands mit 4 Skymont / 4 Darkmont sind nochmal heftiger.

ARM-Macos muss sich mit weniger Legacy-Zeug rumärgern, aber Intel hat hier eine weite Strecke durchschritten und auch Win11 hatte hier einen transformativen Prozess drin.

Obwohl Macos gute Prozessoren jetzt auf ihrer Seite haben, es hatten viele die x86-Macos weil sie damit coole linux-Sachen machen konnten. Mit ARM wurde das zu einem walled Garden, ich hatte so viele, die sich am Ende nochmal einen x86-Apple geholt haben. Bzw gab es dann auch einige, die sich einen guten Laptop mit Linux geholt haben.

Es dümpeln auch die Macos-Zahlen dahin - wo genau wäre die Explosion?
Das maßgebliche Produkt von Apple ist das iphone - aber dann war es das.

Anders herum wird jetzt ein Schuh draus - Panther Lake und Wildcat Lake werden im Mediamarkt rumstehen und es werden einfach nur brutal gute Produkte daraus gemacht - gute Preispunkte - gute Leistung - gute Kompatibilität.

Lawmachine79
2026-01-11, 14:52:33
Aufgrund hoher Nachfrage wird jeder Laptop-Hersteller bestimmte miteinander kombinierte Kontingente an Panther Lake erhalten.

Die werden da ein tolles Zenbook auflegen und das wird halt direkt ein Zephyrus kannibalisieren.

Die Treiberunterstützung bei Intel rund um dieses Lo-Power-Island ist mittlerweile krass ausgereift.

Ein Meteor Lake mit aktueller Firmware und aktuellen Treibern steht absolut top da - das war Treiberarbeit.

Und die Low-Power-Islands mit 4 Skymont / 4 Darkmont sind nochmal heftiger.

ARM-Macos muss sich mit weniger Legacy-Zeug rumärgern, aber Intel hat hier eine weite Strecke durchschritten und auch Win11 hatte hier einen transformativen Prozess drin.

Obwohl Macos gute Prozessoren jetzt auf ihrer Seite haben, es hatten viele die x86-Macos weil sie damit coole linux-Sachen machen konnten. Mit ARM wurde das zu einem walled Garden, ich hatte so viele, die sich am Ende nochmal einen x86-Apple geholt haben. Bzw gab es dann auch einige, die sich einen guten Laptop mit Linux geholt haben.

Es dümpeln auch die Macos-Zahlen dahin - wo genau wäre die Explosion?
Das maßgebliche Produkt von Apple ist das iphone - aber dann war es das.

Anders herum wird jetzt ein Schuh draus - Panther Lake und Wildcat Lake werden im Mediamarkt rumstehen und es werden einfach nur brutal gute Produkte daraus gemacht - gute Preispunkte - gute Leistung - gute Kompatibilität.
Na da wird kein Zephyrus kannibalisiert. Im Zephyrus kriegt man deutlich fettere GPUs. Das ROG Flow mit dem großen Strix Halo könnte ein kleines Zephyrusmodell kannibalisieren.

Badesalz
2026-01-11, 16:53:50
Ui hier hängt der Haussegen aber gewaltig schief.Ist das nicht immer so wenn die Leute erstmal nur schnacken und dann plötzlich einer am Rad dreht?

PS:
Es wird auf jeden Fall "brutal" sein :D

dildo4u
2026-01-12, 10:43:20
Hätte nicht gedacht das die 5050 so schwach ist nimmt im dem Notebook 95Watt.
Zusammen mit dem Ryzen 240 ist es bei 130 Watt.

https://i.ibb.co/LdNjJvx5/Screenshot-2026-01-12-111058.png (https://ibb.co/YB0nybcZ)

https://www.notebookcheck.com/Intel-Panther-Lake-samt-Arc-B390-stellt-sich-Ryzen-Strix-Halo-und-GeForce-RTX-4050-in-unseren-ersten-Gaming-Benchmarks.1200740.0.html


Teaser zur Performance keine Chance gegen Apple leichtes spiel gegen AMDs Aufguss.

AzGFbkKZE7A

mocad_tom
2026-01-12, 12:33:47
Es läuft genau ein Spiel wirklich ordentlich auf den Apples.

Wie wurde damals auf Arc Alchemist draufgehauen, weil Counter Strike nur 215 FPS schaffte.
Oder der Farming Simulator 2017 nur mit mittlerer Auflösung lief und das ja bei nvidia viel besser ist.
Oder dieses Spiel mit DX9 hatte hinten bei den Schatten ein Flackern und jenes Spiel mit dem und dem.........

Aber heute wird eine Apple-Kiste als Gaming-Maschine verkauft, weil darauf Cyberpunk läuft :freak:

Ein Apple M4 Ultra ist keine Gaming Maschine - in den letzten 4 Jahren wird jetzt immer mit den gleichen 3 Spielen gebencht, weil die anderen Spiele nicht laufen.

Das gleiche ist doch bei Snapdragon.
Diese Snapdragon-Spiele-Kompatibilitätswebsite war doch ein schlechter Witz.

Ich wollte über Noteboockcheck schon mal mehrer Laptops (Qualcomm vs Apple vs Lunar Lake) miteinander vergleichen - aber da geht einfach nix.

Auf der anderen Seite macht Linus Tech Tips einen Life-Stream und lädt Spiele aus seiner Steam-Bibliothek auf Alchemist oder Battlemage runter und es läuft einfach.
Mit Snapdragon glaube ich hat der das auch einmal gemacht und da haben dann zwei oder drei Spiele gestartet - es war einfach ein Desaster.

Das ist ein Artikel von November 2024
https://www.golem.de/news/mac-mini-im-gaming-test-gaming-zwerg-auf-spielesuche-2411-190791.html


Viel Auswahl bei Indie-Games, wenige Blockbuster

Leider stellen die drei oben genannten Spiele die Speerspitze der Mac-Spiele dar, wobei Factorio auch noch lobend erwähnt sein sollte. Es ist generell nicht so, dass es für Macs keine Spiele gäbe. Was hingegen fehlt, sind die großen Titel der größeren Publisher und Entwicklerstudios, hier wird der Mac oft einfach ignoriert.


Was für ein Mistbenchmark soll dann bitte ein M4 als "Spielekiste" sein.
Es ist faktisch eine Falschmeldung.

dildo4u
2026-01-12, 13:02:29
Panther Lake ist auch keine Gameing APU daher werden die Vergleiche gemacht.
Du fährst als Gamer deutlich besser eine 5050 in einem 1000€ Notebook zu kaufen.

mocad_tom
2026-01-12, 13:10:51
Hier hat einer einen M3 Ultra mit 96GB genommen (6000€) und hat darauf Starcraft, Resident Evil, X-Planes und Tomb Raider laufen lassen.

Original-Zitat
"this looks absolutely amazing"

Das war im Mai 2025

https://youtu.be/zDsS66yC5O0


Und dann gibt es noch das rumgeheckmecke mit M3Ultra und M4Max.
Manche Spiele laufen mit dem besser, manche mit dem.

Panther Lake ist keine Spiele APU, aber Shadow of the Tomb Raider, X-Planes, Hogwarts Legacy

Das ist alles so alt oder so gut Kompatibel, die laufen halt einfach auf Lunar Lake oder AMD kisten.


Wenn sowas einem Lunar Lake passieren würde -> Weltuntergang.

mboeller
2026-01-12, 13:50:23
Acemagic Mini-PC hüllt Panther Lake und Arc B390 mit 120W Leistung in Gehäuse im Format des Apple Mac Studio (https://www.notebookcheck.com/Acemagic-Mini-PC-huellt-Panther-Lake-und-Arc-B390-mit-120W-Leistung-in-Gehaeuse-im-Format-des-Apple-Mac-Studio.1201831.0.html)

die 120w finde ich nicht berauschend für einen Panther-Lake MiniPC. Da ist eher ein Vergleich mit StrixHalo als mit StrixPoint angebracht.

dildo4u
2026-01-12, 13:54:33
Ist doch gut wenn die Dinger nicht gelockt sind nicht vergessen Ultra 9 werden mit Mobilen 5090 kombiniert die braucht jedes Prozent an Leistung.

Alle X86 Modelle ohne 3D Cache müssen die Leistung über den Takt erzeugen.

Undertaker
2026-01-12, 14:27:21
Gerade bei Spielen, die den CPU-Part idR nur sehr partiell auslasten, dürfte der Leistungszuwachs bei PTL irgendwo ab ~50-70 Watt sehr stark abnehmen. 120 Watt sind da mMn wenig zielführend. Klar, spricht für ein gutes Kühlsystem und die Option schadet sicher nicht, aber einstellen würde ich definitv weniger. Macht ja auch wenig Sinn, z.B. einen Strix Halo auf 200 Watt zu setzen, falls das denn ginge.

dildo4u
2026-01-12, 16:13:25
Meinst du es bringt nix laut dem konnte Arrow Lake was aus 170 Watt machen.

https://i.ibb.co/SXPP7kxb/Screenshot-2026-01-12-161407.png (https://ibb.co/HDVVpc26)

https://www.computerbase.de/artikel/prozessoren/amd-ryzen-9-9955hx-intel-core-ultra-9-275hx-test.91825/seite-2#abschnitt_tdpskalierung_von_15_bis_180watt

Undertaker
2026-01-12, 16:29:02
Der 275HX ist faktisch ein niedriger taktender 285K, d.h. erheblich mehr Kerne, höherer Takt und älterer Prozess. Das ist in etwa wie Strix Point mit einem 9950X zu vergleichen...

mocad_tom
2026-01-12, 16:32:30
Die Panther werden aber schon schöner saklieren, weil der L3 mit Ringtakt einfach mitläuft.
Weil das alles monolithisch ist.

Panther Lake (Cougar Cove) hat wohl auch bei der L2 Cache Latenz zwei Takte weniger als beim Arrow Lake (Lion Cove).

Von Skymont auf Darkmont das gleiche - zwei Takte weniger Latenz beim L2 Cache.

Durch diese niedrige Cache Latenz limitiert dann auch der Takt nach oben hin.

Relic
2026-01-12, 16:44:58
Gerade bei Spielen, die den CPU-Part idR nur sehr partiell auslasten, dürfte der Leistungszuwachs bei PTL irgendwo ab ~50-70 Watt sehr stark abnehmen. 120 Watt sind da mMn wenig zielführend. Klar, spricht für ein gutes Kühlsystem und die Option schadet sicher nicht, aber einstellen würde ich definitv weniger. Macht ja auch wenig Sinn, z.B. einen Strix Halo auf 200 Watt zu setzen, falls das denn ginge.

Die iGPU hängt doch extrem an der Bandbreite und im dem System hast du sogar nur langsame LPDDR5 SO-DIMMS. Da kannst du noch so viel Watt reinschießen wenn die GPU an Bandbreite verhungert....

Undertaker
2026-01-12, 16:56:50
Du willst sagen, das ein SODIMM-System generell schlechter mit steigender TDP skalieren dürfte als ein LPDDR5X-System? Ja, das würde ich auch vermuten.

Daredevil
2026-01-12, 21:48:54
Es läuft genau ein Spiel wirklich ordentlich auf den Apples.
Das ist falsch. Es gibt grundsätzlich erstmal tausende Spiele die es bei Epic Games, GOG und Steam nativ für Apple Silicon gibt oder mit Umweg über Rosetta. Für alles andere ist Heroic die erste kostenfreie Wahl, damit bekommt man GOG, Epic Games und Steam Spiele für den Benutzer leicht erfahrbar durch das GPTK(3 mit DLSS Support) gezogen. Es geht, es ist aber natürlich nicht Primäranwendung, klar. Ähnlich wie bei Linux Gaming gibt es u.U. Einschränkungen bei Anticheat und co, das ist natürlich auch ein Teil der Wahrheit.

Die Frage ist imho auch gar nicht, ob man primär nen Mac zum zocken nutzt, sondern ob man zusätzlich eine Gaming Maschine im Haushalt benötigt. Je mehr Gaming Kapazitäten die Workstation hat, desto weniger benötigt man natürlich extra Gaming Hardware. Mein M3 Ultra reicht mir für 4K120 nicht aus, deswegen habe ich ne 5090. Ein "M5 Ultra" würde diese Spanne enorm zusammen stauchen. Panther Lake kann mit einer starken iGPU die Spanne deutlich geringer zu einer "MidEnd" dGPU verkleinern, was die Maschinen wahrscheinlich deutlich günstiger machen, sicherlich effizienter, und somit bekommt Intel noch mehr Marktanteil, in dem Segment ist dieser ja schon enorm.

Acemagic Mini-PC hüllt Panther Lake und Arc B390 mit 120W Leistung in Gehäuse im Format des Apple Mac Studio
120w bei der Größe? Ist da nur Luft drin, oder wie? :D
Ich hätte gerne ein uATX Mainboard mit PCIE5 8x :redface:

mocad_tom
2026-01-13, 10:00:11
Keiner wird das mit Apple machen:

https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Specials/Treiber-Update-Test-2023-1411995/2/

Solange das keiner macht braucht ihr mir nicht mit Gaming Maschine daher zu kommen.

Es wird bei Apple und Snapdragon im Vergleich zu Arc Alchemist / Panther Lake mit zweierlei Maß gemessen.

Das Produkt A plus das Produkt B - die Eigenschaften kombiniert können das was Intel in einem Produkt kann.

Nämlich man nimmt die Kompatibilität von AMD oder Nvidia und nimmt die Leistungsfähigkeit von Apple in einem einzigen Benchmark und sagt dann Panther Lake wäre nur so mittel.

Ich weiß nicht was ihr da seht:
https://www.computerbase.de/artikel/grafikkarten/core-ultra-300-erste-arc-b390-benchmarks.95713/

Aber ich sehe da absolute Dominanz bei einem 128bit-LPDDR5 Speicherinterface.

nvidia benötigt GDDR für die 4070.
AMD benötigt 256bit-LPDDR5 (beim Ryzen AI Max+ 395).
Wenn AMD nur 128bit-LPDDR5 zur Verfügung hat, sakt die AMD-APU total ab.

Ich würde mich auf eine 256-bit-APU von Intel freuen (und zwar CPU und GPU von Intel).


Erste sehr interessante Listungen:

https://geizhals.de/?cat=nb&xf=12_32768%7E6752_Core+Ultra+300


Das Asus Vivobook bitte noch mit 2800er-Auflösung und 64GB und ich nehme es sofort:
https://geizhals.de/asus-vivobook-s-16-flip-tp3607aa-si009w-90nb17b1-m00400-a3692559.html
Win 11Pro muss ich dann halt selber nachrüsten.


Mitte Februar wird ein Panther Lake geholt.

robbitop
2026-01-13, 10:09:20
Apple bringt Gaming ja auch nur was wenn sie ein Stück vom Kuchen abbekommen - ihre typischen 30% zB. Dementsprechend muss die Distribution über ihre Infrastruktur laufen.
So wie auf dem iPhone/iPad. Da verdienen sie mit Handyspielen angeblich wesentlich mehr als die meisten Publisher. Ohne große Investitionen oder Risiken. Wie scharf man da jetzt drauf ist eine eigene AAA Publishingplattform für Mac zu machen (denn nur so verdient man) ist fraglich. Insbesondere vor dem Hintergrund dass alle die das (auf viel verbreiterere HW Basis) versucht haben bereits gescheitert sind?

dildo4u
2026-01-13, 10:52:55
Keiner wird das mit Apple machen:

https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Specials/Treiber-Update-Test-2023-1411995/2/

Solange das keiner macht braucht ihr mir nicht mit Gaming Maschine daher zu kommen.

Es wird bei Apple und Snapdragon im Vergleich zu Arc Alchemist / Panther Lake mit zweierlei Maß gemessen.

Das Produkt A plus das Produkt B - die Eigenschaften kombiniert können das was Intel in einem Produkt kann.

Nämlich man nimmt die Kompatibilität von AMD oder Nvidia und nimmt die Leistungsfähigkeit von Apple in einem einzigen Benchmark und sagt dann Panther Lake wäre nur so mittel.

Ich weiß nicht was ihr da seht:
https://www.computerbase.de/artikel/grafikkarten/core-ultra-300-erste-arc-b390-benchmarks.95713/

Aber ich sehe da absolute Dominanz bei einem 128bit-LPDDR5 Speicherinterface.

nvidia benötigt GDDR für die 4070.



Das Asus Vivobook bitte noch mit 2800er-Auflösung und 64GB und ich nehme es sofort:
https://geizhals.de/asus-vivobook-s-16-flip-tp3607aa-si009w-90nb17b1-m00400-a3692559.html
Win 11Pro muss ich dann halt selber nachrüsten.


Mitte Februar wird ein Panther Lake geholt.

1500€ mit der kleinen IGP :lol:

mocad_tom
2026-01-13, 12:15:02
Natürlich mit der großen igpu.

Das Naming Schema ist ja nochmal böser geworden.

Core Ultra X9 oder Core Ultra X7

https://geizhals.de/?cat=nb&hloc=de&asuch=%22Core+Ultra+X7%22&asd=on&bpmin=&bpmax=&v=e&hloc=at&plz=&dist=&mail=



Eine Listung ist schon da
https://geizhals.de/acer-swift-16-ai-oled-sf16-71t-7053-nx-ju1eg-00d-a3693938.html

Ich denke das wird dann im Februar noch nix

ryan
2026-01-13, 12:44:20
Ich denke das wird dann im Februar noch nix


https://de-store.msi.com/products/prestige-14-flip-ai-d3mtg-030de


Voraussichtliche Auslieferung vom MSI Prestige 14 In KW 7, das wäre mitte Februar.

mironicus
2026-01-13, 13:02:38
Man muss genau schauen bei der Konfiguration: Nix gleich automatisch mit "LPPDR5x-9600" oder so, hier sind z.B. nur LPDDR5X-7467MT/s verbaut.

https://www.lenovo.com/de/de/p/laptops/yoga/yoga-slim-series/lenovo-yoga-slim-7i-ultra-gen-11-aura-edition-14-inch-intel/83qkcto1wwde2

Undertaker
2026-01-13, 13:11:15
Es unterstützen doch gar nicht alle Modelle den 9600er RAM.

dildo4u
2026-01-13, 13:38:35
Natürlich mit der großen igpu.

Das Naming Schema ist ja nochmal böser geworden.

Core Ultra X9 oder Core Ultra X7

https://geizhals.de/?cat=nb&hloc=de&asuch=%22Core+Ultra+X7%22&asd=on&bpmin=&bpmax=&v=e&hloc=at&plz=&dist=&mail=



Eine Listung ist schon da
https://geizhals.de/acer-swift-16-ai-oled-sf16-71t-7053-nx-ju1eg-00d-a3693938.html

Ich denke das wird dann im Februar noch nix
16GB für CPU+GPU wird vermutlich normal dieses Jahr kein Plan ob das reicht für Medium Settings.

Relic
2026-01-13, 13:50:31
16GB für CPU+GPU wird vermutlich normal dieses Jahr kein Plan ob das reicht für Medium Settings.

Heute vielleicht grade noch so aber in Zukunft? Wäre mir zu wenig vorallem bei den aufgerufenen Preisen...

mironicus
2026-01-13, 13:54:21
16GB für CPU+GPU wird vermutlich normal dieses Jahr kein Plan ob das reicht für Medium Settings.

16 GB Verlötet... 1500 Euro. :freak:

mocad_tom
2026-01-13, 21:11:20
Ich habe im Sommer 2x 48GB DDR5 SODIMM und 2x 64GB DDR5 SODIMM gekauft.

Ich habe aber schon gelesen, dass es wohl keine Core Ultra X7 / Core Ultra X9 mit SODIMM Steckplätze geben wird.

Mal sehen, wie der Ramp von PTL so aussehen wird.

The_Invisible
2026-01-13, 21:40:42
Scheint wirklich gut gelungen, wenn man das bessere Upscaling noch reinrechnet dürfte man auf Strix Halo Niveau kommen bzw in die Nähe :eek:

xPkofuH_bak

ryan
2026-01-14, 02:27:07
Bei Strix Halo kommt es stark auf das power budget an, der skaliert ja viel stärker oben raus durch die viel größere GPU. In dem Test sind es 65W gewesen. Ich würde mal schätzen, dass es bei 45W zu einem Gleichstand kommen könnte. Wir werden es vielleicht Ende Januar schon genauer sehen.


I have full control over Intel Pantherlake X9 388H

I can set to any arbitrary TDP I wish.

When I can share more, I'll have direct comparisons, watt for watt.
https://x.com/carygolomb/status/2011237471359811618

Badesalz
2026-01-14, 06:42:25
Hab mich die Tage bisschen umgehört ob und was/wie Leute im Umfeld nach einem Laptop Ausschau halten. Also Umfeld, komplett alles was geht. Auch beruflich usw. Sind schon paar bei gewesen.

Niemand von denen hatte irgendwas mit dem Inhalten dieses Threads am Hut. Ich war erstaunt :usweet:
(nein ich bin nicht 50...)

robbitop
2026-01-14, 07:10:31
Auch wenn Strix das aktuelle Produkt ist. Man miss schon konstatieren, dass es eigentlich ein 2024 Produkt ist. Dumm von AMD da nichts neues zu bringen.

Badesalz
2026-01-14, 07:20:18
Nochmal: Der Markt honoriert das nicht lohnenswert.

Das ist 1. Und 2, hat man auch schon vermutet, hängen die Früchte aktuell für AMD woanders. Und es ist aktuell auch nicht abwegig, daß beim Agent Orange abgesprochen wurde Intel wenigstens erstmal aus dem ständigen Taumeln rauskommen zu lassen.

robbitop
2026-01-14, 08:33:17
Wer weiß - ggf hat sich der Markt auch geändert. Aber davon ab ist das keine Anforderung, darüber hier zu diskutieren. Ist ein technisches Forum ;)

dildo4u
2026-01-14, 09:02:51
Nochmal: Der Markt honoriert das nicht lohnenswert.

Das ist 1. Und 2, hat man auch schon vermutet, hängen die Früchte aktuell für AMD woanders. Und es ist aktuell auch nicht abwegig, daß beim Agent Orange abgesprochen wurde Intel wenigstens erstmal aus dem ständigen Taumeln rauskommen zu lassen.
Unsinn AMD hat gerade erst den x86 Handheld Markt erschaffen und es wird bis 2027 keine APU mit Konkurrenzfähigen Upsampling geben.

Und nach ARC kommen Nvidia Tiles für Intel APU.

Badesalz
2026-01-14, 09:04:57
Unsinn Starker Einstieg :ulol:
AMD hat gerade erst den x86 Handheld Markt erschaffen Sie haben die x86 Miniworkstation erschaffen. Klone von Mac Mini und Mac Studio. Die Idee draus Handhelds zu basteln hatten andere.

HOT
2026-01-14, 09:08:03
Unsinn AMD hat gerade erst den x86 Handheld Markt erschaffen und es wird bis 2027 keine APU mit Konkurrenzfähigen Upsampling geben.

Und nach ARC kommen Nvidia Tiles für Intel APU.

Das mag dann Handhelds mit Intel/NV geben, aber glaube jemand ernsthaft, dass da erschwingliche Produkte bei harauskommen? Die werden teuer ohne Ende, den Geforce lässt man sich fürstlich entlohnen.

dildo4u
2026-01-14, 09:10:59
Es gibt eine massive Lücke zu Strix Halo was Performance angeht dort setzt Intel jetzt an,das gilt abseits der Veralteten Features.

Lawmachine79
2026-01-14, 10:42:21
Scheint wirklich gut gelungen, wenn man das bessere Upscaling noch reinrechnet dürfte man auf Strix Halo Niveau kommen bzw in die Nähe :eek:


Ja genau, und wenn eine 5070TI von hinten vom Gehäuselüfter angeblasen wird und bergab steht ist sie fast so schnell wie eine 5090.

mboeller
2026-01-14, 11:00:00
Bei Strix Halo kommt es stark auf das power budget an, der skaliert ja viel stärker oben raus durch die viel größere GPU. In dem Test sind es 65W gewesen. Ich würde mal schätzen, dass es bei 45W zu einem Gleichstand kommen könnte. Wir werden es vielleicht Ende Januar schon genauer sehen.

Nachdem ich die Info mit dem MiniPC mit 120w gesehen habe bezweifle ich das jetzt leider.

Ich dachte immer Panther-Lake wäre endlich mal eine Intel "Lowpower" APU mit guter Leistung. Performance/Watt etwas besser als Lunar-Lake aber mit (wesentlich) mehr Luft nach oben.

Der MiniPC mit 120w deutet aber sehr stark in eine andere Richtung.

mocad_tom
2026-01-14, 11:05:53
Nachdem ich die Info mit dem MiniPC mit 120w gesehen habe bezweifle ich das jetzt leider.

Ich dachte immer Panther-Lake wäre endlich mal eine Intel "Lowpower" APU mit guter Leistung. Performance/Watt etwas besser als Lunar-Lake aber mit (wesentlich) mehr Luft nach oben.

Der MiniPC mit 120w deutet aber sehr stark in eine andere Richtung.

Ab einem Punkt sind die 128-bit LPDDR5 9600 halt ausgelutscht.
Und dann siegt das 256 bit Speicherinterface.
Der RAM wird ja nicht im gleichen Maße mit übertaktet.
Wo soll da jetzt die Überraschung sein?

y33H@
2026-01-14, 11:09:14
um/unter 45W ist's PTL-H12Xe meilenweit vor jeder Konkurrenz und selbst bei 65W ist der Abstand zu Strix Halo relativ gering - das Ding skaliert erst mit mehr Power anständig nach oben.

Daredevil
2026-01-14, 11:09:55
Das ist 1. Und 2, hat man auch schon vermutet, hängen die Früchte aktuell für AMD woanders.
Natürlich tun sie das, AMD versucht das Server Geschäft weiter zu dominieren und das Nvidia ihnen nicht weiterhin davon läuft im Hyperscaler Bereich, das kann man ja ziemlich gut an der ConsumerES Keynote sehen. Genau deswegen kann man ja auch kritisieren, dass AMD quasi überhaupt nichts auf der CES für Consumer gezeigt hat und Intel, die Firma die sie erfolgreich jahrelang unter Wasser gehalten haben, wieder auftaucht. Das ist selbstverständlich eine Abwägung der Fokussierung und deswegen muss sich AMD den Vergleich jetzt auch gefallen lassen.

AMD war leider noch nie "Hervorragend" und dominierend im Notebook Markt, sei es Stückmäßig oder technologisch, deswegen verfolgen sie weiterhin die bewährte Strategie, einfach nur da zu sein. Das hat Konsequenzen. Nvidias lässt zwar auch den Desktop und Notebook Markt schleifen, das tun sie aber weil sie bei 90% Marktmacht sind und nicht in einer Position, wo sie eigentlich angreifen müssten. Das ist denke ich aber auch okay, das ist nachvollziehbar. Der Notebook Markt ist für AMD imho eine zu anstrengende Sache. Da müssen sie mit Intels Politik und Vendormacht ankommen, Qualcomm ist Windows auf den Fersen, Nvidia setzt sich in jedes HighEnd Gerät und Apple baut die objektiv besseren Produkte und rotzen P/L raus, was sonst niemand schlagen kann.

Trotzdem kann man es technologisch wie gesagt kritisieren, weil es einfach sehr schade ist. AMD hat die richtigen Werkzeuge um auch hier Fuß zu fassen, die Kritik kommt ja nicht daher, dass man eine Firma bashen will, sondern das man gerne mehr Konkurrenz und Auswahl im Markt hätte.
Die Geldbeutel der Nutzer wollen alles, aber sicher kein Markt bestehend aus Apple/Nvidia und Intel. Das ist aber nun einmal der an $-Volumen gemessene Notebook Markt

Keiner wird das mit Apple machen:

https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Specials/Treiber-Update-Test-2023-1411995/2/
Du meinst sowas hier?
https://www.applegamingwiki.com/wiki/M1_compatible_games_master_list

Undertaker
2026-01-14, 11:15:09
Ab einem Punkt sind die 128-bit LPDDR5 9600 halt ausgelutscht.
Und dann siegt das 256 bit Speicherinterface.
Der RAM wird ja nicht im gleichen Maße mit übertaktet.
Wo soll da jetzt die Überraschung sein?

Es ist per se unsinnig, die Effizienz eines jeglichen SoCs auf Basis einer maximal definierbaren TDP zu beurteilen. :ugly: Die Frage ist: Wie skaliert die Leistung über verschiedene TDP-Limits?

Badesalz
2026-01-14, 11:24:47
AMD war leider noch nie "Hervorragend" und dominierend im Notebook Markt, Ähmm... Die Gen die grad unterwegs ist, also das "AI xy" Gedöns, ist imho die erste bei AMD die so erwähnenswert ist, daß sie auf dem Markt sichtbar wurde (Laptops).

Ich weiß nicht was man hier erwartet, aber das ist noch nichtmal so ein Slot A Athlon Moment gewesen. Eher so, wir können sowas jetzt auch in brauchbar.

Ich glaub nicht, daß Lisa da einpeitscht. Das ist Fuß zwischen die Tür und erstmal nicht wieder zugehen lassen. Mehr nicht.
Die Laptops davor war für mich eher was für Bedürftige.

Jetzt macht Intel bisschen Betrieb und alle am jaulen, AMD will nicht dagegen halten :rolleyes: Nein. Wollen sie nicht und brauchen es erstmal nicht. Das wäre auch wie gesagt, imho, gegen die Absprachen :rolleyes:
Intel muss erstmal aufhörten zu taumeln. Weil später ALLE die Fabs brauchen werden. Auch AMD. So soll Intel erstmal an einigen Stellen erst genug Speck machen.

(schrieb ich schon)

Daredevil
2026-01-14, 11:31:03
Ähmm... Die Gen die grad unterwegs ist, also das "AI xy" Gedöns, ist imho die erste bei AMD die so erwähnenswert ist, daß sie auf dem Markt sichtbar wurde (Laptops).

Jep, die sind so sichtbar, dass Microsoft, die Firma, die das Hauptbetriebssystem vertreibt, sich entschieden hat, so viel wie möglich AMD in ihren Notebooks zu verbauen im Jahr 2025:
https://s1.directupload.eu/images/260114/hrnotext.png

Badesalz
2026-01-14, 11:33:46
Hatte noch nie ein Microsoft Notebook...

Hab jetzt aber eins auf dem Job mit AMD (Dell). Den ersten nach 9 Dells mit Intel.

PS:
Bleib einfach sachlich.

ryan
2026-01-14, 11:45:28
Nachdem ich die Info mit dem MiniPC mit 120w gesehen habe bezweifle ich das jetzt leider.

Ich dachte immer Panther-Lake wäre endlich mal eine Intel "Lowpower" APU mit guter Leistung. Performance/Watt etwas besser als Lunar-Lake aber mit (wesentlich) mehr Luft nach oben.

Der MiniPC mit 120w deutet aber sehr stark in eine andere Richtung.


Was genau zweifelst du an? Dass der Vorsprung von Strix Halo immer weiter abnimmt, desto weniger power budget zur Verfügung steht? Doch, genau das wird passieren. Die Frage ist nur, ab welchem budget genau. Schon bei den 65W sieht man, dass der Vorsprung gar nicht mehr so riesig ist. Bei wccftech in Cyberpunk lag Strix Halo mit 54W nur noch 12% vor der PTL-B390 mit 50 Watt.

mironicus
2026-01-14, 11:47:11
Intel muss erst mal Vertrauen schaffen in ihre Grafikprodukte. Intel und Spielen und so. Und mit mehr Konkurrenz ist es ja auch gut, da werden die Z1-Extreme Handhelds noch günstiger.

robbitop
2026-01-14, 11:57:30
Der x86 Handheldmarkt ist allerdings sehr klein. Valve verkauft wahrscheinlich am meisten und da sind es gerade einmal ~5 mio Einheiten gewesen. Die anderen haben grob eine Größenordnung weniger davon. Also hundert tausende Units. Sehr wenig im Vergleich zu Konsolen.

mboeller
2026-01-14, 14:04:33
Was genau zweifelst du an? Dass der Vorsprung von Strix Halo immer weiter abnimmt, desto weniger power budget zur Verfügung steht? Doch, genau das wird passieren. Die Frage ist nur, ab welchem budget genau. Schon bei den 65W sieht man, dass der Vorsprung gar nicht mehr so riesig ist. Bei wccftech in Cyberpunk lag Strix Halo mit 54W nur noch 12% vor der PTL-B390 mit 50 Watt.

was mich an den 120w stört ist, dass "alle" AMD MiniPC mit StrixPoint mit max. 65/75watt max. arbeiten. Die 120w deuten für mich an, dass die max. Leistung beim Panther-Lake mal wieder erst bei hohem Verbrauch erreicht wird. Für ein Notebook also dann wieder nur "same procedure as last year" ...

alle= soweit ich mich erinnere

Ergo: warten auf die ersten Reviews

dildo4u
2026-01-14, 14:11:07
Die IGP Hängt zu 100% am Speicher der verbaut wird nicht am Power Limit wird reden von RX6600 Performance also höstens 50-60fps in AAA Games dafür kann die CPU schlafen.

Undertaker
2026-01-14, 14:12:26
Und nochmal: Eine unsinnige Metrik. Ein Schenker Core 16 lässt den HX 370 bis 95 Watt boosten. Im Core 15 geht der deutlich schwächere AI 7 350 bis 105 Watt. Du vergleichst hier Verbrauchswerte anhand der Tankgröße... :ugly:

dildo4u
2026-01-14, 14:17:43
Der Arrow Lake Refresh spricht doch dafür das der CPU Teil Ebend nicht von 100 Watt Plus profitiert.

Der 392 Strix Halo kommt auf die CPU Werte des 388h

Ryzen 392 12 Core

https://i.ibb.co/scJQWNc/Screenshot-20260114-143036-Samsung-Internet.jpg (https://ibb.co/FcqJHyc)

https://browser.geekbench.com/v6/cpu/16058620

Ultra 388H

https://i.ibb.co/N6rkfJfq/Screenshot-20260114-143100-Samsung-Internet.jpg (https://ibb.co/JRqb8G8T)

https://videocardz.com/newz/intel-panther-lake-core-ultra-x9-388h-flagship-sku-leaks-out-on-geekbench

Undertaker
2026-01-14, 14:46:56
Auch wenn PTL die MT-Performance eines 12C S-Halo erreichen kann, dürfte der Sweet Spot bzgl. Effizienz hier u.U. schon weit überfahren sein. Ab einer gewissen TDP könnte ARL HX effizienter als der eigentlich modernere PTL sein, da schlicht breiter...

davidzo
2026-01-14, 15:15:58
Schade dass sich bei der 1T Performance so gar nichts tut bei Intel. Vermutlich hat man deshalb den Youtubern noch keine CPU benchmarks auf den Testsystemen erlaubt, sondern fokussiert sich auf die GPU.

Sicherlich gibt es bei der Effizienz mobil große Fortschritte und auch bei der MT Performance, but bei der reinen ST Performance ihrer Architekturen hat sich seit Alderlake quasi nur im Rahmen der Messungenauigkeiten was getan. Das wenige an mehr IPC wurde meistens direkt durch Taktregressionen zunichte gemacht.

Im Zeitraum von fünf Jahren sind nur 16% mehr an ST performance herausgesprungen (2021: 12900HK vs 2026: 388H in GB5). Und das obwohl Intel ihre Architektur zweimal groß umgebaut hat (Tock) und dreimal auf eine neue Fertigung gebracht hat (Tick).

Im Vergleich dazu war der M1 damals ST noch leicht langsamer als die Alderlake Desktop bzw Desktop replacement CPUs von Intel. Trotz relativ konservativer Entscheidungen Apples und nur einem Fullnodesprung plus 1x half node, hat Apple hier gut 40% gegenüber dem M1 von 2021 rausgeholt und liegt bei der ST Performance nun rund 35% vor Intels modernster Architektur.

Irgendwie fühlt sich das wirklich langsam so an als wenn bei x86 die Luft raus ist. Größere Corearchitekturen werden nur etwas effizienter, kaum schneller. Effizienzsprünge bei der Fertigung, bessere GPU, mehr Cores sind alles Nice, aber die CPU-Architekturen stagnieren leistungsmäßig seit fünf Jahren.

dildo4u
2026-01-14, 15:20:32
Sollte man nicht abwarten was Zen 6 kann?
Keiner kann Heute bewerten ob 18A oder die Architektur das Problem ist.

mocad_tom
2026-01-14, 15:24:14
Ja - man schmeisst einfach Silizium-Fläche auf ein Problem (ARL-HX) und lässt es niedriger takten.

Aber ein ARL-H mit 6+8 scheint MT weniger Punkte zu machen als ein PTL-H mit 4+8.

mocad_tom
2026-01-14, 15:25:58
@davidzo

L2 cache Latenz abwarten.
Ich glaube, dass sich das für Spiele positiv auswirkt.
Sonst wäre ja auch ein PTL-H 4+8 mit nvidia GPU komplett unlustig.

dildo4u
2026-01-14, 15:28:14
Ob die Performance stimmt hängt nicht unbedingt davon ab was für Geräte gebaut werden es gibt Lunar Lake mit 5070.

https://www.notebookcheck.com/Schlanker-OLED-Gamer-mit-RTX-5070-und-Lunar-Lake-Acer-Predator-Triton-14-AI-im-Test.1192615.0.html

robbitop
2026-01-14, 15:28:59
Wie relevant ist die CPU für die Spieleperformance bei einer IGP? Auch wenn diese IGP sehr gut ist, ist sie im vergleich zu einer richtigen dGPU immer noch lahm (3050/6600er Level - also 5 Jahre alte Einstiegs dGPUs im Desktop). Das ist für eine IGP super - aber nicht schnell genug um moderne CPUs in den meisten Spielen zu einem Flaschenhals zu machen. Die langweilen sich dann wahrscheinlich meist.

edit: und selbst mit Laptop dGPUs - die sind im vergleich zu Desktop dGPUs auch deutlich langsamer. Auch da sollten relativ moderne CPU keiner zumeist kein Bottleneck sein.

dildo4u
2026-01-14, 15:33:35
Wie relevant ist die CPU für die Spieleperformance bei einer IGP? Auch wenn diese IGP sehr gut ist, ist sie im vergleich zu einer richtigen dGPU immer noch lahm (3050/6600er Level - also 5 Jahre alte Einstiegs dGPUs im Desktop). Das ist für eine IGP super - aber nicht schnell genug um moderne CPUs in den meisten Spielen zu einem Flaschenhals zu machen. Die langweilen sich dann wahrscheinlich meist.

Das Ding kann Multi Framegen auch wenn viele hier kein Fan davon sind ist es ein Gutes Marketing Tool wenn alles mit 120 Hz+ läuft.

Undertaker
2026-01-14, 15:34:54
Ja - man schmeisst einfach Silizium-Fläche auf ein Problem (ARL-HX) und lässt es niedriger takten.

Das ist vermutlich einer der universellsten Grundsätze im Chipbereich, zumindest für parallelisierbare Probleme. ;) Warum ist ein S-Halo schneller als S-Point bei gleicher TDP? Vorrangig weil er mehr Silizium darauf wirft, exakt.

Aber ein ARL-H mit 6+8 scheint MT weniger Punkte zu machen als ein PTL-H mit 4+8.

Weil ein PTL noch vier für MT nutzbare LPE-Cores hat und IP- und Fertigungsvorteile aufweist. Das hilft natürlich auch, kann aber u.U. nicht immer ein erheblich breiteres Design älterer Bauart schlagen (spekulativ ARL HX bei MT).

robbitop
2026-01-14, 15:37:53
Das Ding kann Multi Framegen auch wenn viele hier kein Fan davon sind ist es ein Gutes Marketing Tool wenn alles mit 120 Hz+ läuft.
Was die CPU noch weniger zum Flaschenhals macht und meinen Punkt noch weiter verstärkt. (wobei MFG bei 120 Hz IMO mehr als grenzwertig ist - spielt sich je nach Spiel wie Kaugummi)

Lawmachine79
2026-01-14, 16:17:33
Und nochmal: Eine unsinnige Metrik. Ein Schenker Core 16 lässt den HX 370 bis 95 Watt boosten. Im Core 15 geht der deutlich schwächere AI 7 350 bis 105 Watt. Du vergleichst hier Verbrauchswerte anhand der Tankgröße... :ugly:
Woher weisst Du das? Interessiere mich für den Core 15 mit dem HX 370 (brauche noch einen Gaminghybrid).

Undertaker
2026-01-14, 16:26:58
Die Werte stehen in den jeweiligen Tests bei Notebookcheck.

Badesalz
2026-01-14, 17:19:04
Irgendwie fühlt sich das wirklich langsam so an als wenn bei x86 die Luft raus ist.Ist das denn bei AMD auch so schlimm?

robbitop
2026-01-14, 17:21:17
Naja die letzten beachtliche Sprünge die nicht aus Takt oder Cache kamen sind eine Weile her. Bei den ARM SoCs wird gefühlt jedes Jahr 20-30% oben drauf gehauen.

dildo4u
2026-01-14, 17:27:27
Apple M2 hatte 5nm genutzt und lag unter Zen 5 Performance daher Abwarten was AMD in 2nm kann.

https://browser.geekbench.com/macs/mac-studio-2023-24c-cpu-60c-gpu

Badesalz
2026-01-14, 17:28:48
@robbi
Ich meinte allgemein. Egal wie beachtlich =)

robbitop
2026-01-14, 17:52:02
Apple M2 hatte 5nm genutzt und lag unter Zen 5 Performance daher Abwarten was AMD in 2nm kann.

https://browser.geekbench.com/macs/mac-studio-2023-24c-cpu-60c-gpu
Der genutzte Node sagt nichts über das aus was die uArch kann. Intel nutzt auch schon N3 so wie M5. Und ist taktnormiert wahrscheinlich schon davon gezogen. Genau wie Qualcomms Oryo 3 Cores. Die Oryo 1/2 cores waren auch in N4 so wie aktuelle Zen 5. Und sind wahrscheinlich taktnormiert auch schon weggezogen.

reunion
2026-01-15, 10:48:50
Der genutzte Node sagt nichts über das aus was die uArch kann. Intel nutzt auch schon N3 so wie M5. Und ist taktnormiert wahrscheinlich schon davon gezogen. Genau wie Qualcomms Oryo 3 Cores. Die Oryo 1/2 cores waren auch in N4 so wie aktuelle Zen 5. Und sind wahrscheinlich taktnormiert auch schon weggezogen.

Erstens ist taktnormiert keine sinnvolle Metrik und zweitens ist es immer leichter aufzuholen als mit aufwändiger Forschung neue Sphären zu betreten. Und drittens gibt es kaum etwas putzigeres als diese ARM vs. x86 Vergleiche mit Geekbench. So sieht das zB aus wenn man mal kein Tool verwendet dass von einem bekennenden Apple-Jünger entwickelt wurde [1], sondern eine breite Palette an professionellen Anwendungen. Da landet der viel gelobte Oryo-Core, designet von Apples ehemaligen Lead-Designer plötzlich im nirgendwo. Deshalb ist sowas [2] auch bestenfalls peinliches Fanboy-Gelaber. Dazu kommt vermutlich auch ein anderes Design-Target. Apple und Qualcomm kommen aus der Smartphone-Ecke, werden hauptsächlich auf Webscripts etc. optimieren, AMD & Intel entwickelt HPC-Cores die für Consumer recycelt werden.


[1] https://www.phoronix.com/review/snapdragon-x-elite-linux-benchmarks/15
[2] Alle X86 CPU Architekturen sind meilenweit hinter Apple, für Platz zwei oder drei würde ich nie Sympathie finden

robbitop
2026-01-15, 11:33:02
Das ist alles bereits bekannt. Es gibt aber auch andere Benchmarks die es für beide ISAs gibt.

Der Punkt war nicht was besser ist sondern dass die Zuwächse an Performance die aus der uArch kommen bei x86 in den letzten Jahren stark stagnieren und bei ARM SoCs kommt jedes Jahr deutlich was hinzu.

Daredevil
2026-01-15, 11:58:06
Und drittens gibt es kaum etwas putzigeres als diese ARM vs. x86 Vergleiche mit Geekbench. So sieht das zB aus wenn man mal kein Tool verwendet dass von einem bekennenden Apple-Jünger entwickelt wurde [1], sondern eine breite Palette an professionellen Anwendungen.

There is a Geekerwan Video for that. Du kannst ja auch gerne belegen, dass Apple nicht enorm dominiert, ich bin offen für neue Informationen. Wo sind die schnelleren Cores bei Intel/AMD? Wo sind die dünnen 5mm Tablets mit x86 SoCs? Welche Workstation kann 512GB VRAM bieten? Wer hat seit 2020 denn eigentlich ein passives Notebook gebaut von den X86 Kollegen?
Ich weiß, der Vergleich hinkt, den habe ich allerdings auch nicht aufgemacht. Wenn die Schuld nicht in X86 vs. ARM besteht, dann besteht die Schuld halt darin, dass Intel und AMD inkompetent sind. Mir gefällt ersteres besser, aber wir können auch gerne bei letzterem bleiben.
BKQggt9blGo

https://s1.directupload.eu/images/260115/pztovtmz.png

https://s1.directupload.eu/images/260115/9qfjif3g.png

https://s1.directupload.eu/images/260115/rqg4bw24.png

https://s1.directupload.eu/images/260115/6cwc53ul.png

https://s1.directupload.eu/images/260115/yuyaioe5.png
Zahlen. Daten. Fakten.
Und sei mal froh, dass Geekerwan hier die ziemlich guten Intel Modelle als Vergleich genommen hat und nicht AMD, was ebenfalls einen Blick auf Panther Lake gibt. :)

davidzo
2026-01-15, 12:22:53
Mir ging es überhaupt nicht über Apple vs Intel und AMD, sondern um das theoretisch Machbare.

- Ist Cougar cove eine gute Architektur in Bezug auf performance, PPA, etc.? Ist vielleicht Darkmont der bessere Ausgangspunkt oder ist auch hier schon langsam die PpWatt nicht mehr konkurrenzfähig so dass ein weiteres Aufbohren diminishing returns bringt? Ist Zen5 eine bessere Architektur was PPA angeht oder ist da auch viel Luft nach oben?

Wir sind hier schließlich im Spekulationsforum.

Und wenn man Intel und AMD immer isoliert betrachtet, wie hier einige Vorschlagen, dann fühlt sich Pantherlake wie die absolute Spitze des Machbaren an bei der IPC mit der aktuellen Fertigung, Zen5x3d wie das beste cache-system ever und Zen5 dense hätte wohl die beste performance per Area ever.
Dass die Architekturen aber einiges auf dem Teller liegen lassen, dass das traditionelle Intel Cache-system absolut unterdurchschnittliche Latenzen bietet und auch bei AMD bei der Core Breite, OoO window, IPC sowie power Skalierung noch viel Luft nach oben ist, da kommt man eben erst drauf wenn man auch mal über den x86 Tellerrand schaut was für Chips noch so gebaut werden.

Es gibt ja nicht nur Apple, es gibt auch Qualcomm. Und da ist die Entwicklung auch beeindruckend innerhalb der letzten 2 Jahre. Die sind schließlich erst seit 2 Jahren richtig mit im Markt für Notebookprozessoren dabei und launchen gerade die Zweite Generation mit mal eben +39% Singlethread performance im vergleich zur ersten, die in der Hinsicht auch schon konkurrenzfähig war.

Wenn Intel dann zum Gefühlt tausendsten mal im letzten Jahrzehnt eine CPU anbietet die bei der ST performance quasi stagniert, dann muss man sich doch mal fragen woran das liegt? Und Zen 5% von AMD hat sich auch nicht gerade mit Lorbeeren bekleckert.

Badesalz
2026-01-15, 12:37:23
Das ist alles bereits bekannt. Es gibt aber auch andere Benchmarks die es für beide ISAs gibt.

Der Punkt war nicht was besser ist sondern dass die Zuwächse an Performance die aus der uArch kommen bei x86 in den letzten Jahren stark stagnieren und bei ARM SoCs kommt jedes Jahr deutlich was hinzu.Hast du das Gefühl beibehalten bei von M4 auf M5? :| Am Anfang haben sie zwar geballert, aber nun werden die Steigerungen auch immer weniger (ST/Integer)

Badesalz
2026-01-15, 12:43:22
- Ist Cougar cove eine gute Architektur in Bezug auf performance, PPA, etc.? Ist vielleicht Darkmont der bessere Ausgangspunkt oder ist auch hier schon langsam die PpWatt nicht mehr konkurrenzfähig so dass ein weiteres Aufbohren diminishing returns bringt?Ich meine mal gesagt zu haben, daß wir dafür bei Intel bis Titan Lake warten müssen...

Ist Zen5 eine bessere Architektur was PPA angeht oder ist da auch viel Luft nach oben?Was da so geplant war wird sich imho endgültig mit Zen6 zeigen.
Wenn sie da nicht liefern können, bin ich bei dir.

Daredevil
2026-01-15, 12:45:15
Dass die Architekturen aber einiges auf dem Teller liegen lassen, dass das traditionelle Intel Cache-system unterdurchschnittliche Latenzen bietet und auch bei AMD bei der Core Breite und IPC sowie power Skalierung noch viel Luft nach oben ist, da kommt man eben erst drauf wenn man auch mal über den x86 Tellerrand schaut was für Chips noch so gebaut werden.

Schauen wir uns die Welt mal an, wenn es Nvidia nicht gäbe, wie wäre die Rangliste dort, wie würden sich die Machtverhältnisse aufteilen zwischen AMD/Apple/Intel/Qualcomm?

Praxisbeispiel: Blender GPU(Benchmark Database)
7494pts - Apple M3 Ultra 80c
5274pts - Apple M4 Max 40c
4362pts - AMD 7900XTX
3224pts - AMD 9070XT
2614pts - RX6950XT
2569pts - Apple M4Pro
2448pts - Intel Arc 770
2370pts - Intel Arc B580
1730pts - Apple M5
1078pts - Apple M4
1332pts - Ryzen AI MAX+ 395
266pts - Snapdragon X Elite

Wenn man sich aber mal Intel anschaut, weswegen wir hier im Thread sind, sieht man recht deutlich, dass sie enorme Sprünge gemacht haben. Klar sind sie nicht ganz weit oben und klar braucht es noch eine Menge Arbeit, aber Intels aktuelle Battlemage Architektur, also die zweite die sie überhaupt mal gebaut haben, kommt schon enorm nahe an der "Compute armen" RDNA4 Architektur. Vielleicht updated AMD ja deswegen auch nicht ihre iGPUs, weil RDNA4 eine reine "Gaming" Architektur ist, die irgendwann mal für Konsolen o.ä. benötigt werden? Und RDNA3 ist halt der Allrounder, der auch mal in Blender ein paar Zahlen bewegen kann. Will damit auch gar nicht sagen, dass RDNA4 Käse ist, der Fokus sitzt aber offenbar woanders.

Ergänzung: Topmodelle CPU im Blender Bench:
4077pts - AMD EPYC 9965
2752pts - Intel Xeon 8985
715pt - Apple M3 Ultra
667pts - Ryzen 9950X3D
560pts - Intel 285K
494pts - Ryzen AI MAX+ 395
472pts - Apple M4 Max
266pts - Snapdragon X Elite

Badesalz
2026-01-15, 12:49:18
Ich will mal ein weiteres Praxisbeispiel nennen: Blender(Benchmark)Rechnet da die GPU mit? :usweet: Weil dann wäre es ja mehr oder weniger, SINNLOS.

Gibt es für Appel keine Packer? Oder (Datenträger)Verschlüsselung?

Daredevil
2026-01-15, 12:54:44
Vergessen richtig zu beschriften, habe oben CPU und GPU ergänzt.
Hier kann aber auch jeder selber nachschauen: https://opendata.blender.org/benchmarks/query/?group_by=device_name&blender_version=4.5.0

Badesalz
2026-01-15, 13:13:08
Ergo aktuell Apples 32 Threads 7,20% schneller als 32 Threads Zen5 bei 140W vs. ...(?) 170W?

Wäre doch noch Stückchen vor der Voll-Peinlich-Grenze =)

Daredevil
2026-01-15, 13:25:08
Jup, zwei per Interconnect verbundene 12P/4E CPUs mit einer Architektur von 2023 konkurrieren bei ähnlicher Leistungsaufnahme. ( Und einem enorm teureren Produktionsverfahren ;D )

Das Problem ist nicht der M3 Ultra, sondern der Kollege hier, der in iPads eingebaut wird:
https://s1.directupload.eu/images/260115/wouvdgb5.png

Deswegen schraubt Intel vermutlich auch ein wenig an der MT Leistung, weil dort muss mehr gehen. :)
Ich frage mich, welche X86 CPUs wir zuerst in 500g Tablets sehen werden.

Badesalz
2026-01-15, 17:36:52
Jup, zwei per Interconnect verbundene 12P/4E CPUs mit einer Architektur von 2023 konkurrieren bei ähnlicher Leistungsaufnahme. ( Und einem enorm teureren Produktionsverfahren ;D )Genau. Und wenn es nicht das wäre, wäre es das Gewicht. Und wenn es nicht das wäre, wäre es die Kühlung. Und wenn es auch das nicht wäre, wäre es...
Was anderes als M3ultra haben sie in der Leistungsklasse nicht. Du bist echt der Spammer vorm Herren :ulol:

Mal davon ab, daß wir hier damals einen Thread darüber hatten und da wohl herausgefunden haben - gestützt durch paar Artikel - was an der Architketur anders ist, was so reinhauen könnte. Und wo wir auch festgestellt haben, daß dies für x86 ein Problem mit seinem Hauptbiotop sein könnte (Linux, MS) das da auch zu vergrößern/verbreitern.

Weiß wohl nur keiner mehr. Weil die meisten hier irgendwie wie Eintagsfliegen leben :uup:

Badesalz
2026-01-16, 10:42:13
Kepler themabezogen. Links Intel, rechts AMD :usweet:
https://www.igorslab.de/intel-panther-lake-handhelds-vs-sony-ps6-canis-gleiche-leistung-doppelter-energiebedarf/

dildo4u
2026-01-16, 10:46:24
Hat jemand specs es gibt noch eine ARC Version unter 390 aber schneller als 890M?


DfGRLkFDjE4

robbitop
2026-01-16, 10:54:09
Ja PTL muss in 15W zeigen was er kann. Auf der CES wurde er IIRC ziemlich von der Leine gelassen mit 50-65W IIRC. Wenn man keinen riesen Klotz in der Hand haben will und/oder keine Akkulaufzeit aus den 90ern haben will, muss die TDP runter. Das ist eleganter. Die Switch 2 zeigt wie es geht. Und das mit einem SoC der node und IP hat welche ins 6. Jahr kommen…uralt nach IT Maßstäben.

Ein SoC der für Handheld und nicht für Laptop ausgelegt wird, sollte natürlich prinzipbedingt Vorteile bringen. Kein unnötiges I/O was doch wieder Strom frisst, die fabric wird kleiner usw.
Die IP sowas umzusetzen speziell für Handheld hat AMD (LP Cores zuletzt mit Zen 6 LP). Ich vermute aber, dass ein ARM Smartphone SoC auch wegen seiner Auslegung nochmal effizienter wäre.

davidzo
2026-01-16, 11:04:14
Ich meine mal gesagt zu haben, daß wir dafür bei Intel bis Titan Lake warten müssen...

Was da so geplant war wird sich imho endgültig mit Zen6 zeigen.
Wenn sie da nicht liefern können, bin ich bei dir.

Das ist genau der Wortlaut der schon 2021 hier gehandelt wurde. Raptorlake richtet das schon. Dann Meteorlake richtet das schon mit der neuen N3 fertigung.

Bevor wir Zen5 gesehen haben hieß es auch es sei genau umgekehrt: Zen5 wäre der große Architekturumbau mit hohen IPC gains und Zen6 wäre das ganze lediglich mit mehr Cores in einem anderen Paket.

Hat jemand specs es gibt noch eine ARC Version unter 390 aber schneller als 890M?


https://youtu.be/DfGRLkFDjE4

Steht ja in der Intel Tabelle. Der 338h hat die B370: 10XE cores und 2,4 statt 2,5Ghz Takt und nur 8533MT/s Ram. Also 20% weniger Rohleistung bei 12% weniger Bandbreite (wobei es vielleicht auch B390 implementierungen mit 8533MT/s gibt womit die Bandbreite gleich wäre).

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=95286&stc=1&d=1768557746

Badesalz
2026-01-16, 11:11:39
Das ist genau der Wortlaut der schon 2021 hier gehandelt wurde. Raptorlake richtet das schon. Dann Meteorlake richtet das schon mit der neuen N3 fertigung.

Bevor wir Zen5 gesehen haben hieß es auch es sei genau umgekehrt: Zen5 wäre der große Architekturumbau mit hohen IPC gains und Zen6 wäre das ganze lediglich mit mehr Cores in einem anderen Paket.Spannend. Da hab ich wohl zu spät zugehört. Als ich damit anfing hieß es schon, daß Zen5 das Sprungbrett für Zen 6 ist und alles was man mit Zen5 anleierte sich in Zen6 richtig entfalten wird :usweet:

Wie sich eine Architektur hinter der Geld steckt einfach mit ihrem Alter ausbrennen kann Check ich noch nicht. ARMv8 ist auch schon 14 Jahre her... PentiumII ist nur knapp doppelt so alt.

robbitop
2026-01-16, 11:33:48
Um es etwas nachzuschärfen: ARMv8 ist eine ISA, Pentium 3 ein Produkt und die P6 uArch auf dem der P3 basiert eine Architektur.

Badesalz
2026-01-16, 11:57:50
Ah ja. Ja :wink: Schon irgendwie wichtig, um den Kontext zu checken :wink:

mironicus
2026-01-16, 12:34:51
Wie die Tabelle zeigt gibt es Intel CPUs mit 2, 4, 10 und 12 GPU-Kernen. Und die Laptops die mit NVidia-Grafik verknüpft werden haben meistens wohl eher die 4 Kern-GPUs, nehme ich an. Also hier eigentlich kein sichtbarer Vorteil mehr gegenüber einem HX370 oder HX470.

Hier ein Beispiel: https://rog.asus.com/de/laptops/rog-zephyrus/rog-zephyrus-g16-2026/spec/

Es gibt von Intel auch noch keine CPU, die speziell für einen Handheld optimiert ist, also wenig CPU-Kerne und viel GPU-Kerne bei 5-25 Watt. In der Tabelle sind sie doch alle für höhere TDPs ausgelegt.

dildo4u
2026-01-16, 12:41:01
Wie die Tabelle zeigt gibt es Intel CPUs mit 2, 4, 10 und 12 GPU-Kernen. Und die Laptops die mit NVidia-Grafik verknüpft werden haben meistens wohl eher die 4 Kern-GPUs, nehme ich an. Also hier eigentlich kein sichtbarer Vorteil mehr gegenüber einem HX370 oder HX470.

Hier ein Beispiel: https://rog.asus.com/de/laptops/rog-zephyrus/rog-zephyrus-g16-2026/spec/
Akku Laufzeiten ohne aktive Nvidia Karte könnte ein Alleinstellungsmerkmal sein.
Mann kann ja in Windows die DGPU abschalten damit man 16 Stunden Video Laufzeit schafft.

https://i.ibb.co/5gDmBb2L/4-1280-0f3e792e.png (https://ibb.co/4nyzPhJp)

https://i.ibb.co/0jCtGmJ9/6-1080-1049f062.png (https://ibb.co/VWgmqJBC)

https://www.computerbase.de/news/prozessoren/panther-lake-im-akkubetrieb-auch-an-der-batterie-soll-core-ultra-300-richtig-schnell-sein.95720

Undertaker
2026-01-16, 14:14:43
Wie die Tabelle zeigt gibt es Intel CPUs mit 2, 4, 10 und 12 GPU-Kernen. Und die Laptops die mit NVidia-Grafik verknüpft werden haben meistens wohl eher die 4 Kern-GPUs, nehme ich an. Also hier eigentlich kein sichtbarer Vorteil mehr gegenüber einem HX370 oder HX470.

In einem solchen System wäre die iGPU-Leistung auch absolut nebensächlich, oder wofür brauche ich bei einer dedizierten GPU hier mehr als 4 XE-Kerne? Vielleicht um im Akkubetrieb Effizienzvorteile beim Gaming zu haben, aber ganz ehrlich: Die eierlegende Wollmilchsau für alle Szenarien gibt es nicht bzw. würde man diese Auslegung als Kunde entsprechend mit bezahlen. Auch bisherige mobile CPUs für schnelle dGPU-Notebooks hatten bislang keine besonders starke iGPU.


Hier ein Beispiel: https://rog.asus.com/de/laptops/rog-zephyrus/rog-zephyrus-g16-2026/spec/

Es gibt von Intel auch noch keine CPU, die speziell für einen Handheld optimiert ist, also wenig CPU-Kerne und viel GPU-Kerne bei 5-25 Watt. In der Tabelle sind sie doch alle für höhere TDPs ausgelegt.

So übermäßig breit finde ich die PTL-CPU gar nicht, ohne SMT sind es schließlich "nur" 16 Threads. Ob sich die Effizienz tatsächlich groß verbessern würde, wenn es nur 8-12 Kerne wären? Die müssten dann ggf. auch höher takten und man würde u.U. den Verbrauch sogar erhöhen. Ich denke demnach nicht, dass die 16 Kerne eine gute Skalierung bis ca. <10 Watt tatsächlich behindern

mironicus
2026-01-16, 14:46:04
Der Intel Core 338H mit Intel B370 könnte eine gute Vorlage sein für eine Handheld-CPU. 12 CPU Kerne, 10 GPU-Kerne, ist also ein teildeaktivierter und kann bis LPDDR5x-8533 ansprechen mit Fokus auf Z2 Extreme als Gegner, nicht Strix Halo.

davidzo
2026-01-16, 16:02:17
Spannend. Da hab ich wohl zu spät zugehört. Als ich damit anfing hieß es schon, daß Zen5 das Sprungbrett für Zen 6 ist und alles was man mit Zen5 anleierte sich in Zen6 richtig entfalten wird :usweet:


Da hast du wohl ein sehr selektives Gedächtnis.


Dass Zen5 ein "Sprungbrett" ist, also die IPC-Gewinne der breiteren Architektur erst mit der nächsten Generation realisiert würden ist ein Narrativ das erst nach den enttäuschenden Launchreviews auftauchte.

Ich kann mich gut an das Interview mit Mark papermaster erinnern wo er sagte dass Zen5 der größte Architekturstep seit Zen sein wird. Zen6 wurde in der Gerüchteküche seitdem immer niedriger als Zen5 gehandelt, mit lediglich +10% IPC Zuwachs.

https://www.3dcenter.org/dateien/abbildungen/AMD-x86-Core-Roadmap-2020-2024.jpg
https://www.3dcenter.org/news/amd-praesentation-zeigt-ipc-und-architektur-verbesserungen-fuer-zen-5-zen-6


Btw, Fun fact. Eine der ersten News zu zen5 damals auf 3Dcenter.org:

Zen 5
– jump to Zen 5 from 4 from will be about as much as Piledriver to Zen 1 design goal
– original design goal was 2.5 to 3 times the IPC of Zen 1
Quelle: Chips & Cheese am 5. Februar 2021
;D


Wie sich eine Architektur hinter der Geld steckt einfach mit ihrem Alter ausbrennen kann Check ich noch nicht. ARMv8 ist auch schon 14 Jahre her... PentiumII ist nur knapp doppelt so alt.
Ich finde Jim Keller hat das 2021 auf den Punkt gebracht: Die ISA macht eine CPU nicht schneller order langsamer, sondern den Entwicklungs bzw. Iterationsprozess schneller oder langsamer. Für eine Iteration die mit RISC-V also 1 Designjahr braucht brauchst du bei Arm schon zwei und bei x86 eher 4 Jahre vorlaufzeit, weil das Instruction Set wesentlich umfassender ist, die Dokumentation älter und länger, es mehr Ausnahmen und Edge cases, Ballast etc. gibt.

x86 hat sich damals schon als Konstrukt mehrerer Firmen entwickelt, unter anderem mit Anforderungen von IBM. Relativ früh war AMD mit dabei, dann noch nexgen, Cyrix, Centaur, etc.
Bei x86 CISC ging es schon immer um die nächste high performance Erweiterung, das nächste bisherige Softwarefeature in dedizierter Hardware wie die FPU, dann SSE Vektor- und 3Dnow Extensions für Mathematik, Videos und Spiele, dann Adressraumerweiterungen, ...

Das Alter der ARM ISA da direkt mit zu vergleichen ist schwierig weil diese als RISC und ultra mobile Architektur einen ganz anderen Startpunkt und Fokus hatte. Nämlich einen Fokus darauf die ISA möglichst schlank und sauber zu halten. Zudem ist ARM alleiniger Verwalter der ISA und hat sich wenig in die Suppe spucken lassen (mittlerweile hatte bei v8 und sme sicher Apple die Hände im Spiel).

Keller ist aber bereits der Ansicht das aus Chiparchitekten Sicht RISC-V die beste µArch ISA ist. Da sind die Entwicklungszeiten am kürzesten und dementsprechend dürften wit von Sifive, Ventana, Tenstorrent in den nächsten Jahren einiges hören.

https://web.archive.org/web/20250115151332/https://www.anandtech.com/show/16762/an-anandtech-interview-with-jim-keller-laziest-person-at-tesla

Badesalz
2026-01-16, 17:14:13
Ich kann mich gut an das Interview mit Mark papermaster erinnern wo er sagte dass Zen5 der größte Architekturstep seit Zen sein wird. Zen6 wurde in der Gerüchteküche seitdem immer niedriger als Zen5 gehandelt, mit lediglich +10% IPC Zuwachs.Dann gilt es. Fertig. Nur... das kannst du halt EINMAL bringen. Dann auf den Nacfolger schieben, aber wenn auch da nichts passiert, dann ist die Unterbuchse halt unten.
Also ich bin DANN schon dafür, daß man die mit allerhand treffenden Fragen überhäuft ;) Und dementsprechend auch urteilt...

Keller ist aber bereits der Ansicht das aus Chiparchitekten Sicht RISC-V die beste µArch ist. Da sind die Entwicklungszeiten am kürzesten und dementsprechend dürften wit von Sifive, Ventana, Tenstorrent in den nächsten Jahren einiges hören.Der Zen1-Moment ist ihm mit Ascalon jedenfalls noch nicht gelungen.

robbitop
2026-01-16, 17:49:28
Keller ist aber bereits der Ansicht das aus Chiparchitekten Sicht RISC-V die beste µArch ist.

Du meinst ISA oder?

Ich hab auch schon mehrere Interviews mit ihm gesehen - aber dass er das so explizit gesagt hat? Nach meiner Erinnerung war das meist eher differenzierter und ausgeglichener. Hast du da einen link?
Ansonsten muss man auch konstatieren, dass er da ggf einen selection bias hat. Sein Unternehmen entwickelt und lizensiert und verkauft risc-v CPUs.

Badesalz
2026-01-16, 20:01:23
Nochmal ganz kurz allgemeiner :freak:
Wir haben jetzt v2 Zen5 die gesamt 9% schneller sind als Zen4. Das wäre Seppuku, wenn dann Zen6 mit +4% zu Zen5v2 kommen würde :wink:
https://www.hardwareluxx.de/community/threads/amd-ryzen-9-9950x3d2-3d-v-cache-auf-beiden-ccds-soll-doch-kommen.1375334/#post-31068451

Noch glaub ich also an das Sprungbrett :rolleyes:

robbitop
2026-01-16, 20:32:10
Zen 6% X-D
Dann wäre man zumindest einem Meme zuvorgekommen ^^

Davon ab spricht aber vieles dafür dass es dieses Mal besser aussehen wird :)

Lehdro
2026-01-16, 21:27:54
Der Intel Core 338H mit Intel B370 könnte eine gute Vorlage sein für eine Handheld-CPU. 12 CPU Kerne, 10 GPU-Kerne, ist also ein teildeaktivierter und kann bis LPDDR5x-8533 ansprechen mit Fokus auf Z2 Extreme als Gegner, nicht Strix Halo.
Dafür müssten wir halt mal sehen was der 338H mit reduzierter TDP kann. Der Bereich 10-20W ist hier entscheidend. Ich bin gespannt.

Undertaker
2026-01-16, 21:47:58
Hatten wir das schon? https://youtu.be/Mzz0mYfgN30?si=S9kJ-E3pfIR30Nxn

B390 vs. Strix Halo bei 30 Watt, beide Kopf an Kopf. Bei unter 25 Watt dürfte PTL dann wohl sukzessive davonlaufen. Und dann ist da ja noch der Vorteil, mit XESS qualitativ gutes Upsampling zu bekommen. :)

PS: Z2 Extreme vs. B370: https://youtu.be/3lOxcQnicmo?si=BloipKbNAKynRqkg

robbitop
2026-01-16, 22:53:54
Schon cool. Aber PTL hat mit N3P vs N4 und gegen eine uArch von 2022 auch ein wenig ein Heimspiel ^^
selbst Schuld AMD

ryan
2026-01-16, 23:35:32
Hatten wir das schon? https://youtu.be/Mzz0mYfgN30?si=S9kJ-E3pfIR30Nxn

B390 vs. Strix Halo bei 30 Watt, beide Kopf an Kopf. Bei unter 25 Watt dürfte PTL dann wohl sukzessive davonlaufen. Und dann ist da ja noch der Vorteil, mit XESS qualitativ gutes Upsampling zu bekommen. :)

PS: Z2 Extreme vs. B370: https://youtu.be/3lOxcQnicmo?si=BloipKbNAKynRqkg



Der Kanal liefert keine Beweise dafür, das sie ein PTL Gerät überhaupt besitzen. Und nicht nur PTL, auch damals bei LNL usw. haben die quasi sofort an Tag 1 angebliche Benchmarks hochgeladen ohnen einen einzigen Beweis. Sämtliche Infos fehlen, die Treiberversion wäre auch nicht schlecht.

Lehdro
2026-01-17, 00:30:03
Die kolportierten, sehr guten Akkulaufzeiten stimmen mich schon positiv. Wenn Intel das Energiemanagement im Teillastbereich zwischen iGPU und CPU gut hinkriegt, ist da ordentlich was drin für Handhelds, gerade wenn man sich anschaut wie Valve da noch super was rausquetschen konnte. Das Intel das im CPU Bereich kann, wissen wir ja. Aber bei den iGPUs haperte es noch ein wenig, gerade was die Verbrauchsallokation angeht.

ceed
2026-01-17, 12:01:35
Du meinst ISA oder?

Ich hab auch schon mehrere Interviews mit ihm gesehen - aber dass er das so explizit gesagt hat? Nach meiner Erinnerung war das meist eher differenzierter und ausgeglichener. Hast du da einen link?
Ansonsten muss man auch konstatieren, dass er da ggf einen selection bias hat. Sein Unternehmen entwickelt und lizensiert und verkauft risc-v CPUs.

Ich bin mir ziemlich sicher dass er sogar genau das Gegenteil gesagt hat. Finde leider das Interview nicht mehr aber so sinngemäß: Die Befehle werden eh so heruntergebrochen dass es auf der kleinsten Ebene überhaupt keinen Unterschied macht.

robbitop
2026-01-17, 12:06:24
Ja daran erinnere ich mich auch.

The_Invisible
2026-01-17, 12:11:17
Schon cool. Aber PTL hat mit N3P vs N4 und gegen eine uArch von 2022 auch ein wenig ein Heimspiel ^^
selbst Schuld AMD

AMD hätte sich mal etwas bemühen sollen endlich RDNA4 in den APUs zu bringen, Ryzen AI 400 schon bisschen bockmist :freak:

dildo4u
2026-01-17, 12:30:44
Dieses Jahr kannst du eh kicken nur die erste Welle ist vielleicht bezahlbar alles danach mir 32GB und der dicken IGP ist 2000€ Garantiert.


Alle Listungen um 1500€ mit 32GB ist die GPU mit 4xEU vs 12 EU des Top Modell.

https://geizhals.de/?cat=nb&xf=6752_Core+Ultra+300&sort=p#productlist

genervt
2026-01-17, 15:27:51
AMD hätte sich mal etwas bemühen sollen endlich RDNA4 in den APUs zu bringen, Ryzen AI 400 schon bisschen bockmist :freak:
Kommt nicht. die bleiben bei RDNA 3.5 und dann RDNA 5. Panther Lake sieht gut aus. Wenn der Preis stimmt passt das. Wichtig für Intel iat, dass sie viele Teile endlich wieder in den eigenen Fabs produzieren.

robbitop
2026-01-17, 15:36:53
AMD hätte sich mal etwas bemühen sollen endlich RDNA4 in den APUs zu bringen, Ryzen AI 400 schon bisschen bockmist :freak:

Jo also RDNA4 mit ebenfalls 12 WGPs und 16 MiB IF$ und N3P hätte wahrscheinlich ganz anders gegen PTL ausgesehen. Und das wäre 2025 möglich gewesen.

davidzo
2026-01-17, 15:54:22
Ich bin mir ziemlich sicher dass er sogar genau das Gegenteil gesagt hat. Finde leider das Interview nicht mehr aber so sinngemäß: Die Befehle werden eh so heruntergebrochen dass es auf der kleinsten Ebene überhaupt keinen Unterschied macht.

Aufmerksamer lesen. :wink:

Die Chip-Architekten Sicht ist nicht nur fokussiert auf performance, sondern auch time to market, teamgröße, capex invest etc. Ich denke daher kommt es dass er gesagt hat dass RISC-V in seinen Augen derzeit am Attraktivsten ist.

Ich weiß nicht ob es dasselbe oder ein früheres Interview war wo er sagte dass man natürlich auch Architekturen für x86 bauen kann die einen vergleichbar hohen Durchsatz haben wie für bestimmte RISC Designs, bzw. das die Trennung CISC-RISC eh nicht mehr gilt.
Das widerspricht sich aber auch nicht mit der Aussage dazu wie aufwändig es ist eine high performance Architektur aus dem Boden zu stampfen.

mocad_tom
2026-01-17, 21:50:44
Da redet man so viel über die ISA, aber man redet nicht darüber ob man ein weak memory model oder ein strong memory model hat.

Eigentlich macht ja auch ein Cache Latency messen zwischen strong und weak nur so mittelprächtig sinn.

Ein strong memory model ist deutlich aufwendiger im Transistorverbrauch.

x86 hat ein strong memory model.

arm hat ein weak memory model.

Es ist eine grundsätzlich unterschiedliche Herangehensweise an das Out-of-Order-Window.




https://x.com/hardwarecanucks/status/2012207939608588461


https://x.com/Mrswigs1004/status/2012223458806005997

Ein PTL Thin and Light Laptop hat wohl zum ersten mal überhaupt bei light browsing die 30 Stunden geknackt.

mczak
2026-01-18, 00:11:57
Jo also RDNA4 mit ebenfalls 12 WGPs und 16 MiB IF$ und N3P hätte wahrscheinlich ganz anders gegen PTL ausgesehen. Und das wäre 2025 möglich gewesen.
Also 12 WGPs wäre doch Overkill. Ich bin mir ziemlich sicher auch 8 RDNA4 WGPs (und eben 16 MB Cache) würden locker ausreichen um Panther Lake mit 12 Xe Cores (abgesehen von Spezialfällen wie Pathtracing) zu schlagen (wäre ja von der Konfiguration her ein halber N44), vermutlich selbst mit N4P Fertigung (so gross ist der Vorteil von N3P auch wieder nicht).

robbitop
2026-01-18, 07:55:06
Naja 12 Xe Cores in PTL sind afaik das Äquivalent von 12 WGPs* (zumindest waren 8 Xe2 Cores ziemlich gleich schnell zu 8 wgps in Strix und jetzt sehen wir 12 Xe3 Cores - von der FPU lane Anzahl ist es wohl eher wie 12 RDNA2 WGPs allerdings - aber diese Verdopplung der lanes hat ja bei Nv und AMD fast nix gebracht - ggf hat Intel sich das gespart) und wir sehen wie energieeffizient das Ding ist. Man liegt weitestgehend fast Faktor 2 über Strix (8 WGPs, ja nur rdna3.5 und ja kein LLC) und nicht weit weg von Halo (20 WGPs und 32 mib llc aber ja nur rdna3.5 und der ist in den Vergleichen nicht ausgefahren - aber der Punkt ist - PTL scheint schon ziemlich krass schneller zu sein als ein 8 WGP Strix). Weiterhin: so weit hergeholt ist das nicht da Medusa mit AT4 nächstes Jahr 24 CUs RDNA5 haben soll. Allerdings nur mit 10 MiB L2 ohne LLC.

Und Breite ist eben gut was Energieeffizienz angeht. Dann kann man performancenormiert den Takt senken. Breite korreliert linear mit Leistungsaufnahme, Takt über eine Potenzfunktion (weil ja auch Spannung involviert ist).
Sieht man bei der Switch 2 auch. Das Ding hat 12 SMs bzw 1536 fpus was für einen SoC in 8 nm (wir reden hier von nodes und IP von 2020) echt viel war. Da hatte AMD 8 CUs mit 64 fps pro CU also 512 fpu channels. Und dafür taktet man sehr niedrig.


*hab mal die KI gefragt - die sieht es auch so was gut mit der relativen Performance passt



An Intel Xe Core (including Xe3) lines up more closely with an AMD WGP than with a single AMD CU, if the comparison is “everything in the block” (SIMD lanes plus local caches/shared memory, scheduling/occupancy resources, and the usual per-block fixed-function attachments).[old.chipsandcheese +1]
Why it maps to WGP
• On AMD RDNA, the WGP is explicitly a pairing of two CUs (it “encompasses two CUs”), and it’s also where AMD places a cache level shared by those two CUs (RDNA “adds an extra layer of cache to the WGP…referred to as L1 cache”).[rocm.amd]
• Intel’s Xe Core is similarly a higher-level “tile” that groups multiple SIMD/vector engines together and hangs key shared resources off the group (in Xe-HPG, an Xe-core contains multiple vector engines plus a shared L1/SLM structure and sampler/RT attachments at the Xe-core level).[hwcooling]
• That “group-of-SIMDs with shared local resources” organization is conceptually closer to AMD’s WGP than to a single CU (which is one half of the WGP).[rocm.amd +1]
“128 lanes” isn’t the right equivalence
• AMD RDNA WGP throughput often gets summarized as 128 FP32 ops/cycle because it contains two CUs worth of SIMD resources, but AMD still treats the CU as the scheduling/resource granularity under the WGP umbrella in many descriptions.[chipsandcheese +1]
• Intel Xe cores in recent gens are also commonly discussed as ~128 FP32 lanes per Xe core (via multiple 16-wide vector engines), so the “128 vs 128” observation is real—but it mostly reflects front-end SIMD width/issue structure, not the full resource bundle (register files, caches/SLM, texture, etc.).[old.chipsandcheese +1]
Caches / shared memory: where the similarity is strongest
• AMD RDNA: per the HIP documentation, RDNA promotes the per-CU cache to an L0, and adds an L1 cache level shared at the WGP level (shared by the two CUs).[tomshardware]
• Intel Xe-HPG (and broadly consistent with how Xe cores are described): the Xe core has a shared L1$/SLM structure that can be partitioned between cache and shared local memory.[hwcooling]
• That “shared at the Xe-core / shared at the WGP” design pattern is exactly why the Xe-core-to-WGP comparison tends to be more informative than Xe-core-to-CU.[tomshardware +1]
Registers / occupancy controls
• Xe3 specifically adds variable register allocation and increases concurrency per vector engine (e.g., 10 threads per XVE discussed in public Xe3 coverage), which is an occupancy/scheduling-side capability analogous in role (not implementation) to the way AMD occupancy is heavily governed by per-workgroup register use.[old.chipsandcheese +1]
• AMD’s HIP documentation also emphasizes that occupancy is limited by register and shared memory usage at the CU level, reinforcing that “register file capacity + allocation rules” is central to performance/occupancy on RDNA.[tomshardware]
TMUs / ROPs: don’t compare at CU/WGP granularity
• On RDNA, the CU/WGP is primarily the compute/shader building block; the render back-end (ROPs/color/depth) is organized elsewhere in the graphics pipeline hierarchy, not “per CU” in a simple 1:1 way.[hwcooling]
• Intel’s Xe-HPG documentation likewise separates Xe-core compute/texture attachments from “slice common” blocks that include pixel backend/fill behavior, so mapping “ROPs per Xe core” to “ROPs per WGP” is usually misleading unless you compare at a higher block level (slice / render backend partition).[hwcooling]
If you want, share which exact Xe3 target you mean (Panther Lake iGPU “Xe3” vs a future discrete Xe3 variant), and whether you want the mapping in terms of front-end scheduling granularity (wave dispatch) or physical resource sharing (L1/SLM, caches, samplers), because Intel’s naming (“Xe core”) has shifted meaning across Xe-LP/HPG/Xe2/Xe3 generations.

Gemini 3 pro sieht es auch so - habe es auch nochmal gepromptet. :)

mczak
2026-01-18, 12:39:22
Naja 12 Xe Cores in PTL sind afaik das Äquivalent von 12 WGPs* (zumindest waren 8 Xe2 Cores ziemlich gleich schnell zu 8 wgps in Strix und jetzt sehen wir 12 Xe3 Cores - von der FPU lane Anzahl ist es wohl eher wie 12 RDNA2 WGPs allerdings - aber diese Verdopplung der lanes hat ja bei Nv und AMD fast nix gebracht - ggf hat Intel sich das gespart) und wir sehen wie energieeffizient das Ding ist. Man liegt weitestgehend fast Faktor 2 über Strix (8 WGPs, ja nur rdna3.5 und ja kein LLC) und nicht weit weg von Halo (20 WGPs und 32 mib llc aber ja nur rdna3.5 und der ist in den Vergleichen nicht ausgefahren - aber der Punkt ist - PTL scheint schon ziemlich krass schneller zu sein als ein 8 WGP Strix).

Von der Architektur her ist es schon so dass Xe Cores ähnlich sind zu WGPs. Aber auf dem Desktop sind 20 Xe2 Cores (B580) meilenweit hinter 16 RDNA4 WGPs (RX 9060XT) - und das mit 50% mehr Speicherbandbreite und schlechterer Energieeffizienz. (Auf dem Desktop sind 20 Xe2 Cores bloss gleich schnell wie 16 RDNA3 WGPs (RX 7600XT), abgesehen von Dingen wie RT, und das auch noch mit besserer Fertigung.)
Klar Panther Lake hat Xe3 Cores, aber das sieht mir jetzt nicht danach aus als dass die wirklich derart viel schneller geworden sind. Ist auch laut intel eher eine Evolution.
Bei den Mobil-Vergleichen darf man einfach nicht vergessen wie miserabel RDNA 3.5 aufgrund der fehlenden Speicherbandbreite skaliert. Die Radeon 890M von Strix Point mit 16 CUs ist im Durchschnitt gerade mal 30% schneller als die Radeon 860M von Kracken Point mit 8 CUs, das ist doch ein Witz. Klar 100% kann man nicht erwarten, ausserdem ist natürlich die TDP beschränkt was die Unterschiede vermindert aber das sind Vergleiche bei hoher TDP.
Und RDNA4 scheint eben auch deutlich bandbreiteneffizienter zu sein als RDNA3 (und RDNA3.5 - da gibt es keine Unterschiede), das allein würde in den IGPs wahrscheinlich schon eine ganze Menge bewirken - würde mich nicht wundern wenn selbst 4 RDNA4 WGPs (mit gleich viel GPU-L2) da schneller wären als 8 RDNA 3.5 WGPs... (Aber natürlich braucht es mehr um mit Panther Lake IGP mitzuhalten, und auch mehr Cache ist auf jeden Fall zwingend.)
Ist natürlich korrekt dass breitere GPUs effizienter sind als schmalere, aber bei dem Rückstand den Intel bei der Architektur noch bei Battlemage hatte bezweifle ich einfach dass man das komplett aufgeholt hat.

Badesalz
2026-01-18, 12:44:17
@mczak
Danke. Ich war echt schon kurz davor auf die KI reinzufallen.

ryan
2026-01-18, 13:01:46
Von der Architektur her ist es schon so dass Xe Cores ähnlich sind zu WGPs. Aber auf dem Desktop sind 20 Xe2 Cores (B580) meilenweit hinter 16 RDNA4 WGPs (RX 9060XT) - und das mit 50% mehr Speicherbandbreite und schlechterer Energieeffizienz. (Auf dem Desktop sind 20 Xe2 Cores bloss gleich schnell wie 16 RDNA3 WGPs (RX 7600XT), abgesehen von Dingen wie RT, und das auch noch mit besserer Fertigung.)
Klar Panther Lake hat Xe3 Cores, aber das sieht mir jetzt nicht danach aus als dass die wirklich derart viel schneller geworden sind. Ist auch laut intel eher eine Evolution.
Bei den Mobil-Vergleichen darf man einfach nicht vergessen wie miserabel RDNA 3.5 aufgrund der fehlenden Speicherbandbreite skaliert. Die Radeon 890M von Strix Point mit 16 CUs ist im Durchschnitt gerade mal 30% schneller als die Radeon 860M von Kracken Point mit 8 CUs, das ist doch ein Witz. Klar 100% kann man nicht erwarten, ausserdem ist natürlich die TDP beschränkt was die Unterschiede vermindert aber das sind Vergleiche bei hoher TDP.
Und RDNA4 scheint eben auch deutlich bandbreiteneffizienter zu sein als RDNA3 (und RDNA3.5 - da gibt es keine Unterschiede), das allein würde in den IGPs wahrscheinlich schon eine ganze Menge bewirken - würde mich nicht wundern wenn selbst 4 RDNA4 WGPs (mit gleich viel GPU-L2) da schneller wären als 8 RDNA 3.5 WGPs... (Aber natürlich braucht es mehr um mit Panther Lake IGP mitzuhalten, und auch mehr Cache ist auf jeden Fall zwingend.)
Ist natürlich korrekt dass breitere GPUs effizienter sind als schmalere, aber bei dem Rückstand den Intel bei der Architektur noch bei Battlemage hatte bezweifle ich einfach dass man das komplett aufgeholt hat.


Der GDDR6 IMC und die Skalierung auf eine größere Einheitenanzahl fällt weg. Auch der driver overhead ist weniger das Problem bei iGPUs. Das sind Sachen, die für Intel neu gewesen sind. Das lässt sich nicht so einfach von dGPUs auf iGPUs übertragen.

Badesalz
2026-01-18, 14:00:50
Das lässt sich nicht so einfach von dGPUs auf iGPUs übertragen.Jep. Und zwar in jede Richtung...

robbitop
2026-01-18, 16:24:59
@mczak
Danke. Ich war echt schon kurz davor auf die KI reinzufallen.

Er hat der KI Anntwort (die bezog sich auf die uArch) doch Recht gegeben? Er bezog sich aber darüber hinaus auf realworld performance von B580 was nicht konträr zum uArch Argument ist.

@mczak
Ja Strix läuft ins Bandbreitenlimit. Aber trotzdem bringt mehr Breite mehr perf/W weil man niedriger takten kann. Dann kann die schön niedrig takten und schön effizient sein.

Aber ja die realworld performance zu der dGPU ist nicht so toll. Aber die dGPUs haben bei Intel mehr Probleme. Die Skalierung mit der Anzahl der Xe Cores war zumindest bei Battlemage noch nicht ideal, die CPU Performance und auch viele andere Quirks.
Aber ja WGP gegen Xe Core hat Battlemage keine Chance gegen RDNA4. Gegen RDNA3 reicht es bei dgpu auch nicht ganz. Aber im Kontext der iGPU sieht es wirklich deutlich anders aus - weil sie steht sehr sehr gut gegen Strix Halo aus der ja 20 WGPs und IF$ und 256 bit lpddr hat. Das muss man schon einräumen. Da sieht es Xe Core / WGP normiert schon deutlich besser aus.

mczak
2026-01-18, 20:03:31
Aber ja die realworld performance zu der dGPU ist nicht so toll. Aber die dGPUs haben bei Intel mehr Probleme. Die Skalierung mit der Anzahl der Xe Cores war zumindest bei Battlemage noch nicht ideal, die CPU Performance und auch viele andere Quirks.
Aber ja WGP gegen Xe Core hat Battlemage keine Chance gegen RDNA4. Gegen RDNA3 reicht es bei dgpu auch nicht ganz. Aber im Kontext der iGPU sieht es wirklich deutlich anders aus - weil sie steht sehr sehr gut gegen Strix Halo aus der ja 20 WGPs und IF$ und 256 bit lpddr hat. Das muss man schon einräumen. Da sieht es Xe Core / WGP normiert schon deutlich besser aus.
Diese Argumentation hat schon was, allerdings ist Strix Halo wohl auch nicht gerade optimal - persönlich bin ich ja der Meinung für die Fläche an verbautem Silizium schaut da relativ wenig heraus bei der IGP-Performance. Der sieht doch bloss sehr gut aus weil die Vergleiche eben auch mit alles andere an optimierten Lösungen waren (sieht man mal von apple SOCs ab). Aber die nicht so tolle Bandbreiteneffizienz kostet da sicher auch Energieeffizienz, weil man dann eben die doppelte Bandbreite (und doppelt so grossen Cache) für längst nicht die doppelte Performance hat.
Ist aber zugegeben alles ziemlich spekulativ, für eine präzise Vorhersage wie denn so eine IGP mit 8 RDNA4 WGPs und vernünftig grossem Cache performen würde anhand existierender Chips sind da IMHO einfach zu viele Unbekannte drin. Vielleicht sieht man dann anhand RDNA5 wie das hätte aussehen können (je nach dem wie ähnlich RDNA5 zu RDNA4 ist).

robbitop
2026-01-19, 11:11:57
Die Frage ist welche Metrik relevant ist. Perf/Area oder Perf/W (ja am besten beides). Perf/W macht vor allem für den Kunden das Produkt interessant (was man zur Preisbildung nutzen kann). Perf/Area ist relevant für die Kosten pro Wafer.
Perf/Area scheint aber selbst für dGPUs bei Nvidia und AMD nicht immer die treibende Größe zu sein. Man schaue sich perf/Transistor (als Proxy damit man nodeübergreifend vergleichen kann) für RDNA3 in der 7600XT an vs perf/Transistor bei RDNA4. Oder Perf/Transistor on Ampere vs Ada. Da sind die SMs GEWALTIG größer geworden. Überproportional zur Leistung. Wahrscheinlich weil mit der Skalierung von SMs/WGPs/CUs es gewisse Grenzen gibt und man in Perf/W irgendwann nicht mehr so gut da steht. :)

Aber ja Battlemage ist nicht so toll was perf/transistor angeht. Ist aber Ampere und RDNA4 auch nicht. Ich denke gerade für mobile SoCs ist perf/W etwas wichtiger. Und da hat Intel offenbar ordentliche Sprünge gemacht und AMD ist am Steuer eingeschlafen (zumindest bei den APUs).

Jedenfalls eine breite RDNA4 GPU mit IF$ würde - da sind wir uns glaube ich einig - ziemlich viel besser dastehen als der alte RDNA3 Kram mit Strix.

edit: inoffizielle Berichte sagen, dass GPU Tile (N3E) mit 12 Xe(3) Cores sei 54 mm² groß (leak von JayKihn). Das klingt jetzt nicht besonders groß. Ist AFAIK nur die GPU selbst und der Cache, kein IMC.
Die KI (gemini 3 Pro) schätzt die Strix Point GPU auf 50-60 mm². N3E hat 215 MrTr/mm2 und N4 137 MrTr/mm² (wobei IIRC Intel mit der Packdichte zumindest bei Battlemage weit weg von den TSMC Werten waren - NV und AMD relativ nahe dran IIRC).
Wenn wir aber der Einfachheit sagen, die GPUs sind grob gleich groß von der Fläche und der Dichtevorteile von N3E ggü N4 wird voll genutzt, ist die die PTL Xe3 GPU rund 56% "größer". Schon gar nicht schlecht, dann 70-80% mehr Performance zu holen. Wobei das sicherlich wie du ja auch schreibst überproportional durch Bandbreitenlimits verursacht wird. Was aber zeigt: große LLCs für IGPs lohnen sich definitiv (ja welch Überraschung). X-D

mocad_tom
2026-01-19, 12:10:44
Die Frage ist welche Metrik relevant ist. Perf/Area oder Perf/W (ja am besten beides). Perf/W macht vor allem für den Kunden das Produkt interessant (was man zur Preisbildung nutzen kann). Perf/Area ist relevant für die Kosten pro Wafer.
Perf/Area scheint aber selbst für dGPUs bei Nvidia und AMD nicht immer die treibende Größe zu sein. Man schaue sich perf/Transistor (als Proxy damit man nodeübergreifend vergleichen kann) für RDNA3 in der 7600XT an vs perf/Transistor bei RDNA4. Oder Perf/Transistor on Ampere vs Ada. Da sind die SMs GEWALTIG größer geworden. Überproportional zur Leistung. Wahrscheinlich weil mit der Skalierung von SMs/WGPs/CUs es gewisse Grenzen gibt und man in Perf/W irgendwann nicht mehr so gut da steht. :)

Aber ja Battlemage ist nicht so toll was perf/transistor angeht. Ist aber Ampere und RDNA4 auch nicht. Ich denke gerade für mobile SoCs ist perf/W etwas wichtiger. Und da hat Intel offenbar ordentliche Sprünge gemacht und AMD ist am Steuer eingeschlafen (zumindest bei den APUs).

Jedenfalls eine breite RDNA4 GPU mit IF$ würde - da sind wir uns glaube ich einig - ziemlich viel besser dastehen als der alte RDNA3 Kram mit Strix.

edit: inoffizielle Berichte sagen, dass GPU Tile (N3E) mit 12 Xe(3) Cores sei 54 mm² groß (leak von JayKihn). Das klingt jetzt nicht besonders groß. Ist AFAIK nur die GPU selbst und der Cache, kein IMC.
Die KI (gemini 3 Pro) schätzt die Strix Point GPU auf 50-60 mm². N3E hat 215 MrTr/mm2 und N4 137 MrTr/mm² (wobei IIRC Intel mit der Packdichte zumindest bei Battlemage weit weg von den TSMC Werten waren - NV und AMD relativ nahe dran IIRC).
Wenn wir aber der Einfachheit sagen, die GPUs sind grob gleich groß von der Fläche und der Dichtevorteile von N3E ggü N4 wird voll genutzt, ist die die PTL Xe3 GPU rund 56% "größer". Schon gar nicht schlecht, dann 70-80% mehr Performance zu holen. Wobei das sicherlich wie du ja auch schreibst überproportional durch Bandbreitenlimits verursacht wird. Was aber zeigt: große LLCs für IGPs lohnen sich definitiv (ja welch Überraschung). X-D

Dort wo AMD "flächeneffiziente" dGPU Chips gemacht haben, dann haben sie Encoder und Display-Pipelines weggelassen. Und bei den Display-Pipelines dann auch bewusst nur HDMI1.4 integriert. Und dann nur ein x8 PCIe implementiert.

Der Intel-igpu-Chip ist sehr flächeneffizient, weil die Display-Pipelines und Encoder/Decoder auf dem SoC-Tile sind.
Durch diese Maßnahme lässt sich der igpu chip komplett schlafen schicken.

Aber auch perf/Area wenn man sich nur die MatMul-Units (also dort wo der Großteil der Berechnungen stattfindet) anschaut, auch dort ist Intel nicht mehr abgeschlagen.

Der frühere Arc Alchemist chip hatte den schlechten Ruf wirklich wirklich besonders schlecht bei der Flächeneffizienz zu sein - einiges davon stammte aber aus dem "uncore" - also Encoder Decoder Display-Pipelines, volles PCIe-Interface.

Sollte der 256bit Battlemage noch kommen, dann wird man dort nahe an eine vergleichbare AMD dGPU rankommen.

w0mbat
2026-01-19, 12:18:01
[I]edit: inoffizielle Berichte sagen, dass GPU Tile (N3E) mit 12 Xe(3) Cores sei 54 mm² groß (leak von JayKihn). Das klingt jetzt nicht besonders groß. Ist AFAIK nur die GPU selbst und der Cache, kein IMC.

54.75 mm² genau. Kein Leak, das wissen wir von Intel. Und ja, IMC ist auf dem Compute Tile.

mczak
2026-01-19, 14:42:36
Aber auch perf/Area wenn man sich nur die MatMul-Units (also dort wo der Großteil der Berechnungen stattfindet) anschaut, auch dort ist Intel nicht mehr abgeschlagen.

Habe ich auch schon anderswo geschrieben, ist schon auffällig klein im Vergleich zu BMG-G31 - auch wenn natürlich bessere Fertigung, kein i/o Kram (imc, pcie, display, bloss ein fabric link) und auch keine media codecs auf dem gpu tile., aber die 16MB GPU-L2 sind mit dabei. Da ist jedenfalls nichts zu sehen von geringer Packdichte, und ist natürlich von den Kosten her ein grosser Vorteil gegenüber Strix Halo.
Bei Strix Point / Strix Halo misst so eine RDNA 3.5 WGP etwa ~3.3mm² (in N4P allerdings), aber die WGPs machen natürlich nur einen Teil des "3D-Kerns" der GPU aus. RDNA 4 WGPs dürften doch grösser sein (gibt leider keine Die-Shots von N44/N48). Hätte sich AMD entschieden eine monolithische APU mit RDNA4 zu bringen denke ich in N4P hätte man wohl kaum mehr als 8 WGPs verbaut - falls 4 WGPs da vielleicht so 20mm² messen würden wäre das wohl schwierig zu rechtfertigen für eine APU die eben auch zusammen mit dGPUs verbaut wird, das ist natürlich ein Vorteil bei intel wo man das "grosse" gpu-tile nur verbaut wenn es auch wirklich etwas bringt. Aber am Ende spielt das im Prinzip auch keine Rolle ob so eine APU mit 8 RDNA4 WGPs jetzt mit Panther Lake komplett konkurrenzfähig gewesen wäre weil man es halt gar nicht erst versucht hat was mit vernünftigem IGP (unterhalb von Strix Halo) zu bauen (im Zeitrahmen 2025/2026). Da muss man noch eine ganze Weile warten...

robbitop
2026-01-19, 14:58:45
Auf jeden Fall kann man konstatieren, dass Intel mit jeder Generation ordentlich draufpackt. Wenn man bedenkt, dass ab Alchemist ein clean slate war was HW und SW angeht ist das schon ganz anständig, innerhalb 3x Generationen (wobei Xe3 in PTL eher Xe2.5 bzw Battlemage refresh ist) kam ja ordentlich was bei rum bei PPA und PPW.
Deren Management hat viel zu früh das Vertrauen an die GPU Abteilung verloren (Nvidia Deal) und müssen auch ziemlich naiv gewesen sein, wenn man geglaubt hat, dass man NV und AMD deutlich eher einholt in den relevanten Metriken. Aber das habe ich schon öfter geschrieben.
Go ARC! (im Sinne des Wettbewerbs!)

Daredevil
2026-01-19, 19:21:30
Das wird sich sicherlich in den nächsten Jahren beantworten, ob dieser Deal eher ein Intel Deal ist, oder eben einer von Nvidia. Kann Intel ohne Nvidia? Vermutlich, eine dGPU rein und gut ist.
Kann Nvidia ohne Intel? Schwer, da man auf ARM setzen muss.

Ich hoffe ebenso inständig, dass dies keinen Einfluss auf größere Arc Karten und die Entwicklung hat. Sich unabhängig zu machen muss ein Schlüsselziel sein, weil man bislang schon enorm vier erarbeitet hat.

dildo4u
2026-01-20, 06:04:40
Fand das interessant der Nvidia Deal könnte mit kompletten Fokus auf KI sein da Intel NV Link will.

v7_D9UBh6rk

reunion
2026-01-20, 09:42:10
Deren Management hat viel zu früh das Vertrauen an die GPU Abteilung verloren (Nvidia Deal) und müssen auch ziemlich naiv gewesen sein, wenn man geglaubt hat, dass man NV und AMD deutlich eher einholt in den relevanten Metriken. Aber das habe ich schon öfter geschrieben.
Go ARC! (im Sinne des Wettbewerbs!)

Wenn sie nicht völlig bescheuert sind, dann läuft die GPU-Entwicklung ganz normal weiter. Den Deal hat man nur gemacht, weil man die Kohle von Nvidia braucht. Intel verbrennt zurzeit Milliarden pro Quartal. Und Nvidia braucht x86.

robbitop
2026-01-20, 09:53:30
Naja man sieht schon daran, dass es nur noch wenige SKUs im dGPU Portfolio gibt, dass da der Hahn deutlich weiter zugedreht wurde. Da wird man bei der Entwicklungsabteilung die Flamme auch etwas kleiner gedreht haben. Sowas dauert dann ein wenig bis man die Auswirkungen sieht, weil die uArchs ja oftmals Jahre vor der Implementierung und Serienfertigung abgeschlossen sind.

reunion
2026-01-20, 09:57:20
Naja man sieht schon daran, dass es nur noch wenige SKUs im dGPU Portfolio gibt, dass da der Hahn deutlich weiter zugedreht wurde. Da wird man bei der Entwicklungsabteilung die Flamme auch etwas kleiner gedreht haben. Sowas dauert dann ein wenig bis man die Auswirkungen sieht, weil die uArchs ja oftmals Jahre vor der Implementierung und Serienfertigung abgeschlossen sind.

Das ist ab einen gewissen Punkt auch eine smarte Entscheidung. Ich würde auch nichts bringen das nicht konkurrenzfähig ist und sich sowieso nicht verkauft. Sie halten aktuell 0% Marktanteile mit ihre dGPUs und können es sich nicht leisten sinnlos Geld zu verbrennen. Wichtig ist es die µArch-Entwicklung weiter zu forcieren, die verbaut man ohnehin bei den CPUs. Wenn man was zumindest ansatzweise konkurrenzfähiges hat wird da hoffentlich auch wieder mit dGPUs kommen.

Aber gut, in so Konglomeraten wie Intel weiß man natürlich nie auf welche absurde weise Entscheidungen getroffen werden. Sie haben ja auch SMT abgeschafft um dann drauf zu kommen, dass man ohne nicht mehr konkurrenzfähig ist und sind dann maximal peinlich zurück gerudert. ;D

mocad_tom
2026-01-20, 12:56:20
Am Anfang von Lip Bu Tan hat man ja noch gesagt, jedes Produkt, das nicht 50% Marge macht kommt weg.

Jetzt hat sich die Marge bei IT komplett nach oben verschoben.
Alles durch die Bank.

nvidia macht seinen eigenen GPU auch gerade teurer.

Und damit könnte die Intel dGPU über die 50% Marge rutschen.

Ich denke, dass eine dGPU für die eigene Fab in Planung war.

Crescent Island wird evtl mit Intel 18AP gefertigt.

In jedem Fall haben die das Systolic Array in 18AP.

Ich denke die können je nach Auslastung der FAB durch Fremdkunden mehr oder weniger dGPU und AI-Beschleuniger fertigen.

Wenn sich Apple viel Volumen bei der FAB holt, dann schauen die Gamer in die Röhre.

ryan
2026-01-20, 16:14:00
Das MSI Prestige 14 Flip mit X7 358H gibt es in den USA schon für $1,299. (https://www.bhphotovideo.com/c/product/1939343-REG/msi_prestige_14_flip_ai_d3mtg_001us_prestige_14_flip_ai.html) Im deutschen MSI Store kostet das gleiche Gerät 1549€ (https://de-store.msi.com/products/prestige-14-flip-ai-d3mtg-030de). Das ist ein starker Aufschlag im Euroland.

dildo4u
2026-01-20, 16:25:29
Normaler Aufschlag wegen Mehrwertsteuern?

Undertaker
2026-01-20, 17:26:51
Nein, nicht mit dem aktuellen Wechselkurs. Da wäre sogar eine 1:1 Umrechnung fast fair. Aber warten wir erst einmal noch bis sich die Preise etwas eingependelt haben

mocad_tom
2026-01-21, 00:11:30
Wann fällt denn jetzt endlich das Embargo?

Wenn man schaut was Gelsinger im Oktober 2024 noch versprochen hat
(wir launchen ähnlich wie Lunar Lake - also im November 2025 noch erste Geräte - so die damalige Aussage)

3 Monate zu spät.

HOT
2026-01-21, 10:24:25
Auf jeden Fall kann man konstatieren, dass Intel mit jeder Generation ordentlich draufpackt. Wenn man bedenkt, dass ab Alchemist ein clean slate war was HW und SW angeht ist das schon ganz anständig, innerhalb 3x Generationen (wobei Xe3 in PTL eher Xe2.5 bzw Battlemage refresh ist) kam ja ordentlich was bei rum bei PPA und PPW.
Deren Management hat viel zu früh das Vertrauen an die GPU Abteilung verloren (Nvidia Deal) und müssen auch ziemlich naiv gewesen sein, wenn man geglaubt hat, dass man NV und AMD deutlich eher einholt in den relevanten Metriken. Aber das habe ich schon öfter geschrieben.
Go ARC! (im Sinne des Wettbewerbs!)

Irgendeinen Knochen muss man den Aktionären halt hinwerfen. Ich bin aber auch davon überzeugt, dass Intel nicht fertig ist mit dGPUs, denn AMD und NV verlagern die Prioritäten und eröffnen Intel hier eine echte Chance.
Ich hab ja die ganze Zeit gesagt, was Intel da im GPU-Bereich macht ist alles andere als schlecht, man muss hier seine Erwartungen anpassen, dass konnte Tom von MLID halt nicht beispielsweise.

robbitop
2026-01-21, 10:55:17
Und so schlecht war B580 nicht. Allerdings kam man wieder deutlich zu spät so dass man auf einmal nicht gegen die 4060 und die 7600 antreten musste sondern gegen die 5060 und die 9060. Aber Preis/Leistung war trotzdem sehr nett. Hat sich aber leider trotzdem nicht gut verkauft anscheinend. Aber naja das ist halt ein Extrembeispiel dafür wie wichtig Reputation / Marke ist. Und das muss man erstmal aufbauen. Und ob man das mit low end GPUs hinbekommt?

Undertaker
2026-01-21, 11:01:30
Wann fällt denn jetzt endlich das Embargo?


Bzgl. der CPU-Tests? Dachte am 26.01.

ceed
2026-01-21, 11:02:58
Wann fällt denn jetzt endlich das Embargo?

Wenn man schaut was Gelsinger im Oktober 2024 noch versprochen hat
(wir launchen ähnlich wie Lunar Lake - also im November 2025 noch erste Geräte - so die damalige Aussage)

3 Monate zu spät.

Naja zu spät / rechtzeitig. Die Aussagen von Pat waren sicherlich mit den günstigsten Annahmen getroffen- viellecht waren die Yields noch nicht so gut und man hat sich entschieden mit der Produktion noch n bissl zu warten. Ist doch für alle immer nur Glaskugel lesen. Sehe ich nicht so verbissen, jetzt kommt es und es ist wahrscheinlich erstmal das beste Produkt am Markt für ne gewisse Zeit.

Intel hat halt den wirkluch extremen Vorteil das sie nicht wie AMD und Nvidia und alle Anderen am Tropf von TSMC hängen, WENN die eigene Fertigung konkurenzfähig ist. Der Vorteil wird zum Nachteil wenn sie mit den Nodes so hart zurück hängen.

Könnte mir deswegen vorstellen dass sie bei den Grafikkarten vielleicht sogar mal n Preis/Leistungschampion bringen und sich darüber etablieren. Das lohnt sich halt für die Anderen so gar nicht mehr mit den immer teurer werdenden Wafern.

dildo4u
2026-01-21, 11:06:57
Wann fällt denn jetzt endlich das Embargo?

Wenn man schaut was Gelsinger im Oktober 2024 noch versprochen hat
(wir launchen ähnlich wie Lunar Lake - also im November 2025 noch erste Geräte - so die damalige Aussage)

3 Monate zu spät.
Laut CB

https://i.ibb.co/JRJRKgch/Screenshot-2026-01-21-110621.png (https://imgbb.com/)

mczak
2026-01-21, 19:16:25
Und so schlecht war B580 nicht. Allerdings kam man wieder deutlich zu spät so dass man auf einmal nicht gegen die 4060 und die 7600 antreten musste sondern gegen die 5060 und die 9060. Aber Preis/Leistung war trotzdem sehr nett. Hat sich aber leider trotzdem nicht gut verkauft anscheinend. Aber naja das ist halt ein Extrembeispiel dafür wie wichtig Reputation / Marke ist. Und das muss man erstmal aufbauen. Und ob man das mit low end GPUs hinbekommt?
So begeistert war ich von der B580 nie. Klar das Produkt am Ende war durchaus in Ordnung, Perf/W deutlich besser als noch bei Alchemist, aber bei der PPA von BMG-G21 waren da prozessnormiert kaum Fortschritte zu erkennen, und die war im Vergleich zur Konkurrenz wirklich mies - bei Margen wie nvidia hätte das Ding so viel wie eine RTX 5070 kosten müssen :rolleyes:. Woran das lag keine Ahnung - rein von den offiziellen Zahlen her ist ein Hauptgrund (wenn auch nicht der einzige) die sehr geringe Packdichte von BMG-G21, aber da muss man ja immer vorsichtig sein weil nicht notwendigerweise alle Hersteller die Transistoren gleich zählen. (Weiss eigentlich jemand wie gross BMG-G31 ist?)
Aber Panther Lake scheint bezüglich PPA deutlich besser zu sein, auch wenn natürlich ein Vergleich schwierig ist (nicht nur wegen der besseren Fertigung, aber eben auch weil da halt der "Uncore" der GPU fehlt). Das würde für Celestial dGPUs jedenfalls schon einiges erwarten lassen...

reunion
2026-01-23, 11:21:40
AMD hat jetzt auch ein paar lustige Folien gemacht ;D
https://wccftech.com/amd-fires-back-at-intel-panther-lake-vs-ryzen-ai-max-400-300/

Undertaker
2026-01-23, 11:35:39
Lol, das ist schon ziemlich peinlich, hat das der Praktikant bauen müssen? :D

Und auf Strix Halo Geräte im 1200-1500$ Bereich als Konkurrenz zu PTL B370/B390 bin ich schon gespannt... Und den Akkulaufzeitvergleich.

Badesalz
2026-01-23, 12:49:53
Lol, das ist schon ziemlich peinlich, hat das der Praktikant bauen müssen? :DOder? Niemals wird jemand an Intelfolien rankommen. Nichtmal Nvidia. Intels Folierer sind auch die einzigen die nie von Personalfragen betroffen sind.

Das ist außer bei Intel nur noch bei Foliatec so.

reunion
2026-01-23, 15:14:11
Und auf Strix Halo Geräte im 1200-1500$ Bereich als Konkurrenz zu PTL B370/B390 bin ich schon gespannt...

Was AMD natürlich schon machen könnte ist den Preisjoker ziehen. So teuer kann das 4nm Ding nicht sein. Aber da müsste man halt auf ein bisschen Marge verzichten, AMD liegt ja auch mittlerweile bei deutlich über 50% Marge, während sich Intel mit ~35% zufrieden gibt.

Undertaker
2026-01-23, 15:53:22
Einen cost breakdown für einzelne Produkte haben wir ja leider nicht, als fast 450mm2 großes Monster mit 256 Bit Speicheranbindung wird das Ding aber in seiner ganz eigenen Klasse liegen - zumal jeder mm2 zusätzlich auch Marge extern an TSMC mit abdrücken muss. Am Ende bestimmen so oder so die Verkaufspreise die Vergleichsbasis, und hier scheint Intel PTL gegen Strix Point und darunter anzusiedeln, siehe die ersten Listungen in den USA. Das erklärt wohl auch die massiven Design Wins für PTL auf der CES.

dildo4u
2026-01-23, 16:02:13
Die Wins kommen natürlich von der guten Lieferbarkeit AMD wäre Dumm wenn sie ihre TSMC Kapazität nicht für Server Modelle nutzen.

Du brauchst Systeme in dem du die für 2026 ausgebuchte Dram Kapazität verbaust.

mboeller
2026-01-23, 16:30:26
Lol, das ist schon ziemlich peinlich, hat das der Praktikant bauen müssen? :D

Und auf Strix Halo Geräte im 1200-1500$ Bereich als Konkurrenz zu PTL B370/B390 bin ich schon gespannt... Und den Akkulaufzeitvergleich.

Strix Halo 385 od. 388 mit nur 32GB RAM ...

Undertaker
2026-01-23, 16:37:45
Strix Halo 385 od. 388 mit nur 32GB RAM ...

Ein Strix Point Notebook, HX 370 mit 32 GB, startet aktuell bei mindestens 1600 Euro. In Relation dazu sehe ich auch diese Strix Halo Ableger eher in Richtung 2000€ aufwärts.

mczak
2026-01-23, 21:35:50
Strix Halo gegen Panther Lake ist so etwa alternder Schwergewichtschampion gegen aufstrebenden Mittelgewichtsstar. Wenn da beide soviel futtern dürfen wie sie wollen wird das Schwergewicht gewinnen setzt man die aber auf Diät dürfte das Mittelgewicht sich mit der moderneren Technik durchsetzen. Das dürfte sowohl für den CPU wie den GPU Teil gelten.
Strix Halo sollte gegen oben hin einfach deutlich besser skalieren, ist ja auch kein Zufall gibt AMD da eine TDP von 45W-120W an während Panther Lake eine Basis-TDP von 25W hat. Breiteres Design muss jetzt nicht zwingend deutlich weniger effizient sein bei wenig Last (sieht man ja z.B. auch bei apple m4 gegen m4 pro, die Laufzeitunterschiede bei wenig Last sind doch eher marginal) aber allein der Fertigungsvorteil von Panther Lake sollte schon etwas bringen (wobei ich keine Ahnung habe wie gut intel 18A wirklich ist).
Abgesehen davon dass ich mir auch nur schwer vorstellen kann dass AMD da tatsächlich mit den Margen so weit runtergeht dass man da mit Panther Lake mithalten kann (selbst wenn der X9 388H einen Premium-Aufschlag hat, intel hat ja noch 2 weitere Chips im Programm (368H, 358H) die quasi identisch sind und nur marginal langsamer sein dürften).

ryan
2026-01-24, 13:31:43
AMD will in 2027 und 2028 auch noch auf RDNA 3.5 setzen habe ich gelesen, es wird nicht besser. Kann man hier sehen: https://m.weibo.cn/status/5258650964984547

dildo4u
2026-01-24, 13:37:47
Für Low End stimmt das die Halo Produkte sollen RDNA5 bekommen.

https://i.ibb.co/S74nqGLr/Screenshot-2026-01-24-133836.png (https://ibb.co/G342gNhT)


https://youtu.be/K0B08iCFgkk?si=9KFyoCALHPDvFilk

ryan
2026-01-24, 13:46:00
Vielleicht kommen die richtig neuen Halo erst gegen Ende 2027 oder 2028, weil Gorgon Halo erst in Q4 2026 kommen soll: https://www.computerbase.de/news/prozessoren/amd-ryzen-ai-max-400-tausche-strix-gegen-gorgon-und-erhalte-hoechstens-100-mhz-dazu.95901/

Das ist meistens ein Indiz.

basix
2026-01-24, 13:51:02
AMD will in 2027 und 2028 auch noch auf RDNA 3.5 setzen habe ich gelesen, es wird nicht besser. Kann man hier sehen: https://m.weibo.cn/status/5258650964984547
Ist das nicht sehr unwahrscheinlich? Für Desktop iGPUs allenfalls OK (aber auch dort nicht geil), aber für mobile iGPUs? So extrem gross dürfte der Flächen-Unterschied einer 8CU RDNA 3.5 zu RDNA 5 GPU nicht ausfallen. Und RDNA5 hat eine bessere Energieffizienz, höhere IPC, optional mehr Takt, bessere RT Performance und vor allem mehr Matrix Acceleration für moderne Upscaler wie FSR4. Auch für Handheld-Gaming-Devices als emerging Market ist all das ein Vorteil.

dildo4u
2026-01-24, 13:51:33
Halo hat Zeit Intel wird lange brauchen bis die Nvidia Tiles verbaut werden.

ryan
2026-01-24, 14:07:26
Halo hat Zeit Intel wird lange brauchen bis die Nvidia Tiles verbaut werden.


AMD braucht die Halo, um mitzuhalten. Laut deinem screenshot sind langsamere Halo mit 128 bit Speicheranbindung geplant.

dildo4u
2026-01-24, 14:13:43
Angeblich nutzt RDNA5 nur TSMC N3P gibt also kein Grund warum die nicht in 2027 kommen können.

April 2025

TSMC's 3nm update: N3P in production, N3X on track

https://www.tomshardware.com/tech-industry/tsmcs-3nm-update-n3p-in-production-n3x-on-track

mczak
2026-01-24, 14:14:35
AMD will in 2027 und 2028 auch noch auf RDNA 3.5 setzen habe ich gelesen, es wird nicht besser.

Also ich bin da noch nicht überzeugt, die Gerüchte sind da für 2027 nicht so eindeutig (für 2028 habe ich eigentlich noch gar nichts gesehen, kann aber sein dass man da die Chips von 2027 weiter verwendet). Aber ja Medusa Point wird meist mit 8 RDNA 3.5 CUs genannt, auch bloss mit 4+4+2 GPU- Kernen. Man beachte das wäre bloss eine Konfiguration wie Kracken Point, nur halb so viele CUs wie Strix Point, also klar Low-Budget (bzw. mit dem laut Gerüchten zusätzlich unterstützten 12 Core CCD was zum Kombinieren mit dGPU). Trotzdem wäre RDNA 3.5 natürlich etwas enttäuschend.
Daneben soll es aber auch Medusa Halo / Halo Mini geben, die sollen RDNA 5 haben, und gerade die Halo Mini Variante sieht eigentlich sehr nach Mainstream aus und damit könnte man das dann eher als legitimen Nachfolger von Strix Point / Gorgon Point sehen.

ryan
2026-01-24, 14:21:02
Angeblich nutzt RDNA5 nur TSMC N3P gibt also kein Grund warum die nicht in 2027 kommen können.



AMD bevorzugt dGPUs in der Entwicklung, da sind die iGPUs einfach hinten dran. Vega hatten sie damals auch sehr lange für iGPUs verwendet, obwohl dGPUs lange mit RDNA liefen. Um AMDs große Halo zu kontern, braucht Intel im übrigen kein Nvidia, hier würde NVL-AX bzw. RZL-AX völlig ausreichen. Für Nvidia würde ich eher was erwarten, was noch eine Klasse drüber liegt.

dildo4u
2026-01-24, 14:24:50
Halo ist AMDs einzige Möglichkeit in Laptops verbaut zu werden, die DGPU sind dort alle gefloptt.

A14 als Gameing Laptop Ryzen 392 Max

https://www.tomshardware.com/laptops/gaming-laptops/asus-puts-strix-halo-in-the-tuf-gaming-a14-strong-integrated-graphics-in-a-very-thin-chassis

basix
2026-01-24, 15:00:39
Daneben soll es aber auch Medusa Halo / Halo Mini geben, die sollen RDNA 5 haben, und gerade die Halo Mini Variante sieht eigentlich sehr nach Mainstream aus und damit könnte man das dann eher als legitimen Nachfolger von Strix Point / Gorgon Point sehen.

Halo Mini soll AT4 nutzen und bis zu 24 RDNA5 CU haben. Das wäre schon ziemlich ordentlich für eine iGPU. Das "Halo" beisst sich aber noch mit "mainstream"

mczak
2026-01-24, 16:04:16
Halo Mini soll AT4 nutzen und bis zu 24 RDNA5 CU haben. Das wäre schon ziemlich ordentlich für eine iGPU. Das "Halo" beisst sich aber noch mit "mainstream"
Ordentlich ja, aber wäre ja auch "nur" eine Steigerung von 50% der CU-Anzahl gegenüber Strix Point, und auch nicht wirklich mehr als intel schon mit Panther Lake bietet. Auch wenn da RDNA5 natürlich deutlich schneller sein müsste als RDNA 3.5. Vom Namen her würde ich mich da auch nicht allzu sehr verwirren lassen, "Halo mini" ist ja eh ein Widerspruch in sich, spricht imho nichts dagegen dass sowas in Mainstream Produkten landet. Wenn das Teil tatsächlich ein stinknormales 128bit lpddr5x SI hat und denselben Sockel wie Medusa Point nutzt spricht das doch auch dafür dass das eben ziemlich mainstream ist und nicht High-End (meinetwegen oberes Mainstream-Segment). Vermutlich kommt aber Medusa Halo mini deutlich später als Medusa Point, auch wenn beides für 2027 auf der Roadmap steht (?).

Undertaker
2026-01-24, 18:18:17
Halo ist AMDs einzige Möglichkeit in Laptops verbaut zu werden, die DGPU sind dort alle gefloptt.

A14 als Gameing Laptop Ryzen 392 Max

https://www.tomshardware.com/laptops/gaming-laptops/asus-puts-strix-halo-in-the-tuf-gaming-a14-strong-integrated-graphics-in-a-very-thin-chassis

Mir erscheint die aktuelle Strategie nicht wirklich stimmig... Dadurch, dass Nvidia erst ab der 5070 Ti 12 GB bietet, besteht mMn ein riesiger Markt für attraktive Gaming-Notebooks in der <2k€ Klasse. Strix Halo hat für die Gaming-Mittelklasse in 2026 zu wenig Power, für >1k€ erwarte ich mehr Rohleistung als eine RTX 4060 und ein modernes Featureset. Für die Nische AI/Workstation-Notebook gibt es sicherlich einen (kleinen) Markt, allerdings hätte ein natives 8C-Modell mit gleicher GPU und einem Systemzielpreis 900-1200€ mMn viel mehr Marktanteile gewinnen können. Darüber dann Navi 44 und Navi 48 in 1-2 unterschiedlichen Ausbaustufen mit 12-16 GB VRAM für den 1200-2000€ Markt gegen die RTX 5070 und 5070 Ti - hätte sich mMn wie geschnitten Brot verkauft. Jetzt dominiert PTL gegen Strix Point, Strix Halo sitzt im zu teuren Niemandsland mit viel VRAM aber dafür zu wenig Rechenleistung, und an der Spitze kassiert Nvidia die Premium-Kunden ab...

dildo4u
2026-01-24, 19:12:35
Bisher wurden Chips mit zu vielen CPU Kernen verbaut mit einem 8 Core plus 40CU kann man die Dinger nicht mher als Workstation vermarkten.
Diese Geräte sollten bei den 5070 Laptops landen die auf 8GB Vram beschränkt sind.


https://www.computerbase.de/news/prozessoren/amd-ryzen-ai-max-plus-392-und-388-zwei-neue-40-cu-gpu-ableger-der-riesen-apu-und-eine-dev-box.95417/

Lawmachine79
2026-01-24, 21:59:16
Mir erscheint die aktuelle Strategie nicht wirklich stimmig... Dadurch, dass Nvidia erst ab der 5070 Ti 12 GB bietet, besteht mMn ein riesiger Markt für attraktive Gaming-Notebooks in der <2k€ Klasse. Strix Halo hat für die Gaming-Mittelklasse in 2026 zu wenig Power, für >1k€ erwarte ich mehr Rohleistung als eine RTX 4060 und ein modernes Featureset. Für die Nische AI/Workstation-Notebook gibt es sicherlich einen (kleinen) Markt, allerdings hätte ein natives 8C-Modell mit gleicher GPU und einem Systemzielpreis 900-1200€ mMn viel mehr Marktanteile gewinnen können. Darüber dann Navi 44 und Navi 48 in 1-2 unterschiedlichen Ausbaustufen mit 12-16 GB VRAM für den 1200-2000€ Markt gegen die RTX 5070 und 5070 Ti - hätte sich mMn wie geschnitten Brot verkauft. Jetzt dominiert PTL gegen Strix Point, Strix Halo sitzt im zu teuren Niemandsland mit viel VRAM aber dafür zu wenig Rechenleistung, und an der Spitze kassiert Nvidia die Premium-Kunden ab...
Ich verstehe diese German VRAM Angst nicht. Erst die 5070TI (Laptop) hat überhaupt genug Dampf dass 12 GB VRAM Sinn machen. Diese schwachsinnigen VRAM Diskussionen lese ich seit der 3080, und das ist über 5 Jahre her. Aber es ist im Laptopbereich auch alles dejustiert. Alle Karten unterhalb einer 5070TI sind FullHD-Karten; die 5070TI ist eine WQHD-Karte (zeitgenössisch betrachtet; die 5070TI dürfte etwas 3090-Punch haben; 2020 war die 3090 eine 4K-Karte). Leider gibt es dafür so gut wie keine FullHD Laptops. Wenn man einen Laptop nutzt und keinen Desktop hat, spielt man idealerweise an einem Dual Mode 32" OLED.

Aber Ack, dass Strix Halo nicht sauber konzipiert ist. Für einen Gaming-Laptop sind 8 (volle) Kerne und eine GPU so fett es geht der Goldstandard.

dildo4u
2026-01-25, 07:50:05
Ich verstehe diese German VRAM Angst nicht. Erst die 5070TI (Laptop) hat überhaupt genug Dampf dass 12 GB VRAM Sinn machen. Diese schwachsinnigen VRAM Diskussionen lese ich seit der 3080, und das ist über 5 Jahre her. Aber es ist im Laptopbereich auch alles dejustiert. Alle Karten unterhalb einer 5070TI sind FullHD-Karten; die 5070TI ist eine WQHD-Karte (zeitgenössisch betrachtet; die 5070TI dürfte etwas 3090-Punch haben; 2020 war die 3090 eine 4K-Karte). Leider gibt es dafür so gut wie keine FullHD Laptops. Wenn man einen Laptop nutzt und keinen Desktop hat, spielt man idealerweise an einem Dual Mode 32" OLED.

Aber Ack, dass Strix Halo nicht sauber konzipiert ist. Für einen Gaming-Laptop sind 8 (volle) Kerne und eine GPU so fett es geht der Goldstandard.

Die Nvidia GPU sind zu langsam angebunden was die 8GB Modelle bei den Settings beschränkt.

CbphkAeSSZw

reunion
2026-01-25, 18:40:26
Mir erscheint die aktuelle Strategie nicht wirklich stimmig... Dadurch, dass Nvidia erst ab der 5070 Ti 12 GB bietet, besteht mMn ein riesiger Markt für attraktive Gaming-Notebooks in der <2k€ Klasse. Strix Halo hat für die Gaming-Mittelklasse in 2026 zu wenig Power, für >1k€ erwarte ich mehr Rohleistung als eine RTX 4060 und ein modernes Featureset. Für die Nische AI/Workstation-Notebook gibt es sicherlich einen (kleinen) Markt, allerdings hätte ein natives 8C-Modell mit gleicher GPU und einem Systemzielpreis 900-1200€ mMn viel mehr Marktanteile gewinnen können. Darüber dann Navi 44 und Navi 48 in 1-2 unterschiedlichen Ausbaustufen mit 12-16 GB VRAM für den 1200-2000€ Markt gegen die RTX 5070 und 5070 Ti - hätte sich mMn wie geschnitten Brot verkauft. Jetzt dominiert PTL gegen Strix Point, Strix Halo sitzt im zu teuren Niemandsland mit viel VRAM aber dafür zu wenig Rechenleistung, und an der Spitze kassiert Nvidia die Premium-Kunden ab...

Ich gebe dir grundsätzlich Recht, AMD scheint mittlerweile Marge vor Marktanteile zu priorisieren, gerade strix halo aber auch strix point hätte man wesentlich attraktiver positionieren können und dadurch sicher auch mehr Marktanteile holen können.

Allerdings stimme ich deinem Fazit nur teilweise zu. PTL setzt sich mit der iGPU Performance in die nische zwischen strix und strix halo. Die geekbench leaks zur Single thread CPU Leistung sehen allerdings eher meh aus und auch die multi thread Leistung ist durch fehlendes SMT eher meh. Perf/Watt scheint nicht wesentlich besser als bei lunar lake. Man wird sehen wie viel die höhere iGPU Leistung vs strix dann wirklich wert ist.

Aber war Marketingtechnisch von den Intel natürlich geschickt erstmal nur die GPU benchen zu lassen. Die Masse der Geräte werden aber wohl eher die kleine GPU bekommen wo das dann bestenfalls eine untergeordnete Rolle spielt.

robbitop
2026-01-25, 19:23:19
Gabs denn schon Infos zur Energieeffizienz der CPU? Weil reine absolute Performance ist doch wahrscheinlich im Notebook mit PTL locker genug da. In Games limitiert die nicht und auch im normalen Office/Surfkrams auch nicht.

ryan
2026-01-25, 20:07:15
Höchstens von Intel auf den Folien. Nächste Woche sollte es aber mehr dazu geben.

Undertaker
2026-01-25, 22:36:42
Ich gebe dir grundsätzlich Recht, AMD scheint mittlerweile Marge vor Marktanteile zu priorisieren, gerade strix halo aber auch strix point hätte man wesentlich attraktiver positionieren können und dadurch sicher auch mehr Marktanteile holen können.

Allerdings stimme ich deinem Fazit nur teilweise zu. PTL setzt sich mit der iGPU Performance in die nische zwischen strix und strix halo. Die geekbench leaks zur Single thread CPU Leistung sehen allerdings eher meh aus und auch die multi thread Leistung ist durch fehlendes SMT eher meh. Perf/Watt scheint nicht wesentlich besser als bei lunar lake. Man wird sehen wie viel die höhere iGPU Leistung vs strix dann wirklich wert ist.

Ja, der reine Sprung in der pro-Core-Leistung ist (wie erwartet) eher bescheiden, allerdings standen LNL/ARL hier durchaus konkurrenzfähig da und der Zen5-Refresh (bzw. Rebrand) wird noch weniger drauflegen - insofern "reicht" es, auch wenn ich mir als Käufer natürlich größere Fortschritte wünschen würde.

Bei der Effizienz müssen wir differenzieren, wovon wir reden: Bei ST und Teillast im Alltag waren LNL/ARL bereits recht gut und PTL wird hier weiter zulegen, siehe auch die Demo-Videos von der CES. Bei MT waren LNL und ARL nur dann gut, wenn gegen Zen5 mit etwa ähnlicher bis leicht größerer Threadanzahl verglichen wurde. PTL wird hier besser werden, ist aber mMn immer noch zu schmal, um gegen einen breiteren 16C Zen5 oder 24C ARL bestehen zu können, die für die gleiche Performance entsprechend niedriger takten können.

HOT
2026-01-26, 11:26:33
1 CCD mit 8 Kernen + 40CUs ist der Ryzen AI Max+ 388.

Leider haben die Halos das gleiche Problem wie die dGPUs, zu wenig Produktion, zu teuer für OEMs.

PTL jetzt in den Himmel zu loben ist übrigens auch blöd, denn man konkurriert gegen einen alten Prozess (N4) mit GAAFETs und quasi 2nm und schafft es aufzuschließen.

mocad_tom
2026-01-26, 11:41:19
Heute 15:00Uhr wissen wir mehr

Strix Halo ist das SOC, das mehr leistet, bei mehr Verbrauch und bei dickerer DRAM Anbindung.

Wenn die jetzt Strix halo mit 128bit machen wollen ist das ein schlechter Scherz.

Strix point hat in jeder Metrik jetzt schon verloren.

Und wenn sie mit Strix Point auch niedrigere Preispunkte ansprechen wollen - dann kommt Wildcat Lake und macht auch dort den Markt kaputt.

dildo4u
2026-01-26, 11:43:05
1 CCD mit 8 Kernen + 40CUs ist der Ryzen AI Max+ 388.

Leider haben die Halos das gleiche Problem wie die dGPUs, zu wenig Produktion, zu teuer für OEMs.

PTL jetzt in den Himmel zu loben ist übrigens auch blöd, denn man konkurriert gegen einen alten Prozess (N4) mit GAAFETs und quasi 2nm und schafft es aufzuschließen.

Du willst Konkurrenz die Geräte sind alle sehr teuer es gibt kein Grund warum man da auf vernünftiges Upscaling verzichten sollte.
Diese Klasse hat selten nur 1080p Displays daher braucht selbst ein Halo Modell ML Performance Upscaling.

robbitop
2026-01-26, 13:42:31
Also im Prinzip macht die Strategie von AMD da schon Sinn. Man führt GPU Chiplets ein die man ja ohnehin für dGPU SKUs nutzt - also fällt das für die "premium" APUs mit ab. Da gibt es dann AT4 mit 24 CUs für Medusa Point und AT3 mit 48 CUs für Medusa Halo.
Und man will gleichzeitig durch das premium label die marge anheben. Und auch nur bei denen braucht man die Power und features der modernen uArch wirklich. Die ganzen kleinen APUs die für budget und Bürosysteme sind -> da ist RDNA5 / RT HW usw ggf dann auch einfach "Perlen vor die Säue". Insbesondere weil RDNA3.5 noch relativ transistoreffizient pro CU ist und ab RDNA4 das Transistorbudget durch die Decke ging pro CU.

Im Prinzip wird Halo Mini dann der Nachfolger von Strix Point aber mit höheren Margen. Der Sprung von Strix wird dann schon ordentlich sein. Aber PTL führt jetzt halt einen neuen Referenzpunkt ein, der den Sprung dann weniger beeindruckend macht.

Daredevil
2026-01-26, 14:30:00
Die ganzen kleinen APUs die für budget und Bürosysteme sind -> da ist RDNA5 / RT HW usw ggf dann auch einfach "Perlen vor die Säue". Insbesondere weil RDNA3.5 noch relativ transistoreffizient pro CU ist und ab RDNA4 das Transistorbudget durch die Decke ging pro CU.

Ich bin mir da nicht wirklich sicher, ob das 2026 wirklich der Fall ist.
Neben dem Casual Gaming, was auch Business Bros gerne mal machen, gibt es heute im Vergleich zu von vor 5 Jahren super viele Anwendungen, die eben Highly GPU beschleunigt sind. 3D/4D Kram ( 3D Drucker ect. ), Videobearbeitung, Bildbearbeitung, lokale KI im Betriebsystem, Transkodierung, Multi Monitor, HighDPI, HDR und und und. Das sind natürlich keine Dinge, die eine iGPU primär meistern muss, sie sollte aber die Basics schaffen und bei einem Nachfolger wünscht man sich dort natürlich auch mehr Leistung, welches in bessere Features resultiert. Schon alleine die Webcam Qualität wird ja durch die iGPU beeinflusst, die Tonqualität und Mic Qualität ebenso durch KI Berechnungen.

Hinzu kommt, der Trend geht seit vielen vielen Jahren Richtung Notebook/Mobile und weg vom Desktop Segment, das bedeutet man hat aus Komfort und Flexibilität auf Leistung verzichtet. Diese verzichtete Leistung materialisiert sich nun so langsam wieder durch Entwicklungen in der Effizienz als auch moderne SoCs. Aber nur mit einer dicken CPU Leistung gewinnt man heute keine Awards mehr, gerade weil man gegen Qualcomm und Apple, die eine ganz andere Klasse sind in CPU Performance/Effizienz, einfach nicht anstinken kann. Und das hat Folgen, hat ein Analyst doch letztens Daten veröffentlich, das Apple bereits knapp hinter AMD ist bei den Markanteil im Notebook Segment trotz Premium Preisen.

https://www.techpowerup.com/345493/apple-silicon-approaches-amds-laptop-market-share-only-five-years-in
https://s1.directupload.eu/images/260126/2bppkade.png

Und klar ist das eine kosteneffiziente Entscheidung die AMD trifft, damit sie ihre Marge meinetwegen hochhalten, sie sind aber nicht in der Position um sich zurück zu lehnen, sondern um anzugreifen. Ich denke und hoffe aber, das AMD sich aktuell mehr auf Desktop CPU/GPU konzentriert anstatt dem Mobile Segment, weil Desktop Intel hat man noch lange nicht besiegt und im GPU Bereich läuft Nvidia auch davon. Apple nutzt die Chance hier smart und klebt sich in einen niedrigen Preisbereich, Intels Panther Lake ist imho direkt ein Konter Richtung Qualcomm/Apple, AMD hat in dem Segment eigentlich nichts passendes, was technologisch gleichwertig ist.

Ich denke Panther Lake wird ordentlich einschlagen, die Preise der ersten Modelle scheinen ja sehr attraktiv zu sein. Der Release wird sicherlich auch nicht aus Zufall in der Woche kommen, wo es bei Apple auch ein wenig Bewegung gibt, so kurz vor den Quartalszahlen.

dildo4u
2026-01-26, 14:36:15
Intel scheint den Vorteil nicht ausnutzen zu wollen denke mal Xeon in 18A müssen so schnell wie möglich fertig werden.

https://www.theregister.com/2026/01/23/intel_earnings_q4_2025

288 Ecores nutzen 18A

https://www.tomshardware.com/desktops/servers/intel-reveals-288-core-xeon

robbitop
2026-01-26, 14:48:22
Ich bin mir da nicht wirklich sicher, ob das 2026 wirklich der Fall ist.
Neben dem Casual Gaming, was auch Business Bros gerne mal machen, gibt es heute im Vergleich zu von vor 5 Jahren super viele Anwendungen, die eben Highly GPU beschleunigt sind. 3D/4D Kram ( 3D Drucker ect. ), Videobearbeitung, Bildbearbeitung, lokale KI im Betriebsystem, Transkodierung, Multi Monitor, HighDPI, HDR und und und. Das sind natürlich keine Dinge, die eine iGPU primär meistern muss, sie sollte aber die Basics schaffen und bei einem Nachfolger wünscht man sich dort natürlich auch mehr Leistung, welches in bessere Features resultiert. Schon alleine die Webcam Qualität wird ja durch die iGPU beeinflusst, die Tonqualität und Mic Qualität ebenso durch KI Berechnungen.

Hinzu kommt, der Trend geht seit vielen vielen Jahren Richtung Notebook/Mobile und weg vom Desktop Segment, das bedeutet man hat aus Komfort und Flexibilität auf Leistung verzichtet. Diese verzichtete Leistung materialisiert sich nun so langsam wieder durch Entwicklungen in der Effizienz als auch moderne SoCs. Aber nur mit einer dicken CPU Leistung gewinnt man heute keine Awards mehr, gerade weil man gegen Qualcomm und Apple, die eine ganz andere Klasse sind in CPU Performance/Effizienz, einfach nicht anstinken kann. Und das hat Folgen, hat ein Analyst doch letztens Daten veröffentlich, das Apple bereits knapp hinter AMD ist bei den Markanteil im Notebook Segment trotz Premium Preisen.

https://www.techpowerup.com/345493/apple-silicon-approaches-amds-laptop-market-share-only-five-years-in
https://s1.directupload.eu/images/260126/2bppkade.png

Und klar ist das eine kosteneffiziente Entscheidung die AMD trifft, damit sie ihre Marge meinetwegen hochhalten, sie sind aber nicht in der Position um sich zurück zu lehnen, sondern um anzugreifen. Ich denke und hoffe aber, das AMD sich aktuell mehr auf Desktop CPU/GPU konzentriert anstatt dem Mobile Segment, weil Desktop Intel hat man noch lange nicht besiegt und im GPU Bereich läuft Nvidia auch davon. Apple nutzt die Chance hier smart und klebt sich in einen niedrigen Preisbereich, Intels Panther Lake ist imho direkt ein Konter Richtung Qualcomm/Apple, AMD hat in dem Segment eigentlich nichts passendes, was technologisch gleichwertig ist.

Ich denke Panther Lake wird ordentlich einschlagen, die Preise der ersten Modelle scheinen ja sehr attraktiv zu sein. Der Release wird sicherlich auch nicht aus Zufall in der Woche kommen, wo es bei Apple auch ein wenig Bewegung gibt, so kurz vor den Quartalszahlen.

Naja vieles von dem was du beschreibst wird durch Hardwareblöcke unabhängig von der GPU beschleunigt. Diese Liebhaberei mit den lokalen NNs auf Notebooks ist IMO eine eher noch kleine bubble - aber für 99% der Leute reicht wahrscheinlich die NPU. Die cracks holen sich dann ohnehin dGPU oder die halo APUs.
Das gleiche gilt auch für Leute die mehr Power brauchen. Die Option gibt es ja. Halo APUs oder dGPUs. Die entfällt ja nicht.
Und für die 0815 Office Leute die bloß surfen, Videos schauen, Excel, Powerpoint (und das sind massenmäßig gesehen wahrscheinlich die Mehrheit) reicht die kleine GPU solange die basics durch HW Blöcke beschleunigt sind.

dildo4u
2026-01-26, 15:05:52
CPU scheint nix besonders Vergleichbar mit Ryzen 370HX

https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-x9-388h-test.95776/seite-4#abschnitt_leistung_in_anwendungen

Lawmachine79
2026-01-26, 15:12:15
CPU scheint nix besonders Vergleichbar mit Ryzen 370HX

https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-x9-388h-test.95776/seite-4#abschnitt_leistung_in_anwendungen
Also wenn man Deinem Link folgt, sind es nur 8% mehr. Ich denke aber durch alle Anwendungen hinweg ist es mehr, sehr überzeugend insgesamt. Strix Halo bleibt das Maß aller Dinge, sobald man an einer Steckdose hängt. Aber was Panther Lake mit 25W abliefert, ist extrem beeindruckend. Das hat Potential für richtig geile Handhelds, die extrem starke iGPU passt da wie Arsch auf Eimer. Also bei Standardnotebook-CPU bis einschließlich oberer Mainstream und unteres High-End ist Intel wieder King. Bei den Desktops im Notebookgewand (HX-CPUs) und in der Klasse von Strix Halo hat AMD noch die Krone. Als Standardarbeitsnotebook würde ich mir jetzt aber wieder einen Intel holen.

dildo4u
2026-01-26, 15:16:59
Strix scheint vergleichbar und nutzt 4nm.

45 bis 60 Watt 1100 Punkte Cinbench

https://i.ibb.co/3Yd2Qs2R/Screenshot-20260126-151921-2.png (https://ibb.co/n8m9t09P)

https://www.computerbase.de/artikel/pc-systeme/geekom-a9-max-amd-ryzen-ai-9-hx-370-test.94237/#abschnitt_testergebnisse

388H 40 bis 70 Watt

https://i.ibb.co/ZQ211Bb/Screenshot-20260126-151753-2.png (https://ibb.co/CjPssbS)

mironicus
2026-01-26, 15:23:02
Sie schließen eigentlich nur zu AMDs Strix Point auf, trotz deutlichen Fertigungsvorteil kein überragender Sieg.

Undertaker
2026-01-26, 15:23:53
Strix scheint vergleichbar und nutzt 4nm.

45 Watt 1100 Punkte Cinbench

https://i.ibb.co/3Yd2Qs2R/Screenshot-20260126-151921-2.png (https://ibb.co/n8m9t09P)

https://www.computerbase.de/artikel/pc-systeme/geekom-a9-max-amd-ryzen-ai-9-hx-370-test.94237/#abschnitt_testergebnisse

388H

https://i.ibb.co/ZQ211Bb/Screenshot-20260126-151753-2.png (https://ibb.co/CjPssbS)

Wie schon oft gesagt, das war bei der Kernzahl und der Tatsache, das ARL-HX an der Spitze bestehen bleibt, zu erwarten. PTL wird die effiziente Ablösung für LNL und ARL-H und Konkurrenz zu den Ryzen <=12C.

Daredevil
2026-01-26, 15:26:46
Ich habe doch gesagt, Intel will damit direkt Apple mit dem M5 kontern. :D

https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-x9-388h-test.95776

CPU Cinebench:
https://s1.directupload.eu/images/260126/sxlndnhg.png

GPU Blender:
https://s1.directupload.eu/images/260126/cqp7hje4.png

Laufzeiten:
https://s1.directupload.eu/images/260126/ypaiptkm.png

Wobei letzteres natürlich nicht ganz vergleichbar ist, da unterschiedliche Notebooks und Größen. Allen in allem aber überzeugend und hart iGPU/Effizienz fokussiert. Wichtig ist imho, das man in der Windows Welt auch mal zu dem Status kommt, das man Leistung immer abrufen kann, egal ob man ein Kabel am Notebook hat, oder eben nicht. Panther Lake scheint das ziemlich gut zu schaffen.
Die ermittelten Ergebnisse gelten zudem nicht nur für Cinebench und den daraus entnommenen Werten beim Verbrauch, sondern auch für Blender mit CPU oder GPU, Geekbench und anderen. Die Leistung bleibt im Akkubetrieb gleich – auch in Spielen
Alles andere ist imho murks, sofern man wirklich mobil arbeiten möchte.

MSABK
2026-01-26, 15:37:51
Die iGPU ist mega solide. Die Handhelds damit werden sicherlich gut. Jetzt noch Tests des neuen X2 Elite dann wissen wir wer am effizientesten ist.

Daredevil
2026-01-26, 16:12:18
Dave2D zeigt die Effizienz zwischen AMDs Varianten und Panther Lake
https://www.youtube.com/watch?v=fDwt9AiItqU
https://s1.directupload.eu/images/260126/mwgitqym.png

dildo4u
2026-01-26, 16:13:36
25 Watt scheint ein netter Betriebspunkt.
Cool das man direkt mit der nativen Apple Version vergleichen kann.

https://i.ibb.co/RktWvhZt/Screenshot-20260126-161752.png (https://ibb.co/v6f8wsgf)

Ke3Kgwg7bV0

https://videocardz.com/newz/intel-arc-b390-beats-amds-mainstream-igpus-and-nears-rtx-4050-level-performance-in-some-tests

robbitop
2026-01-26, 16:22:34
Ui dann ist die iGPU im M5 ja schon echt stark. Bis dato waren die in Spielen eher ziemlich mittelmäßig. Mal schauen wie AT4 / Medusa point wird. Aber das wird sicherlich noch ~1 Jahr dauern. Bis dahin gibt es M6 und Novalake mit Xe3P.

Daredevil
2026-01-26, 16:27:39
Naja vieles von dem was du beschreibst wird durch Hardwareblöcke unabhängig von der GPU beschleunigt. Diese Liebhaberei mit den lokalen NNs auf Notebooks ist IMO eine eher noch kleine bubble - aber für 99% der Leute reicht wahrscheinlich die NPU. Die cracks holen sich dann ohnehin dGPU oder die halo APUs.

Das mit dem AI ist klar, das zieht irgendwann so in die OS ein, ohne das ein Nutzer es merkt. Zumindest passiert das bei MacOS.
Leute müssen halt kein Dickschiff kaufen, wenn ein SoC den Job auch macht. Mir ist am Ende auch egal, ob die GPU für die "Pro Performance" zuständig ist, oder Einheiten im SoC. Aber bei sowas hier kann AMD eigentlich nicht sagen "Das ist gut, das belassen wir so".

https://www.youtube.com/watch?v=Ke3Kgwg7bV0
https://s1.directupload.eu/images/260126/r3j4bh77.png

https://s1.directupload.eu/images/260126/oiqos3qj.png

https://s1.directupload.eu/images/260126/yacwl8l4.png

https://s1.directupload.eu/images/260126/8ruc4wa9.png

Ich werd verrückt. Intel ist Apple auf den Fersen. ;D

w0mbat
2026-01-26, 16:32:27
Und das mit eigenem Prozess. 18A ist richtig gut!

robbitop
2026-01-26, 16:39:59
Das mit dem AI ist klar, das zieht irgendwann so in die OS ein, ohne das ein Nutzer es merkt. Zumindest passiert das bei MacOS.
Leute müssen halt kein Dickschiff kaufen, wenn ein SoC den Job auch macht. Mir ist am Ende auch egal, ob die GPU für die "Pro Performance" zuständig ist, oder Einheiten im SoC. Aber bei sowas hier kann AMD eigentlich nicht sagen "Das ist gut, das belassen wir so".

https://www.youtube.com/watch?v=Ke3Kgwg7bV0
https://s1.directupload.eu/images/260126/r3j4bh77.png

https://s1.directupload.eu/images/260126/oiqos3qj.png

https://s1.directupload.eu/images/260126/yacwl8l4.png

https://s1.directupload.eu/images/260126/8ruc4wa9.png

Ich werd verrückt. Intel ist Apple auf den Fersen. ;D
Naja Leute die richtig Bild und Videobearbeitung machen werden sicherlich nicht die Billo Laptops mit den Billo APUs kaufen. Solche Leute kaufen ja oft nicht ohne Grund Macbooks. Oft auch genau deshalb mit größeren SoCs.
Auch wenn nur annekdotisch: in der Werbeagentur von einem Kumpel werden die normalen Ms gar nicht gekauft. Immer mindestens Pro oder Max oder gar Ultra.

Die kleinen SoCs sind für die meisten Käufer Büromaschinen. Und da Medusa Halo Mini ja der Strix Point Nachfolger wird, werden die APUs mit neuen uArchs ja auch weiter entwickelt. RDNA3.5 wird in den Nachfolgern der billig APUs verbaut - also Nachfolger von APUs wie Krackan, Phoenix2/Hawk2, Mendocino. Das ist IMO eher unterhalb von den M SoCs.
IMO ist Medusa Halo Mini ein Wettbewerber zu M5 und Halo dann zu M5 Pro oder Max.

robbitop
2026-01-26, 16:42:13
Und das mit eigenem Prozess. 18A ist richtig gut!

Noch haben wir keine Datenpunkte dazu mangels echten Reviews (interessant wird nach wie vor IMO gerade dafür besonders kleine Betriebspunkte wie 15W). Aber alles bisherige sieht sehr gut aus. Zumindest energieeffizient was auch nicht jeder Prozess kann. Ob es auch mit hohen Taktraten bei Desktop SoCs klappt, muss dann Novalake-S zeigen. Wenn das dann ein Intel Prozess für die CPU ist.

VooDoo7mx
2026-01-26, 17:40:50
Ui dann ist die iGPU im M5 ja schon echt stark. Bis dato waren die in Spielen eher ziemlich mittelmäßig. Mal schauen wie AT4 / Medusa point wird. Aber das wird sicherlich noch ~1 Jahr dauern. Bis dahin gibt es M6 und Novalake mit Xe3P.

Du kannst bei Apple 25% Performance nach 2 Minuten abziehen.
Das kann keiner der scheiß Benchmarks hier abbilden die hier genommen werden.
Das M5 14" Macbook Pro kann keine 25W dauerhaft kühlen.

robbitop
2026-01-26, 17:43:29
Du kannst bei Apple 25% Performance nach 2 Minuten abziehen.
Das kann keiner der scheiß Benchmarks hier abbilden die hier genommen werden.
Das M5 14" Macbook Pro kann keine 25W dauerhaft kühlen.
Meinst du vielleicht das Air? Das hat IIRC keinen aktiven Kühler. Das Pro war doch dank aktiver Kühlung deutlich besser in sustained. Und da gibts doch auch noch die Pro und die Max SKU. Warum sollte da der Kühler die kleinste SKU nicht sustained auf gerade mal 25W kühlen können? Bist du dir da sicher?

dildo4u
2026-01-26, 17:48:26
Dauerhaft 21Watt laut dem Test.

https://www.tweaktown.com/news/108478/apples-new-m5-macbook-pro-cant-stay-cool-with-single-fan-m5-chip-hits-crazy-99c-under-load/index.html

mczak
2026-01-26, 18:34:49
Das Pro war doch dank aktiver Kühlung deutlich besser in sustained. Und da gibts doch auch noch die Pro und die Max SKU. Warum sollte da der Kühler die kleinste SKU nicht sustained auf gerade mal 25W kühlen können?
Deutlich besser als Air ja, aber die Kühllösung ist auch nicht gerade der Hit. Apple spart da einfach, denn mit den Pro SoCs gibt's tatsächlich eine bessere Kühllösung im selben Gehäuse...

mczak
2026-01-26, 19:15:20
Sie schließen eigentlich nur zu AMDs Strix Point auf, trotz deutlichen Fertigungsvorteil kein überragender Sieg.
Aus Techniksicht kann man das so sehen, aber dem Endkunden ist das letztlich egal wenn intel das zum selben Preis anbietet - ist nicht intel's Schuld dass AMD das ganze Jahr 2026 bloss mit alten Chips antritt.
Finde da übrigens die Skalierung mit CB Multi interessant im Vergleich zum HX 370: https://www.notebookcheck.com/Intel-Panther-Lake-Core-Ultra-X9-388H-im-Test-Schneller-als-Arrow-Lake-effizienter-als-Zen-5.1207381.0.html - insbesondere dass da die Skalierung mit der Leistung quasi identisch ist zwischen den beiden Chips. Und ja dass man da bloss durchweg minimal effizienter ist trotz deutlicher besserer Fertigung (sollte sie zumindest sein) zeigt dass AMD punkto CPU-Architektur immer noch sehr gut dasteht, verbesserte E-Kerne hin oder her.
Bezuüglich der GPU ist das aber aus Sicht des Kunden schon sehr stark - klar ist der Vergleich aus Sicht der Technik natürlich äusserst unfair (breitere GPU, 16 statt 2MB L2 (und schnellerer Speicher), bessere Fertigung, aber eben da ist AMD allein schuld daran schiesst man sich da quasi selbst ins Knie (bezüglich des GPU-L2 ist das eher ein Kopfschuss).
Bisher habe ich eigentlich privat immer (seit einer halben Ewigkeit) Notebooks mit AMD-Chips empfohlen (für Alltagsnotebooks ohne dGPU). Der Vorteil der IGPU war einfach zu gross - wenn man denn eben doch einmal darauf spielen will. Lunar Lake war da zwar erstmal absolut konkurrenzfähig, aber die Notebooks eher teuer und die MT-Leistung fand ich schon nicht wirklich zeitgemäss (war auch weit unterhalb Kracken Point). Dieses Jahr muss ich aber die Empfehlung wohl revidieren, auch wenn Panther Lake natürlich auch nicht perfekt ist (die Nicht-Unterstützung von AVX512 z.B. ist 2026 doch einfach erbärmlich, bei apps die davon stark profitieren wird amd deutlich dominieren, immerhin hat intel endlich ein Einsehen bei der nächsten Generation, Nova Lake).

Daredevil
2026-01-26, 20:07:28
Du kannst bei Apple 25% Performance nach 2 Minuten abziehen.
Das kann keiner der scheiß Benchmarks hier abbilden die hier genommen werden.
Das M5 14" Macbook Pro kann keine 25W dauerhaft kühlen.
Da gibts einen einfachen Trick: Peak Performance.
Wenn der SoC so schnell ist, das er die gleiche Aufgabe in unter einer Minute erledigt anstatt in fast vier, muss er gar nicht drosseln. (:
Und der Adobe Test geht 13 Minuten lang, ist das nicht länger als... 2 Minuten?

Ne mal im ernst, natürlich drosselt der M5 in dem MacBook, pauschal 25% abzuziehen ist aber auch nicht korrekt. Der M5, so wie er gezeigt wird, sieht für die X86 Welt aus wie ein Energiesparmonster. Das ist er aber nicht. Die M5 Kerne sind mit der Brechstange nach oben getaktet und somit kann man, wie auch bei AMD und Intel ein paar Watt weniger anlegen und immer noch ein Großteil der Leistung erzielen. So wie Apple im Falle des 14" M5 MBP drosselt, drosseln alle anderen auch. Die Spielregeln sind für alle gleich.
Du kannst btw. auch den Energy Save Mode auf einem Mac aktivieren, dann liegt ganz grob 1/3 des Stroms an bei 1/2 der Leistung. Das wäre dann wirklich maximale Effizienz ohne Drosseln.

Der Dude hier hat nen Thermal Mod gemacht, damit die Hitze über das Chassis an einen externen Kühler abgeleitet wird:
I Have Defeated Thermal Throttling M5 MacBook Pro
https://www.youtube.com/watch?v=NnllZYEhvDQ
https://s1.directupload.eu/images/260126/obu6uorq.png

Cinebench 10m
Stock: 1055pts
Thermal Mod: 1083pts +2,7%

Draw Things GPU GenAI
Stock: 350s
Thermal Mod: 340s -2,8%

Lightroom Export
Stock: 125s
Thermal Mod: 117s -6%

Der M5 fühlt sich nicht bei 25w+ wohl, der ist im Sweet Spot deutlich drunter, sonst würde er ja auch nicht in einem MacBook Air bzw. iPad funktionieren.

Naja Leute die richtig Bild und Videobearbeitung machen werden sicherlich nicht die Billo Laptops mit den Billo APUs kaufen. Solche Leute kaufen ja oft nicht ohne Grund Macbooks. Oft auch genau deshalb mit größeren SoCs.
Auch wenn nur annekdotisch: in der Werbeagentur von einem Kumpel werden die normalen Ms gar nicht gekauft. Immer mindestens Pro oder Max oder gar Ultra.
Das ist nun einmal die Demokratisierung von Rechenleistung. Je schneller die kleinsten System werden, desto weniger braucht man die Monster SoCs. Ein M5 leistet heute nahezu das, was vor wenigen Jahren noch die Pros mit ihren M1 Max gebastelt haben. Für manche Anwendungszwecke braucht es schlicht keinen M4 Max o.ä.
Die Frage is am Ende, sind eher die technischen Lösungen auf dem Markt, oder kommen neue Probleme hinzu, die noch nicht bewältigt worden sind.

Undertaker
2026-01-26, 22:49:54
Finde da übrigens die Skalierung mit CB Multi interessant im Vergleich zum HX 370: https://www.notebookcheck.com/Intel-Panther-Lake-Core-Ultra-X9-388H-im-Test-Schneller-als-Arrow-Lake-effizienter-als-Zen-5.1207381.0.html - insbesondere dass da die Skalierung mit der Leistung quasi identisch ist zwischen den beiden Chips. Und ja dass man da bloss durchweg minimal effizienter ist trotz deutlicher besserer Fertigung (sollte sie zumindest sein) zeigt dass AMD punkto CPU-Architektur immer noch sehr gut dasteht, verbesserte E-Kerne hin oder her.

Resultiert ausschließlich aus der größeren Breite von 12C mit SMT vs. 16C ohne. Man beachte hier die Effizienzmessungen pro Kern:

https://youtu.be/X9eYQTkzxqU

ryan
2026-01-27, 01:29:04
SPEC CPU Werte: https://www.bilibili.com/video/BV171zaBJEp3/?spm_id_from=333.1387.homepage.video_card.click&vd_source=8a5889e55e042c455938fd7bbb06d1cb


Für eine Tick Generation hat sich bei den Kernen mehr getan als normalerweise.

mczak
2026-01-27, 01:45:48
Resultiert ausschließlich aus der größeren Breite von 12C mit SMT vs. 16C ohne. Man beachte hier die Effizienzmessungen pro Kern:

https://youtu.be/X9eYQTkzxqU
Bei Strix Point kann man da nicht wirklich von wesentlich breiter reden, ansonsten würde der eben besser skalieren mit zunehmender Leistung, tut er aber nicht. Klar der AI Max 390 im Video skaliert da etwas besser das sind dann aber 12 Zen 5 Kerne und nicht 4 Zen5 + 8 Zen5c das ist eben schon ein Unterschied. Strix Point Zen5c boostet bloss bis maximal 3.3 Ghz, das ist deutlich weniger als die E-Cores bei Panther Lake (4 Ghz) oder auch LP-E Cores (3.7 Ghz).

dildo4u
2026-01-27, 02:40:11
Erstaunlich wie gut die Kühlung im flow 13 ist scheint deutlich besser als PTL Gerät.

Nightspider
2026-01-27, 03:33:04
Ist bekannt wie groß die IGP ist?

Pirx
2026-01-27, 06:39:13
alles nur Vorzeigebenches für Intel und mit dem größten GPU-Chiplet (von TSMC:ulol:). Wird Zeit für echte und unabhängige Reviews.

guten Morgen:lol: https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-x9-388h-test.95776/

dildo4u
2026-01-27, 06:51:11
Selbst MLID lobt Intel 5050 droppen massiv Performance auf Batterie


Lc05AAMG0Xo

robbitop
2026-01-27, 07:37:19
Das ist nun einmal die Demokratisierung von Rechenleistung. Je schneller die kleinsten System werden, desto weniger braucht man die Monster SoCs. Ein M5 leistet heute nahezu das, was vor wenigen Jahren noch die Pros mit ihren M1 Max gebastelt haben. Für manche Anwendungszwecke braucht es schlicht keinen M4 Max o.ä.
Die Frage is am Ende, sind eher die technischen Lösungen auf dem Markt, oder kommen neue Probleme hinzu, die noch nicht bewältigt worden sind.
Nicht als Angriff gemeint aber mir fehlt da irgendwie die Substanz um zu überzeugen. :) Demokratisierung der Rechenleistung und irgendwelche konstruierten Beispiele. Das ist IMO Phrasendrescherei und Gedankenspiel aber ohne echte Argumente warum es nicht auch weiterhin verschiedene SoC Segmente mit entsprechenden Price und Performance brackets geben soll.

Selbst PTL hat weiterhin für die Büromaschinen (oder Systeme mit dGPUs) kleine iGPUs mit der 4 Xe SKU.
Apple hat dafür keine SKU weil für sie das Marktsegment wahrscheinlich zu wenig Marge abwirft (bzw das dGPU Segment erschlagen sie eben mit den ganz großen SoCs) oder sie nehmen dann dafür ggf alte SKUs die ja immer noch gut sind.
Ich denke die SKU Stacks kann man nicht ganz vergleichen.