Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Panther Lake (18A, 2025+)


Seiten : 1 2 3 [4]

dildo4u
2026-01-27, 08:36:44
Apple scheint einfach die ältere Chips als Budget Option zu sehen gibt es öfter unter 1000€.

https://www.amazon.de/gp/product/B0DZDB7GQZ?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=3EL71DK2JYJ0N&dib=eyJ2IjoiMSJ9.Yv-2C8W8wnq_XH3uTkF_THn7J5A1tRIR9KIxQ6JAD8bRl3InAE-paVgdikOVedvmpnbkTdljAmUuCQBfh9nlmZF02tpq0qay6emc3TfCvyuI_XU0jI93tYZpkQVjDwI7Aza EpWF5rhGAn4mrlh5EnkYDfIChAavG3vTIRXCGKGLMFgNZuA-XlpDf2MP02tKON5IPIK7ZEVsQ_KvDD1Witxgh-YrO31BKq_jGf7H0lCU.lQ_7zlKi_VG-fwoDjFuHUJjKNFU_WT-XR0JDUpn4w2c&dib_=undefined&keywords=macbook&qid=1742197666&sprefix=macbook%2Caps%2C123&sr=8-1-spons&sp_csd=d2lkZ2V0TmFtZT1zcF9hdGY&th=1&linkCode=ll1&linkId=28f05539499a8fade1aed957cce78015&language=de_DE&ref_=as_li_ss_tl&tag=pcgh-21&ascsubtag=CM24S1P21A1491550Z

Badesalz
2026-01-27, 09:06:18
Das Desinteresse ist schade, aber nicht unverständlich. Einerseits seitens AMD, andererseits seitens des Marktes... Man wirds kaufen, weil die Rahmenbedingungen passen, also der Preis, Displays, Tastaturen, Gewicht, Kühlung und Akkulaufzeit natürlich. Ergo, all die Sachen die der statistisch relevante Käufer beachtet, wenn er sich nach einem Notebook umschaut.

Tut mir leid :usweet:

Daredevil
2026-01-27, 10:04:28
Nicht als Angriff gemeint aber mir fehlt da irgendwie die Substanz um zu überzeugen. :) Demokratisierung der Rechenleistung und irgendwelche konstruierten Beispiele. Das ist IMO Phrasendrescherei und Gedankenspiel aber ohne echte Argumente warum es nicht auch weiterhin verschiedene SoC Segmente mit entsprechenden Price und Performance brackets geben soll.

Ich meinte damit auch nicht, das es keinen Markt für die Pro/Max Geräte geben soll, ich habe ja selber einen Ultra hier auf dem Tisch stehen, aber die Leistung nimmt schneller zu als die neuen Probleme und daher shifted die ganze Entwicklung Richtung kleine SoCs und damit dem kleinsten Nenner. Oder anders gesagt: Früher brauchtest du wenig Argumente für einen Pro/Max Laptop, heute deutlich mehr.
Weil die Aufgaben von vor 4-5 Jahren die selben sind wie heute, Ausnahme ist halt alles, was mit AI zutun hat. Das gleiche Spiel spielt Intel.

ryan
2026-01-27, 12:31:57
Ist bekannt wie groß die IGP ist?


Die GPU liegt bei 54 mm²


Selbst MLID lobt Intel 5050 droppen massiv Performance auf Batterie


https://youtu.be/Lc05AAMG0Xo


Das ist derjenige, der Panther Lake als Pathetic Lake bezeichnet hat.

Launch Treiber 32.0.101.8362 mit XeSS3 ist jetzt online: https://www.intel.com/content/www/us/en/download/785597/intel-arc-graphics-windows.html?elq_cid=2882581_ts1769513391077


Launch driver for Intel® Core™ Ultra Series 3 with built-in Intel® Arc™ B390, B370 GPUs (Codename Panther Lake).

Intel® XeSS 3 Support: Introducing Multi-Frame Generation
XeSS Multi-Frame Generation builds upon XeSS Frame Generation by inserting up to 3 generated frames between two rendered frames, going from a 1:1 ratio to 3:1 for an ultra-smooth gameplay experience.

dildo4u
2026-01-27, 12:39:31
Wäre halt besser wenn sie nicht TSMC für die GPU bezahlen müssten das wird der Preistreiber bleiben und das ändert sich nicht wenn die Nvidia Tiles kommen.

ryan
2026-01-27, 12:42:41
Geekerwan hat sein Test online: https://youtu.be/jrygnUnBRNI

mboeller
2026-01-27, 12:55:30
Das ist derjenige, der Panther Lake als Pathetic Lake bezeichnet hat.


stimmt doch auch im Vergleich mit dem StrixPoint SoC, wenn man sich nur die CPU-Werte anschaut die du gepostet hast.

Die iGPU ist aber eine GANZ andere Welt und viel besser ... macht für mich Panther-Lake zu einem runden Produkt

ryan
2026-01-27, 13:02:02
stimmt doch auch im Vergleich mit dem StrixPoint SoC, wenn man sich nur die CPU-Werte anschaut die du gepostet hast.





Niemand seriöses wird das als Pathetic Lake bezeichnen. Wenn schon der Ober Fanboy MLID dir widerspricht, sollte dir das zu denken geben. Aber so weit kommt es bei dir nicht, denn du bist nicht seriös.

dildo4u
2026-01-27, 13:16:10
Bewirbt Intel 18A nicht als 2nm Klasse dafür skaliert es nicht deutlich besser als 4nm Strix.

Undertaker
2026-01-27, 13:39:14
Bewirbt Intel 18A nicht als 2nm Klasse dafür skaliert es nicht deutlich besser als 4nm Strix.

Hatten wir doch oben schon: Man beachte die Effizienz- und Leistungsmessungen pro Kern. PTL löst nur die H-Serie ab, nicht die HX-Reihe. Strix-P holt hier bei MT über Breite in etwa das auf, was bei IP und Fertigung fehlt.

dildo4u
2026-01-27, 13:46:13
Hatten wir doch oben schon: Man beachte die Effizienz- und Leistungsmessungen pro Kern. PTL löst nur die H-Serie ab, nicht die HX-Reihe. Strix-P holt hier bei MT über Breite in etwa das auf, was bei IP und Fertigung fehlt.
Ich dachte das Argument war das das Ding einfach über dem Effizienz Punkt betrieben wird aber der Chip setzt sich auch bei 25 Watt nicht ab.

https://i.ibb.co/yFfBxXQq/Screenshot-2026-01-27-134508.png (https://ibb.co/WvxpR62f)

Undertaker
2026-01-27, 13:55:25
Ich dachte das Argument war das das Ding einfach über dem Effizienz Punkt betrieben wird aber der Chip setzt sich auch bei 25 Watt nicht ab.

https://i.ibb.co/yFfBxXQq/Screenshot-2026-01-27-134508.png (https://ibb.co/WvxpR62f)

Die Kurve beginnt erst dann zu kippen, wenn die TDP so niedrig wird, dass sonstige Verbraucher (I/O etc.) überproportional ins Gewicht fallen oder weitere Taktsenkungen keine Spannungssenkung mehr bewirken. Schau mal Strix Halo vs. Strix Point, auch da dominiert das breitere Design trotz komplett identischer Kerne. ;)

Fusion_Power
2026-01-27, 15:11:19
Man vergleicht die iGPU Performance des Panther Lake sogar mit einer RTX 4050, was ich schon recht beeindruckend finde. Die Frage ist, wird ein Laptop mit Panther Lake dann auch ähnlich viel/wenig kosten wie ein vergleichbarer Laptop mit einer dedizierten RTX 4050? Vermutlich nicht, das erreicht ja dann nur das absolute Intel Spitzenmodell, wie üblich.
Aber interessant finde ich dafür den kleineren Ultra 5 338H mit einer "Arc B370" GPU, sicher langsamer als die Top Panther Lake Modelle aber vermutlich dafür auch billiger zu haben. Und vermutlich auch nicht langsamer als ne ältere Arc 140T/V. Bin gespannt.

EDIT, noch ein aktuelles Core Ultra X9 388H Review:

AX_rvgsYHJE

aceCrasher
2026-01-27, 15:22:42
Wann fällt heute das NDA für die restlichen Panther Lake Reviews?

reunion
2026-01-27, 15:34:05
Strix-P holt hier bei MT über Breite in etwa das auf, was bei IP und Fertigung fehlt.

"Breiter" ist definitiv das falsche Wort. Es werden hier 16 Intel-Kerne gegen 12 AMD-Kerne verglichen. Wenn dann liegt es am fehlenden SMT. Allerdings bringt das meist auch nur so 25-30% was ziemlich genau dem Kernunterschied ausmacht. Realistisch betrachtet sind die AMD-Kerne Fertigungsnormiert einfach noch immer deutlich energieeffizienter, was jetzt auch noch wirklich überraschend ist. Sieht man ja auch zB im Servermarkt sehr deutlich.

mczak
2026-01-27, 15:39:11
Die Frage ist, wird ein Laptop mit Panther Lake dann auch ähnlich viel/wenig kosten wie ein vergleichbarer Laptop mit einer dedizierten RTX 4050? Vermutlich nicht, das erreicht ja dann nur das absolute Intel Spitzenmodell, wie üblich.

Naja es gibt ja quasi 3 "Top-Chips" (den X9 und die beiden X7), die unterscheiden sich bei der GPU ja gar nicht und bei der CPU bloss marginal (sind dann wohl vielleicht maximal 10% wenn das Top-Modell tatsächlich besser gebinnt ist). Ich schätze mal die X7 sind schon mal billiger zu haben bloss weil sie eben nicht X9 heissen...


Aber interessant finde ich dafür den kleineren Ultra 5 338H mit einer "Arc B370" GPU, sicher langsamer als die Top Panther Lake Modelle aber vermutlich dafür auch billiger zu haben. Und vermutlich auch nicht langsamer als ne ältere Arc 140T/V. Bin gespannt.

Die ist garantiert sehr deutlich schneller als Arc 140T/V. Hat ja immer noch mehr Xe-Cores (10 statt 8), mit neuerer Technik und Fertigung, und mehr GPU-L2. Sollte eigentlich weniger als 20% hinter der B390 liegen (es sei denn da ist noch mehr deaktiviert als ersichtlich).

Undertaker
2026-01-27, 16:18:57
"Breiter" ist definitiv das falsche Wort. Es werden hier 16 Intel-Kerne gegen 12 AMD-Kerne verglichen. Wenn dann liegt es am fehlenden SMT. Allerdings bringt das meist auch nur so 25-30% was ziemlich genau dem Kernunterschied ausmacht.

Ja, natürlich liegt das vorrangig am fehlenden SMT und das bei MT bei PTL ein erheblicher Teil der Performance von IPC-schwächeren E-Cores kommt. Zudem könnten die LPE-Cores ins Taktlimit laufen (was bei Zen5C/HX370 erst deutlich über 60W Betriebspunkt passiert). Ergo: Für eine vergleichbare Skalierung von ST auf MT benötigt PTL ebenso wie ARL deutlich mehr Kerne als ein Zen5-Chip, siehe z.B. einen 285K mit 24C vs. einem 9950X mit 16C/32T.

PTL ist mit nur 16C, davon nur 4 P-Cores, an sich etwas zu schmal im Vergleich zu einem 12C/24T StrixP. Das egalisiert in der Konsequenz den erheblichen Effizienzvorteil pro Kern - siehe entsprechende Messungen, die wir weiter oben verlinkt hatten - und führt dazu, das StrixP über eine stärkere Taktabsenkung und einen günstigeren Betriebspunkt bei der CPU-Volllasteffizienz am Ende in etwa auf PTL-Niveau landet. Hier hätte es einen HX-Ableger gebraucht, um den Architekturvorteil von PTL auch in dieser Disziplin wirklich auszuspielen.

reunion
2026-01-27, 17:15:09
Ja, natürlich liegt das vorrangig am fehlenden SMT und das bei MT bei PTL ein erheblicher Teil der Performance von IPC-schwächeren E-Cores kommt. Zudem könnten die LPE-Cores ins Taktlimit laufen (was bei Zen5C/HX370 erst deutlich über 60W Betriebspunkt passiert).

Ich hatte schonmal einen HX370 hier, die Zen5C-Kerne takten immer deutlich niedriger, auch bei gleicher Last auf allen Kernen.


Das egalisiert in der Konsequenz den erheblichen Effizienzvorteil pro Kern - siehe entsprechende Messungen, die wir weiter oben verlinkt hatten - und führt dazu, das StrixP über eine stärkere Taktabsenkung und einen günstigeren Betriebspunkt bei der CPU-Volllasteffizienz am Ende in etwa auf PTL-Niveau landet.

Keine Lust jetzt hier hunderte Seite zu durchsuchen...wo gibt den "erheblichen Effizienzvorteil pro Kern"? Vermutlich ein Test wo der Zen5 nahe am Taktlimit operiert. Im "sweet spot" bei 2-3W pro Kern ist ein Zen5 unschlagbar nach allen Messungen die ich bisher im Serverumfeld gemacht habe...

dildo4u
2026-01-27, 17:22:09
Ein Gerät mit 55 Watt max TDP

Takt scheint der einzige Unterschied zum Topmodell?

58ESV8MlKIo

Undertaker
2026-01-27, 17:23:37
Zum Effizienzvergleich pro Kern, ca. bei 21:30: https://youtu.be/X9eYQTkzxqU

Badesalz
2026-01-27, 18:00:37
Wäre halt besser wenn sie nicht TSMC für die GPU bezahlen müssten das wird der Preistreiber bleiben Warum nochmal? Gibt es irgendwo Indizien für die Korrektheit der Andeutung dieser Kalkulation?

edit:
ou... Was die alle plötzlich wieder Hyperaktiv sind. 2025 war hier echt eine lange langweilige Durtstrecke. Ich hab das alles so vermisst.

dildo4u
2026-01-27, 18:10:10
TSMC hat angeblich Lieferprobleme Intels eigene Fertgung hat keine externen Kunden hätte also vermutlich genug Kapazität.

https://www.pcgameshardware.de/Wirtschaft-Thema-238882/News/TSMC-kommt-mit-der-KI-Chip-Nachfrage-nicht-hinterher-warnt-Nvidia-und-Broadcom-1491576

Fusion_Power
2026-01-27, 19:26:17
Naja es gibt ja quasi 3 "Top-Chips" (den X9 und die beiden X7), die unterscheiden sich bei der GPU ja gar nicht und bei der CPU bloss marginal (sind dann wohl vielleicht maximal 10% wenn das Top-Modell tatsächlich besser gebinnt ist). Ich schätze mal die X7 sind schon mal billiger zu haben bloss weil sie eben nicht X9 heissen...

Stimmt, jetzt wo du es sagst, die 7er bekommen tatsächlich auch die große iGPU. Ich hatte wohl noch AMDs komische Featurepolitik im Hinterkopf, da bekommen bei deren aktueller Serie nur die 9er APUs ne Radeon 880/890M, die 7er werden schon mit ner 860M abgespeist. Enttäuschend, aber Punkt für Intel.


Die ist garantiert sehr deutlich schneller als Arc 140T/V. Hat ja immer noch mehr Xe-Cores (10 statt 8), mit neuerer Technik und Fertigung, und mehr GPU-L2. Sollte eigentlich weniger als 20% hinter der B390 liegen (es sei denn da ist noch mehr deaktiviert als ersichtlich).
Erste Vorab Benchmarks scheinen das auch anzudeuten aber mal abwarten wegen Treibern usw.. Mal sehen was die Notebookhersteller damit anfangen, ich hoffe au einen Laptop um die 1000€ mit ordentlicher iGPU. AMD enttäuschte da leider zuletzt wie gesagt.

VooDoo7mx
2026-01-27, 23:01:54
Die ist garantiert sehr deutlich schneller als Arc 140T/V. Hat ja immer noch mehr Xe-Cores (10 statt 8), mit neuerer Technik und Fertigung, und mehr GPU-L2. Sollte eigentlich weniger als 20% hinter der B390 liegen (es sei denn da ist noch mehr deaktiviert als ersichtlich).

Auch Arc B370 vom Core Ultra 5 338H (ohne X) wird locker 890M und 140T iGPU bei weitaus besserer Energieeffizienz schlagen können.

Und keiner spricht hier von der kleinen 4Xe Grafik. :ugly:
Ich hab selber mal ein wenig mit meinen Arrow Lake iGPU rumgespielt was auch eine 4 Core XE1 Grafik mit 1,9GHz von noch der ersten Alchemist Gen und das Teil kann echt was.:ugly:
Ich hab es auf meinen Notebook so eingestellt das Retro und wenig anspruchsvolle Spiele von dieser iGPU ausgeführt werden, so das die 5090 ausgeschaltet bleiben kann.
Die neue "Intel Graphics" hat ja die neue XE3 Arc Generation und bis 2,5GHz Takt, das sollte locker an Zen 4 "Phoenix/Hawk Point" oder Zen 5 Krackan Point heran reichen oder diese sogar schlagen. Auch das Steam Deck wird wohl um mindestens 50% geschlagen werden.

Also ich hätte echt Bock mein 14" M1 Pro Macbook Pro mit einen Panther Lake X Notebook auszutauschen. Aber da damit einhergeht, dass ich auch diesen wiederwertigen Softwareabfall nutzen muss, der sich Microsoft Windows nennt, bleibe ich wohl doch beim Macbook und werde das wohl durch das 2026/27 Redesign mit Oled Display ersetzen.

ryan
2026-01-28, 01:20:43
Bewirbt Intel 18A nicht als 2nm Klasse dafür skaliert es nicht deutlich besser als 4nm Strix.


18A ist ein 3nm class node wurde schon länger kolportiert. Wenn man sich die Tests ansieht und mit Arrow Lake-H vergleicht, könnte das gut hinkommen. Genau lässt sich das leider nicht vergleichen, weil die Kernkonfiguration nicht die gleiche ist und die IPC etwas gestiegen.

Außer bei der Fmax, da lag ARL-H mit N3B besser. Wenn dem nicht so wäre, bräuchte Intel nicht TSMC 2nm für Nova Lake.

Auch Arc B370 vom Core Ultra 5 338H (ohne X) wird locker 890M und 140T iGPU bei weitaus besserer Energieeffizienz schlagen können.


Vom 338H gibt es hier Benchmarks: https://www.bilibili.com/video/BV1xY6MBPEVu/

Oder hier mit 358H, 338H und HX 470: https://www.bilibili.com/video/BV1sq6gBuESR/?spm_id_from=333.1387.homepage.video_card.click

robbitop
2026-01-28, 06:10:10
https://youtu.be/X9eYQTkzxqU?si=HvrEZaSKIh4F_YOQ
Der Test von PTL vs Halo von thephawx mit TDPs ab 10W.


CPU: single core cine Bench rennt PTL Halo deutlich davon. Multicore nicht mehr weil Halo breiter ist.
In Spielen ist die Performance bei 15W wirklich super. Halo zieht dann oben raus natürlich weg. Aber für Handheld TDPs ist PTL anscheinend die beste Wahl.

mocad_tom
2026-01-28, 09:12:15
Dell XPS mit 2800er Auflösung + Touchdisplay + 64GB + 512GB SSD

https://www.dell.com/de-de/shop/cty/pdp/spd/xps-da14260-laptop/cnda1426003cc#customization-anchor

3100,- Brutto

SSD würde ich selber nachrüsten, ich hoffe die haben da keinen Vendor-Lockin.

Lieferdatum 07.04.2026

reunion
2026-01-28, 09:20:00
https://youtu.be/X9eYQTkzxqU?si=HvrEZaSKIh4F_YOQ
Der Test von PTL vs Halo von thephawx mit TDPs ab 10W.


CPU: single core cine Bench rennt PTL Halo deutlich davon. Multicore nicht mehr weil Halo breiter ist.
In Spielen ist die Performance bei 15W wirklich super. Halo zieht dann oben raus natürlich weg. Aber für Handheld TDPs ist PTL anscheinend die beste Wahl.

Danke. Das sieht aber IMO sehr sehr seltsam aus. Ein Zen5-Single-Core braucht sicher keine 20W um auf Performance zu kommen, geschweige denn ist er bei niedriger TDP derart schlecht. Vermutlich schluckt der Uncore bei der riesen APU zu viel. Wäre interessanter mit Strix Point oder Krackan, bzw. wie viel TDP bei dem Test dann wirklich am Core anliegt.

Mayhem
2026-01-28, 09:22:27
Danke. Das sieht aber IMO sehr sehr seltsam aus. Ein Zen5-Single-Core braucht sicher keine 20W um auf Performance zu kommen, geschweige denn ist er bei niedriger TDP derart schlecht. Vermutlich schluckt der Uncore bei der riesen APU zu viel. Wäre interessanter mit Strix Point oder Krackan, bzw. wie viel TDP bei dem Test dann wirklich am Core anliegt.

Er erklärt es damit, dass der Memorycontroller bei Strix Halo zwischen 10W-27W wohl ziemlich stranges Verhalten hat, bzw. nicht optimiert ist.

Mayhem
2026-01-28, 09:24:11
Dell XPS mit 2800er Auflösung + Touchdisplay + 64GB + 512GB SSD

https://www.dell.com/de-de/shop/cty/pdp/spd/xps-da14260-laptop/cnda1426003cc#customization-anchor

3100,- Brutto

SSD würde ich selber nachrüsten, ich hoffe die haben da keinen Vendor-Lockin.

Lieferdatum 07.04.2026

Hahaha... die Preise sind ja wohl ein Witz. 2500€ für 32GB +512 und den "kleinen" 358H.
Mal sehen was die X2 Elite Extreme kosten.

reunion
2026-01-28, 09:26:51
Er erklärt es damit, dass der Memorycontroller bei Strix Halo zwischen 10W-27W wohl ziemlich stranges Verhalten hat, bzw. nicht optimiert ist.

Dachte ich mir schon, dass da was im argen liegt, danke. Da schaffe ich ja mit einem 192 Core Server Chip mit riesen I/O eine bessere Perf/Watt :D

dildo4u
2026-01-28, 09:27:03
Hahaha... die Preise sind ja wohl ein Witz. 2500€ für 32GB +512 und den "kleinen" 358H.
Mal sehen was die X2 Elite Extreme kosten.

Das wird alles unbezahlbar je später die Geräte kommen umso größer ist der Aufpreis durch den RAM.
Wenn das Ding erst im April kommt kann man es natürlich vergessen.

mironicus
2026-01-28, 09:30:47
Hahaha... die Preise sind ja wohl ein Witz. 2500€ für 32GB +512 und den "kleinen" 358H.
Mal sehen was die X2 Elite Extreme kosten.

https://estore.asus.com/de/90nb17w1-m003m0-asus-zenbook-a16-ux3607.html

Mit der schnellsten X2 Elite Extreme-Version.
1799 Euro, mit 48 GB Speicher, 1 TB NVME. 16 Zoll OLED 1100 Nits HDR, 1.2 kg.

MSABK
2026-01-28, 09:34:20
https://estore.asus.com/de/90nb17w1-m003m0-asus-zenbook-a16-ux3607.html

Mit der schnellsten X2 Elite Extreme-Version.
1799 Euro, mit 48 GB Speicher, 1 TB NVME. 16 Zoll OLED 1100 Nits HDR, 1.2 kg.

Das soll ja der ab 1799€ Preis sein. Entweder ist da ein Fehler oder der Preis ist einfach sehr gut.

Undertaker
2026-01-28, 09:36:26
Auf der Übersichtsseite steht "bis zu 48GB"... Ich denke nicht, dass diese Variante für 1.799€ kommt.

dildo4u
2026-01-28, 09:42:59
Die werden natürlich massiv billiger die GPU hat keine Chance kaum einer braucht die CPU Leistung.
Die ersten Elite X Geräte mussten deswegen massiv im Preis gesenkt werden.

Mayhem
2026-01-28, 09:53:23
Die werden natürlich massiv billiger die GPU hat keine Chance kaum einer braucht die CPU Leistung.


Wenn ich mir die Folien zu Panther Lake iGPU im Vergleich zur Elite X1 GPU anschaue, dann hat X2EE (wenn sie 2,3x mal so schnell wie die X1 ist) auf jeden Fall eine Chance. Die liegen dann im selben Ballpark.

EDIT: Ich beziehe mich auf diese Gamingbenchmarks ab etwa Minute 8
Ke3Kgwg7bV0

Undertaker
2026-01-28, 10:04:29
An der Rohleistung wird's nicht scheitern, aber Snapdragon für Windows-Gaming? Nicht für mich, zumindest in dieser Generation. Akzeptabel wird es, wenn >95% aller Spiele (auch ältere) vernünftig laufen. Daran glaube ich 2026 noch nicht.

Mayhem
2026-01-28, 10:21:20
Abwarten, MS muss jetzt Gas geben. EAC läuft ja nun auf ARM. Und NVidia will doch auch noch 2026 in den Consumermarkt. Das sollte nochmal einen zusätzlichen Push geben. Speziell da Valve auch einen ARM64 Build von SteamOS kurz vorm Release stehen hat.

Ich wollte auch gar nicht so weit von Panther Lake weg. Nur sollte man die noch anstehenden Optionen im Auge behalten. PL ist jetzt eine wirklich schöne APU? geworden, aber die Preise sind doch ziemlich abgehoben im Wettbewerb.

Und wir reden hier auch nur über die Halo SKUs. Die Version mit kleiner iGPU ist ziemlich uninteressant.

dildo4u
2026-01-28, 10:37:58
Intel haut ständig neue Treiber raus bevor man 2000€ auf den Kopf haut sollte man abwarten wie der Langzeitige Support bei Qualkomm aussieht.

Die Snapdragon GPU muss ehe Faktor 5 zulegen 10fps in Cyberpunk.

gMPVSDo46fY

mocad_tom
2026-01-28, 11:12:05
Das Asus Expertbook mit Panther Lake hat im Wifi_v1.3 16.1h
bei einem 70Wh Akku

https://www.notebookcheck.net/Asus-ExpertBook-Ultra-review-One-helluva-debut-for-Intel-Panther-Lake-X7.1209366.0.html


Das Asus Zenbook 14 UX3405CA mit Arrow Lake hat im Wifi_v1.3 15.4h
bei einem 75Wh Akku

Akkunormiert (auf 70Wh) wären wir dann bei 14,4h

https://www.notebookcheck.net/Intel-subnotebook-regains-ground-Asus-ZenBook-14-OLED-UX3405CA-review.1126966.0.html



Das Panel, Keyboard, Touch, Wifi, NVME SSD so viele Komponenten werden hier ziemlich nah beieinander sein zwischen diesem Expertbook und Zenbook. Alles andere rundherum (Peripherie) frisst in etwa das gleiche.

Nur das Low Power Island und der Memory Controller machen einen Unterschied von
16,1h für Panther Lake vs 14,4h für Arrow Lake

Das wäre ein Surf-Zuwachs von 11,8%.


Gleichzeitig denke ich aber, dass durch weitere Software-Optimierungen hier noch mehr kommen wird.
Ein Lunar Lake bringt noch ein Stück mehr mit.

Hier ist ein Asus Expertbook mit 2560er IPS und 65Wh Akku
https://www.notebookcheck.net/Asus-ExpertBook-P5-P5405-laptop-in-review-Intel-s-M1-moment-in-a-business-laptop.910455.0.html

Wifiv1.3 16.1

Normalisiert auf 70 Wh -> 17.3 (aber mit IPS)

ryan
2026-01-28, 11:12:55
https://youtu.be/X9eYQTkzxqU?si=HvrEZaSKIh4F_YOQ
Der Test von PTL vs Halo von thephawx mit TDPs ab 10W.


CPU: single core cine Bench rennt PTL Halo deutlich davon. Multicore nicht mehr weil Halo breiter ist.
In Spielen ist die Performance bei 15W wirklich super. Halo zieht dann oben raus natürlich weg. Aber für Handheld TDPs ist PTL anscheinend die beste Wahl.


Bei so niedrigen TDPs sind die vielen Kerne ein Hindernis, das war bei Strix Halo auch so. Die PTL handheld mit 2 deaktivierten P-Kernen sollten bei 15W sogar besser performen als die Notebook Versionen. Generell sind die CPU Kerne noch zu ineffizient finde ich. Mich würde interessieren, wie es ohne P-Kerne aussieht beim iGPU gaming.

Undertaker
2026-01-28, 11:19:54
Die Frage finde ich auch spannend, wäre mir bei der Antwort aber noch nicht so sicher. Die extrem guten Ergebnisse aktueller Intel-Modelle im idle und bei Teil-/Niedriglast lassen mMn nicht vermuten, dass weniger Kerne beim Gaming die Effizienz wirklich spürbar steigern. Der Handheld-Ableger mit weniger Kernen könnte auch eine rein produktstrategische Entscheidung sein, ein günstigeres Modell mit voller GPU anbieten zu können, ohne den teuren X7/X9 Konkurrenz zu machen.

Das sehr gute Abschneiden bei der ST-Effizienz stellt für mich ebenfalls in Frage, ob die E-Cores beim Gaming (und hoher Cache-Abhängigkeit) tatsächlich effizienter als die P-Cores agieren. Ihre Berechtigung im Gesamt-SoC haben die E-Cores auch allein aufgrund ihrer hohen Perf/Area.

ryan
2026-01-28, 11:28:03
Die Frage finde ich auch spannend, wäre mir bei der Antwort aber noch nicht so sicher. Die extrem guten Ergebnisse aktueller Intel-Modelle im idle und bei Teil-/Niedriglast lassen mMn nicht vermuten, dass weniger Kerne beim Gaming die Effizienz wirklich spürbar steigern. Der Handheld-Ableger mit weniger Kernen könnte auch eine rein produktstrategische Entscheidung sein, ein günstigeres Modell mit voller GPU anbieten zu können, ohne den teuren X7/X9 Konkurrenz zu machen.

Das sehr gute Abschneiden bei der ST-Effizienz stellt für mich ebenfalls in Frage, ob die E-Cores beim Gaming (und hoher Cache-Abhängigkeit) tatsächlich effizienter als die P-Cores agieren. Ihre Berechtigung im Gesamt-SoC haben die E-Cores auch allein aufgrund ihrer hohen Perf/Area.



338H mit 4 deaktivierten E-Kernen liegt bei 10 Watt vor dem 358H in timespy Grafik und Cyberpunk, bei 15 Watt gleichauf und erst ab 20W kann sich der 358H absetzen wegen der zwei zusätzlichen GPU Kerne.

Undertaker
2026-01-28, 11:52:01
Hmm, interessant. Wenn sich das in weiteren Messungen bestätigt (könnte hier auch an kleineren Binning/BIOS/Firmware-Unterschieden gelegen haben) muss ich mich revidieren, überraschen würde es mich aber in jedem Fall.

mironicus
2026-01-28, 13:40:01
Bis Handhelds kommen mit Panther Lake könnte wie viel Zeit vergehen? Herbst/Winter?

mczak
2026-01-28, 13:59:24
Das Asus Expertbook mit Panther Lake hat im Wifi_v1.3 16.1h
bei einem 70kWh Akku

16h bei 70kWh Akku wäre doch "etwas" enttäuschend, so einen grossen Akku haben nicht mal die meisten E-Autos :biggrin:.
Aber Spass beiseite die Laufzeiten sind sehr in Ordnung auch wenn es (auch in Anbetracht der Fertigung) nicht gerade ein Riesensprung ist. Muss es aber auch nicht unbedingt sein weil Arrow Lake (und natürlich noch mehr Lunar Lake) da auch nicht so schlecht waren.

mocad_tom
2026-01-28, 14:55:45
stimmt - jetzt bin ich von Wh auf kWh verrutscht - sollte nicht zwischen ID7 Forum und hier hin und herwechseln.

Mayhem
2026-01-28, 16:10:57
Die Snapdragon GPU muss ehe Faktor 5 zulegen 10fps in Cyberpunk.

https://youtu.be/gMPVSDo46fY

Da stehen halt null Specs dazu. Wenn man sich den Sticker auf dem NB im Video anschaut ist das die 1,7TF Variante. Das ist schon highly sussy, das dann mit den TopTier PLs zu vergleichen.

Ich habe weiter oben (im Spoiler) selber ein Video mit anderen CP2077 Werten gepostet. Dem würde ich eher trauen.
Das der QC-Spielesupport noch viel besser werden muss ist natürlich klar.

robbitop
2026-01-28, 19:29:37
https://youtu.be/uW3HVv5KTb4?si=pv7gbN5cnpUhvNm2
Bei 17W (IMO nahe am 15W Betriebspunkt der für Handhelds imo ideal ist) schmilzt der Vorsprung in den getesteten Spielen auf gerade mal 7,5% ggü Z2 extreme. Bei 25W sind es deutlich mehr.
Also auch PTL braucht etwas TDP um die Beine ausstrecken zu können. Im Test von thephawx sah man auch dass PTL bei zB 10W total einbricht (geht den Standard APUs aber auch so).

Fusion_Power
2026-01-28, 19:49:43
18A ist ein 3nm class node wurde schon länger kolportiert. Wenn man sich die Tests ansieht und mit Arrow Lake-H vergleicht, könnte das gut hinkommen. Genau lässt sich das leider nicht vergleichen, weil die Kernkonfiguration nicht die gleiche ist und die IPC etwas gestiegen.

Außer bei der Fmax, da lag ARL-H mit N3B besser. Wenn dem nicht so wäre, bräuchte Intel nicht TSMC 2nm für Nova Lake.


Vom 338H gibt es hier Benchmarks: https://www.bilibili.com/video/BV1xY6MBPEVu/

Oder hier mit 358H, 338H und HX 470: https://www.bilibili.com/video/BV1sq6gBuESR/?spm_id_from=333.1387.homepage.video_card.click
Das sieht schon sehr vielversprechend aus. Gar nicht mal so viel Unterschied zwischen Arc B370 und 390.

Dell XPS mit 2800er Auflösung + Touchdisplay + 64GB + 512GB SSD

https://www.dell.com/de-de/shop/cty/pdp/spd/xps-da14260-laptop/cnda1426003cc#customization-anchor

3100,- Brutto

SSD würde ich selber nachrüsten, ich hoffe die haben da keinen Vendor-Lockin.

Lieferdatum 07.04.2026
Ich wollt erst schreiben dass sies dann halt ohne RAM verkaufen sollen.... aber ok, das wird wohl etwas schwierig bei dem Package Design wegen schnellerem LPDDR5 RAM. ^^""
Wo bleibt CAMM2 wenn mans mal braucht?

Intel haut ständig neue Treiber raus bevor man 2000€ auf den Kopf haut sollte man abwarten wie der Langzeitige Support bei Qualkomm aussieht.

Die Snapdragon GPU muss ehe Faktor 5 zulegen 10fps in Cyberpunk.

https://youtu.be/gMPVSDo46fY

Wurde ja schon in dem Video da angesprochen: Snapdragon Laptops gibts seit 2 Jahren aber passiert ist seit dem quasi nix in Sachen Windows- Gaming Performance. Entweder die können nicht oder die wollen nicht. Oder Beides.

w0mbat
2026-01-28, 21:45:57
Ich würde sagen, 18A ist ~TSMC N3E beim Takt und besser als N3P bei der Effizienz. BSPD und GAA sind halt schon geil, auch in der ersten Ausführung.

mocad_tom
2026-01-28, 22:32:59
Ich würde sagen, 18A ist ~TSMC N3E beim Takt und besser als N3P bei der Effizienz. BSPD und GAA sind halt schon geil, auch in der ersten Ausführung.

Auf Basis von dem jetzt gezeigten kann man gerade noch gar nichts sagen.

Mich wundert, dass Darkmont scheinbar deutlich niedriger getaktet wird und auch eine niedrigere Cache Latency hat und dadurch einiges der niedrigeren Taktung wieder einholt.

Und das Mesh scheint auch niedriger zu Takten.
Oder die Core-to-Core-Latency wurde falsch gemessen.

ryan
2026-01-29, 00:56:34
https://youtu.be/uW3HVv5KTb4?si=pv7gbN5cnpUhvNm2
Bei 17W (IMO nahe am 15W Betriebspunkt der für Handhelds imo ideal ist) schmilzt der Vorsprung in den getesteten Spielen auf gerade mal 7,5% ggü Z2 extreme. Bei 25W sind es deutlich mehr.
Also auch PTL braucht etwas TDP um die Beine ausstrecken zu können. Im Test von thephawx sah man auch dass PTL bei zB 10W total einbricht (geht den Standard APUs aber auch so).


Die handhelds haben 2P weniger, was hilft. Intel wird sicher in dem Bereich weitere Optimierungen vornehmen am Treiber und power Management.

Badesalz
2026-01-29, 06:39:16
Kennt hier eigentlich wer privat jemanden der so einen Handheld hat?

reunion
2026-01-29, 09:53:39
https://youtu.be/uW3HVv5KTb4?si=pv7gbN5cnpUhvNm2
Bei 17W (IMO nahe am 15W Betriebspunkt der für Handhelds imo ideal ist) schmilzt der Vorsprung in den getesteten Spielen auf gerade mal 7,5% ggü Z2 extreme. Bei 25W sind es deutlich mehr.
Also auch PTL braucht etwas TDP um die Beine ausstrecken zu können. Im Test von thephawx sah man auch dass PTL bei zB 10W total einbricht (geht den Standard APUs aber auch so).

Bei niedriger TDP verlässt Strix Point schön langsam das Bandbreitenlimit. ;)
Ich habe das Ding auch mal getestet, alles über 20W TDP ist gnadenlos Bandbreitenlimitiert und damit eigentlich sinnlos. Die GPU könnte sehr viel mehr, da der Takt bei 17W sehr niedrig liegt.

Mayhem
2026-01-29, 10:30:48
Die handhelds haben 2P weniger, was hilft. Intel wird sicher in dem Bereich weitere Optimierungen vornehmen am Treiber und power Management.

Wurde zu den Handheld Versionen iwo was geschrieben? Ausser dass PL auch das Segment bedienen soll, habe ich nix dazu gesehen.

Kennt hier eigentlich wer privat jemanden der so einen Handheld hat?

Was für einen Handheld meinst Du? SteamDeck? Ja. 3 Bekannte von mir und ich selber.

Badesalz
2026-01-29, 10:35:15
Shitte... Hab verpeilt "SteamDeck ausgenommen" zu schreiben :usad:
Verkaufszahlen wurden irgendwann endlich bekannt. 2024 aber ging es schon wieder rapide abwärts. Liegt der weltweite Markt etwa bei ~4Mio. Habenwill?

Switch2 10Mio. in 4 Monaten (nur mal so allgemein). Dann aber...
https://www.nordbayern.de/service/technik/switch-2-am-ende-nur-6-monate-nach-release-zieht-nintendo-im-konsolen-krieg-den-kurzeren-rep-13-1.14931929

Die Handheld-Blase :|

Mayhem
2026-01-29, 12:06:37
Ich sehe den Handheldmarkt auch nicht so gross. Valve hat mit dem SteamDeck ein geniales Gerät vorgestellt, speziell der OLED Refresh. Top SoC, top OS, top Display, top Preis. Das ist echtes Konsolenfeeling. Die Windows Handhelds wirken dagegen alle so unelegant und angestrengt. Kenne da auch keinen der so einen hat. ;)

IMHO müsste Intel Valve überzeugen, das SD2 mit PL zu machen, damit sich das vom Volumen rechnet. Aber nach den neuesten Entwicklungen (Steam Frame) sehe ich es so, dass SD2 einfach mit nem Qualcomm S8 Elite Gen5/6 daherkommt.

ryan
2026-01-29, 12:19:12
Wurde zu den Handheld Versionen iwo was geschrieben? Ausser dass PL auch das Segment bedienen soll, habe ich nix dazu gesehen.



Hier: https://videocardz.com/newz/exclusive-intel-readies-core-g3-extreme-and-core-g3-panther-lake-chips-for-gaming-handhelds-featuring-12-and-10-xe3-gpu-cores


Ultrabookreview hat auch Benchmarks vom 386H mit der kleineren 4 Xe3: https://www.ultrabookreview.com/74624-intel-panther-lake-laptops/

In timespy Grafik kommt die kleinere bei 28 Watt immer noch auf 3429 Punkte. In den getesteten Spielen liegt die 4 Xe3 insgesamt auf Augenhöhe mit Lunar Lake, Arrow Lake, Strix Point. Je nach Spiel variiert es.

Daredevil
2026-01-29, 12:21:58
Valve macht es bestimmt keinen Spaß mit ARM und Linux zu hantieren, die würden bestimmt lieber X86 und bewährtes nutzen, nur war das halt wenig bis gar nicht in der Effizienz+Leistung verfügbar.
Wenn Intel nun ein Paket schnürt und bessere Preise als TSMC bietet, könnte Valve auch umschwenken. Intel hat atm. mehr AI Features, das könnte schon ein Gamechanger sein.

Badesalz
2026-01-29, 12:26:48
Mit Microslop on board gibt es kein Gamechanging in derartiger Gerätschaft. Das ist Basiswissen zum Thema :usweet:

dildo4u
2026-01-29, 12:30:22
Ist der Linux Treiber nicht deutlich besser auf AMD?
Bei ARC müsste Valve wieder von vorne anfangen.

Der nächste Deck kommt sicherlich mit RDNA5 wenn der RAM wieder bezahlbar ist Ende 2027.

B580 unter Linux

https://youtu.be/u8Xyx2L4Nlg?si=A-mRj7_rW6T5pau0

robbitop
2026-01-29, 12:32:14
Bei niedriger TDP verlässt Strix Point schön langsam das Bandbreitenlimit. ;)
Ich habe das Ding auch mal getestet, alles über 20W TDP ist gnadenlos Bandbreitenlimitiert und damit eigentlich sinnlos. Die GPU könnte sehr viel mehr, da der Takt bei 17W sehr niedrig liegt.
Ja das typische IGP Problem. Deshalb ist dort ein großer LLC auch so wichtig. Bis dato hat nur Intel das eingesehen. (Halo zählt nicht weil hier in einer ganz anderen Kostensphäre und sogar 256 bit SI)

Ich persönlich würde gern eine APU sehen, die konsequent für Handhelds mit langer Laufzeit gemacht ist. Also die bei <15W noch effizient skaliert. Gewicht und Akkulaufzeit aus den 90ern -> nein danke. :-)
Ich vermute aber, dass es da wohl mittelfristig richtung ARM SoC gehen wird. Nicht wegen der ARM ISA sondern eher weil ARM SoCs in der Regel konsequent für kleine TDP Envelopes gebaut sind (Smartphones) wohingegen x86 SoCs dann ja eher für Laptops gebaut werden die ja nochmal deutlich höher (dafür aber nicht niedrig) skallieren.
Dank FEX mittelfristig kein Problem mehr. Ich sehe außerhalb von AMD eher die GPU Treiber als Hürde. Zumindest für Linux/SteamOS. Handhelds mit Windows -> IMO eher meh.

Kennt hier eigentlich wer privat jemanden der so einen Handheld hat?
Ich zB habe ein Steam Deck OLED. (davor die LCD Version; hatte auch mal ein GPD Win und davor eine Sony PSP). Ist total großartig. Du kannst deine PC Spiele überall spielen. Auf der Couch, im Flugzeug, im Zug, im Hotel auf Dienstreise usw. Und dort weiter spielen wo du am PC aufgehört hast. Der Softwarestack von SteamOS ist wirklich sehr gut.
Was das erlaubt (zumindest meine Beobachtung), dass man sein Hobby endlich mehr ausleben kann. Gerade voll arbeitstägie Menschen (ggf noch mit Familien) finden die Zeit dafür gar nicht mehr so richtig. Mit dem Deck kann man mehr Gelegenheiten zum Spielen nutzen wo man sonst nur rumgesessen hätte. Für mich ein absoluter enabler.

Daredevil
2026-01-29, 12:32:17
Das stimmt, Peterson hat ja auch gesagt, das weder Linux noch Handhelds ihr Focus sind. Das heißt aber ja nicht, das ein Scheck von Valve sie nicht überzeugen -könnte-. :D

reunion
2026-01-29, 12:34:52
Ist der Linux Treiber nicht deutlich besser auf AMD?
Bei ARC müsste Valve wieder von vorne anfangen.

Der nächste Deck kommt sicherlich mit RDNA5 wenn der RAM wieder bezahlbar ist Ende 2027.

B580 unter Linux

https://youtu.be/u8Xyx2L4Nlg?si=A-mRj7_rW6T5pau0

Alles außer AMD kannst du unter Linux vergessen, selbst der Nvidia-Treiber ist Schrott [1]. Ausnahme Raytracing, das aber für Handhelds irrelevant ist.

[1] https://www.computerbase.de/artikel/betriebssysteme/linux-windows-11-gaming-benchmarks-2025.93542/seite-2#abschnitt_die_leistung_mit_radeon_unter_linux

ryan
2026-01-29, 12:41:31
Die Chinesen machen gute Skalierungstests, hier noch einer: https://youtu.be/oC1T4ehlMS0?t=277


Oder vom iGPU Verbrauch in timespy: https://youtu.be/oC1T4ehlMS0?t=357

ryan
2026-01-29, 12:59:20
Es ist nicht so, als wenn Intel nichts macht unter Linux.

A set of 18 patches were merged overnight to Mesa 26.1 for working around graphics corruption on Meteor Lake and DG2/Alchemist class graphics hardware. Not only are some graphics corruption issues worked around but for that hardware there is as much as "a whopping 260%" performance improvement observed for some graphics workloads.
https://www.phoronix.com/news/Intel-DG2-MTL-Whopping-260p

Badesalz
2026-01-29, 13:00:50
Es ist nicht so, als wenn Intel nichts macht unter Linux.Das fällt meine ich bisher alles unter "zwingend notwendig" :rolleyes:

MSABK
2026-01-29, 13:06:21
Ich sehe den Handheldmarkt auch nicht so gross. Valve hat mit dem SteamDeck ein geniales Gerät vorgestellt, speziell der OLED Refresh. Top SoC, top OS, top Display, top Preis. Das ist echtes Konsolenfeeling. Die Windows Handhelds wirken dagegen alle so unelegant und angestrengt. Kenne da auch keinen der so einen hat. ;)

IMHO müsste Intel Valve überzeugen, das SD2 mit PL zu machen, damit sich das vom Volumen rechnet. Aber nach den neuesten Entwicklungen (Steam Frame) sehe ich es so, dass SD2 einfach mit nem Qualcomm S8 Elite Gen5/6 daherkommt.

Intel wird wegen den Treibern und allgemein der Linux-Unterstützung wahrscheinlich keine Option sein für Valve.

An ein Snapdragon Elite glaube ich auch nicht im Deck, der Chip ist viel zu teuer.

mironicus
2026-01-29, 13:23:23
AMD-Treiber sind unter Linux am ausgereiftesten für Gaming, da wird Valve nicht wechseln wollen.

Die werden wieder irgendein Low Power-Design nehmen, langsamer als ein zukünftiger Z3 Extreme, aber mit RDNA5 an Bord.

robbitop
2026-01-29, 13:43:49
Es ist nicht so, als wenn Intel nichts macht unter Linux.


https://www.phoronix.com/news/Intel-DG2-MTL-Whopping-260p
Das hat Tom Petersen in einem der CES Interviews gesagt. Linux für Gaming ist keine Priorität für Intel. Handhelds sehen sie deshalb bei Windows.

Intel wird wegen den Treibern und allgemein der Linux-Unterstützung wahrscheinlich keine Option sein für Valve.

An ein Snapdragon Elite glaube ich auch nicht im Deck, der Chip ist viel zu teuer.
Es braucht gar nicht den Elite. Der skaliert ja auch wieder für Laptop TDPs. Die Smartphoneversion passt da IMO besser. Auch vom Preis.
Allerdings müsste QC da noch ein paar Schippen bei ihren Linux Treibern drauflegen.
Deshalb könnte ich mir einen Samsung Exynos vorstellen. Die haben mit den XClipse GPUs tatsäch AMD RDNA IP. Der neuste XClipse soll sogar auf RDNA4 basieren und im Samsung 2nm Prozess gemacht sein. Da die Samsung nodes und Chips nirgends erste Wahl sind, könnte da auch der Preis attraktiv sein und man kann RADV Treiber nutzen.

VooDoo7mx
2026-01-29, 16:47:29
Intel wird wegen den Treibern und allgemein der Linux-Unterstützung wahrscheinlich keine Option sein für Valve.

An ein Snapdragon Elite glaube ich auch nicht im Deck, der Chip ist viel zu teuer.

Selbst der günstigere Mediatek 9500 mit ARM GPU IP macht 3000 in Steel Nomad Light bei einen <10W Smartphone Ein Steam Deck macht da 1700...
Valve bräuchte nur wie bei Qualcomm, Zugriff auf den Treiber...

Ja, der Elite ist sehr teuer, Für ein Steam Deck würde es Sinn machen, einen Qualcomm custom Chip aufzulegen. Das könnte schon deutlich den Preis drücken. So einen Chip könnte man auch an andere Hersteller vermarkten.

Das nächste Steam Deck wird mit einer höheren Wahrscheinlichkeit einen ARM als einen x86 Prozessor haben. Mark my words.


Es braucht gar nicht den Elite. Der skaliert ja auch wieder für Laptop TDPs. Die Smartphoneversion passt da IMO besser. Auch vom Preis.

Der Elite (Gen 5) IST der Smartphone Chip.
Und der mit einen Stückpreis von ~250 USD schon extrem teuer.
Elite = Smartphone
X Elite = Notebook

Daredevil
2026-01-29, 16:54:03
Je weniger der SoC zieht, desto geringer sind am Ende auch die restlichen Kosten des Systems. Kleinere Kühlung, Lüfter kann man weglassen, Batterie verkleinern, Stromversorgung ect.
Im AppleTV läuft ja auch ein voller iPhone SoC, zwar uralt, aber der läuft da nun mal drin. Ohne Lüfter, damit kannste auch billo Kram zocken mit dem A15 und das Ding kostet nen Appel und nen Ei bzw. der gleiche Spaß in einem iPad. Langfristig könnte Valve halt auch einen Auftrag für einen eigenen SoC rausgeben, so kann man sich noch besser von der Standardhardware abheben. Das klappt mit der Switch ja enorm gut.

robbitop
2026-01-29, 17:40:08
Der Elite (Gen 5) IST der Smartphone Chip.
Und der mit einen Stückpreis von ~250 USD schon extrem teuer.
Elite = Smartphone
X Elite = Notebook
Ok zur Bezeichnung. Hast du für den Preis eine Quelle? Ist aber schon extrem teuer für einen Handy SoC. Aber ein voller PTL wird sicher auch nicht wesentlich billiger als 250 usd sein. Die Frage ist ob der Preis auch wirklich in Massen von oems auch bezahlt wird und wie stabil der ist. Man kann ja auch durchaus mal 1-2 gens älter nehmen. Siehe Switch 2.

robbitop
2026-01-29, 17:42:24
Ja, der Elite ist sehr teuer, Für ein Steam Deck würde es Sinn machen, einen Qualcomm custom Chip aufzulegen. Das könnte schon deutlich den Preis drücken. So einen Chip könnte man auch an andere Hersteller vermarkten.

Das nächste Steam Deck wird mit einer höheren Wahrscheinlichkeit einen ARM als einen x86 Prozessor haben. Mark my words.

Ich sehe das auch so mit ARM für Handhelds.
Aber warum ein custom SoC billiger sein soll als einer von der Stange musst du mir erklären. IMO ist das eher anders herum. Economies of scale.

robbitop
2026-01-29, 17:46:27
Je weniger der SoC zieht, desto geringer sind am Ende auch die restlichen Kosten des Systems. Kleinere Kühlung, Lüfter kann man weglassen, Batterie verkleinern, Stromversorgung ect.
Im AppleTV läuft ja auch ein voller iPhone SoC, zwar uralt, aber der läuft da nun mal drin. Ohne Lüfter, damit kannste auch billo Kram zocken mit dem A15 und das Ding kostet nen Appel und nen Ei bzw. der gleiche Spaß in einem iPad. Langfristig könnte Valve halt auch einen Auftrag für einen eigenen SoC rausgeben, so kann man sich noch besser von der Standardhardware abheben. Das klappt mit der Switch ja enorm gut.

Ich denke das geht genauso gut mit HW von der Stange. Ein Exynos oder ein Snapdragon passen da potentiell gut. Die Volumes vom Steam Deck sind ziemlich klein für custom SoCs und selbst MS wollte sich zu keinem custom SoC für deren next gen handheld committen (10 mio Stück Mindestabnahme) weswegen er gecanclet wirde. Valve hatte mit Van Gogh Glück gehabt weil der für MS für das Surface (und auch noch irgendso ein vr Gerät) entwickelt und verworfen wurde. Und: das war noch 2021 mit 7nm Nodefamilie - das war da alles noch billiger als mit Masken für moderne Nodes und in der Zeit wo AMD diech AI höhere Margen erwartet. :)

mczak
2026-01-29, 18:42:41
Aber warum ein custom SoC billiger sein soll als einer von der Stange musst du mir erklären. IMO ist das eher anders herum. Economies of scale.
Geht wohl darum dass ein SoC von der Stange "Ballast" mitbringt den man vielleicht nicht braucht, je nachdem für was der SoC denn gedacht war - ISP, NPU (wie kann ich es bloss wagen die NPU als überflüssig zu bezeichnen...), I/O-Kram, ... Das macht den Chip natürlich teurer in der Fertigung. Aber die benötigten Stückzahlen dass sich ein Custom-Chip lohnt aufgrund der geringeren Fertigungskosten pro Chip sind wohl einfach viel zu hoch.

robbitop
2026-01-29, 19:10:20
Gerade Smartphone SoCs haben aber ohnehin schon wenig I/O den ein Handheld nicht braucht. 5G Modem zB ist ja immer ein separater Chip.

mczak
2026-01-29, 19:18:28
Gerade Smartphone SoCs haben aber ohnehin schon wenig I/O den ein Handheld nicht braucht. 5G Modem zB ist ja immer ein separater Chip.
Habe ich ja so mehr oder weniger geschrieben. SoCs aus dem Notebook Bereich werden da eher überflüssigen I/O Kram haben, SoCs für Smartphones Dinge wie ISP.

robbitop
2026-01-29, 19:33:10
btw: Van Gogh hatte übrigens auch eine NPU in der 7nm Version :)
Eines der klaren Indizien dass VG nicht für das Deck entwickelt wurde.

davidzo
2026-01-30, 11:02:26
Im AppleTV läuft ja auch ein voller iPhone SoC, zwar uralt, aber der läuft da nun mal drin. Ohne Lüfter, damit kannste auch billo Kram zocken mit dem A15 und das Ding kostet nen Appel und nen Ei bzw. der gleiche Spaß in einem iPad.
So alt ist der auch wieder nicht. Und sicher auch nicht billig mit einem 107mm2 DIE in TSMC N5P. Die A15/M2 Serie war siliziumtechnisch nicht gerade klein, was auch den massiven Caches geschuldet ist. Die GPU im A15 zum Beispiel verfügt über 32MB SLC. Ich schätze der A15 kann es trotz schmalerem SI locker mit dem VG Chip im Steamdeck aufnehmen.

Das fühlt sich zwar so an als wäre der schwer veraltet weil wir jetzt schon von A17 und A18 reden, das ist aber bloß weil der iphone Releasezyklus jährlich ist. Bei x86 CPUs sind wir 2 Jahres Zyklen gewohnt, bei GPUs sogar zweieinhalb.

CPU-seitig sind das Avalanche und Blizzard Kerne aus dem M2, nur mit 250mhz weniger Turbo.
Der M2 ist ungefähr im gleichen Zeitraum wie Zen4 auf den Markt gekommen und war bei der ST Leistung leicht voraus. Die ST performance der Avalanche-kerne im M2 kann es durchaus mit Zen5 und Lion Cove aufnehmen. Die ST-Leistung ist also für 2026 immer noch aktuell und dürfte ca. doppelt so schnell sein wie ein Zen2 kern im Steamdeck. Durch die 2+4 Kerne liegt der A15 wahrscheinlich auch bei MT vorne, trotz SMT.

GPU seitig kann es der M2 in den wenigen vergleichbaren Titeln ungefähr mit der 890m oder der Arc 140V aufnehmen, bei Rohleistungsintensiven titeln liegt wohl AMD vorne, bei Bandbreitenintensiven eher die M2 IGP. Der M2 hat 128bit LPDDR5 und 8MB SLC. Der A15 hat 64bit LPDDR4X und 32mb SLC.

Der A15 ist also ziemlich genau ein halbierter M2 mit etwas niedrigeren Taktraten. CPU-seitig dürfte er mit den 4x Zen2 Kernen in der Steamdeck den Boden aufwischen.
GPU-Seitig dürfte beim A15 etwas mehr als 50% M2 leistung herauskommen, durch den großen SLC cache. Ich tippe auf eine GPU-Leistung nah an der 680M, also einer höher taktenden 12CU Version der RDNA2 Grafik die mit 8CU auch im Steamdeck verbaut ist. Die 680m erreicht ca. 60% der 890m bzw. der 10Core M2 IGP.
Btw, der M2 erreicht im ipad ca. 2800Punkte in steel nomad light. Die Steamdeck GPU schafft laut notebookcheck 1700Punkte. Das wäre sehr nah dran am erwarteten A17 Ergebnis.

Mit ausreichend RAM und ohne thermal throttling wie im iphone wäre der Chip VG mindestens ebenbürtig wenn nicht schneller und gleichzeitig erheblich sparsamer. Man muss sich nur mal die Leistung des ipad mini gen6 und dessen Akkulaufzeit reinziehen. Ein handheld mit einem solchen Chip, der vielfach effizienter ist als der alte AMD chip, wäre in der Tat ein großes uprade für das steamdeck.

VooDoo7mx
2026-01-30, 19:24:12
So alt ist der auch wieder nicht. Und sicher auch nicht billig mit einem 107mm2 DIE in TSMC N5P. Die A15/M2 Serie war siliziumtechnisch nicht gerade klein, was auch den massiven Caches geschuldet ist. Die GPU im A15 zum Beispiel verfügt über 32MB SLC. Ich schätze der A15 kann es trotz schmalerem SI locker mit dem VG Chip im Steamdeck aufnehmen.

Das fühlt sich zwar so an als wäre der schwer veraltet weil wir jetzt schon von A17 und A18 reden, das ist aber bloß weil der iphone Releasezyklus jährlich ist. Bei x86 CPUs sind wir 2 Jahres Zyklen gewohnt, bei GPUs sogar zweieinhalb.

CPU-seitig sind das Avalanche und Blizzard Kerne aus dem M2, nur mit 250mhz weniger Turbo.
Der M2 ist ungefähr im gleichen Zeitraum wie Zen4 auf den Markt gekommen und war bei der ST Leistung leicht voraus. Die ST performance der Avalanche-kerne im M2 kann es durchaus mit Zen5 und Lion Cove aufnehmen. Die ST-Leistung ist also für 2026 immer noch aktuell und dürfte ca. doppelt so schnell sein wie ein Zen2 kern im Steamdeck. Durch die 2+4 Kerne liegt der A15 wahrscheinlich auch bei MT vorne, trotz SMT.

GPU seitig kann es der M2 in den wenigen vergleichbaren Titeln ungefähr mit der 890m oder der Arc 140V aufnehmen, bei Rohleistungsintensiven titeln liegt wohl AMD vorne, bei Bandbreitenintensiven eher die M2 IGP. Der M2 hat 128bit LPDDR5 und 8MB SLC. Der A15 hat 64bit LPDDR4X und 32mb SLC.

Der A15 ist also ziemlich genau ein halbierter M2 mit etwas niedrigeren Taktraten. CPU-seitig dürfte er mit den 4x Zen2 Kernen in der Steamdeck den Boden aufwischen.
GPU-Seitig dürfte beim A15 etwas mehr als 50% M2 leistung herauskommen, durch den großen SLC cache. Ich tippe auf eine GPU-Leistung nah an der 680M, also einer höher taktenden 12CU Version der RDNA2 Grafik die mit 8CU auch im Steamdeck verbaut ist. Die 680m erreicht ca. 60% der 890m bzw. der 10Core M2 IGP.
Btw, der M2 erreicht im ipad ca. 2800Punkte in steel nomad light. Die Steamdeck GPU schafft laut notebookcheck 1700Punkte. Das wäre sehr nah dran am erwarteten A17 Ergebnis.

Mit ausreichend RAM und ohne thermal throttling wie im iphone wäre der Chip VG mindestens ebenbürtig wenn nicht schneller und gleichzeitig erheblich sparsamer. Man muss sich nur mal die Leistung des ipad mini gen6 und dessen Akkulaufzeit reinziehen. Ein handheld mit einem solchen Chip, der vielfach effizienter ist als der alte AMD chip, wäre in der Tat ein großes uprade für das steamdeck.

Anstatt einen halben Aufsatz mit herbeifantasierten Mutmaßungen zu schreiben kannst du auch einfach die 3D Mark Datenbank durchschauen.

Das älteste iPhone was den 3D Mark Steel Nomad ausführen kann, ist das iPhone 15 Pro mit A17 Pro und das macht 1300 in diesen Benchmark mit 30% Einbruch nach 1 Minute.
Ein 2 Jahre älterer A15 kann diesen Benchmark wohl wegen fehlenden RAM nicht ausführen. Der wird aber wohl hypothetisch vielleicht gerade mal halb so schnell wie das Steam Deck sein + 30% Leistungseinbruch nach 1 Minute nicht vergessen.
Und ein A15 ist eben nicht halber M2. Es ist ein Viertel M2 da auch die Taktrate praktisch halbiert ist.

Im übrigen ist selbst der neuste A19 Pro im Steel Nomad Light langsamer als der 8 Elite Gen 5 und Mediatek 9500. So viel dazu...

Ich frag mich echt was dieses permanente künstliche hochjubeln von diesen Apple Zeug soll. Wie oben geschrieben haben die nichts besonderes und kochen auch nur mit Wasser.
Ea kommen immer nur die selben Apple Best Case Benchmarks die spezielle Apple Optimierungen haben. ohne Beachtung des 20-30% Leistungsthrottlings nach 1-2 Minuten.

Und selbst wenn der Apple M8P 37000 Pimmelpunkte im Schnullermark 5000 hat, nutzt das einen feuchten Dreck, wenn es wie seit Jahren schon, keine Software gibt.

Daredevil
2026-01-30, 20:03:02
Was ich damit sagen wollte ist: Der Apple TV 4K, also der aktuellste Kram von 2022 kostet 149€ (mit zu wenig Speicher fürs Gaming) und ein iPad mit A16 gibts für 329€. Will sagen: Sparsame und kleine SoCs kann man günstig verkaufen, beide Geräte haben keine Lüfter und brauchen demnach auch einfach weniger Material.

Völlig egal was Valve nimmt, je sparsamer der SoC desto weniger Kosten haben sie für das drumherum. Mir auch egal, ob später AMD, Intel oder Qualcomm draufsteht. Qualcomm ist bei Perf/W wohl aktuell am stärksten, danach kommt Intel und dann halt AMD im Windows Bereich. Apple wird wohl kaum mit Valve zusammen arbeiten, ansonsten hat der Rest echt sehr große Probleme.

PS: Wenn wir über Chips reden, sollten wir auch bei Chips bleiben und nicht mit Kühllösungen umher werfen. Ein A15 verhält sich im AppleTV natürlich anders als im iPad als auch im iPhone. Unterschiedliche Formfaktoren bringen unterschiedliche Ergebnisse.

Ich frag mich echt was dieses permanente künstliche hochjubeln von diesen Apple Zeug soll. Wie oben geschrieben haben die nichts besonderes und kochen auch nur mit Wasser.
Wir haben über Effizienz gesprochen, je effizienter der Chip, desto billiger das Produkt. Apple macht es vor. Nicht mehr und nicht weniger.

Im übrigen ist selbst der neuste A19 Pro im Steel Nomad Light langsamer als der 8 Elite Gen 5 und Mediatek 9500. So viel dazu...

Das erwarte ich auch, schließlich saufen die beiden ja auch mehr und brauchen deswegen teure Akkus. ^^
Da wären wir auch wieder beim Thema. Effizienter > Bessere Produkte. Sei es schneller, bessere Laufzeit oder eben günstiger je nach Fokus.

Badesalz
2026-01-30, 21:58:51
Anstatt einen halben Aufsatz mit herbeifantasierten Mutmaßungen zu schreiben Machen wir auf der gleichen Seite einen Fullquote davon. Ok, Jehova.
Ein 2 Jahre älterer A15 kann diesen Benchmark wohl wegen fehlenden RAM nicht ausführen. Der wird aber wohl hypothetisch vielleicht gerade mal Grad hatten wie noch das Thema "herbeifantasierte Mutmaßungen". TOP :uup: :D
Ich frag mich echt was dieses permanente künstliche hochjubeln von diesen Apple Zeug soll. Wie oben geschrieben haben die nichts besonderes und kochen auch nur mit Wasser.Hochjubeln wäre teils wirklich ein Thema, aber sie kochen schon mit bisschen mehr. Affinität kann blind machen. Stimmt schon. Aversion aber auch...
Und selbst wenn der Apple M8P 37000 Pimmelpunkte im Schnullermark 5000 hat, nutzt das einen feuchten Dreck, wenn es wie seit Jahren schon, keine Software gibt.Das Thema war, meine ich, daß AppleTV auf einer alten Gurke läuft. Herausgekommen (davidzo) war, daß es für diese Art von HW weiterhin richtig gut ist. Was übrigens jeder der es mal gesehen hat, bestätigt.

davidzo
2026-01-31, 21:11:44
Mach dir nicht die Mühe mit dem. Der kann doch nichtmal lesen, wieso soll sich also die Mühe machen darauf zu antworten?


Schade dass steel nomand 8GB Ram braucht und selbst die ipads mini gen6 und 7 mit A15 und A16 so kastriert beim Ram sind. Die GPU Architektur wäre kompatibel bzw. sogar eine Gen neuer als erforderlich.

Am Ende bleibt nur GFXbench und Geekbench, wobei letztere Metal Scores nicht so richtig mit Vulkan vergleichbar sind.

Es ist ung bleibt also schwierig zu vergleichen.

Funfact: In GB6 MT ist der A15 mit 2P+4E und 3.25Ghz knapp schneller als ein Ryzen Threadripper 1900x mit 8C 16T und 4Ghz. Und das trotz einem 5 Jahre alten SOC. Telefone von heute sind echt crazy schnell.


Naja, back 2 topic: Ich denke auch dass ein Qualcomm ARM Handheld einem Pantherlake Handheld die Hosen ausziehen würde. PTL skaliert schlecht unter 25W, was für den Dauerbetrieb und eine akzeptable Größe und Gewicht noch zu viel ist. Die Steamdeck ist bereits sehr schwer und klobig so dass die Hände schnell ermüden und die hat ein TDP target von 15Watt. Und bei so niedrigen TDPs ist PTL einfach zu fett. Man bräuchte einen Wildcat lake mit fetter IGP.

mocad_tom
2026-02-01, 17:54:14
Naja, back 2 topic: Ich denke auch dass ein Qualcomm ARM Handheld einem Pantherlake Handheld die Hosen ausziehen würde. PTL skaliert schlecht unter 25W, was für den Dauerbetrieb und eine akzeptable Größe und Gewicht noch zu viel ist. Die Steamdeck ist bereits sehr schwer und klobig so dass die Hände schnell ermüden und die hat ein TDP target von 15Watt. Und bei so niedrigen TDPs ist PTL einfach zu fett. Man bräuchte einen Wildcat lake mit fetter IGP.

Das was du rauchst hätte ich auch gerne.

Wir sind hier echt im ARM fanboy land oder was ist das.

Aufgrund des weak memory model kegelt sich gerade ARM so ein bisschen aus bestimmten Anwendungen raus.
Sie sind noch gut bei den kleineren OoO-Windows der einfacheren Kerne(thema flächeneffizienz).
Aber jetzt wo die Kerne beefier werden sind sie zwar in vektorisierbaren workloads brauchbar, aber auch da nicht wegweisend und in flinkem Integer-Code mit schnellen Richtungswechseln ist ein strong memory model überlegen.

In Echtzeitanwendungen (oder nahe dran) wird es gerade haarig. Warum meint ihr hat Fritzbox mit den ARM-Modellen gerade so komische Probleme.
Auf dem Papier gut.

Auch in den NAS - man kauft x86 mit eigentlich weinger Leistung, aber im Alltagsbetrieb laufen die einfach störungsfreier.

Auf twitter ist 2022 eine rumgelaufen, der hat bis 2030 ein komplettes auslöschen x86 bei Server-Workloads prognostiziert.
Fakt ist Pustekuchen.
Man nimmt ARM für Message Queues oder memcache und bei SOLR ist dann ARM schon nicht mehr gut genug und von vollen Datenbanken brauchen wir erst gar nicht reden.

nginx läuft auch nicht gut auf ARM.

Auf dem DGX Spark wurden jetzt auch schon Spiele laufen gelassen - Fazit 'underwhelming'.

Seit 2021 wird jetzt dem Apple M chip eine glänzende Spielezukunft vorhergesagt.
JA WO BLEIBT SIE DENN?
Und das Weak Memory Model is to blame.
Es ist halt doch bloß ein Smartphoneprozessor.
Alle damaligen Spieleprozessoren in Konsolen waren In-Order oder nur ganz seichtes OoO.
Von der ersten Xbox weg, und ab der Playsi 4 kamen jetzt OoO-x86.
Der Chip in der Switch 1 war praktisch in order.

ryan
2026-02-01, 18:02:12
David Huang misst +8,5% IPC für die P-Kerne und 9,9% für die LPE Kerne. Gleichzeitig ist die Taktfrequenz gesunken, aber das wussten wir schon. Das ist für eine Tick Generation eine sehr überdurchschnittliche Kern Verbesserung. Der letzte Tock "Lion Cove" hat afaik auch nur knapp 10% gebracht. Nur die E-Kerne lagen weit drüber.

Die 358H big.LITTLE-Kerne weisen eine Verbesserung der Leistung pro Takt von ca. 8,5 % gegenüber den 255H-Kernen auf, während die LPE-Kerne eine Verbesserung von ca. 9,9 % gegenüber den 258V-Kernen zeigen. Betrachtet man nur die Verbesserung der Leistung pro Takt im Vergleich zum Vorjahr, ist der Zuwachs durchaus beachtlich. Allerdings ist bei allen Kerntypen ein deutlicher Frequenzabfall zu verzeichnen, der letztendlich zu keiner nennenswerten Leistungsverbesserung oder sogar zu einer teilweisen Verschlechterung führt.
https://x.com/hjc4869/status/2017636961650176156?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E2017636 961650176156%7Ctwgr%5E92152995156f44ff05d337fb95ad3f0c5d9c06fd%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fforums.anandtech.com%2Fthreads%2Fintel-meteor-arrow-lunar-panther-lakes-wcl-discussion-threads.2606448%2Fpage-965

davidzo
2026-02-01, 21:00:06
Ist das jetzt wirklich schon "sehr überdurchschnittlich" in x86 Land?

Alle 2 Jahre 8-10% mehr IPC bei sinkenden Taktfrequenzen (PTL) oder 5-10% IPC bei leicht steigenden (Zen5)?

Und dann wird hier kritisiert dass Qualcomm nur +39% ST perfomance in 2 jahren liefert oder Apple seit 2021 nur jedes Jahr pünktlich ihre +15% abliefert.

@mocad Tom: Hört sich so an als wenn du keine Erfahrung mit modernen high performance ARM kernen hast. Das was du im NAS findest ist vielleicht mit 10 Jahre alten Apple, Qualcomm oder Samsung Designs zu vergleichen.
Schau dir doch mal an was alleine das Cache-System einer fünf Jahre alten ARM CPU für ein Upgrade für Intel darstellen würde: https://chipsandcheese.com/p/going-armchair-quarterback-on-golden-coves-caches - Gerade in games würde das Zünden, denn da geht es ja hauptsächlich um Cache-Latenz und Hitrates.

ryan
2026-02-01, 22:25:00
Für eine Tick Generation bei Intel ja, das ist sehr viel. Meistens war das nur ein reiner shrink. Wenn es 4-5% gab, war das viel. Für Nova Lake auf dem Desktop sind das leichtere Vorzeichen gegen Arrow Lake.

thomaswww
2026-02-01, 23:07:18
Gibt es auch schon IPC Vergleich zu Lunar Lake mit gleicher TDP? Dass PL schneller als LL allein schon wegen der höheren Leistungsaufnahme ist, ist mir bewusst.
Was ich nicht verstehe, warum man jetzt plötzlich über eine massiv gesteigerte Akkulaufzeit spricht.
Wenn ich eine Low Power Aufgabe, wie z.b. Video schauen, am laufen habe, ist nicht dann bei einem Notebook die Leistungsaufnahme von SSD, Screen, etc viel entscheidender, als ob die CPU nun 1,8 oder 1,3 Watt verbraucht?`
Die CPU trägt doch bei solchen Aufgaben kaum was zum Gesamtverbrauch bei, oder irre ich mich da?

Ich vermute fast, die ganze super Leistung, fast nur der höheren TDP zuzuschreiben ist.

Undertaker
2026-02-02, 09:25:36
mMn müssen wir unterscheiden bzgl. CPU ST, CPU MT und GPU.

CPU MT wird bei PTL mMn vorrangig von der Verbreiterung ggü. LL profitieren; CPU ST stand LL bereits sehr gut da, hier dürften dann eher kleinere Verbesserungen aus IP und Fertigung durchschlagen. Bei der GPU dürfte es ein Mix aus Verbreiterung, IP, Cache und Speicher sein.

PS: "IPC TDP-normiert" macht als Metrik keinen Sinn, IPC ist bereits taktnormiert.

dildo4u
2026-02-02, 09:54:58
Kein Plan ob Asus Mist gebaut hat aber im 45 TDP, geht die SC/MC Performance des X7 komplett den Bach runter.

Der Unterschied ist absurd zum X9 gewollte Segmentierung von Intel?

https://i.ibb.co/q3jjLwRQ/Screenshot-2026-02-02-095137.png (https://ibb.co/rR00KJZr)

https://i.ibb.co/0p2WBtBD/Screenshot-2026-02-02-095632.png (https://ibb.co/gb9XvVvj)


vJ21pUQWg3w

y33H@
2026-02-02, 10:19:47
Das sieht arg kaputt aus, sofern X9 388H und X7 358H beide mit 45W laufen sollen - denke da liegt ein Einstellungsfehler oder Bug vor.

Badesalz
2026-02-02, 10:51:14
denke da liegt ein Einstellungsfehler oder Bug vor.Sehr naheliegend schon alleine deswegen, weil sowas wohl deren Firmenmotto ist.

dildo4u
2026-02-02, 17:02:09
Das Pre Produkion System hatte auch fast die halbe SC Performance im Batterie Modus was keine Auswirkung auf MC Leistung hat.
Das scheint Absicht Lunar Lake verliert auch deutlich an SC Performance.


https://hothardware.com/reviews/intel-core-ultra-x9-388h-panther-lake-review?page=3

Hochzeit2
2026-02-02, 18:36:37
Hat mal jemand tatsächlich NACHGEMESSEN wie viel MC bei 40/45W Einstellung tatsächlich verbraucht wird?

Badesalz
2026-02-04, 11:22:34
Hat mal jemand tatsächlich NACHGEMESSEN wie viel MC bei 40/45W Einstellung tatsächlich verbraucht wird?Wie viel MC (...) verbraucht wird? Wasn das für Einheit? :|

robbitop
2026-02-04, 11:42:28
MC Hammer. Die 80er sind zurück X-D
Ich vermute er meint der memory controller. Sofern AIDA das irgendwo ausgibt wäre das relativ leicht

Badesalz
2026-02-04, 11:44:12
Ja... Irgendsowas ;) Dann ist da halt nur das "wird" zu viel (im jedweden Fall). Es sei denn der MC verbraucht sich mit der Zeit.

Hochzeit2
2026-02-04, 12:59:57
Nein, ich mein MultiCore. Was hier im Forum überlicherweise auch so abgekürzt wird.

Aber die Reaktionen die ich bekommen hab, zeigt ganz deutlich, das es kein Schwein interressiert, das die CPU im unteren "Watteinstellungsbereich" säuft wie ein Loch für nicht mal 10% Mehrperformance.

Danke fürs Dummstellen.

y33H@
2026-02-04, 13:04:47
Hat mal jemand tatsächlich NACHGEMESSEN wie viel MC bei 40/45W Einstellung tatsächlich verbraucht wird?Wäre zu viel verlangt bei den üblichen Webseiten vorher mal zu gucken?

https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-x9-388h-test.95776/seite-2#abschnitt_leistungsaufnahme_je_nach_profil

Undertaker
2026-02-04, 13:48:26
Aber die Reaktionen die ich bekommen hab, zeigt ganz deutlich, das es kein Schwein interressiert, das die CPU im unteren "Watteinstellungsbereich" säuft wie ein Loch für nicht mal 10% Mehrperformance.

Auf welche Messungen beziehst du dich?

mboeller
2026-02-04, 13:56:53
Nein, ich mein MultiCore. Was hier im Forum überlicherweise auch so abgekürzt wird.

Aber die Reaktionen die ich bekommen hab, zeigt ganz deutlich, das es kein Schwein interressiert, das die CPU im unteren "Watteinstellungsbereich" säuft wie ein Loch für nicht mal 10% Mehrperformance.

Danke fürs Dummstellen.

... Tsss

Deine Frage wurde schon vor 4-5 Seiten beantwortet:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13874701&postcount=761

robbitop
2026-02-04, 15:46:09
Nein, ich mein MultiCore. Was hier im Forum überlicherweise auch so abgekürzt wird.

Aber die Reaktionen die ich bekommen hab, zeigt ganz deutlich, das es kein Schwein interressiert, das die CPU im unteren "Watteinstellungsbereich" säuft wie ein Loch für nicht mal 10% Mehrperformance.

Danke fürs Dummstellen.
Es wird als MT abgekürzt in dem Zusammenhang. Drücke dich einfach eindeutig aus und gebe nicht anderen die Schuld.

Haufen
2026-02-04, 15:57:45
Es wird als MT abgekürzt in dem Zusammenhang. Drücke dich einfach eindeutig aus und gebe nicht anderen die Schuld.Also im Kontext ist das doch recht offensichtlich, was gemeint war, siehe SC/MC in dildos Beitrag, worauf direkt Hochzeits Beitrag folgt mit derselben Benennung.

https://s1.directupload.eu/images/260204/i6aku9sc.png

robbitop
2026-02-04, 17:41:49
Es macht natürlich Sinn, mit Nichtigkeiten die Zeit aller zu verschwenden.
Man drückt sich einfach eindeutig aus und dann ist gut.

iamthebear
2026-02-08, 00:11:17
Gibt es auch schon IPC Vergleich zu Lunar Lake mit gleicher TDP? Dass PL schneller als LL allein schon wegen der höheren Leistungsaufnahme ist, ist mir bewusst.
Was ich nicht verstehe, warum man jetzt plötzlich über eine massiv gesteigerte Akkulaufzeit spricht.
Wenn ich eine Low Power Aufgabe, wie z.b. Video schauen, am laufen habe, ist nicht dann bei einem Notebook die Leistungsaufnahme von SSD, Screen, etc viel entscheidender, als ob die CPU nun 1,8 oder 1,3 Watt verbraucht?`
Die CPU trägt doch bei solchen Aufgaben kaum was zum Gesamtverbrauch bei, oder irre ich mich da?

Ich vermute fast, die ganze super Leistung, fast nur der höheren TDP zuzuschreiben ist.

Bei Workloads wo nicht viel von der SSD gelesen/geschrieben wird ist der Energiebedarf überschaubar. Display ist bei den Akkutests entweder auf 200 cd/m² zurück gedreht oder man testet gleich nur mit externem Display.
USB Geräte sind meistens abgesteckt genauso wie der LAN Port. Dann bleibt nicht so viel übrig.

Das entscheidende ist hier in der Praxis wie viel die CPU im busy idle verbraucht. Also ohne nennenswerte Last auf den Kernen aber gerade so viel um ein daierhaftes Energiesparen zu verhindern, da der Ring immer wieder hochtakten muss und alle Kerne aif vollen Takt/Spannung hoch boosten um so herum zu idlen.
Lunar Lake/PTL lösen das Problem gegenüber ADL indem sie brauchbare LPE Cores auf einem guten Node haben und so der Ring schlafen gelegt werden kann.

Daredevil
2026-02-08, 13:43:32
Ne 3DFX Tasse, Raff und ein Intel iGPU Test in einem Video, kuriose Zeiten. :D
Die 2xFG Latenz hält sich auch stark in Grenzen, mit XeLL deutlich unter der nativen Latenz means > Brauchbar bei nur 30w.
qp2gLiGmNpY

Nun Intel, please scale up to dGPUs. x(

Undertaker
2026-02-09, 09:45:47
https://www.mydealz.de/deals/msi-laptop-prestige-14-flip-intel-core-ultra-x7-358h-32gb-ram-b390-igpu-2729376

Ultra X7 / B390 mit 32GB jetzt unter 1.400 Euro erhältlich und damit jetzt schon billiger als die günstigsten HX 370 StrixPoint Systeme.

dildo4u
2026-02-09, 11:06:41
https://www.mydealz.de/deals/msi-laptop-prestige-14-flip-intel-core-ultra-x7-358h-32gb-ram-b390-igpu-2729376

Ultra X7 / B390 mit 32GB jetzt unter 1.400 Euro erhältlich und damit jetzt schon billiger als die günstigsten HX 370 StrixPoint Systeme.
Achtung 60hz Display daher vermutlich der Preis diese Konfiguration ist Unsinn in der Klasse.

Undertaker
2026-02-09, 11:22:49
Das ist beim günstigsten Strix Point Notebook (mit weniger Speicher und ohne OLED btw) nicht anders: https://geizhals.de/asus-tuf-gaming-a16-fa608wv-rl019w-90nr0j01-m00110-a3235038.html

Panther Lake scheint preislich recht attraktiv platziert zu werden so wie es aussieht. War ja auch seitens Intel so angekündigt.

mocad_tom
2026-02-09, 21:17:55
Es stagniert halt leider hier sehr:

https://geizhals.de/?cat=nb&hloc=de&asuch=%22core+ultra+x7%22&asd=on&bpmin=&bpmax=&v=e&hloc=at&plz=&dist=&mail=&sort=p&bl1_id=30

Ich hoffe da kommen bald mehr - die Auswahl bei Core Ultra X9 und Core Ultra X7 ist aktuell noch arg klein.

Und wenn aktuell in den Tests ein Asus Laptop noch nicht so läuft - das ist ein Bananen-Gerät, das reift beim Kunden - aber das wird ziemlich sicher.

Raff
2026-02-09, 22:29:47
Nun Intel, please scale up to dGPUs. x(

Wird leider eher nicht passieren, wir kriegen nur die gut abgehangene Fertigung. Die Arc Pro B70 wird mit Abstand das Beste sein, um Intels MFG ordentlich zu nutzen. Ich habe keine Ahnung, was das Ding kosten wird, würde aber mal knapp vierstellig annehmen.

MfG
Raff

czuk
2026-02-10, 05:25:23
Das ist beim günstigsten Strix Point Notebook (mit weniger Speicher und ohne OLED btw) nicht anders: https://geizhals.de/asus-tuf-gaming-a16-fa608wv-rl019w-90nr0j01-m00110-a3235038.html

Panther Lake scheint preislich recht attraktiv platziert zu werden so wie es aussieht. War ja auch seitens Intel so angekündigt.

Das Display ist leider ziemlich schrott, Helligkeit 300nits laut HWLuxx Test.

dildo4u
2026-02-14, 17:16:50
XPS 14 mit Ultra 7 355 low End Test

8 CPU plus 4 GPU Kerne

q-jKP-yZ5TQ

mczak
2026-02-16, 15:24:19
Einen Test mit dem XPS 14 mit Ultra 7 355 gibt's auch hier:
https://www.notebookcheck.com/Dell-XPS-14-Core-Ultra-7-355-im-Test-Ist-das-guenstigere-XPS-die-bessere-Wahl.1227136.0.html

Weiss eigentlich jemand wieso sich die Ultra 7 355 / 365 das Ultra 7 im Namen verdienen? Mit der 4+0+4 CPU Konfiguration sind die ja sowas von komplett chancenlos gegen Ultra 5 336H / 338H (4+4+4). Klar ohne H im Namen ist die offizielle Turbo Power "nur" 55W statt 65-80W, aber die Base Power ist ja dieselbe und effizienter werden die dadurch mit Sicherheit nicht - die Ultra 5 H ziehen Kreise um diese Chips auch wenn man die auf 55W Turbo beschränkt.

Da sieht dann Panther Lake schon nicht mehr so toll aus - das CPU-Niveau (sowohl MT wie ST) ist dann halt nur gerade so gut genug um Lunar Lake zu schlagen, und bleibt MT natürlich meilenweit hinter Kracken Point zurück, was ja nicht erstaunen kann wenn man einfach die normalen E-Cluster komplett weglässt (wieso bloss?).

Auch Xe3 sind dann nicht mehr ganz so toll aus. Mit 4 Xe3 Kernen verliert man doch gegen Kracken Point (Radeon 860M mit 8 CUs) und wirklich knapp ist es auch nicht (Achtung im oben verlinkten Test ist bei vielen GPU-Benches als Vergleich nur ein Kracken Point Notebook mit Single Channel DDR5-5600 vertreten was (Ueberraschung...) die Performance ruiniert - man kann da aber zum Glück selbst Vergleichsnotebooks hinzufügen). Dies obwohl man ja immer noch einen Vorteil beim GPU-L2 hat (4 gegen 2 MB, wobei diese Modelle doch deutlich weniger bandbreitenlimitert sein sollten als die teureren Chips (wenn sie denn nicht gerade SC Speicher verwenden...). Aber immerhin doch deutlich schneller als Arrow Lake mit 4 Xe Kernen. Und die Skalierung auf 12 Xe3 Kerne bei den besseren Modellen scheint jedenfalls super zu klappen.

mocad_tom
2026-02-16, 16:39:53
Diese 4-0-4-Config ist eine billig-config.

Die hat eine volle NPU drin, aber der Rest ist durchwachsen.

Ich denke, dass diese Config die bisherigen AlderLake-H 4P + 4E ablösen wird.

Core i5 12450H

Bzw Raptor Lake-H 4P+4E

Core i5 13420H (wenn ich das richtig im kopf hatte war das nur umgelabelt)

Bzw Raptor Lake-U 2P+4E

Intel Core 3 100U

Diese 4-0-4 Panther Lake und die Wildcat Lake werden richtig Volumen haben, aber niemals bei den Benchmark-Königen vorne mit dabei sein.

mczak
2026-02-16, 17:02:52
Diese 4-0-4-Config ist eine billig-config.
Ich verstehe eben bloss nicht wieso die ein Ultra 7 Label kriegen wenn man viel schnellere Ultra 5 hat.
Aber gut, rein von den Specs her gibt's sogar eine "logische" Erklärung: Alles mit NPU mit 49 TOPS oder mehr heisst Ultra 7 oder Ultra 9 (bzw. X7 / X9), alles mit 47 TOPS und darunter ist nur Ultra 5 :confused:.

ryan
2026-02-16, 21:07:58
Auch Xe3 sind dann nicht mehr ganz so toll aus. Mit 4 Xe3 Kernen verliert man doch gegen Kracken Point (Radeon 860M mit 8 CUs) und wirklich knapp ist es auch nicht (Achtung im oben verlinkten Test ist bei vielen GPU-Benches als Vergleich nur ein Kracken Point Notebook mit Single Channel DDR5-5600 vertreten was (Ueberraschung...) die Performance ruiniert - man kann da aber zum Glück selbst Vergleichsnotebooks hinzufügen). Dies obwohl man ja immer noch einen Vorteil beim GPU-L2 hat (4 gegen 2 MB, wobei diese Modelle doch deutlich weniger bandbreitenlimitert sein sollten als die teureren Chips (wenn sie denn nicht gerade SC Speicher verwenden...). Aber immerhin doch deutlich schneller als Arrow Lake mit 4 Xe Kernen. Und die Skalierung auf 12 Xe3 Kerne bei den besseren Modellen scheint jedenfalls super zu klappen.


Wo siehst du das? Im Spiele Rating liegt die 4 Xe3 32% vor der 860M und 24% hinter der 8 Xe2 von Lunar Lake. Vielleicht schaust du im 3dmark Rating. Der ist doch uninteressant.

mczak
2026-02-16, 21:28:00
Wo siehst du das? Im Spiele Rating liegt die 4 Xe3 32% vor der 860M und 24% hinter der 8 Xe2 von Lunar Lake. Vielleicht schaust du im 3dmark Rating. Der ist doch uninteressant.
Ich darf mich hier mal selbst zitieren:
(Achtung im oben verlinkten Test ist bei vielen GPU-Benches als Vergleich nur ein Kracken Point Notebook mit Single Channel DDR5-5600 vertreten was (Ueberraschung...) die Performance ruiniert - man kann da aber zum Glück selbst Vergleichsnotebooks hinzufügen).

:rolleyes:

ryan
2026-02-16, 21:33:27
Ich darf mich hier mal selbst zitieren:

:rolleyes:


Dann scheint es aber nicht so viel auszumachen, ich meine so arg liegt die 4 Xe3 hinter Lunar Lake nicht zurück und Lunar Lake liegt so in etwa auf 890M Niveau. Dell hat im übrigen nicht die schnellste Panther Lake Implementation.

4 Xe3 Benchmarks gab es schon auf Ultrabookreview: https://www.ultrabookreview.com/74624-intel-panther-lake-laptops/

mczak
2026-02-16, 21:52:57
Dann scheint es aber nicht so viel auszumachen, ich meine so arg liegt die 4 Xe3 hinter Lunar Lake nicht zurück und Lunar Lake liegt so in etwa auf 890M Niveau. Dell hat im übrigen nicht die schnellste Panther Lake Implementation.

Man darf eben nicht vergessen dass die 860M von Kracken Point (jedenfalls in Spielen) auch bloss so 20% hinter der 890M von Strix Point zurückliegt, trotz bloss halber CU Anzahl. Die IGP von Strix Point ist eben komplett unausgewogen, die Bandbreite reicht einfach hinten und vorne nicht (möglicherweise ist Xe3 etwas bandbreiteneffizienter, auch RDNA4 ist ja bandbreiteneffizienter als RDNA bis 3.5, aber hauptsächlich löst intel das eben mit viel mehr GPU-L2).
Der Vergleich von 4 Xe3 Panther Lake mit 860M ist da imho aus Architektursicht eigentlich interessanter als 12 Xe3 mit 890M, weil die 890M eben miserabel bis gar nicht mit mehr CUs skaliert. (Aus Produktsicht ist das natürlich was anderes, intel kann ja auch nichts dafür dass AMD die IGP-Implementierung bei Strix Point absichtlich verbockt hat.)

ryan
2026-02-16, 21:58:08
Die 4 Xe3 hat nur ein drittel der Einheiten von der größeren PTL Variante. Ich hätte nicht mit der Performance gerechnet, jedenfalls nicht so dicht an einer 8 Xe2 oder 890M.

mczak
2026-02-16, 22:05:51
Die 4 Xe3 hat nur ein drittel der Einheiten von der größeren PTL Variante. Ich hätte nicht mit der Performance gerechnet, jedenfalls nicht so dicht an einer 8 Xe2 oder 890M.
Ja gerade im Vergleich mit Lunar Lake schlägt sich die gut. Und eben wenn man mit der 890M vergleicht könnte man meinen 4 Xe3 Cores sind jetzt nicht so weit weg von 16 RDNA 3.5 CUs. Aber 8 RDNA 3.5 CUs sind eben immer noch etwas schneller als 4 Xe3 Kerne, auch wenn der Unterschied nicht allzu gross ist. Und der Konkurrent dürfte da schon eher Kracken Point und nicht Strix Point sein (ist wohl davon auszugehen dass die Panther Lake Chips mit dem grossen CPU-Die aber kleinen GPU-Die wohl eher mit dGPU ausgeliefert werden).

Fusion_Power
2026-02-17, 02:54:02
Ich suche gerade krampfhaft nach Notebooks mit dem Core Ultra 5 338H und der dazugehörigen auch ganz schicken Arc B370… gibts die Dinger etwa noch gar nicht? :confused:

Undertaker
2026-02-17, 10:31:07
Ja gerade im Vergleich mit Lunar Lake schlägt sich die gut. Und eben wenn man mit der 890M vergleicht könnte man meinen 4 Xe3 Cores sind jetzt nicht so weit weg von 16 RDNA 3.5 CUs. Aber 8 RDNA 3.5 CUs sind eben immer noch etwas schneller als 4 Xe3 Kerne, auch wenn der Unterschied nicht allzu gross ist. Und der Konkurrent dürfte da schon eher Kracken Point und nicht Strix Point sein (ist wohl davon auszugehen dass die Panther Lake Chips mit dem grossen CPU-Die aber kleinen GPU-Die wohl eher mit dGPU ausgeliefert werden).


Wo ist eine 860M bei gleich TDP schneller als PTL mit 4 XE-Cores?

Pirx
2026-02-17, 10:57:15
na "sustained" sind wohl doch eher die 54 W PL2

Undertaker
2026-02-17, 11:01:54
Im Test des Core Ultra 7 355U mit der 4er XE3? Nein, der regelt bei 28-30W sustained ab, auch im Gaming-Test.

https://www.notebookcheck.com/Dell-XPS-14-Core-Ultra-7-355-im-Test-Ist-das-guenstigere-XPS-die-bessere-Wahl.1227136.0.html

Siehe unten im Test die Cyberpunk-Screenshots.

dildo4u
2026-02-17, 11:04:41
Ich suche gerade krampfhaft nach Notebooks mit dem Core Ultra 5 338H und der dazugehörigen auch ganz schicken Arc B370… gibts die Dinger etwa noch gar nicht? :confused:
Es ist noch gar nichts auf Lager es gibt aber scheinbar genug Geräte um Influenzer damit zu versorgen.

Undertaker
2026-02-17, 11:21:36
Der Launch ist doch erst wenige Wochen her, habt ihr noch nie die Vorstellung einer Notebook-Generation erlebt? :D Bei Zen4/5 hat es teilweise fast ein halbes Jahr gedauert, bis eine breite Auswahl an Geräten auch tatsächlich verfügbar war. Auch wenn Intels track record hier besser ist, ~2-3 Monate muss man schon rechnen. Immerhin ist die B390 ja durchaus schon in einigen Modellen verfügbar.

mocad_tom
2026-02-17, 11:44:33
https://geizhals.de/?cat=nb&xf=6752_Core+Ultra+300

Bei den Dell wenn man konfiguriert bekommt man als Datum Anfang April.

Undertaker
2026-02-17, 11:53:55
MSI kann zB schon liefern und ich meine, da gab es (ggf. ebenfalls direkt über den Hersteller) auch noch andere:

https://de-store.msi.com/products/prestige-14-flip-ai-d3mtg-030de

Aber wie gesagt: Noch 1-2 Monate Geduld sind sicher angebracht.

mczak
2026-02-17, 11:57:16
Im Test des Core Ultra 7 355U mit der 4er XE3? Nein, der regelt bei 28-30W sustained ab, auch im Gaming-Test.
Siehe unten im Test die Cyberpunk-Screenshots.
Möglich dass der etwas sparsamer ist, aber dazu müsste man halt Testbedingungen haben bei denen die TDP identisch ist, die habe ich auf einen Blick nicht gefunden. Das Yoga Slim 7 14AKP G10 (das habe ich zum Perf-Vergleich benutzt mit Ryzen AI 7 350) durfte da wie's scheint 45W verbraten, also tatsächlich deutlich mehr. Wobei die 2.9 Ghz Boost bei der 860M alles andere als effizient sind, womöglich würde man nicht allzu viel verlieren bei einer TDP-Beschränkung auf ~30W. Im Test des Yoga sind auch Perf-Daten enthalten bei bloss 15W (und auch 42W - da sind die Werte quasi identisch zu 45W), Cyberpunk sank von 40 FPS auf immerhin noch 28 FPS. Daraus könnte man schon schliessen dass man bei ~30W sehr wenig Performance verliert.
Wie sich das bei der 4 Xe3 mit tieferen TDP-Limits verhält weiss ich nicht, das müsste man auch mal testen. Kann gut sein dass die 28W (bzw. der quasi fix anliegende 2500Mhz GPU-Takt, der ist ja identisch wie bei der 12 Xe3 Variante in besserer Fertigung) auch schon deutlich oberhalb der maximalen Effizienz sind.

Undertaker
2026-02-17, 12:06:30
Lunar Lake mit 17W inkl RAM erreicht knapp 40fps in CyberPunk Low bei NBC (Asus Zenbook S 14 UX5406) und liegt insgesamt knapp über der PTL 4er XE3. Ich sehe die 860M TDP-bereinigt deutlich hinter der kleinen PTL GPU.

mczak
2026-02-17, 12:26:05
Lunar Lake mit 17W inkl RAM erreicht knapp 40fps in CyberPunk Low bei NBC (Asus Zenbook S 14 UX5406) und liegt insgesamt knapp über der PTL 4er XE3. Ich sehe die 860M TDP-bereinigt deutlich hinter der kleinen PTL GPU.
Also habe doch noch vergleichbare 860M gefunden, bei 32W: https://www.notebookcheck.net/HP-OmniBook-7-Aero-13-review-World-s-lightest-13-inch-laptop-with-over-40-TOPS-NPU.1183908.0.html.
4 Xe3 PTL holt definitiv etwas auf, scheint aber insgesamt immer noch leicht hinten zu liegen - aber kommt nun definitiv darauf an welches Spiel getestet wird. Aber gut, mit nochmal 4W weniger für den Ryzen 7 AI 350 würde es dann vielleicht für einen Gleichstand reichen :smile:.

dildo4u
2026-02-17, 12:31:43
Dort steht doch im Test das das 355 Modell nicht sonderlich effizient ist was Sinn macht die Leistung mit nur 4XE kommt über den Takt.

https://i.ibb.co/zV9jYLkj/Screenshot-2026-02-17-122948.png (https://imgbb.com/)

https://www.notebookcheck.net/Dell-XPS-14-Core-Ultra-7-355-review-Still-great-but-not-nearly-as-special.1222645.0.html

Das Highlight ist die Akku Laufzeit im Desktop Betrieb der Rest ist nix Besonderes.

Undertaker
2026-02-17, 12:54:11
Also habe doch noch vergleichbare 860M gefunden, bei 32W: https://www.notebookcheck.net/HP-OmniBook-7-Aero-13-review-World-s-lightest-13-inch-laptop-with-over-40-TOPS-NPU.1183908.0.html.
4 Xe3 PTL holt definitiv etwas auf, scheint aber insgesamt immer noch leicht hinten zu liegen - aber kommt nun definitiv darauf an welches Spiel getestet wird. Aber gut, mit nochmal 4W weniger für den Ryzen 7 AI 350 würde es dann vielleicht für einen Gleichstand reichen :smile:.

Vergleich doch mal die Gaming-Benches mit dem PTL-Gerät - ziemlicher Gleichstand bei etwas höherer TDP der 860M. Damit liegt die 860M für mich TDP-bereinigt weiterhin zurück.

Fusion_Power
2026-02-17, 14:10:20
Es ist noch gar nichts auf Lager es gibt aber scheinbar genug Geräte um Influenzer damit zu versorgen.
Stimmt auch wieder. Der Pöbel muss also mal wieder warten bis die Lordschaften sich herab lassen, ihn irgend wann mal mit milden Gaben zu beglücken...

Lunar Lake mit 17W inkl RAM erreicht knapp 40fps in CyberPunk Low bei NBC (Asus Zenbook S 14 UX5406) und liegt insgesamt knapp über der PTL 4er XE3. Ich sehe die 860M TDP-bereinigt deutlich hinter der kleinen PTL GPU.
Ich finde es war ein gewaltiger Fehler von AMD, ihre Radeon 880/890M nur in der größeren "9er" Serie zu verbauen und schon ab der "7er" die Kunden mit ner popeligen 860M abzuspeisen. die 780M gabs davor ja auch noch in der 7er Reihe. Vertane Chance.

mczak
2026-02-17, 16:24:12
Ich finde es war ein gewaltiger Fehler von AMD, ihre Radeon 880/890M nur in der größeren "9er" Serie zu verbauen und schon ab der "7er" die Kunden mit ner popeligen 860M abzuspeisen. die 780M gabs davor ja auch noch in der 7er Reihe. Vertane Chance.
Naja also so schlimm finde ich das jetzt auch nicht. Klar auf dem Papier nur 8 CUs statt 16 sieht nach viel aus aber performancemässig ist man da ja relativ nah.
Und das liegt halt daran dass bei Phoenix/Phoenix2 gegenüber Strix/Kracken der Unterschied deutlich grösser war. Phoenix2 hatte ja bloss 4 CUs, keine NPU, weniger I/O, und eine 2+4 CPU Konfiguration statt 4+4 - der Chip taugte da nicht wirklich für ein Ryzen 7 Branding. Kracken verliert aber am Ende bloss 4 der "langsamen" Kerne (merkt man doch kaum, auch wenn die Cluster-Konfiguration anders ist), und eben die Hälfte der CUs, der Rest ist identisch. Auch die Die-Size ist gar nicht so verschieden.
Ausserdem gab's bei Phoenix ja eigentlich nur auf dem Papier einen Unterschied zwischen Ryzen 9 und Ryzen 7 (minimalst höhere Taktraten), der Ryzen 9 war da eigentlich komplett überflüssig, von daher finde ich eher das Branding bei Phoenix seltsam...
Ist im Endeffekt natürlich etwas unschön dass ein Ryzen 7 der Zen5 Generation bei der GPU-Leistung da nun leicht hinter einem Ryzen 7 der Zen4 Generation zurückbleibt (jedenfalls bei gleich schnellem Speicher und gleicher TDP - ansonsten kann man den Rückstand durchaus wettmachen).

dildo4u
2026-02-18, 12:27:57
Samsung verkauft Ultra 7 Geräte erstmal nur in Verbindung mit einer 5060


https://videocardz.com/newz/samsung-galaxy-book6-panther-lake-laptops-priced-for-europe-entry-model-starts-at-e1149-and-book6-ultra-reaches-e3399

mczak
2026-02-18, 13:37:55
Samsung verkauft Ultra 7 Geräte erstmal nur in Verbindung mit einer 5060


https://videocardz.com/newz/samsung-galaxy-book6-panther-lake-laptops-priced-for-europe-entry-model-starts-at-e1149-and-book6-ultra-reaches-e3399
Ich gehe doch davon aus das ist ein Ultra 7 H Chip im Galaxy Book6 Ultra? Sieht man leider in der Uebersichtstabelle nicht, aber da besteht ja ein Riesenunterschied (Ultra 7 H ist ziemlich Highend, Ultra 7 non-H ist ein Billigheimer der eigentlich in einem 3000 Euro Notebook nichts verloren hat).

dildo4u
2026-02-20, 09:55:45
Schätze ab 1800€ bekommt man Arc370/390 bei Samsung.

https://www.computerbase.de/news/notebooks/samsung-notebooks-galaxy-book-6-pro-ultra-startet-am-11-maerz-ab-1-049-euro.96227

mocad_tom
2026-02-21, 11:57:08
kurnal hat sich auf twitter schon beschwert, dass er bei Backside Power nicht so einfach die richtige Schicht findet.

Kurnal und Jukan scheinen PTL da zu haben und untersuchen den gerade.

https://x.com/jukan05/status/2025063020184174676

Ich kann mir nicht helfen, aber für mich hört sich das nach Intel 20A aber mit Memory-Controller an.
Die SRAM Zellen haben kein BSPDN - weil SRAM nicht so viel Energie schluckt.
Die Vorteile bei der Versorgung ist nicht groß, sie müssten aber einen anderen Raster wählen und wären dann nicht mehr so kompakt.
Deshalb sind wohl auch die TSMC SRAM HP-Zelle in N2 und die Intel SRAM HP-Zelle in 18A auch so nahe beieinander bei der Packdichte.

Die älteren werden sich erinnern man wollte eigentlich das kleine Arrow Lake Die in Intel 20A fertigen, hat das aber denn gecancelt.

TSMC verschiebt seine N2 Produktion auch schrittweise nach hinten. Ich bin gespannt wie viele Apple Produkte dieses Jahr N2 hernehmen werden.


Da hat Kurnal geschimpft:

https://x.com/Kurnalsalts/status/2017554165078364569

Badesalz
2026-02-21, 12:51:31
TSMC verschiebt seine N2 Produktion auch schrittweise nach hinten.Ist damit alles was bei TSMC in N2 kommen sollte verschoben?

davidzo
2026-02-21, 16:37:47
Ich kann mir nicht helfen, aber für mich hört sich das nach Intel 20A aber mit Memory-Controller an.

Für mich sieht das sehr nach intel4/3 plus GAA und BSPDN aus. Ein relativ grober Prozess der riskante neue features benutzt um Intels Nachteil beim EUV Fab Ausbau herum manövrieren.
Intel hatte für CPUs seit 10 (7)nm schon immer Metal scaling probleme welche die Transistordichte stark einschränkten obwohl man bei der Gate Länge / CPP eigentlich Konkurrenzfähig bist Weltklasse war. Das ist der Grund, warum ein Intel 7 Chip in der Realität oft viel größer war als ein TSMC N7/N6 Chip, obwohl die Transistoren theoretisch ähnlich groß sind.

Mit 18A ändert sich der Rückstand beim Metal Interconnect nicht groß, sondern man umgeht das problem einfach indem man per BSPDN den Platzdruck in M0 verringert.

Der Metal Pitch (36nm) und contacted poly Pitch (52nm) ist eigentlich eher vergleichbar mit TSMC N5 (34nm, 51nm). TSMC N3 printed hier deutlich kleinere Strukturen mit 23-28nm M0pitch und 45-48nm CPP:

Aber durch GAA reichen bei 18A eben 5 Tracks um die Performance von 6.5-7.5T Fin Library zu erreichen. Dadurch werden die Zellen trotz hohem Metal pitch weniger hoch (HP-5T-180nm) als TSMC N3E (HP-6.5T-206nm).

Durch BSPDN hat man zudem weniger Routing congestion und kommt leichter mit dem relativ groben Metal pitch aus.

Den sehr relaxten M0 layer erreicht man im Gegensatz zu TSMC sehr kosteneffektiv mit einer single EUV Exposure. N3B war double und N3E wohl wieder überwiegend single, während N2 zurück auf double exposure ist. Nur beim gate nutzt Intel bei 18A auch double Exposure.

Man könnte also meinen Intel hat den Prozess stark kostenoptimiert. Dem ist aber nicht so, weil die Prozess-komplexität durch GAA extrem ansteigt. Der Aufbau eines superlattice, das selektive ätzen und viel mehr deposition schritte verlängern den Prozess ungemein und erfordern viel mehr Fab Fläche und Spezialequipment. Nicht zu vergessen kommt auch der BSPDN Die am Ende noch on top, inklusive wafer bonding, grinding, etching, deposition, etc. Das ist sicher nicht ganz billig im Vergleich zu einem relativ geradlinigen TSMC prozess Flow bei N3E.

Intel hat also viel eher aus der Not heraus weniger EUV Scanner als TSMC zu besitzen eine Tugend gemacht und einen Prozess entwickelt der ihre sonstigen gut vorhandenen Litographieanlagen gut auslastet.
Der prozess ist Low-EUV optimiert.


Hier zeigt sich aber auch wieso 18A bisher so unattraktiv für externe Foundry customer war. Der Prozess ist unflexibel, komplex und die turnaround time länger. Unflexibel meint: Es gibt kaum Auswahl bei der Fin library, man bekommt immer 5T. je nachdem wie man es dreht ist 18A HP ein verkappter HD prozess oder die HD version eigentlich ein marginal veränderter HP prozess.

Die HD Version existiert bisher nur auf dem Papier und unterscheidet sich auch kaum von der HP version: Beide sind 5T Zell Libraries. Die Density dadurch fast gleich, wäre da nicht der engere Metal Pitch von 32nm. Den hat Intel aber bei Pantherlake bewusst nicht eingesetzt, selbst für den SRAM oder die LP Cores nicht. Wahrscheinlich aus Yield Gründen, möglicherweise aber auch wegen der layout Komplexität zweier metal pitches auf einer Maske/chip.

TSMC hat hier mit Finflex eine Geheimwaffe welche es ihren Kunden erlaubt die bessere Dichte von 6T HD zellen mit der besseren Performance von 8.5T Zellen zu kombinieren. Darauf hat Intel einfach keine Antwort.

Während die HP version von 18A also vergleichbare Density und Performance mit TSMC N3E HP erreicht, fällt die HD version flach. Der geringe Zuwachs bei der Density trotz hohem Anstieg an Prozesskomplexität und fragwürdigem yield lohnen sich einfach nicht. Weder für Intel selbst, noch für foundry customer.

Mal sehen was Apple für den 18AP Prozess angeboten bekommen hat. Der wird sicher etwas anders sein als der bisherige 18A Prozess.
ich könnte mir zum Beispiel vorstellen dass BSPDN wegfällt, aber der 32nm Metal pitch und 5T Zellen ggf. mit niedrigerer Vt genutzt werden und dazu massiv mit Foveros und stacked Cache gearbeitet wird.

mocad_tom
2026-02-22, 13:15:38
Intel hat jetzt folgendes in der Pipeline:
18A 18AP 18AP-T 18A-U

Intel 10 und Intel 7 waren ja die gleichen Prozesse, nur mit Weiterentwicklungen.

Freilich -T ist auf etwas anderes spezialisiert.

Aber ich lese es gerade so:
18A 18A+ 18A++

Und immer wenn Intel sowas auf der Roadmap hatte, dann war das ein Gewinnerprozess.
Mit der einen Einschränkung, dass sie !rechtzeitig! auf den nächsten Prozess wechseln !müssen!.

18AP bringt ja wieder 10% mehr perf.

Klar wird rumgefrotzelt, Intel packt viel Volumen bei Nova Lake auf TSMC.
Aber Diamond Rapids wird wohl auf 18AP kommen und dort werden wir dann wirklich ein Fazit zum Prozess ziehen können.

Die Cloud-Provider wollen durch ihr aufkaufen des Marktes onPrem im Keim ersticken. Tatsächlich wird aber onprem in den nächsten Jahren gewinnen, dazu ist die Angst vor Datenklau einfach zu groß.

Und HBF wird heute aktuelle Hardware zu Briefbeschwerer machen und den Markt einmal komplett auf Links drehen.

Wenn dort dann gleichzeitig mehrere Player ähnliche Techniken liefern dann wird das ein Blutbad. Es wird Technik geben, die Mixture of Experts in Hardware abbilden.

An dieser kambrischen Explosion Waferstarts anbieten zu können ist einfach komplett Irre.

Es benötigt aber Fingerspitzengefühl an welcher Stelle der Nahrungskette man sich einordnen will. Wo will die Chipdesignfirma Intel mit den Kunden der Intel-Fab konkurrieren.

Man konnte Gaudi nicht einfach auf Intel Fab migrieren, weil sich Gaudi Matmul-Units aus der TSMC-Bibliothek genommen hat (und weitere Building Blocks). Man konnte Mobileye nicht einfach zur Intel-Fab migrieren wegen gleicher Sachen. Man benötigte unglaublich lange bis Altera auf einem Intel Prozess lief.

Die Intel-Fab muss Building Blocks zur Verfügung stellen können, die bisher eigentlich in der Intel-Chipentwicklung entwickelt wurden(und die eigentlich mit einem Intel-Label auf dem Chip enden sollten).

Durch die Hochintegrierung sind da nicht mehr einzelne Sticker auf dem Chip sondern die Building Blocks landen auf dem SoP.

Die letzten Intel-Jahre waren eigentlich geprägt durch Magerkur.
Barefoot-Networks und Optane mussten sterben, obwohl sie vielversprechend waren. Hätte man Optane durchgeschleppt, es wäre jetzt eine Goldgrube.

Diejenige Firma, die morgen ein Mixture-of-Experts Gerät auf die Beine stellen kann gewinnt den Markt.

Und nvidia will da gerade immer seinen Burggraben rundherumbauen, aber sie stoßen an Grenzen.

Intel konkurriert ja auch in einer Horizontalität und Vertikalität.
Intel könnte auch eine Design-Firma ähnlich wie Broadcom sein, gleichzeitig wäre es aber attraktiv Broadcom als Kunden zu haben. Gleichzeitig wäre es interessant Microsoft oder Google oder Amazon als Kunden zu haben. Gleichzeitig wäre es interessant möglichst viele kleine OnPrem-Häuser mit KI-Hardware zu bedienen.

Ich sehe den Wunsch vieler Firmen im 100Mio bis 10Mrd Dollar Umsatz Bereich, dass sie ihr Geld nicht zu den Top-5-Cloud-Provider tragen wollen.
Sie wollen das Know-How wieder In House haben. Auch die aufkommende Kriegsangst und das Abprüfen der Lieferketten spielen hier mit rein.

Die nächsten 3 bis 4 Jahre werden extrem spannend.

w0mbat
2026-02-22, 13:20:33
18A ist ein extrem großer Schritt mit GAA und BSPD. 18AP ist wie TSMC N3 -> N3P oder N2 -> N2P. Die Spezialversionen sind kein "+++". 14A kommt als nächstes.

Badesalz
2026-02-22, 19:31:24
Aber ich lese es gerade so:
18A 18A+ 18A++

Und immer wenn Intel sowas auf der Roadmap hatte, dann war das ein Gewinnerprozess.Da ist was wahres dran. Ich kann mich noch an den 14er erinnern...
Und HBF wird heute aktuelle Hardware zu Briefbeschwerer machen und den Markt einmal komplett auf Links drehen.:| HBF ist kein Allrounder.

mocad_tom
2026-02-22, 23:19:23
Zukünftig haben wir 20% Training // 80% Inferencing

Beim Training wird dir HBF (High Bandwidth Flash) nicht helfen.

Aber bei Inferencing wird ein KI Beschleuniger mit 2TB HBF und 80GB HBM bei einem LLM mit M o E und 2000 Milliarden Parameter insgesamt und 50 Milliarden Parameter aktiv ein übermächtiges Monster.

Angenommen man hat mehrere Blackwell 300 über Netzwerk zusammengeschlossen und schafft es dann alle 2000 Milliarden Parameter im HBM-Speicher zu halten, so ist das weniger effizient, weil ich Kommunikation über die Netzwerkschnittstelle hinweg versenden muss.

Das HBF-Speicherinterface ist energieeffizienter als die Kommunikation über Netzwerk.
Vor 3 Jahren hat noch niemand damit gerechnet, dass Mixture of Experts alles in Grund und Boden dominieren wird. Deshalb sehen alle Roadmaps gerade gleich aus (alle auf dem linken Fuß erwischt).

Wäre es Intel vor 3 Jahren bereits bewusst gewesen, dann hätten sie Optane weiterleben lassen und es mit einer High Bandwidth Schnittstelle versehen.

Eigentlich müsste man sich einen davon schießen und einrahmen und an die Wand hängen(Optane DDR RAM für Cascade Lake Plattform):
https://www.ebay.de/itm/127602545931

Und weil uns eine derartige kambrische Explosion erwartet werden wir durch eine große Pleite-Phase durchgehen. Und derjenige, der die neuen Schaufeln baut wird die nächsten Aufträge einfahren. Und man wird Cleanroom / Waferstarts für Flash / HBM und Logik brauchen.

Intel 18A-U (U steht wohl für Ultra)
https://x.com/Alex_Intel_/status/2023520057863868845

Roadmap noch ohne Ultra
https://au.pcmag.com/processors/110787/intels-next-chip-node-14a-to-boost-cpu-speeds-with-turbo-cells

Und so komme ich halt zu 18A 18A+ 18A++ 18A+++

Badesalz
2026-02-23, 06:32:45
Aber bei Inferencing wird ein KI Beschleuniger mit 2TB HBF und 80GB HBM bei einem LLM mit M o E und 2000 Milliarden Parameter insgesamt und 50 Milliarden Parameter aktiv ein übermächtiges Monster.Mir fehlt grad so bisschen der Kontext. Ein Thread über PantherLake in dem ich mich für Ende 2027/Anfang 2028 über irgendwas für die KI-Buden bgeistern sollte ist mir irgendwie fremd... :|

PS:
Eigentlich müsste man sich einen davon schießen und einrahmen und an die Wand hängenIch hab vor 2 Jahren eine dicke Optane auf ebay usa geschossen. Die schein dem Anbietenden irgendwie wertlos :usweet:
Sie tuts :wink:

Platos
2026-02-23, 09:04:46
Mir ist HBF gerade neu. Hab mich kurz eingelesen hier: https://www.tomshardware.com/pc-components/dram/sandisks-new-hbf-memory-enables-up-to-4tb-of-vram-on-gpus-matches-hbm-bandwidth-at-higher-capacity

Das Versprechen ist HBM-Like Bandbreite, aber was ist mit der Latenz? Die dürfte ja genau so lahm sein wie bei sonstigem Flashspeicher oder?

mocad_tom
2026-02-23, 09:10:17
@Badesalz
1. Eine Optane SSD habe ich auch in meiner Workstation und die ist wirklich stark.

Das interessante hier ist ja, dass die gleiche Technologie nicht an einem SSD-Controller hängt, sondern dass es in einem DDR4-Sockel steckt.

------

2. Panther Lake ist der Pipecleaner für den 18A-Prozess.
Eigentlich ist der wirkliche Pipecleaner Wildcat Lake (weil Wildcat Lake kleiner ist).
Und der 18A-Prozess ist hier um zu bleiben.



@Platos
Die Latenz ist brutal schlecht.
Aber man liest den Experten vom Anfang bis zum Ende in einer großen Leseabfrage. Also hat man einmal die Latenz und ab dann eine große kontinuierliche Menge an Daten.

Badesalz
2026-02-23, 09:27:49
Das Versprechen ist HBM-Like Bandbreite, aber was ist mit der Latenz? Die dürfte ja genau so lahm sein wie bei sonstigem Flashspeicher oder?
Den Fingerzeig hat mocad schon geliefert
"wird ein KI Beschleuniger mit 2TB HBF und 80GB HBM"

Es soll folgerichtig HBM nicht ersetzen. Es ist ein Pufferspeicher (Cache) zwischen HBM und Hauptspeicher.
V-Cache bringt bei AMD in bekannten Fällen auch massiv viel, obwohl die Latenzen jenseits der des L2 sind :wink:

Worauf man hier geil ist, ist die gigantische Bandbreite gegenüber dem Hauptspeicher.

Die Diskussion bzw. die Problematik ist hier ähnlich dem was im Chipfertigung-Thread wegen Zukunft angeschnitten wurde:
Die ALUs sind mittlerweile so pervers schnell - egal ob CPU oder GPU/XPU - daß der kardinale Flaschenhals die Datenbewegung ist. Im Großen wie auch im Kleinen.

PS:
Ich bin mir nur nicht sicher, wie sehr das in einem Intel-Thread deplaziert wirkt...

basix
2026-02-23, 11:29:46
Richtig, HBF ist schlussendlich ein grosser Lesepuffer. Man speichert das DNN Modell im HBF und streamed es Stück für Stück in den HBM. Und das wiederholt man dan zig Male. Speziell für Mixture of Experts DNN (was heutzutage die vorherrschende Architektur bei LLM ist) dürfte HBF Gold wert sein, da man sich damit das aufteilen des Modells auf mehrere GPUs sparen kann (oder zumindest reduzieren).

Die Vorteile bei HBF sind die Nichtflüchtigkeit (man muss Modelle nicht neu übers Netzwerk streamen, z.B. wenn man mehrere Modelle in einer Cloud zur Verfügung stellt), die hohe Bandbreite (braucht man zum DNN Parameter reinstreamen) und die relativ günstige und grosse Speicherkapazität (komplette oder gar mehrere Modelle im HBF abgelegt). Zusätzlich kann man KV-Cache, Training-Zwischenresultate usw. auch im HBF ablegen (zumindest die "Hot" Daten die man kürlzich gebraucht hat oder in nächster Zeit wieder braucht). Die Schreibleistung bei HBF ist aber halt limitiert.

Für den Intel Thread ist das nur begrenzt passend, ausser man bringt Jaguar Shores mit "nur" 8x HBM Stacks ins Spiel. Hier könnte HBF einen Unterschied machen ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13878447#post13878447

davidzo
2026-02-23, 11:43:40
Ich glaube die HBF Diskussion hat hier nichts verloren.

Das hat nichts mit Pantherlake zutun und dass das entwickelt wird für client computing mit lokalen dezentralen Modelle ist ein feuchter Traum.

Niemand hat gesagt dass HBF ein Client memory wird. Im Gegenteil wird er für Big chip Beschleuniger beworben.
HBF wird sicher auch nicht billig und breit verfügbar. Die Basis wird SLC memory sein, sonst ist die Haltbarkeit viel zu schlecht, nicht TLC wie im Client. Das Stapeln wird ähnlich teuer sein wie bei HBM, mit ähnlichem yield.

Single user AI models (client, mobile) sind weiterhin nicht in Sicht, da die Auslastung extrem ineffizient ist und die Kosten für Chip und Speicher sich extrem schlecht verteilen gegenüber cloud-nutzung.

HBF wird lediglich eine Strategie verbessern die bereits jetzt in der Cloud weit verbreitet ist: MoE Model offloading, und K/V Offloading.

Heutzutage rennen die GPUs den Modellgrößen noch hinterher. Ein Modell einfach per tensor prallelism auf mehrere GPUs zu verteilen ist ineffizient weil die nvlink Bandbreite ca. faktor 10 geringer ist als der lokale HBM.

Wir nähern uns aber dem Punkt wo wir das Modell komplett auf eine GPU quetschen können samt dem jeweiligen K/V cache der aktiven Nutzer. Da menschliche Nutzer jedoch so langsam sind dass es ständig Pausen gibt, lohnt es sich einen schnellen DRAM oder flashspeicher mit einem paging algorithmus zu haben in den man die cold k/v caches ständig abschiebt.
GB200 und GB300 machen das bereits mit LPDDR5X, aber Flashspeicher ist halt weiter gedacht insbesondere für große Kontextfenster die über Monate gespeichert werden.

Rackscale Bandbreite bleibt zwar weiterhin interessant solange die Modelle größer sind als der GPU VRAM und insbesondere auch für training. Aber für das normale inferencing ist rackscale einfach teuer, sowohl elektrisch als auch bei der Anschaffung. Deswegen sind ja 8GPU Server mit SSDs und Ethernet weiterhin sehr gefragt von Hyperscalern und niemand stellt sich mehrere NVL72 Superpods hin um da inferencing drauf zu betreiben.

Aber selbst 8GPU server sind eine ineffiziente Notlösung. Was seit jahren versucht wird ist endliche eine GPU zu schaffen die groß genug ist ein aktuelles Modell alleine laufen zu lassen. Das war auch bisher immer AMDs Strategie, allerdings haben sie sich zeitlich verschätzt bzw. beim Speicherbedarf der jeweils neuesten Modelle unterschätzt.

Das ändert sich aber gerade weil die Modelle weniger stark Wachsen als vorher bzw. zerlegt werden in experts. Bei GPT4o könnten das z.B. 16 Experten a ca. 110Mrd Parameter sein. Bei H100, die noch am weitesten verbreitet sind in Rechenzentren bedeutet das trotzdem dass ein Modell auf mehreren GPUs verteilt läuft. Hier kommt aber ein Großteil des 30fach Inferencing Speedups durch GB200 her den Jensen versprochen hat. Semianalysis hat sogar 55x gemessen, was eben nur zustande kommen kann wenn man lokalen speicher vs nvlink sowie bandbreite und latenzen addiert.

Bisher nutzt man aber lieber LPDDR5X für k/v cache offloading. GB300 sind zwei GPUs mit je 288GB und eine CPU mit 512gb a 512gb/s. Sollten die Kontextfenster aber weiterhin steigen und Tage, wochen, Monate vorhgehalten werden, dann wird Flashspeicher interessant. Bisher muss der cold K/V cache der aus dem DRAM evicted wird über ethernet zu einem storage pod weggespeichert werden. Wenn die ssd näher an der gpu sitzt wäre das natürlich effizienter.

Das wird aber eher eine Spezialanwendung bleiben, wie Optane memory eben auch war. Ich bezweifle dass HBF:
a) Billiger wird als DDR Speicher. Das Stapeln macht HBF teuer und der Flächenvorteil von SLC gegenüber DRAM ist unter 2x.
b) Bei Bandbreite und Latenz an DRAM heranreicht. Flash zellen sind 10-100x langsamer als DRAM zellen. Gleiche BAndbreite kommt also nur durch parallelität zustande. Das kann man mit DRAM aber billiger erreichen, siehe das LPCAMM 512bit Interface bei nvidia GB200/300.
c) effizient ist: Energetisch sind DRAM zellen 2x bis 5x effizienter als Flash Zellen.
d) Über Latenzen vs DRAM brauchen wir gar nicht erst reden.

Man sieht ja an dem Prototypen den Kioxia Ende 2026 bereit stellen will dass man noch sehr weit entfernt ist von einem Datacenter produkt.

5TB mit 64gb/s klingen eher wie eine etwas schnellere SSD. Das ist die Hälfte der Bandbreite pro Stack von HBM1 von 2013. Und es verbraucht alleine schon 40Watt, weit mehr als DRAM oder HBM mit 64gbs/s.
Vermarktet wird das als 5G Mobilfunk Edge Speicher und kommt im Formfaktor einer PCI Express SSD. Bis wir sowas als standardisiertem Speicherstapel sehen der sich auf eine GPU integrieren lässt wird noch ein halbes Jahrzehnt vergehen.

Ich sehe Kioxias Vorstoß eher als Marketing-Gag um etwas vom AI Hype ab zu bekommen und den eigenen Aktienkurs zu pushen. Ihr direkter Konkurrent SK Hynix ist auf einem Höhenflug und wird fast 10x teurer gehandelt (ist aber nach Umsatz nur 2,5x größer als die Flash-Allianz). Möglicherweise auch um das Interesse der großen KI Chiphersteller wie nvidia, AMD und Google zu wecken und dadurch die Entwicklung zu direkter angebundenem Flash-speicher zu forcieren.

Badesalz
2026-02-23, 12:15:19
Ich glaube die HBF Diskussion hat hier nichts verloren.

Das hat nichts mit Pantherlake zutun Ah du stimmst meinem Beitrag davor zu? Danke...
HBF wird... äähh... :|

davidzo
2026-02-23, 12:48:47
Ah du stimmst meinem Beitrag davor zu? Danke...
... äähh... :|

Ja, hat nix mit PTL zutun.:wink:
Aber HBF sollte durchaus diskutiert werden. Am besten wir machen ab Mocads erstem Post eine Abzweigung und einen neuen Fred.

Badesalz
2026-02-23, 18:18:20
Ja... Kann man schon, aber HBF ist einfach, einfach. imho

Und imho, wird das kommen. Ich weiß nicht, ob das die Speedrevolution sein wird ;) aber es wird lohnenswert sein. Datenbewegung kostet das meiste. An allem. ALLES was das reduziert, ist lohnenswert.

Das wars eigentlich schon. imho =)

Platos
2026-02-23, 22:20:32
Technologien, die nur im Serverbereich Fuss finden und nicht im Consumermarkt (und viel besser sind), sind eig. Gift für die Unabhängigkeit. Damit kann man natürlich wunderbar den Nutzer abhängig machen, Abos zu nutzen anstatt lokal LLMs auszuführen (oder was auch immer).

Wenn HBF nicht in den Consumermarkt kommt, dann solls lieber gar nicht kommen.

Badesalz
2026-02-24, 06:28:27
Müsste man davor auch von HBM erzählt haben ;)

Platos
2026-02-24, 07:38:02
Ja, habe ich auch im Kopf gehabt, aber da ist es was anderes, weils eben so teuer ist und auch in der Menge nicht gerade billig. Preis/GB ist sogar noch teurer, auch wenn die Bandbreite natürlich besser ist und wichtig ist.

Wenn(!) aber etwas kommt, womit man beim Preis/GB viel günstiger kommt und es das aber nur im Server gäbe, dann ist der Zeitpunkt gekommen, wo man im privaten Umfeld nicht mal ansatzweise mehr das machen kann, was im Server möglich ist und somit wird man dann eher abhängig. Zumal wie gesagt dann die Kapazitäten (wie man sieht) Richtung Spezialtechnologie gehen und dann der Consumer noch teurer käme.

Aber hoffen wirs mal nicht...

basix
2026-02-27, 07:15:18
HBF wird standardisiert:
https://www.computerbase.de/news/storage/high-bandwidth-flash-arbeiten-am-hbf-standard-starten-im-maerz.96318/