PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Panther Lake (18A, 2025+)


Seiten : 1 [2]

Badesalz
2025-10-01, 06:39:27
Gut oder schlecht ist relativ. Auf der einen Seite:
ARL hatte nur Probleme mit Desktop Gaming. In allen Bereichen war es eine Verbesserung zu Raptor Lake/MTL und man ist auch auf einem Level mit AMD.
Du meinst wenn man Cinebench nimmt? Oder das von Intel handoptimierte AfterEffects?

davidzo
2025-10-01, 11:38:10
Nochmals zurück zu Qualcomm - es gibt ja dann wieder keinen PCI Express port für eine GPU.

Sorry aber woher hast du das?
Der SoC hat doch 12x Gen5.0 Lanes und 4x Gen4 Lanes. Das ist nicht viel, aber in vielen mobile Designs wird die GPU eh nur mit 8x lanes angebunden um energie zu sparen. x8 GPU + x4 SSD +x4 5G sollte möglich sein.

Auf dem Hawai Event soll Qualcomm in der Q&A session auch explizit bestätigt haben dass diskrete GPUs möglich sind und man das aber komplett den OEMs überlässt. Die angekündigten Geräte der ersten Welle werden aber alle IGP only sein und es ist offen ob Geräte mit dGPU kommen. Für diskrete GPUs liegt auch noch eine lange Treiberarbeit vor Nvidia und AMD. Ich könnte mir eher vorstellen dass es miniPCs mit dGPU slot gibt und erst in der nächsten Generation dann offiziellen support. Für Notebooks sind dGPUs aber eh uninteressant imo.

Nicht vergessen darf man in dem Zusammenhang aber dass Qualcomm einer der beiden Partner von nvidia NVlink Fusion ist, neben Fujitsu. Da geht es zwar in erster Linie um Server und es wird vermutlich noch lange dauern bis das Früchte trägt, aber das bestätigt dass die Firmen auch hinter der Kulisse schon zusammen arbeiten.


Und alle sprechen davon, dass PTL nicht besonders bei der IPC zulegen soll.
Aber MTL hat im Vergleich zu RPL an IPC verloren, weil der IMC plötzlich so weit weg war.

Sorry aber die IPC Regression war 5%, der Rest war fehlender Takt.
Wenn man Meterolake als Baseline nimmt braucht man in 2026 aber eher +50% mehr performance, mit 5% kommt man da nicht weit.

Und ja, das Speichersubsystem von MTL war schlecht sowohl bei der Latenz als auch bei der Bandbreite pro Core. Aber Verbesserungen im Speichersubsystem wirken sich nur direkt auf die IPC aus wenn es ein konkretes Bottleneck gibt. +50% mehr Bandbreite und 50% geringere Latenzen ergeben keine +50% IPC solange der Core nicht zu 100% an der Speicherlatenz hängt. In sehr vielen Anwendungsszenarios einer Mobil CPU (fast alles außer Spiele) war auch Meteorlake nicht Latenzlimitiert.

Davon auszugehen dass eine 20% bessere Speicherlatenz gegenüber Arrowlake in einem 20% IPC-Gewinn resultiert ist so als wenn ich auf einer 7600Xt den Speicher um 20% übertakte und dann 20% mehr FPS erwarte.

Ich würde auch nicht davon ausgehen das RPL wieder auf die Spitzenwerte bei der Speicherlatenz von LnL kommt, geschweige denn die von Raptorlake wie in deinem Meteor lake Vergleich. Die zusätzlichen Cores bedeuten gegenüber LnL mehr Ringbus stops und die GPU wird auch OFF-Die angebunden (Ringbus geht über multiple DIEs?).

basix
2025-10-01, 18:12:18
Nicht vergessen darf man in dem Zusammenhang aber dass Qualcomm einer der beiden Partner von nvidia NVlink Fusion ist, neben Fujitsu.

Intel in einem Intel Thread vergessen? :D
https://www.computerbase.de/news/wirtschaft/intel-mit-nvlink-und-rtx-gpus-nvidia-investiert-5-mrd-us-dollar-in-intel-fuer-pcs-ai-und-mehr.94379/

iamthebear
2025-10-02, 00:52:51
Du meinst wenn man Cinebench nimmt? Oder das von Intel handoptimierte AfterEffects?

Ich meine eher alle Anwendungen, die überlicherweise auf einem Notebook laufen:
Browser, Office, Updates installieren etc. Je nach Beruf kommen dann halt noch einige Spezialfälle dazu.
Bei ST liegt ARL-H ziemlich gleichauf mit Zen 5 bzw. je nach Kühlung teilweise sehr deutlich vor Raptor Lake, da der Takt weniger einbricht wenn 2-3 Anwendungen parallel laufen (das ist das was man in Reviews selten sieht).

Bei MT Anwendungen ist Arrow Lake meistens schneller als Zen 5 da mehr Kerne (wenn man im selben Preisbereich vergleicht). Gegenüber Raptor Lake etwas schneller aber da schmerzt das fehlende SMT etwas.

dildo4u
2025-10-02, 10:42:32
Für normale Consumer ist das Core gespamme doch kompletter Unsinn Intel musste nicht umsonst 265k massiv reduzieren damit man überhaupt was verkauft?

400 auf 290€

https://www.notebooksbilliger.de/intel+core+ultra+7+265k+prozessor+865785?nbbct=4001_geizhals

Das Problem für AMD ist nicht die CPU Leistung sondern die geringe Auswahl an Geräten was natürlich zu wenig Konkurrenz bei den Preisen führt.

Undertaker
2025-10-02, 10:48:53
ARL hat ein Imageproblem aufgrund der fehlenden Konkurrenzfähigkeit zu X3D und vor allem zum Release teilweisen Regressionen ggü. dem Vorgänger im Gaming. Ganz objektiv betrachtet ist ein 265k für 290 Euro auf dem Level eines 9900X für fast 100 Euro mehr - Zen 5 non-X3D ist aktuell in Relation zur ARL völlig überteuert.

dildo4u
2025-10-02, 11:19:10
Leute kaufen nach Gaming Performance das war mein Punkt da geht es nicht um ein Image, denn das war auch vor Arrow Lake der Fall.

E7v4S-xXiwI

mboeller
2025-10-02, 11:44:55
Leute kaufen nach Gaming Performance das war mein Punkt da geht es nicht um ein Image, denn das war auch vor Arrow Lake der Fall.

https://youtu.be/E7v4S-xXiwI

naja, dazu kommt dann noch die Sache mit den "kaputt werdenden" CPU. Beim Bild für das Youtube Video steht "unlocked" mit drauf... ist dann die CPU vom langsamen Sterben betroffen oder nicht?

Ich zumindest bin bei Intel verunsichert welche CPU jetzt davon betroffen ist oder nicht. So klar war die Abstellmaßnahme jetzt auch nicht, dass ich, für mich jetzt weiß bzw. entscheiden kann, diese CPU funktioniert (langfristig) und diese CPU nicht.

Undertaker
2025-10-02, 12:00:11
Gibt es bei Zen5 oder ARL bekannte Ausfallprobleme?

Zum Thema Gaming-Fokus: Ja, für die Zielgruppe >450€ und reiner Schwerpunkt Gamingleistung gibt es zu Zen5 X3D bei ARL keinen Gegenspieler. Bleibt der Rest, der einen gemischten oder sogar anwendungslastigen Blick auf die Leistung hat und bei AMD auf die Zen5-Modelle ohne X3D schauen würde. In diesem Segment liefert ARL aktuell mehr für's gleiche Geld, und das ist mMn ein Imageproblem (= klassische Prägung der Kundschaft durch die Presse zu den Topmodellen, was in der Vergangenheit auch der ehemals P/L-starken AMD-Mittelklasse das Leben erschwert hat).

mocad_tom
2025-10-02, 15:52:23
Nur mal kurz auf die Basics achtend:

66% Notebook - 33% Desktop (und ich glaube mittlerweile sogar noch weiter Richtung Notebook)

60% Geschäftlich - 40 % Privat (Terra Wortmann kommt aktuell mit den Lieferungen nicht hinterher, weil in den Firmen tatsächlich ein massiver Nachholeffekt gerade stattfindet)

Und ja die Speerspitze Strix Halo mag stärker sein.

Aber alles was da so an AMD Ryzen AI 9 365 im Notebook rumlungert ist komplett auf Augenhöhe mit Core Ultra 9 285H

Und AMD geht auch mit ihrem aktuell gebuchten Volumen so um, dass sie die anderen Segment verstärkt befüttert.

Also was werden wir so um den 30. Oktober rum zu den Quartalszahlen wieder sehen?

Und jeder der da jetzt einen 285H in letzter Zeit in Händen gehalten hat, der wird sich über die 'Text-Bild-Schere' wundern. Da kommen wahnsinnig kompetitve Alltagsgeräte raus.
Und die Lunar Lakes sind ebenso brutal in ihrer Alltagsleistung.

Hier als Beispiel das Asus Zenbook 14 einmal mit Ryzen 7 AI und einmal Core Ultra 7 255H

https://www.notebookcheck.com/AMD-Subnotebook-im-engen-Dreikampf-Asus-ZenBook-14-OLED-UM3406K-im-Test.1100173.0.html

https://www.notebookcheck.com/Intel-Subnotebook-macht-wieder-Boden-gut-Asus-ZenBook-14-OLED-UX3405CA-im-Test.1106561.0.html

Dadurch dass das Chassis so schmal ist, steht auch nicht besonders viel TDP zur Verfügung.
Die beiden Geräte unterscheiden sich in Nuancen.

Manch einer meckert dann, wie man in einen Langläufer-Laptop ein Oled reinknallen kann.

Mir ist das egal, ob das Gerät jetzt 9,5h oder 12h läuft, dafür habe ich aber bloß einen IPS Panel - ich bevorzuge da das schönere Oled.

Unten im Test in der Stromverbrauchstabelle:
Ryzen besser bei H.264 kucken, abgeschaltetes WLAN
Core Ultra besser bei leichtem WLAN surfen

In beiden Disziplinen besser: Lunar Lake


Das mit den Latenzen verstehe ich nicht:
Zenbook Oled mit Meteor lake 435ys
Zenbook oled Ryzen 786ys
Zenbook Oled Arrow Lake 3566ys
Das ist wohl wirklich nur was mit dem Treiber.
Weil so viel hat sich von Meteor Lake auf Arrow Lake beim Uncore gar nicht geändert.

Wenn man sich unterschied Platine Asus Zen mit Meteor und Asus Zen mit Arrow anschaut, dann ist da nur auf die gleiche Platine ein anderer Prozessor draufgelötet worden.

Review Asus Zen mit Meteor:
https://www.notebookcheck.com/Asus-Zenbook-14-OLED-im-Test-1-2-kg-Subnotebook-mit-120-Hz-OLED-und-Core-Ultra-7.801574.0.html

Also die beiden Geräte ist die Gen-over-Gen Steigerung.

Und ich hab das Meteor Zenbook hier und das ist bereits fein.

aceCrasher
2025-10-02, 22:53:02
naja, dazu kommt dann noch die Sache mit den "kaputt werdenden" CPU. Beim Bild für das Youtube Video steht "unlocked" mit drauf... ist dann die CPU vom langsamen Sterben betroffen oder nicht?

Ich zumindest bin bei Intel verunsichert welche CPU jetzt davon betroffen ist oder nicht. So klar war die Abstellmaßnahme jetzt auch nicht, dass ich, für mich jetzt weiß bzw. entscheiden kann, diese CPU funktioniert (langfristig) und diese CPU nicht.
Das mit den sterbenden CPUs war ein reines Raptor Lake Problem. Also 13. und 14. Gen.

ryan
2025-10-03, 22:55:17
In the first episode of a new series leading to Panther Lake, Talking Tech explores the development of hybrid computing from its performance-focused roots to the latest low-power islands.
https://youtu.be/n6wUk44HtO8

dildo4u
2025-10-04, 19:20:17
Performance Werte sollen angeblich erst in 2026 kommen



https://videocardz.com/newz/intel-to-detail-panther-lake-architecture-next-week-specs-and-performance-reportedly-in-2026

iamthebear
2025-10-04, 19:37:53
Das bedeutet kein Launch in 2025 obwohl Intel wiederholt bei Onvestormeetings betont hat, dass alles nach Plan läuft.
Wird spannend was Intel in 3 Wochen bei den Q3 Ergebnissen dazu sagt.

ryan
2025-10-05, 17:44:50
Alleged Intel Panther Lake Lineup And Configurations Leaked: Total Of 12 SKUs, Including Four From PTL-U Series (https://wccftech.com/alleged-intel-panther-lake-lineup-and-configurations-leaked/)

SKUs mit 8 Ziffer am Ende bekommen die größere iGPU mit 10 oder 12 Xe3 Kernen.

Undertaker
2025-10-05, 18:48:56
Nur 4+4(+4) Kerne für die Ultra 5, ich habe noch so meine Zweifel ob man sich damit insbesondere bei Konfigurationen mit höherer TDP (>40W) einen großen Gefallen tut. Schon ARL Ultra 5 hatte 4+8 Kerne und die LPEs bei PTL werden vermutlich nicht so sehr hoch takten... Hoffe mal, die IPC-Zuwächse gleichen das adäquat aus. 4+6(+4) hätte mir hier jedenfalls deutlich besser gefallen.

w0mbat
2025-10-05, 19:32:34
Da die E-cores immer in vierer Cluster kommen ist nur 4+4 oder 4+8 möglich.

Undertaker
2025-10-05, 20:06:43
Warum sollte eine Teileaktivierung deshalb nicht möglich sein? Aber ohnehin eine hypothetische Diskussion, mir ging es vorrangig um das Resultat dieser Entscheidung.

aceCrasher
2025-10-05, 20:07:32
Nur 4+4(+4) Kerne für die Ultra 5, ich habe noch so meine Zweifel ob man sich damit insbesondere bei Konfigurationen mit höherer TDP (>40W) einen großen Gefallen tut. Schon ARL Ultra 5 hatte 4+8 Kerne und die LPEs bei PTL werden vermutlich nicht so sehr hoch takten... Hoffe mal, die IPC-Zuwächse gleichen das adäquat aus. 4+6(+4) hätte mir hier jedenfalls deutlich besser gefallen.
Ich verstehe ehrlich gesagt nicht wofür man in einem <65W non-Workstation Laptop mehr als 8 Kerne braucht. Wofür die ganze MT-Leistung? Zum Spielen sicherlich nicht. Die meisten Anwendungen skalieren auch nicht sonderlich gut. Und falls man wirklich einer der wenigen Menschen ist die auf einem Laptop Anwendungen nutzen die wirklich MT-Leistung brauchen, gibt es ja den Ultra 7.

mocad_tom
2025-10-06, 10:36:57
Naiv gesagt:

Die Entwickeln Kerne für Server, die 3W bei 3GHz saufen dürfen (und davon dann 128 in einen Server Chip).

Und dann machen Sie ein paar hundert MHz mehr und 8 Stück davon in ein Mobile-SoC (oder 12 oder 14)

Für den Idle-Betriebspunkt ist es doch nur wichtig, dass der Low-Power-Quad-Core (ohne L3) am Knie der Frequenz-Stromverbrauch-Kurve betrieben wird.

Und ja mittlerweil braucht es echt 4 Cores für den ganzen Idle-Kram.

Chikipi hat sich schon darüber amüsiert, wieso AMD da nur zwei Cores in den I/O-Die reinbaut.

Badesalz
2025-10-06, 10:54:01
Chikipi hat sich schon darüber amüsiert, wieso AMD da nur zwei Cores in den I/O-Die reinbaut.Ja es ist SEHR wahrscheinlich, daß AMD das ungesehen entschieden hat :uconf3:
sarcasm off

Ich verstehe ehrlich gesagt nicht wofür man in einem <65W non-Workstation Laptop mehr als 8 Kerne braucht. Wofür die ganze MT-Leistung?
Der Rest sind die s.g. leaflet-cores.

basix
2025-10-06, 12:38:46
2C sind ja 4T oder 4 virtuelle Cores ;D

stinki
2025-10-06, 12:44:33
Sollte als erstes nicht eine 4+8+0+4 Variante noch dieses Jahr kommen?
Kommt die jetzt gar nicht mehr oder wird das eine Sonderversion für spezielle OEMs???

ryan
2025-10-06, 12:56:37
Angeblich wurde die Massenfertigung von September auf November verschoben. Wenn man jetzt die typischen 3 Monate vom Start bis zu den ersten Geräten im Handel einplant, wäre man im Februar. Natürlich könnten sie trotzdem im Dezember ein Modell launchen, damit sie 2025 einhalten. Aber das ist dann nur symbolisch.

mocad_tom
2025-10-07, 01:35:56
@badesalz


https://x.com/chickenonthepan/status/1923271399495397394

Es gibt Phasen da läuft Meteor recht lang und dann gibt es wieder Phasen, da ist das bei Meteor so mittel.

Das hängt davon ab, was bei den Windows Updates wieder verbockt wurde.
Aktuell geht es.

Und wie chikipi hier sagt:
Man hat die Low-Power-Cores - und wenn dann aber weiter drinnen im SoC die normalen Cores angeworfen werden müssen, dann ist es vorbei.

Und Lunar Lake zeigt seit November 2024 wie es geht.
Dort sind 4 Skymont als low power cores ohne L3.
Ziemlich nah am IMC und gleich daneben die Ausgabe für den Monitor, USB2 implementiert für Maus Tastatur und NVME.

Gegen Lunar ist im langsamen dahinbrowsen auch der Qualcomm nicht besser.

https://www.notebookcheck.com/Microsoft-Surface-Laptop-7-13-8-Copilot-im-Test-Dank-Snapdragon-X-Elite-endlich-ein-ernstzunehmender-MacBook-Air-Konkurrent.853937.0.html

https://www.notebookcheck.com/Dell-Pro-14-Premium-Test-Flaggschiff-OLED-Subnotebook-fuers-Business.1040569.0.html

Dell Lunar vs Surface Laptop Qualcomm

Lunar Idle
min: 3.5w
avg: 4.3w
max: 7.9w

Qualcomm Idle:
min: 1.4w
avg: 6.3w
max: 7.6w

bei Cyberpunk saufen beide 38W
aber Lunar macht bei Ultra 29fps
Qualcomm bei Ultra 14fps

HOT
2025-10-07, 19:11:22
Leider konnte ich dazu nichts finden, sind die 4 EU-Varianten auch Celestial oder sind die N5 BM? Ist doch bestimmt ein anderes GPU-Tile...

Da PTL kein on-Package-LPDDR mehr hat ist der Vergleich im Stromverbrauch semibrauchbar...

mocad_tom
2025-10-07, 20:15:15
Die igpu mit 12 EU kommt von TSMC N3

Die igpu mit 4 EU kommt von Intel 3

Die Execution Unit ist vergleichbar mit Celestial

fest auf das Board draufgelöteter LPDDR ram ist vom stromverbrauch her schon gut.

Wenn der auf OnPackage draufwandert passiert nicht mehr allzuviel.

HOT
2025-10-07, 21:37:37
Bei Onpackage ist der RAM im Stromverbrauch des Packages drin, wenn nicht dann nicht...

mocad_tom
2025-10-07, 21:48:44
Lunar idle average mit onpackage ram 4.3w

Qualcomm idle average ohne dem RAM 6.3w

Arrow Lake H im Asus Zenbook ohne RAM average: 3.5w

MSABK
2025-10-07, 22:11:07
Qualcomm dümpelt in N4 herum. Intel hat mit N3 klar die besseren Karten mit Lunar Lake.

mocad_tom
2025-10-07, 22:47:43
Mein Asus zenbook mit meteor mit Win 11 alles aktuell
Firmware aktuell
Wlan treiber alles schön aktuell gemacht.

https://x.com/p1cturedump/status/1975662943657239022

Es ist so extrem viel software enablement

Der hatte jetzt mal Monate drin, da wurde er unterm ideln warm.

In 2024 waren es mal 2 Monate,
dann wurde es wieder besser
dann wieder schlechter.

jetzt ist er auf 25H2 und aktuell ist laufzeit brutal gut.

Jetzt fangen die bei MS dann wieder zu murksen an.

ryan
2025-10-07, 23:28:27
Die igpu mit 12 EU kommt von TSMC N3

Die igpu mit 4 EU kommt von Intel 3

Die Execution Unit ist vergleichbar mit Celestial

fest auf das Board draufgelöteter LPDDR ram ist vom stromverbrauch her schon gut.

Wenn der auf OnPackage draufwandert passiert nicht mehr allzuviel.


Das sind Xe3 Kerne, ansonsten wären das etwas wenig EUs. PTL-U hat die Xe3 Architektur, das kann man auf github sehen.


Celestial ist das dGPU branding, theoretisch kann Celestial auch mit Xe4 Architektur kommen, wenn Intel ein oder zwei Generationen auslässt. Vorher kommt ja noch Xe3p.

mocad_tom
2025-10-08, 11:00:12
Xe3 und Xe3p unterscheiden sich ja nur im Herstellungsverfahren (und vllt im Systolic Array).

Es ist ja so, dass jede FAB für ihre Prozesse eigene Bibliotheken für SRAM hat.

Und sie haben auch eigene Bibliotheken für Arrays an Matrixmultiplikationen.

Xe3p ist die Xe3 Variante mit der zum Intel-Prozess passenden Matmul-Bibliothek.

Sie haben wohl Xe3 für TSMC N3.
Und sie haben wohl Xe3p für Intel 3 und Intel 18AP.

Und ich gehe davon aus, dass Celestial in Intel 18AP gefertigt wird.

HOT
2025-10-08, 11:30:19
Das wär doch auch spannend für ne diskrete GPU in 18AP oder nicht?

ryan
2025-10-08, 11:55:26
Xe3 und Xe3p unterscheiden sich ja nur im Herstellungsverfahren (und vllt im Systolic Array).

Es ist ja so, dass jede FAB für ihre Prozesse eigene Bibliotheken für SRAM hat.



Das hat mit dem Herstellungsverfahren nichts zu tun, sonst hätte Intel für PTL-U in Intel 3 ebenfalls eine andere Architekturbezeichnung wählen müssen. PTL-H und PTL-U sind beide Xe3 LPG, das kannst du auf den Entwicklerseiten nachsehen, zum Beispiel auf github (https://github.com/intel/compute-runtime/blob/9d8bad9f498535227b1886483a7b47e9239b2cac/shared/source/dll/devices/product_config_base.inl#L15). Das ist die gleiche Architektur.

Xe3p dagegen hat große Änderungen, hat letztens Bionic im Discord geschrieben.



Xe3P on NVL-H and AX
Xe3 IGPU reused from PTL for NVL-U and S

3P has significant changes

//differentRob
2025-10-08, 14:42:54
Es stehen 30% bessere Effizienz und bis zu 50% mehr Performance als LunarLake im Raum:
https://www.reuters.com/world/asia-pacific/intel-reveal-tech-details-forthcoming-pc-chip-sources-say-2025-10-07/

Hoffe das ist nicht nur PP-Folie sondern lässt sich auch benchen.

mocad_tom
2025-10-08, 15:25:57
@ryan

>3P has significant changes

Systolic Array austauschen (weil das im Hause TSMC bleiben muss) ist halt auch nicht so einfach.


Ich lass das mal hier:

https://x.com/search?q=systolic%20array%20(from%3Asquashbionic)&f=live&src=typed_query

(auch weil ich solche Sachen immer mal wieder rauskramen will)


Hier auch noch der interessante Fakt, dass sich Intel für Gaudi 2 / Gaudi 3 / Falcon Shores / Jaguar Shores ein Backenddesign-House mit dazu geholt hat (AIchip Taiwan)

https://x.com/Jukanlosreve/status/1955831984850395568

Undertaker
2025-10-08, 16:37:51
Es stehen 30% bessere Effizienz und bis zu 50% mehr Performance als LunarLake im Raum:
https://www.reuters.com/world/asia-pacific/intel-reveal-tech-details-forthcoming-pc-chip-sources-say-2025-10-07/


Ohne genauen Kontext sind das weder aussagekräftige noch sonderlich schwer zu erreichende Zahlen; PTL baut nun einmal deutlich breiter als LNL und wird damit bei identischer TDP in einem geringer taktenden, effizienteren Betriebspunkt laufen.

Spannend wird es, pro Kern (E/P) bei gleicher Leistungsaufnahme die Performance bzw. vice versa zu vergleichen. Hier bin ich sehr gespannt, was sich ggü. ARL/LNL bewegt.

bbott
2025-10-08, 16:59:29
Es stehen 30% bessere Effizienz und bis zu 50% mehr Performance als LunarLake im Raum:
https://www.reuters.com/world/asia-pacific/intel-reveal-tech-details-forthcoming-pc-chip-sources-say-2025-10-07/

Hoffe das ist nicht nur PP-Folie sondern lässt sich auch benchen.

Intel arbeitet immer mit biszu und nicht AVG, mit 1/2 könnte es schon realistischer in Benches aussehen.

Hatte man nicht sogar bereits verlautbaren lassen, SC kaum mehr Performance und mehr Multicore Performance?!

Badesalz
2025-10-08, 17:34:11
Hoffe das ist nicht nur PP-Folie sondern lässt sich auch benchen.Mit Cinebench garantiert :usweet:

ChaosTM
2025-10-08, 17:36:41
Es stehen 30% bessere Effizienz und bis zu 50% mehr Performance als LunarLake im Raum:
https://www.reuters.com/world/asia-pacific/intel-reveal-tech-details-forthcoming-pc-chip-sources-say-2025-10-07/

Hoffe das ist nicht nur PP-Folie sondern lässt sich auch benchen.


Hoffe ich auch. Wäre unerhört wichtig für die gesamte Industrie und vor allem für uns Kunden, dass Intel wieder in die Gänge kommt bezüglich Prozessorleistung und Fertigung.

Undertaker
2025-10-08, 17:52:16
Bzgl. Effizienz und Performance von LNL im angedachten Arbeitspunkt - ursprünglich waren 90% des Lineups mal für 17W PL1 geplant, hier steht der Chip absolut hervorragend da. Für maximale MT-Perf. bei >30 Watt muss der Chip einfach breiter bauen, auch ARL HX dreht in dieser Disziplin Kreise um ARL H. Insofern auch mein Schluss, das ein breiterer PTL hier zwangsläufig im Vorteil ist, unabhängig von jeglichem Architekturhub.

two_smoking_barrels
2025-10-08, 20:30:19
Lunar [Lake] Idle
min: 3.5w
avg: 4.3w
max: 7.9w

Qualcomm Idle:
min: 1.4w
avg: 6.3w
max: 7.6w


Die Messwerte von Notebookcheck messen nicht das, was du denkst, sie würden messen. Nehmen wir beispielsweise das von dir zitierte Qualcomm Gerät und die gleiche notebookcheck-Quelle (https://www.notebookcheck.com/Microsoft-Surface-Laptop-7-13-8-Copilot-im-Test-Dank-Snapdragon-X-Elite-endlich-ein-ernstzunehmender-MacBook-Air-Konkurrent.853937.0.html):

- Das Gerät hat ein 54Wh Akku; bei 6.3W Idle-avg-Verbrauch würde das in einer Laufzeit von 8,57h resultieren.
- Notebookcheck misst aber bei dem Gerät eine Laufzeit von 14,2h beim WLAN-Test. Das bedeutet eine AVG-Verbrauch beim WLAN-Test von 3,8W
- Das verrückte dabei: Idle ist bei Notebookcheck wirklich Idle mit minimaler Helligkeit, Windows-Desktop und ausgeschalteten WLAN, Bluetooth, etc; während WLAN-Test bei 150cd/m² Helligkeit, aktiven Browser, aktivierten WLAN etc. ist. Daher der WLAN-Test sollte merklich mehr verbrauchen.
- Die Ursache ist: Notebookcheck steckt das Notebook an einem Netzteil an und misst auf der Primärseite des Netzteil. Das bringt eine ganze Reihe Ungewissheiten mit sich:
-> Die Netzteilverluste sind bei den ganzen Messwerten mit enthalten. Und da die Netzteile für höhrere Lastpunkte ausgelegt sind, könnten die Netzteilverluste bei den niedrigen IDLE-Verbräuchen sehr signifikant sein (natürlich stark abhängig vom Netzteil und genauen Lastpunkt).
-> Oder Windows erkennt, dass das Gerät angesteckt ist und beginnt irgendwelche Komponente aus irgendwelche Low-Power-Zustände in höhere Zustände zu fahren, etc.

Belastbarer wäre es, die Kapazität durch die Akkulaufzeit zu teilen:
- AVG.-Verbrauch beim WLAN-Test des Qualcomm-Gerätes: 54Wh/14,2h=3,80W
- AVG.-Verbrauch beim WLAN-Test des Lunar_Lakes-Gerätes: 60Wh/15,2h=3,95W

Natürlich könnte man hier kritisieren, dass die Akkukapazitäten nur Nennkapazitäten sind und die wahren Kapazitäten anders sind.

Lunar idle average mit onpackage ram 4.3w

Qualcomm idle average ohne dem RAM 6.3w

Arrow Lake H im Asus Zenbook ohne RAM average: 3.5w
Btw. da Notebookcheck am Netzteil mit einem eigenem Messgerät misst, ist es egal ob die Prozessoren bei ihrer eigenen Leistungsmessung mit oder ohne Ram messen

mocad_tom
2025-10-08, 22:36:19
Danke für die Erläuterung.

Die Methodik kann man dann aber auch knicken, weil sie bei angestecktem Netzteil in ein anderes Windows-Powercfg-Profil reinfallen.

Wir haben früher mal für ein Paper zwischen Akku und Mainboard von Smartphones ein Speicheroszi reingehängt und dann haben wir nach und nach Dinge eingeschaltet, Bluetooth / über bluetooth com-port aufgemacht und Daten drüber / WLAN / 5G / für Always on Always connected einen Push Kanal aka pending socket aufgemacht.

Vllt über Hwinfo nachsehen, was das Gerät vom Akku rauszieht.

https://x.com/p1cturedump/status/1976022582815285742

Negative Laderate bei nicht angestecktem Netzteil wäre das was aus dem Akku gezogen wird.

Sobald man auf eine Taste klickt geht der Verbrauch hoch :biggrin:

ryan
2025-10-09, 00:00:15
@ryan

>3P has significant changes

Systolic Array austauschen (weil das im Hause TSMC bleiben muss) ist halt auch nicht so einfach.


Ich lass das mal hier:

https://x.com/search?q=systolic%20array%20(from%3Asquashbionic)&f=live&src=typed_query

(auch weil ich solche Sachen immer mal wieder rauskramen will)


Hier auch noch der interessante Fakt, dass sich Intel für Gaudi 2 / Gaudi 3 / Falcon Shores / Jaguar Shores ein Backenddesign-House mit dazu geholt hat (AIchip Taiwan)

https://x.com/Jukanlosreve/status/1955831984850395568



Wir reden schon von Änderungen an der GPU Architektur.


Xe3P is halfway Xe4 with some features backported from Xe4


Bzgl. Effizienz und Performance von LNL im angedachten Arbeitspunkt - ursprünglich waren 90% des Lineups mal für 17W PL1 geplant, hier steht der Chip absolut hervorragend da. Für maximale MT-Perf. bei >30 Watt muss der Chip einfach breiter bauen, auch ARL HX dreht in dieser Disziplin Kreise um ARL H. Insofern auch mein Schluss, das ein breiterer PTL hier zwangsläufig im Vorteil ist, unabhängig von jeglichem Architekturhub.


Soweit ich weiß, ist das ein Vergleich mit ARL-H, weil ARL-H der Vorgänger ist. Für LNL mit on package RAM und größerer iGPU gibt es keinen Nachfolger.

mocad_tom
2025-10-09, 10:21:36
Jaykihn

https://x.com/jaykihn0/status/1930082242078073115

>Nova Lake -S Xe3 + Xe4
> + not /

Jaykihn

https://x.com/jaykihn0/status/1930157575259238484

>Xe3 graphics + Xe4 display & media

Bionic

https://x.com/SquashBionic/status/1930162092117561389

>The Media is very nice, professional codec support.
>Also the graphics part isn't vanilla Xe³ tbf, it's got several changes

(für mich klingt dass so, dass sie bei den Xe3P Execution Units das Systolic Array ausgetauscht haben und im Zuge dessen manche Latenz-Charateristika, oder Bandwidth-Charakteristika verbessert wurden, aber im groben blieb es gleich)
Die Media Engine wurde aber richtig erneuert und kommt von der Xe4-Projektgruppe.


Oben steht:
> enable arch_gpu_xe3p_fs1

Was könnte fs1 bedeuten?

Was haltet ihr von Falcon Shores?
Holthaus meinte mal, dass von Falcon Shores zu Jaguar Shores eigentlich nur ein kleiner Sprung geplant war und das die nahe beieinander folgen sollten(nur in anderen Herstellungsprozessen).

Bioniq Squash meinte mal, dass das Falcon-Shores-Team / Jaguar-Shores-Team mit großen mitteln ausstaffiert wurde.

Projektgrößen aus dem Royal Core Team wurde angeboten, ob sie bei Falcon Shores arbeiten wollen oder gehen wollen.

Scheinbar wurde Core-Entwicklung runterpriorisiert und GPU/AI-Entwicklung hochpriorisiert (in der Phase wo Royal Core getötet wurde).

Es wurde ja geleakt, dass Intel eine GPU mit Fokus auf AI bringen will:

https://wccftech.com/intel-is-reportedly-developing-a-lower-power-ai-gpu/


Celestial mit arch_gpu_xe3p_fs1 ?


Die haben gerade bei Xe3 "feature freeze"
Bringe soviele Dinge mit Xe3 raus wie nur irgend möglich und baue dafür die besten Bibliotheken rundherum.
Xe3(p) in PTL, NVL, Celestial, Jaguar Shores

Undertaker
2025-10-09, 11:16:29
Soweit ich weiß, ist das ein Vergleich mit ARL-H, weil ARL-H der Vorgänger ist. Für LNL mit on package RAM und größerer iGPU gibt es keinen Nachfolger.

Glaube ich ehrlicherweise nicht, speziell die 50% Mehrleistung wären mit 4+8(+4) PTL Kernen vs. 6+8 ARL Kernen mMn nicht erreichbar. Auch 30% Effizienzverbesserung wären unerwartet viel (auch wenn man hier über eine geschickte Wahl des Arbeitspunktes viel bewirken kann), auch weil ARL H hier prinzipiell bereits recht gut performt. Ggü. LNL lässt sich die merkliche Verbreiterung in die Waagschale werfen, die ganz automatisch erhebliche Effizienzverbesserungen bewirkt.

Ja, ohne on-package DRAM ist PTL kein 100%iger LNL Ersatz, wird diesen mMn aber dennoch in entsprechenden Geräten ablösen.

dildo4u
2025-10-09, 12:05:13
Die 50% beziehen sich auf die GPU.

ryan
2025-10-09, 12:18:35
Glaube ich ehrlicherweise nicht, speziell die 50% Mehrleistung wären mit 4+8(+4) PTL Kernen vs. 6+8 ARL Kernen mMn nicht erreichbar. Auch 30% Effizienzverbesserung wären unerwartet viel (auch wenn man hier über eine geschickte Wahl des Arbeitspunktes viel bewirken kann), auch weil ARL H hier prinzipiell bereits recht gut performt. Ggü. LNL lässt sich die merkliche Verbreiterung in die Waagschale werfen, die ganz automatisch erhebliche Effizienzverbesserungen bewirkt.

Ja, ohne on-package DRAM ist PTL kein 100%iger LNL Ersatz, wird diesen mMn aber dennoch in entsprechenden Geräten ablösen.


50% sind GPU und 30% bezieht sich auf The new chips use 30% less energy than the prior generation. Das kann Effizienz bei Teillast oder keiner Last bedeuten und ist leicht zu erreichen mit den 4xLPE im Compute Tile. Die Ringbus Kerne und L3 Cache können sich bei vielen Sachen im Alltagsbetrieb abschalten.

Bei Lunar Lake geisterten immer 40 oder 50% rum, das war der Vergleich mit Meteor Lake bei wenig oder keiner Last. Von einer Mehrleistung war nicht die Rede.

Undertaker
2025-10-09, 12:28:55
Ah okay, der GPU-Bezug war mir nicht bewusst. Damit sind Einschätzungen zum CPU-Part leider doch nicht so wirklich möglich, von der Effizienzangabe halte ich wie geschrieben ebenfalls wenig (zumindest in Bezug auf das Lastverhalten).

ryan
2025-10-09, 12:32:51
Bei der Mehrleistung wird nichts oder fast nichts rauskommen, es sind ja P-Kerne weniger. Intel wird positive Szenarien wählen. Bei weniger Last ist PTL massiv effizienter.

Undertaker
2025-10-09, 13:36:48
Gibt es schon Leaks zum Takt der LPE Kerne? Das wäre zur Kompensation der fehlenden P-Cores ja durchaus ganz spannend.

dildo4u
2025-10-09, 15:12:27
Offizielle PTL Infos auf Computerbase.

https://i.ibb.co/yFXwD0jB/Screenshot-2025-10-09-151236.png (https://ibb.co/B2tXmLMK)

https://i.ibb.co/CK3FXhNc/14-1080-791f01aa.png (https://ibb.co/b5Mnyzq0)

https://i.ibb.co/RpkC213P/19-1080-34000a6f.png (https://ibb.co/WW4cnQkF)

https://i.ibb.co/ZpqkFwhv/16-1080-dcd83dfe.png (https://ibb.co/mVfM2YHd)

https://i.ibb.co/SXmVvgqT/20-1080-2bd16898.jpg (https://ibb.co/JRprkTXL)

https://www.computerbase.de/artikel/prozessoren/intel-panther-lake-details.94482

y33H@
2025-10-09, 15:16:11
PTL bitte =)

Exxtreme
2025-10-09, 15:31:47
Der Nachteil ist, jetzt gibt es drei verschiedene Kerne. Die Entwickler, die am WinDOS- und Linux-Kernel arbeiten, freuen sich garantiert schon, dass sie die OS-Scheduler wieder erweitern dürfen.

MSABK
2025-10-09, 16:10:38
Die iGpu scheint ja mega zu sein. Endlich mal mehr Cache.

Fusion_Power
2025-10-09, 16:50:42
Die iGpu scheint ja mega zu sein. Endlich mal mehr Cache.
Sieht so aus als gäbs die gute iGPU mal wieder nur im absoluten Top-High-End Chip. Verständlich, aber wäre natürlich schön wenn die preiswerteren Modelle auch noch ein bissl mehr bums abbekämen in Sachen integrierte Grafik. Halt nochmal ne Steigerung zur schon ganz guten Arc 140T.

bbott
2025-10-09, 17:25:08
Sieht so aus als gäbs die gute iGPU mal wieder nur im absoluten Top-High-End Chip. Verständlich, aber wäre natürlich schön wenn die preiswerteren Modelle auch noch ein bissl mehr bums abbekämen in Sachen integrierte Grafik. Halt nochmal ne Steigerung zur schon ganz guten Arc 140T.
Dar mach überhaupt keinen Sinn, Top CPUs werden meist mit Top dGPUs verbaut. Die kleineren bis maximal mittel CPU Klasse macht highend iGPU Sinn. Da ist AMDs Ansatz APU mit high iGPU und CPU mit lowend viel sinniger.

Undertaker
2025-10-09, 17:50:25
Dar mach überhaupt keinen Sinn, Top CPUs werden meist mit Top dGPUs verbaut. Die kleineren bis maximal mittel CPU Klasse macht highend iGPU Sinn. Da ist AMDs Ansatz APU mit high iGPU und CPU mit lowend viel sinniger.

Wo bekomme ich in AMDs low-end Modellen die Top GPU? Egal ob Strix Halo/Point, Krakan oder andere Serien, die volle GPU hat immer nur der große CPU-Ausbau. Z.B. bei Strix Halo bekommst du ~RTX 4060 Leistung nur beim Kauf des 16 Kerners... Finde ich auch schade, bei beiden Herstellern.

mboeller
2025-10-09, 17:54:22
Dar mach überhaupt keinen Sinn, Top CPUs werden meist mit Top dGPUs verbaut. Die kleineren bis maximal mittel CPU Klasse macht highend iGPU Sinn. Da ist AMDs Ansatz APU mit high iGPU und CPU mit lowend viel sinniger.

du hast aber schon gesehen, dass für Gaming Notebooks die "Variante 2" vorgesehen ist, also mit kleiner iGPU

dildo4u
2025-10-09, 17:56:51
Sollte man nicht mal erst Tests abwarten ob 4 Pcores genug für Games wie BF6@ 120 Hz sind?
Seit 2022 hatten selbst Low End 6 Pcores bei Intel 12400f etc.

Daredevil
2025-10-09, 18:03:22
Da die heutigen E-Cores so schnell sind wie damalige P-Cores, wird das schon passen.
Sogesehen hat man 4 super schnelle Kerne bzw. 12 sehr schnelle Kerne. Wenn ein "Old" 5800X3D das kann, dann auch diese Kombination. Ganz im Gegenteil könnte man hier sogar lieber ausschließlich die E-Cores nehmen, damit man den Rest des Power Budgets in die GPU stecken kann bei einem Notebook.

davidzo
2025-10-09, 20:04:00
it is disclosed that 18A is currently at its lowest defect density

Das bedeutet lediglich dass man keine Rückschritte beim Yield macht, lol ;D

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94339&stc=1&d=1760032992

Die Y-Achse ist nicht beschriftet. Was für eine Shit show.

ryan
2025-10-10, 00:52:07
Panther Lake unterstützt bis zu LPDDR5X-9600 oder DDR5-7200, das ist eine Überraschung. Dann hat sich MLID die angeblichen speed Probleme mit LPDDR5X nur aus den Fingern gesaugt.


PTL ist offenbar bei Teillast noch effizienter als Lunar Lake: https://youtu.be/cVSkLTfCZz8?t=20

Xe3P wurde von Intel offiziell angekündigt als Next Arc family: https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/67236-next-arc-family-xe3p-soll-basis-zuk%C3%BCnftiger-arc-karten-sein.html


Dann wird es wirklich so sein, dass Xe3P mehr Änderungen mit sich bringt als Xe3. Petersen sagt nichts anderes: https://youtu.be/Bjdd_ywfEkI?t=126

Die iGPU sieht aber stark auf von PTL. Das ist die neue Referenz für Dualchannel iGPUs.

ryan
2025-10-10, 12:22:54
Gut zusammengefasst ist das in dem Slide:

https://s1.directupload.eu/images/251010/yzya2pwb.png



Die Media Engine unterstützt jetzt übrigens auch Sony XAVC Formate.

Daredevil
2025-10-10, 13:34:28
Best of both Worlds, finde ich sehr sehr nett. :)
Thank god good old Intel ist auf dem richtigen Weg, jetzt müssen sie nur noch liefern.

bbott
2025-10-10, 16:40:00
Wo bekomme ich in AMDs low-end Modellen die Top GPU? Egal ob Strix Halo/Point, Krakan oder andere Serien, die volle GPU hat immer nur der große CPU-Ausbau. Z.B. bei Strix Halo bekommst du ~RTX 4060 Leistung nur beim Kauf des 16 Kerners... Finde ich auch schade, bei beiden Herstellern.
Die APUs haben 8 oder 12 CUs, welche von der Performance sehr nahe sind. Halo ist derzeit nische und selbst da passt es halbwegs. Bei Intel gibt es Highend GPU mit keinem i5 (oder i3), selbst die kleineren i7 hatten glaube ich nicht die ganz große iGPU.
Die Diskrepanz ist bei AMD viel geringer als bei Intel.
Es wird auch (sehr wahrscheinlich) nie ein i3 oder kleine AMD APU mit der max iGPU geben.
Das ist ein upselling Thema und Die Size kosten. CPUs bringen nunmal das Geld, CUs weniger... Zumal Bandbreiten Limitierung.

robbitop
2025-10-10, 16:52:34
Ich bin gespannt wie viel es an Effizienz kosten wird, dass der Speicher wieder vom package runter kommt. Das war sicherlich teurer und damit weniger beliebt bei Lunar Lake bei den OEMs aber nach meinem Verständnis hat das Energie gespart (kürzere Signalwege).
Wenn man jetzt package power vs package power vergleicht ist der Vergleich nicht korrekt weil das bei LL den Speicher inkludiert und bei PL nicht. Also interessant wäre es mit gleichen Voraussetzungen auch mit 3D Workload. Der obige Vergleich der gepostet wurde ist ja leider nur leichte Teillast so dass alles auf den LPE Cores landet. Da helfen 4 LPEs sicher. Aber interessant ist auch wie es beim Gaming ist. Wird der externer Speicher dann zum (Verbrauchs) Nachteil?

Ansonsten:
Sehr gute Verbesserungen von einem bereits sehr guten Lunar Lake:
1. mehr E-Cores
2. (ob die LP-E Cores bringen was sie sollen - nämlich den niedrigen Teillastverbrauch und idle Verbrauch zu senekken - muss man sehen. Oder ob sie nur "missbraucht" werden um MT Benchmarks höher zu bringen)
3. 50% dickere GPU, die auch noch deutliche Fortschritte auf uArch Ebene macht und das nur ~1 Jahr nach Xe2. Bereits Xe2 in Lunar Lake ist stärker und effizienter als Strix Point (zumindest in sinnvollen Betriebspunkten) und entsprechend die stärkste GPU eine APU die "normale" Betriebs und Preispunkte hat. Halo ist geil - aber eine ganz andere Kategorie (auch vom Preis). Jetzt fehlen richtig gute Linux Treiber für SteamOS (und bazzite und co) ^^
4. Ordentlich GPU Cache!! Schon LL war mit 8 MiB echt gut - jetzt sind es 16 MiB. Da kann die iGPU endlich etwas ihre Füße ausstrecken und ist nicht im APU typischen Bandbreitenlimit gefangen.

Bin auch gespannt was 18A so bringt. Die Limitierung auf mobile only ist ein Indikator, dass man bei Desktop Taktraten eventuell nicht mit TSMC mithalten kann. Aber ggf ein Indikator dass man es bei Effizienz kann.

Ein absoluter Jammer, dass Intel jetzt wo langsam die GPUs aus den Kinderschuhen kommen das Geld ausgeht und man bereits beschlossen hat die wieder abzuwürgen in dem man Nvidia Tiles verbauen will langfristig.
So wie Intel Arc innerhalb Generationen iteriert hat - schon wahnsinn. Klar man hat halt bei 0 gestartet - da kann man nicht erwarten gleich mit den alten Hasen mithalten zu können. Aber immerhin gab es seit Alchemist moderne Features: ML Super resolution, Matrix Units, Level 3.5 RT HW. Und man hat ja mit FG und MFG auch nachgelegt und erstes auch gleich mit ML. Jetzt direkt der erste IHV (soweit ich weiß) der sich zu precompiled shaders committed (so wie ich TAP verstehe hat das nicht notwendigerweise mit dem Microsoft Projekt zu tun wo es Integration in Spiele braucht sondern es läuft transparent zur Anwendung über den Treiber - wie beim SteamDeck -> sehr geil -> ich hab das schon ein paar Mal im Forum erwähnt dass das eine sinnvolle Sache wäre vom IHV das über den Treiber zu machen -> Intel machts ^^). Also sie geben schon echt Gas.
Ich denke da könnte wirklich was echt Gutes draus werden - man braucht eben ein paar Iterationen und man braucht wenn man gleich auf ist auch ein paar Jahre sich dort eine brand recognition aufzubauen - aber der Vertrag mit den Nvidia Tiles zeigt da intern zu starkes Misstrauen.

Daredevil
2025-10-10, 16:54:42
Die APUs haben 8 oder 12 CUs, welche von der Performance sehr nahe sind.


50% Unterschied sind jetzt schon nicht wenig. :D
Und die Kategorie des Strix Halo ist nicht unbedingt eine Nische, Strix Halo als Produkt ist es aber, da kaum im Markt verbreitet und eben auch kostenintensiv. Dass es einen Markt für diese Art SoCs gibt im Mobile als auch Desktop Markt, zeigt Apple.
Neben dem Vollausbau und dem inoffiziellen Lunar Lake Nachfolger wird es bestimmt auch kleine Modelle geben mit dedizierter GPU, ist ja jetzt auch nicht anders. Intel ist in dem Falle aber ein wenig flexibler durch ihren Tile Ansatz, beim bauen der SoCs als auch bei der Fertigung. Sie können sich die Welt so machen, wie sie möchten, das ist schon ein Wettbewerbsvorteil gegenüber einem One-Die-SoC. Gerüchte gehen rum, das Apple ihren SoC Ansatz im HPC auch aufbrechen möchte, um hier auch flexibler zu werden.

Große Empfehlung btw. für den Computerbase Podcast, Volker war ja bei Intel zu Gast! :)

reaperrr
2025-10-10, 22:26:13
3. 50% dickere GPU, die auch noch deutliche Fortschritte auf uArch Ebene macht und das nur ~1 Jahr nach Xe2. Bereits Xe2 in Lunar Lake ist stärker und effizienter als Strix Point (zumindest in sinnvollen Betriebspunkten) und entsprechend die stärkste GPU eine APU die "normale" Betriebs und Preispunkte hat.
Naja, Strix ist nur N4 und nur RDNA3.5.

Bis PTL breit verfügbar ist, sind die Medusas auch schon in den Startlöchern.

Wobei laut MLID die OEMs sagen, Xe3 sei tatsächlich ganz gut... wenn es nicht ständig abstürzen würde, weil die Treiber aktuell halt wieder typische Intel-Treiber sind.

So wie Intel Arc innerhalb Generationen iteriert hat - schon wahnsinn.
Naja, sooo doll ist es nun auch wieder nicht.

Man muss hier ja auch ne Durchschnittsrechnung machen.

Zunächst mal hat ALC schon wesentlich länger gedauert als geplant.
Battlemage hat zwar einige Schwächen abgebaut, aber ein fundamentaler Punkt, der gern geflissentlich übersehen wird:
Prozessnormiert hat BMG kaum Verbesserung der Perf/mm² gebracht.
Sowohl die architekturellen, als auch die Taktfortschritte wurden größtenteils schlicht durch (massiv) höhere Fläche in Relation zum Prozess erkauft.
Ich meine, G21 ist in N5 so groß wie AD104, und kaum schneller als AD107 und N33 (letzterer ist trotz N6, 128bit und RDNA3 kleiner und hat ähnliche Perf/W).

Das ist auch der Hauptgrund mMn, warum Intel kein Vertrauen in die Chancen hat: Gemessen an den R&D-Kosten holte man insgesamt, vor allem jetzt, wo AMD mit RDNA4 wieder einen riesigen Sprung gemacht hat, einfach viel zu langsam auf.

Und Checkbox-Features sind kein Indikator, Intel war da schon lange am Ball und z.B. bei Tesselation-Skalierung und DX11 FeatureLeveln mit ihren IGPs damals schon zeitweise auch an GCN vorbeigezogen, bis das 10nm-Fiasko zum Überspringen von GFX10 (Cannon Lake IGP) und massiver Verzögerung von GFX11 (Ice Lake IGP) geführt hat.

Nur in Sachen Perf/mm² und damit dann halt bei Prozessgleichstand auch Kosten sind sie nicht konkurrenzfähig, und das ist bei den mittlerweile extrem teuren Prozessen einfach Kacke für die überlebenswichtige Marge.

Bin gespannt wie Celestial da abschneidet.
Aber meine Prognose ist, dass es ggü. RDNA4 und Blackwell auch hier wieder eher mau aussieht, und bis die Celestial-Treiber gut genug sind, sind dann auch RDNA5 und Rubin in jeweils N3P/X am Start und lassen Celestial wieder weit hinter sich.

Im Endeffekt erwarte ich, dass PTL+12Xe3Cores nur extrem selten verbaut werden wird.
Gaming-Läppis nehmen Variante 2 + NV dGPU, Arbeits-Läppis halt Variante 2 ohne dGPU, wo die iGP-Leistung dann wahrscheinlich ca. gleichauf mit den 8 RDNA3.5 CUs der Mainstream-Zen6 APUs sein wird.

50% Unterschied sind jetzt schon nicht wenig. :D
Der reale Leistungsunterschied ist nur ein Bruchteil davon.

AMD's IGPs skalieren relativ schwach oberhalb von 8 CUs, teils durch Bandbreiten-/Cache-Limitierungen, teils durch Frontend- und Backend(ROPs)-Limitierungen, teils durch Taktunterschied unter realen Bedingungen (die großen Varianten throtteln in niedrigen TDPs oder Sparmodus auch gerne mal auf knapp um die 1 Ghz unter Last).

MSABK
2025-10-10, 22:35:28
Könnte auch sein, dass Nvidia mit ihrem Einstieg die Intel GPU torpedieren möchte weil die sehr schnell werden in kurzer Zeit jetzt.

dildo4u
2025-10-10, 22:40:47
Angeblich ist das doch nicht mal die echte neue Generation aktuell ist die RTX5050 genug für die b580 die wiederum massiv schneller ist als die PTL 12XE Core Version.

ryan
2025-10-10, 23:44:33
Naja, Strix ist nur N4 und nur RDNA3.5.

Bis PTL breit verfügbar ist, sind die Medusas auch schon in den Startlöchern.


Bis Medusa breit verfügbar ist, ist Nova Lake-H in den Startlöchern bzw. gibt es dann schon. Bei AMD kannst du mindestens 6 Monate draufrechnen.


Wobei laut MLID die OEMs sagen, Xe3 sei tatsächlich ganz gut... wenn es nicht ständig abstürzen würde, weil die Treiber aktuell halt wieder typische Intel-Treiber sind.

Vom einen Märchenerzähler zum anderen Märchenerzähler.


Der reale Leistungsunterschied ist nur ein Bruchteil davon.


Der Allwissende hat gesprochen.

dildo4u
2025-10-11, 06:49:28
Strix zeigt ganz gut das diese Chips komplett an der Bandbreite hängen.
Ich würde nicht zu viel erwarten schon eine 4060 ist 2x.


https://i.ibb.co/CxKh1gJ/Screenshot-2025-10-11-094144.png (https://ibb.co/SqwRsbQ)

https://youtu.be/pc_vZTcxumI?si=me_6C3iEMMg6tfp9

robbitop
2025-10-11, 08:38:40
Also IMO ist bei AMDs APUs IMO unnötigerweise sie Handbremse angezogen. Strix ist schon 1 Jahr alt (ind win echter Nachfolger mit neurer IP ist lange nicht in Sicht) und läuft noch mit RDNA3 was ärgerlich ist weil RDNA4 ordentlich Leistung draufpackt. Auch gab es bei den normalen APUs nie viel LLC für die GPU dass die sich mal ausstrecken kann obwohl man das könnte.

Klar Intels uArch kann noch nicht mithalten aber sie iterieren relativ intensiv mit viel Einsatz. Logischerweise braucht es eine Weile wenn man von 0 startet aber die Fortschritte sind groß. Bereits Xe2 in LL ist schneller als Strix Point. Dass AMD lieber einen günstigen N4 statt N3 wählt und auch mit der uArch hinterher bleibt ist eine bewusste Entscheidung.
APUs machen bei AMD leider in den letzten Jahren seit Rembrandt jetzt nicht mehr riesen große Sprünge - insbesondere pro Zeiteinheit.
Da gibt sich Intel einfach mehr Mühe. Wenn AMD wollte hätten wir schon heute RDNA4 auf N3 mit IF$ in APUs. Auch sowas wie 16-20 CUs und 16 MiB. Da hätte man heute schon mehr bums als PTL in 2026. Aber nein wir haben den alten Kram und 2026 soll iirc erstmal ein Strix Refresh kommen. Medusa mit Zen6 und RDNA5 ist iirc Ende 2026 wenn nicht sogar erst H1 2027. Aber bewusst fährt man mit angezogener Handbremse. Intel hingegen gibt alles und legt nach - die Sprünge sind pro Zeiteinheit größer. Dieser Spirit / Einsatz ist es den ich meine.
Was Windowstreiber angeht: sie letzten Videos wo es darum ging auch viele alte und exotische Spiele auf Arc zu testen gingen iirc alle erstaunlich gut aus.

MSABK
2025-10-11, 09:51:07
Die Pace von AMD gefällt mir nicht, wenn die so weiter schlafen holt die ja noch Qualcomm bei der iGPU ein.

Badesalz
2025-10-11, 09:56:15
Inwiefern gibt es überhaupt einen realen heimischen Markt für dieses Rennen?

robbitop
2025-10-11, 12:29:01
Wahrscheinlich ist es für den Erfolg im Markt zweitrangig wie gut die iGPU ist. Richtig gute iGPUs wurden bei AMD zu der Zeit als sie noch die Bulldozer Cores hatten nicht belohnt. Und bei Intel auch nicht als sie damals gt3e/gt4e (also größere iGPUs mit edram) hatten. Am meisten mit Abstand wurde GT2 (also kleine iGPU) verkauft. Cezanne schien auch nicht darunter zu leiden noch Vega IP zu haben. Die Mehrheit scheint von einer iGPU wenig zu erwarten und wer mehr Power haben will kauft eine dGPU dazu.

Aber ggf verschiebt sich das Ganze wenn günstige/bezahlbare APUs wenigstens so schnell werden Einsteiger GPUs aus der gleichen Generation. Also so schnell wie aktuell eine 5060/9060/7600/5050 (kA was da gerade die kleinste sinnvolle dGPU bei laptops ist) mobile. Dazu braucht es dann aber ein bisschen mehr „oompf“. Also mehr LLC und ein paar mehr Ausführungseinheiten und neuste uArch. Eine APU mit 16 MiB IF$ und 24 oder so RDNA4 CUs wäre schon auf dem Stand wo man bezahlbar in Laptops Einsteiger GPUs verdrängen würde. Vor allem wenn es dann auch noch günstiger wäre als eine APU plus kleiner dGPU im Laptop.

ryan
2025-10-11, 13:17:22
Intel hingegen gibt alles und legt nach - die Sprünge sind pro Zeiteinheit größer. Dieser Spirit / Einsatz ist es den ich meine.
Was Windowstreiber angeht: sie letzten Videos wo es darum ging auch viele alte und exotische Spiele auf Arc zu testen gingen iirc alle erstaunlich gut aus.


Das stimmt, in der nächsten Generation geht es weiter für NVL-H. Xe3p soll noch mehr Änderungen mit sich bringen. Offenbar ist der Architektur Schritt auf Xe3p größer als jetzt von Xe2 zu Xe3.


Intel’s head of architecture, graphics, and software, Tom Petersen, told reporters in a roundtable Q&A that Panther Lake would only hint at what’s implied by the name. “Xe3P is a significant architectural advancement from where we are now,” he said. Whether that means it’s a whole family of products, that doesn’t matter. However, it may still be called “Celestial,” more for the sake of continuity than anything.
https://gizmodo.com/intel-still-making-graphics-cards-2000670431

MSABK
2025-10-11, 13:48:45
Inwiefern gibt es überhaupt einen realen heimischen Markt für dieses Rennen?

Ich würde diesen Markt inzwischen bei den Handhelds sehen. Je besser und effizienter die iGPU ist, desto besser fur kommende Handhelds.

mczak
2025-10-11, 13:49:43
Die APUs haben 8 oder 12 CUs, welche von der Performance sehr nahe sind.
Was heisst hier 12? Hier haben wohl alle schon vergessen (weil es quasi nichts gebracht hat) dass Strix Point die CU-Anzahl gegenüber Phoenix von 12 auf 16 erhöht hat.
In der Praxis sind Phoenix (12 CUs RDNA 3.0) / Strix (16 3.5) / Krackan (8 3.5) alle sehr nahe beieinander. Klar bei den Peak TFlops sieht man den Unterschied sehr gut, aber im Durschschnitt bei Spielen ist vielleicht Strix so 30% schneller als Krackan.
Im Uebrigen denke ich nicht dass Xe2 (die Architektur) bezüglich Energieverbrauch effizienter ist als RDNA 3. Ich würde wetten hätte AMD Strix wie intel ebenfalls 8 MB (statt 2MB) GPU-L2 verbaut (klar 16MB IC wäre besser aber wohl nicht unbedingt nötig) würde man da locker mithalten (ausser bei RT), trotz schlechterem Prozess (und natürlich auch bei der Performance einen Sprung machen).
Auch dass BMG tatsächlich bandbreiteneffizienter ist als RDNA3/3.5, dafür gibt es nur wenig Indizien, das erledigt intel eben einfach mit mehr Cache. Auch wenn natürlich RDNA3 da niemanden vom Hocker reisst (dass da mehr geht sind man ja mit RDNA4).
Sieht man doch auch beim Vergleich der Desktop-Karten, ein BMG-G21 schlägt mit enormem Aufwand (bessere Fertigung, viel grösserer Chip, 50% breiteres SI (wenn auch 18MB gegenüber 32MB LLC)) gerade mal so N33 (ausgenommen wiederum RT / AI), sowohl punkto Leistung wie auch Energieeffizienz (und es gibt IMHO Indizien (z.B. GPU-Spannung) dass intel den Chip da vergleichsweise weniger weit über das Effizienzmaximum pusht). Und ist sowas von chancenlos gegen den aus rein technischer Sicht eigentlichen Konkurrenten N44.
Genau so wenig sehe ich da prinzipiell Skalierungsprobleme bei RDNA3, jedenfalls nicht bei den CU-Mengen die in den kleinen APUs verbaut sind (sonst würden Desktop-Karten mit 6x mehr CUs schlicht nicht sinnvoll funktionieren).
AMD hat es einfach verpasst den kleinen APUs ein sinnvolles Cache-System zu verpassen, aus was für Gründen auch immer (die Ingenieure sind ja nicht blöd und wussten garantiert ziemlich genau was die Folgen von bloss 2MB GPU LLC sind).

robbitop
2025-10-11, 13:51:09
Ich würde diesen Markt inzwischen bei den Handhelds sehen. Je besser und effizienter die iGPU ist, desto besser fur kommende Handhelds.

Wobei der PC Handheldmarkt (noch?) relativ klein ist. Die meisten Verkäufe hat wahrscheinlich in Summe Valve mit dem Steam Deck. Und da sind es afaik 5 Millionen Exemplare seit Release in 2022. Verglichen mit sowas wie der Switch sind das Peanuts.

robbitop
2025-10-11, 13:57:01
Was heisst hier 12? Hier haben wohl alle schon vergessen (weil es quasi nichts gebracht hat) dass Strix Point die CU-Anzahl gegenüber Phoenix von 12 auf 16 erhöht hat.
In der Praxis sind Phoenix (12 CUs RDNA 3.0) / Strix (16 3.5) / Krackan (8 3.5) alle sehr nahe beieinander. Klar bei den Peak TFlops sieht man den Unterschied sehr gut, aber im Durschschnitt bei Spielen ist vielleicht Strix so 30% schneller als Krackan.
Im Uebrigen denke ich nicht dass Xe2 (die Architektur) bezüglich Energieverbrauch effizienter ist als RDNA 3. Ich würde wetten hätte AMD Strix wie intel ebenfalls 8 MB (statt 2MB) GPU-L2 verbaut (klar 16MB IC wäre besser aber wohl nicht unbedingt nötig) würde man da locker mithalten (ausser bei RT), trotz schlechterem Prozess (und natürlich auch bei der Performance einen Sprung machen).
Auch dass BMG tatsächlich bandbreiteneffizienter ist als RDNA3/3.5, dafür gibt es nur wenig Indizien, das erledigt intel eben einfach mit mehr Cache. Auch wenn natürlich RDNA3 da niemanden vom Hocker reisst (dass da mehr geht sind man ja mit RDNA4).
Sieht man doch auch beim Vergleich der Desktop-Karten, ein BMG-G21 schlägt mit enormem Aufwand (bessere Fertigung, viel grösserer Chip, 50% breiteres SI (wenn auch 18MB gegenüber 32MB LLC)) gerade mal so N33 (ausgenommen wiederum RT / AI), sowohl punkto Leistung wie auch Energieeffizienz (und es gibt IMHO Indizien (z.B. GPU-Spannung) dass intel den Chip da vergleichsweise weniger weit über das Effizienzmaximum pusht). Und ist sowas von chancenlos gegen den aus rein technischer Sicht eigentlichen Konkurrenten N44.
Genau so wenig sehe ich da prinzipiell Skalierungsprobleme bei RDNA3, jedenfalls nicht bei den CU-Mengen die in den kleinen APUs verbaut sind (sonst würden Desktop-Karten mit 6x mehr CUs schlicht nicht sinnvoll funktionieren).
AMD hat es einfach verpasst den kleinen APUs ein sinnvolles Cache-System zu verpassen, aus was für Gründen auch immer (die Ingenieure sind ja nicht blöd und wussten garantiert ziemlich genau was die Folgen von bloss 2MB GPU LLC sind).
Sehe ich auch so. AMD könnte definitiv mehr rausholen aus den APUs. Aber mit altem Node, alter IP und Cachegeiz… Man könnte wie du schreibst wenigstens ein paar Handbremsen lösen.

Laut dem Test von thephawx ist Strix schon bei relativ niedrigen Taktraten im Bandbreitenlimit. Und taktet aber trotzdem fröhlich hoch obwohl es nichts bringt. IIRC war das schon ab grob 1200 MHz GPU Clock der Fall.
Mit 16 MiB IF$ wäre das Bandbreitenlimit wahrscheinlich weg.

Stattdessen gibt es nur „good enough“. Außer bei Halo. Aber da ist es dann wieder irre teuer. Und selbst da alter node und alte IP. (aber immerhin breit und IF$)

dildo4u
2025-10-11, 14:19:37
Hatten Gurken wie 6500XT nicht 16MB?
Wo waren die Limitiert?

robbitop
2025-10-11, 14:38:06
Die 6500xt hatte 16 MiB L3 und waren deshalb nicht limitiert. AMDs APUs (nicht Halo) haben hingegen keinen L3 (GPU) und sind es. Dazu kommt dass die 6500xt GDDR6 hat mit immerhin 18MT/s und Strix Point mit lpddr5x mit je nach SKU unter 10 MT/s.

Badesalz
2025-10-11, 15:42:18
Aber ggf verschiebt sich das Ganze wenn günstige/bezahlbare APUs wenigstens so schnell werden Das ist der Markt der Miniworkstations die Apple etablierte und auf der x86 Seite aktuell AMD den kompletten Fuß drin hat.

mironicus
2025-10-11, 19:48:48
Ich fürchte mit Panther Lake werden Handhelds einfach nur noch teurer. Da kann man ja gleich ein Strix Halo-Handheld kaufen.

dildo4u
2025-10-11, 20:31:07
Intel wird besser Preise anbieten eine B580 ist auch massiv aufwendiger als eine 5050 wird aber für das Selbe verkauft.

Bei Lunar Lake gab es nur einen Handheld und selbst MSI bietet dieses Modell jetzt mit AMD Chips an.
Da müssen sie deutlich aggressiver werden.

https://www.pcmasters.de/news/133714514-msi-claw-a8-mit-amd-ryzen-z2-schlaegt-intel-basierten-claw-8-ai-plus-in-spielen.html

iamthebear
2025-10-11, 21:21:37
Also ich glaube, dass der Markt der 1K+ Handhelds nicht allzu groß ist. Aber diesen Preis braucht man mittlerweile wenn aktuelle AAA Titel geslielt werden sollen. Für ESports Shooter ist der Formfaktor auch nicht geeignet wenn man mit PC Spielern mit Maus gematched wird ohne Auto aim.

Und Intel hat das Problem, dass sie einfach viel mebr Silizium für dieselbe Performanbce brauchen. Bei einem kleineren GPU Tile kann man das noch in den Margen der CPU verstecken. Sobald der GPU Tile aber den Großteil des Dies ausmacht ist man nicht mehr konkurrenzfähig.

robbitop
2025-10-11, 23:01:36
Ich vermute, dass mittelfristig für den Handheldmarkt auch relevant wird, wie gut es mit SteamOS läuft. Intel hat leider (noch?) nicht so gute Linux Treiber wie AMD mit RADV.

davidzo
2025-10-12, 12:24:13
Ich fürchte mit Panther Lake werden Handhelds einfach nur noch teurer. Da kann man ja gleich ein Strix Halo-Handheld kaufen.

Wieso sollte PTL so teuer sein?

Ich schätze Pantherlake als sehr kompetitiv ein bei den Herstellungskosten. Als Tan gesagt hat man sich jetzt auf (selbst gefertigte) Produkte mit mehr Marge konzentrieren wolle war damit denke ich Pantherlake gemeint, im Vergleich zu Arrowlake und Lunarlake, die durch die zugekauften Nodes katastrophal ausgefallen sind bei der Marge.

Intels Problem ist eher die Lieferbarkeit bzw. der mangelnde Fab output von 18A. Sonst könnte Intel leicht ein 4+0+4+12XE Modell als Counter zur AMD Z-Serie auflegen. Aber solange man selbst für den Premium Ultramobile Bereich nicht genügend CPUs liefert macht es keinen Sinn in so einen niedrigmargigeren Bereich wie Handhelds zu gehen.

AMD bietet mit der Z-Serie ja auch ihre big-DIE Top Modelle nochmal billiger an als im normalen Consumer-Bereich, nur um den Fuß in die Tür zu kommen bei Handhelds.

Wieso denke ich dass die Rohertragsmarge bei PTL besser ist?
Der Compute-Die ist 25% kleiner als bei Lunarlake und wird inhouse gefertigt, was günstiger sein dürfte als TSMC. Der zugekaufte GPU-Die bei 12XE ist nur 54mm2 groß und düfte den Kohl auch nicht fett machen, trotz wesentlich höherer Leistung. Das Packaging ist weniger komplex als Arrowlake-H, der Compute-Die minimal kleiner und die Gesamtgröße der Dies auch geringer. Gerade die PTL-H-Version mit der kleinen iGPU in Intel3 dürfte deutliche Kostenersparnissen für Intel gegenüber ARL-H erziehlen.

dildo4u
2025-10-12, 12:49:38
Ganz einfach man produziert nur ganz wenige 12XE Chips.
Das ist deutlich besser als Lunar Lake für Intel.
Es gibt auch kaum Strix Only Laptops die verkaufen sich deutlich besser mit einer 5050 an Board.
Die SOC Lösung wie Strix Halo scheint nicht deutlich effektiver als 35 Watt CPU plus 75 Watt 5050.
Zugang zu DLSS4 ist kritisch für Low End Karten da du aggressives Upscaling einsetzen musst.

iamthebear
2025-10-12, 13:23:21
Sonst könnte Intel leicht ein 4+0+4+12XE Modell als Counter zur AMD Z-Serie auflegen. Aber solange man selbst für den Premium Ultramobile Bereich nicht genügend CPUs liefert macht es keinen Sinn in so einen niedrigmargigeren Bereich wie Handhelds zu gehen.

Die 4+0+4 Variante ist in erster Linie für leichtere Office Workloads gedacht wo selten mehr als 2-3 Threads gebraucht werden und diese nicht sehr cachelastig sind und es in erster Linie darum geht die Idle Power zu senken.

Bei Gaming Workloads macht es wesentlich mehr Sinn die Threads auf die E Cores am Ring zu verlagern damit man den L3 nutzen kann und somit die Energie der DRAM Zugriffe spart.
Und Kostenmäßig machen die 8 zusätzlichen E Cores nicht viel Unterschied. Das sind gerade einmal 20mm² und dafür bekommt man auch noch 6MB zusätzlichen L3.

HOT
2025-10-12, 13:33:20
Was mit aufgefallen ist: Es gibt ein eigenes Die für 4C und 4+8C und das IOD scheint ebenfalls kleiner zu sein. Wie mal typisch Intel, für 12 Produkte 6 verschiedene Dies :freak:...

y33H@
2025-10-12, 14:29:13
Das ist nicht korrekt, es gibt folgende aktive Dies:

484 Compute (18A)
404 Compute (18A)
4Xe Graphics (i3)
12Xe Graphics (N3E)
PCD für IO (N6)

robbitop
2025-10-12, 15:12:53
Und dazu noch den relativ großen base die (nicht aktiv aber trotzdem muss man den belichten und managen) und streng genommen den filler die (der sollte aber egal sein weil nichts drin ist).

Ist schon trotzdem relativ viel. Ein nicht unwesentlicher Grund ist es ja mit wenigen Chiplets viele Produkte abzubilden. Aber seit Intel auch Chiplets „zusammen glued“ (worüber man sich ja mal lustig gemacht hat ^^) machen sie es gefühlt ein wenig zu komplex.

Ggf hätte es auch ein CPU chiplet getan wo man dann optional halt mehrere nutzen können wenn man skus mit mehr Kernen will.
Und ob man iGPU und IOD wirklich disaggregieren muss? Klar rein vom Fertigungsprozess macht es Sinn - aber es ist wieder 1x chiplet mehr. Ggf hätte zumindest ein IOD mit der kleinen GPU gereicht so dass man die nicht noch hätte neu auflegen müssen? (nur so Gedanken ohne Anspruch darauf dass das besser wäre)

Hoffentlich geht es trotzdem auf denn es braucht harten Wettbewerb damit es gut für den Endkunden bleibt.

mczak
2025-10-12, 18:32:52
Das ist nicht korrekt, es gibt folgende aktive Dies:

484 Compute (18A)
404 Compute (18A)
4Xe Graphics (i3)
12Xe Graphics (N3E)
PCD für IO (N6)
Ist das bloss ein IO Die? Laut den Symbolbildern sind es 2, obwohl der Unterschied ja tatsächlich anscheinend bloss 8 pcie 5 lanes sind (selbst laut den Symbolbildern wäre der Unterschied bei der Die-Grösse wohl bloss so 15%).
Mich stört sowieso weniger die Anzahl der Dies, sondern dass der Grössenunterschied der Compute-Dies (wohl so 25%) und eben allenfalls der IODs eher klein ist, so dass man sich fragen muss ob sich das wirklich lohnt. Bloss beim GPU-Die ist der Unterschied wirklich deutlich (wohl so Faktor 2?).
Wobei man sagen muss selbst bei AMD sind Strix und Krackan letztlich von der Grösse her wohl auch gar nicht so weit auseinander (wobei ich eigentlich Krackan für den deutlich besser ausbalancierten Chip halte, ist aber halt relativ low-end).

y33H@
2025-10-12, 18:47:30
Ein Basis-Design für PCD-U/P und davon abgeleitet eins für PCD-H.

mocad_tom
2025-10-12, 22:18:41
https://x.com/p1cturedump/status/1977468519135805719
Zum IO-Die

Aber das schaut schon so aus, als wären das zwei unterschiedliche, oder sägen sie das untere stück weg?

mboeller
2025-10-13, 09:07:54
https://x.com/p1cturedump/status/1977468519135805719
Zum IO-Die

Aber das schaut schon so aus, als wären das zwei unterschiedliche, oder sägen sie das untere stück weg?

schaut so aus, aber das sind bestimmt nur schematische Die-Shots und keine echten. Das ganze kann/sollte man nicht zu ernst nehmen.

davidzo
2025-10-13, 11:24:49
Die schematische Darstellung ist auf jeden Fall nicht ganz richtig, denn bei den realen CPUs schließt der I/O Die nicht bündig mit dem Compute Die ab, sondern geht noch 1-2mm neben dem Graphics Die entlang.

Die Exakten Die-Abmaße der 4+8+4+12 Version waren ja auch bereits im vorhinein von @Jaykihn geleakt und der Versatz der Dies damit genau belegt.

Auf der Messe hat Intel sich dann noch den Schnitzer geleistet eine der beiden CPUs auf den Kopf zu stellen. Wären sie richtig herum erkennt man leicht dass der i/O Die dieselben Abmaße hat:
https://pics.computerbase.de/1/1/9/5/0/1-0d5cd47683218913/article-1280x720.6e6098c7.jpg

mironicus
2025-10-14, 15:46:13
Das neue XeSS 3 Multi Frame Generation bei Panther Lake könnte interessant für Handhelds sein mit bis zu 3 KI Frames wie bei NVidia.Wenn man dann Battlefield 6 auf einen Intel Handheld mit 120-150 FPS spielen kann und bei AMD nur mit 60-80 FPS könnte das einige überzeugen zu wechseln.

dildo4u
2025-10-14, 15:49:51
Die nutzen bisher keine Displays für die man mher als 2x brauchen würde.

HOT
2025-10-15, 10:21:55
Die schematische Darstellung ist auf jeden Fall nicht ganz richtig, denn bei den realen CPUs schließt der I/O Die nicht bündig mit dem Compute Die ab, sondern geht noch 1-2mm neben dem Graphics Die entlang.

Die Exakten Die-Abmaße der 4+8+4+12 Version waren ja auch bereits im vorhinein von @Jaykihn geleakt und der Versatz der Dies damit genau belegt.

Auf der Messe hat Intel sich dann noch den Schnitzer geleistet eine der beiden CPUs auf den Kopf zu stellen. Wären sie richtig herum erkennt man leicht dass der i/O Die dieselben Abmaße hat:
https://pics.computerbase.de/1/1/9/5/0/1-0d5cd47683218913/article-1280x720.6e6098c7.jpg

Das ist nicht korrekt. Ausgerechnet der 4+0 und das 12-XE-Modell haben ja beide nur 12 Lanes, nur der 4+8 mit 4-XE hat 20 Lanes und damit das volle IOD.

davidzo
2025-10-15, 11:33:25
Das ist nicht korrekt. Ausgerechnet der 4+0 und das 12-XE-Modell haben ja beide nur 12 Lanes, nur der 4+8 mit 4-XE hat 20 Lanes und damit das volle IOD.

Genau darum ging es. Vielleicht mal die 2-3 posts darüber lesen. :rolleyes:

Es gibt anscheinend nur einen IO Die, obwohl in den Marketingunterlagen zwei dargestellt werden. Aber die dieshots stimmen nicht mit den marketingunterlagen überein und deuten eher daraufhin dass es derselbe I/O Die ist und die lanes nur fused off sind.

In der kleinen Version bietet er aus Stromspargründen nicht genug PCIe-Lanes um eine diskrete GPU anzusprechen. Dies ist nur im Vollausbau des I/O-Tiles, die vermutliche Core Ultra 300H nutzen wird, möglich. Dass der I/O-Tile letztlich unter der Haube der gleiche ist, hat eher mit der Fertigung zu tun. Wegen ein paar mm² Einsparung eine neue Maske aufzulegen, wenn auf der anderen Seite weiterhin zwei Filler-Tiles für ein stabiles Package sorgen müssen, rechnet sich nicht. So wird der kleine I/O-Tile letztlich nur kastriert, das Silizium ist identisch.

robbitop
2025-10-15, 12:18:26
Das neue XeSS 3 Multi Frame Generation bei Panther Lake könnte interessant für Handhelds sein mit bis zu 3 KI Frames wie bei NVidia.Wenn man dann Battlefield 6 auf einen Intel Handheld mit 120-150 FPS spielen kann und bei AMD nur mit 60-80 FPS könnte das einige überzeugen zu wechseln.
Ich denke dass Frame Generation und Multi Frame Generation nicht geeignet sind um spielbare Frameraten zu erzeugen. Sie sind ein gutes Werkzeug high refresh rate Monitore auszufahren (also Bewegtschärfe zu erhöhen was damit in Bewegung die Bildqualität steigert weil in Bewegung mehr Details erhalten bleiben).

Frame Generation kostet allerdings etwas (fest computational cost bezogen auf eine bestimmte Auflösung und GPU). Senkt also immer die reale (Input) Framerate. Eine gewisse (und stabile) Inputframerate ist nötig damit es gut aussieht und sich auch gut anfühlt (inputlatenz).
Und gerade bei Handhelds ist nicht so irre viel Reserve bei der GPU vorhanden und man kämpft bei modernen Spielen schon ohne FG um auf gute Frameraten zu kommen.

Man darf sich von den hohen Frameraten nicht beeindrucken lassen mit MFG. Man probiere mal zB 40 fps per frame limiter und das mit 3x MFG auf 120 fps aufzublasen. Spielt sich furchtbar.

IMO ist das nichts was man nutzen sollte von nicht flüssig und flutschigen fps auf hohe fps zu kommen. Es ist etwas um mit bereits sehr flüssigen Zustand (relativ gute fps und input latenz) noch flüssiger werden zu lassen um hohe refreshreates auszureizen. Und die computational cost lässt die base framerate ja noch ein Stück einbrechen.
IMO (die Empfehlungen von Nvidia und AMD sind auch so) schon 60 fps als input fps haben damit es richtig gut wird. Damit man 60 fps input fps trotz computational overhead bekommen braucht man ohne FG ~70-80 fps. Also ordentlich overhead.

Deshalb denke ich nicht, dass das ein idealer Anwendungsfall für Handhelds und Konsolen ist (zumindest bei fordernden Spielen).

mironicus
2025-10-15, 14:31:00
Also bei meinem Notebook Razer Blade 16 (AMD HX 370 mit RTX 5090 Mobile), spüre ich mit MFGx4 kaum einen Input Lag, zumindest bei Cyber Punk 2077 (sogar mit Pathtracing an bei 2560x1600) oder Claire Obscure 33, wenn ich mit Xbox Controller spiele. Mit Controller hat man vielleicht hier einen Sweet Spot was die Latenz angeht, das Spielen mit Tastatur und Maus könnte sich das natürlich anders anfühlen. Das ist mittlerweile auch ein Feature wo man meinen könnte, nie wieder ohne, wenn alles stimmt.

Es ist echt bedauerlich, das es keinen PC-Handheld mit NVidia-Grafik gibt.

mboeller
2025-10-16, 13:29:36
https://www.notebookcheck.com/Frueher-Intel-Panther-Lake-GPU-Benchmark-beeindruckt-mit-50-hoeherer-Leistung-gegenueber-Lunar-Lake.1140004.0.html


Laut Ergebnissen von 3DMark Time Spy Graphics, die vor wenigen Tagen vom chinesischen Magazin Laptop Review veröffentlicht wurden, erzielt der Panther-Lake-Flaggschip Core Ultra X9 388H rund 6.233 Punkte, wenn er mit 8.533 MT/s-Speicher kombiniert wird. Mit besonders schnellem 9.600 MT/s-RAM steigt das Ergebnis sogar auf beeindruckende 6.300 Punkte.


trotz 12,5% mehr Bandbreite nur 1% schneller. Der große L2-Cache scheint sehr gut zu funktionieren. nett!

Zum Vergleich:
https://www.notebookcheck.com/AMD-Radeon-890M-Grafikkarte-Benchmarks-und-Spezifikationen.848128.0.html

die iGPU 890m von AMD schafft 3430 Punkte

MSABK
2025-10-16, 13:54:07
Die iGPU wird schnell werden, daran habe ich keine Zweifel. Intel gibt da gut gas, Nvidia hat da sogar Angst bekommen und steigt bei Intel ein.

dildo4u
2025-10-16, 14:44:22
Timespy ist nutzlos um Intel Performance zu bewerten eine B580 Performt dort wie eine 5060 Ti.

robbitop
2025-10-16, 15:12:34
Ja aber das kann man zumindest grob als Offset zu Xe2 sehen. 50% mehr Performance einfach auf den Index packen (ich finde leider nur keinen - das ist bei IGPs irgendwie immer kacke - da scheinen die üblichen Verdächtigen nur 3-4 Spiele zu benchen und fertig). Intel hat ja IIRC selbst von +50% gesprochen ggü Lunar Lake.

Also LL war in realen Spielen mit neusten Treibern ungefähr auf Strix Point Level*. Also wird Xe3 dann ~50% drüber liegen. Strix bekommt IIRC noch ein Refresh - aber da kommt nicht sooo viel mehr Leistung bei rum. Und vor Medusa mit RDNA5/Zen6 wird man da dann die Führung halten können (wenn man Halo mal ausklammert). Panther Lake soll Anfang nächsten Jahres auf den Markt kommen. Wahrscheinlich wenigstens 1 Jahr vor Medusa. Ggf. muss Medusa dann schon gegen den Nachfolger (Novalake?) kommen.

*Im Kapitel Mega Handheld Test sieht man Lunar Lake und Strix zusammen: https://www.youtube.com/watch?v=ltUv6p6lS80

ryan
2025-10-16, 15:14:18
Vielleicht kann die Xe3 ihre theoretische Leistung besser in den Spielen umsetzen, es wurden einige Problemstellen angegangen. Siehe: https://youtu.be/HwZx9RIl13Y?t=327

Lehdro
2025-10-16, 15:14:45
Timespy ist nutzlos um Intel Performance zu bewerten eine B580 Performt dort wie eine 5060 Ti.
Tale as old as time.
Zusätzlich: iGPUs skalieren im Timespy auch meist außergewöhnlich gut.

Aber Hoffnung habe ich hier sehr wohl, wird Zeit das jemand AMD in den Hintern tritt was die GPU Leistung angeht.

robbitop
2025-10-16, 16:27:19
Wird auch mal Zeit. Sie bekommen etwas complacent bei den APUs. Zeigt, dass Wettbewerb immer wichtig ist und bleibt ^^

mocad_tom
2025-10-30, 18:49:05
Im Intel popup store am Viktualienmarkt München kann man sich wohl laufende Panther Lake Laptops anschauen.

https://x.com/highyieldYT/status/1983838450144215400

3dcenter Forums treffen Samstag in einer Woche?

wenn y33H@ nicht persönlich vorbeischaut klauen wir das PTL Laptop aus dem Laden

w0mbat
2025-10-30, 19:30:22
Für den Presseevent waren PTL Laptops da, zu Kaufen gibt es aktuell aber nur LNL und ARL.

Und yeeha war natürlich vor Ort. Ganz persönlich. Was denkst du, aus wessen Tasche die Chips kamen?

mocad_tom
2025-10-30, 19:41:44
Also sind die PTL Laptops ab morgen nicht mehr da?

:udown: ?

Ich hätte gehofft wir das normale Fußvolk darf auch mal draufschauen

ryan
2025-10-30, 20:41:09
https://www.notebookcheck.com/Frueher-Intel-Panther-Lake-GPU-Benchmark-beeindruckt-mit-50-hoeherer-Leistung-gegenueber-Lunar-Lake.1140004.0.html



trotz 12,5% mehr Bandbreite nur 1% schneller. Der große L2-Cache scheint sehr gut zu funktionieren. nett!

Zum Vergleich:
https://www.notebookcheck.com/AMD-Radeon-890M-Grafikkarte-Benchmarks-und-Spezifikationen.848128.0.html

die iGPU 890m von AMD schafft 3430 Punkte


Angeblich jetzt 6830 Punkte beim X7 358H nach Treiber Updates.


Das Highlight von Intels Laptop-Prozessoren der nächsten Generation ist die Xe3-iGPU mit zwölf Recheneinheiten, die in 3DMark Time Spy mit 6.830 Punkten in diesem Benchmark-Durchlauf beachtliche 72 Prozent schneller ist als die iGPU des Core Ultra 7 255H.

Previously, the laptop evaluation network has disclosed that Intel Core Panther Lake's ES (Engineering Sample) in TimeSpy graphics run score can reach 6300 points. Now with the gradual optimization of the production model, the TimeSpy graphic score is further improved by nearly 10%.
https://www.notebookcheck.com/Intel-Core-Ultra-X7-358H-ist-im-Benchmark-Leak-langsamer-als-Core-Ultra-7-255H-iGPU-kann-punkten.1151296.0.html
https://laptopreview.club/intel-core-ultra-x7-358h-spec-performance-and-benchmark/

Wuge
2025-10-31, 11:42:37
Lohnt sichs mal zum Pop up store zu gehen? Oder ist das auch nix anderes als die Mediamarkt Laptop Abteilung?

dildo4u
2025-10-31, 11:44:12
Mediamarkt wird Panther Lake erst in 2026 haben.

mocad_tom
2025-11-01, 13:53:50
Aktueller Plan ist

Intel Popup-Store und danach Swatch laden plündern

Intel Popup-Store zu Swatch-Laden (https://www.google.com/maps/dir/LOUIS+Hotel,+Viktualienmarkt,+M%C3%BCnchen-Altstadt-Lehel/Sendlinger+Str.+17,+80331+M%C3%BCnchen/@48.1358535,11.5710763,592m/data=!3m3!1e3!4b1!5s0x479e75f57f4adc11:0xecda3a2a63b6e2dd!4m14!4m13!1m5!1m1!1s0x 479e758abf64ec17:0x68e341ce4ee9e5b!2m2!1d11.575807!2d48.1359729!1m5!1m1!1s0x479e 751b12de084f:0x9cae77c63e3b6fd7!2m2!1d11.5710174!2d48.1353703!3e2?entry=ttu&g_ep=EgoyMDI1MTAyOS4yIKXMDSoASAFQAw%3D%3D)

Es scheint so als wäre dort ein Streaming-Rig mit Elgato dran und das ist ein Panther Lake.

Ohne das dort mit Pfeilen großartig hingedeutet wird.

Kann natürlich auch sein, dass die den dann auch mal schnell wegverschwinden lassen können.

https://www.hardwareluxx.de/index.php/news/allgemein/vor-ortmessen/67393-ki-erleben-erster-intel-experience-store-in-muenchen-eroeffnet.html

Da den Text lesen - ich hoffe ich hab das nicht falsch interpretiert.

Und der Herr, der da den PTL in die Kamera hält - das ist y33H@ ?

y33H@
2025-11-01, 17:10:48
Nein, das ist Frank Kuypers - der hat die Präsentation gehalten, aber die Chips kamen von mir und ich war für Q&A sowie die Demos vor Ort ... die PTL sind derzeit in Berlin falls jemand Fotos will ^^

mocad_tom
2025-11-01, 17:58:04
Also die PTL-Chips sind in Berlin.

Aber das PTL-Laptop an dem Elgato-Platz ist in München im Popup Store?

y33H@
2025-11-01, 21:52:50
Der ist vermutlich bereits zurück in Oregon, ich meine das Demo Team hat den wieder eingepackt.

mironicus
2025-11-01, 22:45:01
TDP 65 Watt. Ist zuviel für ein PC-Handheld. Die Leistung bei 15 Watt sollte gemessen werden.

iamthebear
2025-11-05, 23:57:12
https://x.com/jaykihn0/status/1986086104286597269

Schnellstes 4+8+4 Modell 5.1 GHz

4+0+4 maximal 4.8GHz

Also 300 MHz weniger als bei ARL-H bzw. LNL

Der limitierende Faktor scheint jedoch die Kühlung zu sein auf Grund der gestiegenen Transistordichte bei gleichzeitig schlechteren Wärmeleitfähigkeit durch Backside Power Delivery.

Ich denke damit ist 18A für Desktop einmal für die nächste Zeit vom Tisch.

Undertaker
2025-11-06, 00:31:38
Wo genau gab es Details zur Temperaturentwicklung inkl. eines verwertbaren Vergleichsmaßstabes?

davidzo
2025-11-06, 00:50:10
Wo genau gab es Details zur Temperaturentwicklung inkl. eines verwertbaren Vergleichsmaßstabes?
Was genau verstehst du daran nicht @Undertaker wenn jemand ein educated guess mit "scheint..." einleitet und in einem Spekulationsforum äußert?
Die Basis der Aussage hat er bereits im Post verlinkt.

No, all 4+4+4 and 4+8+4 have both 65W & 80W configurations.

OEMs choose. (preliminary)
Because PTL is hard to cool for ST boost.

Experience Based PL1 will also debut on PTL. More info in the future.
https://x.com/jaykihn0/status/1986105832732336515

Angeblich gehen die OEMs bei der TDP extra nicht in die Vollen. Wenn die TDP aber niedrig ist, müsste der Chip leicht zu kühlen sein. Zumal der Compute-Die mit 114mm2 nicht ungewöhnlich klein ist. Da gibts bei AMD bereits mehr Core Density.

Wenn aber bei single-threaded schon die Kühlung limitiert ist das nicht der TDP geschuldet, denn die wird mit nur einem Thread eh nicht erreicht. Die Logische Erklärung ist eine schlechte Wöärmeverteilung im DIE bzw. ein Isoliereffekt ähnlich wie bei AMDs 5800x3d und 7800x3d.

ryan
2025-11-06, 01:08:28
Um die 5 Ghz hat bei Intel schon Tradition. MTL-U mit Intel 4 hatte auch nur max 5.1 Ghz. Genauso sollte nach Intel Tradition die refresh Fertigung gut was zulegen können. Im Vergleich zu ARL-H mit N3B hat PTL-H ein ST Boost Defizit von 300 Mhz.

Undertaker
2025-11-06, 07:42:02
Die Basis der Aussage hat er bereits im Post verlinkt.


Diesen entscheidenden Satz sehe ich im verlinkten X-Posting nicht, aber vielleicht versteckt der sich ja irgendwo in den Kommentaren. Ansonsten gäbe es für den festgesetzten ST-Takt ja zahlreiche mögliche Erwägungsgründe, von harter Clockwall über Effizienzerwägungen bis hin zur Ausbeute. Insofern eine berechtigte Nachfrage, wenn es explizit ein Temperaturthema sein soll

dildo4u
2025-11-06, 08:54:17
5.1Ghz sind doch ok 285HX im Titan hängt dort und befeuert Nvidia High-End.
AMD hat nur ein Strix Refrech und Apple zersört beide eh um mherere Generationen.

https://youtu.be/Bxh-3WLoS8g?si=qhu7G1-B3f7mgaL2&t=3711

Wuge
2025-11-06, 10:55:25
Passt thematisch gerade: könnte man nicht eigentlich in einem modernen Node 2 CPU Kerne bewusst größer machen im Footprint um die Hitze besser zu verteilen? Quasi 2 P Cores mit 1,5x oder 2x footprint, die dann ein paar hundert Mhz höher boosten können, dazu die normalen P Cores + E Cores. So wie in den mobilen SoCs teilweise...

mboeller
2025-11-06, 11:12:05
Passt thematisch gerade: könnte man nicht eigentlich in einem modernen Node 2 CPU Kerne bewusst größer machen im Footprint um die Hitze besser zu verteilen? Quasi 2 P Cores mit 1,5x oder 2x footprint, die dann ein paar hundert Mhz höher boosten können, dazu die normalen P Cores + E Cores. So wie in den mobilen SoCs teilweise...

google behauptet Lion-Cove ist 4,5mm2 groß. 2x2-fach = 9mm2 mehr Die-Fläche. Würde also gehen. Aber die längeren Wege in der CPU verursachen wahrscheinlich auch wieder Timing-Probleme.

mocad_tom
2025-11-06, 11:14:58
> OEMs choose. (preliminary)
> Because PTL is hard to cool for ST boost.

Da könnte jetzt wirklich durchspitzen, dass PowerVia in der Ableitung der Wärmeenergie nicht optimal ist.

Deshalb hat man ja auch schon davon gesprochen, dass Intel 18A chips nur dann in ein Smartphone gehen können, wenn das Smartphone eine Heatpipe bekommt.

Ansonsten -> da kommt Volumen.
So viele SKU wie die hier auflegen.
Der PTL 332 mit vPro und voller Copilot+ Unterstützung wird wohl ein Sonderwunsch von Microsoft gewesen sein.

Das fräst auch direkt in die Intel-7-Volumina hinein.

------

Ich war auch im Intel Popup Store gestern.
An dem Elgato-Eck war nur ein Core Ultra 9 285H
(der PTL ist verschwunden, wie bereits angekündigt).
Auch die anderen Ausstellungsstücke waren altbekanntes.
Das HP Omnibook mit Lunar Lake hat so ein "Must resist"-Gefühl geweckt.
Ich muss jetzt einfach durchhalten bis zu den vernünftigen PTL

davidzo
2025-11-06, 12:48:37
Passt thematisch gerade: könnte man nicht eigentlich in einem modernen Node 2 CPU Kerne bewusst größer machen im Footprint um die Hitze besser zu verteilen? Quasi 2 P Cores mit 1,5x oder 2x footprint, die dann ein paar hundert Mhz höher boosten können, dazu die normalen P Cores + E Cores. So wie in den mobilen SoCs teilweise...


Die P-kerne sind bei Intel bereits gigantisch. Bei Arrowlake und Lunarlake (N3B) sind die ohne ihren Slice an L3 Cache gute 5mm2 groß, bzw. 7,7mm mit 3Mb vom shared Cache. Apples P-Kerne sind unter 2,9mm2, bzw. 4,8mm2 mit 4MB an shared cache.

18A legt ja bei der Density kaum zu im Vergleich zu N3B. Vielleicht geht es bei Cougar Cove runter auf 4.5 oder 4mm2 reine Core area mit private cache aber weniger würde ich nicht erwarten.

Intel verteilt die P-Cores auch bereits möglichst weit auseinander mit einem großen L3 Pool und den beiden L2 caches zwischen zwei Cores womit die Funktionseinheiten schon an den äußeren Die Kanten und somit maximal weit auseinander liegen.

Das Problem ist eher der zu hohe Betriebspunkt bei ST Load. Lunarlake ist das zwar angegangen durch sinnvolle Taktreduktionen und verbraucht bei Integer/FP ST Workload nur 10/12W aber ist dabei eben auch 50-60% langsamer 1T als z.B ein Apple M5 P-Core, der dabei noch immer 25% weniger verbraucht und mit 3mm2 auch weniger Die-fläche benötigt. Die Absenkung des ST Betriebspunkts war also nur ein Tropfen auf dem heißen Stein.
Man kann jetzt sagen, ja okay Apple ist Apple. Aber gegenüber Qualcomms neuen Oryon-L prime cores sieht das sicher nicht viel anders aus.

Arrowlake-H darf mit 20-25Watt das doppelte verbrauchen, schafft damit aber nur 300mhz mehr. Ein M5 P-Core Ist z.B., in Cinebench R24 mit 208 vs 132 Punkten im ST immer noch 57% schneller bei nur rund einem Drittel des Verbrauchs (7,6Watt).

- Ja Intel betreibt seine P-Cores auch in Notebooks leider mit so absurden Betriebspunkten dass die Effizienz um rund Faktor fünf schlechter ist (M5 vs 285h). Und das obwohl wir ausnahmsweise mal Fertigungsnode-Parität haben.

Lunarlake ist da zwar besser, aber auch kein Lichtblick. In Geekerwans Test vom 258V lagen die Kurven von Lion Cove und Skymont immer noch schlechter als die Betriebspunkte der Apple M1 Firestorm und Icestorm Kerne.

Pantherlake soll eine ähnliche Effizienz wie Lunarlake haben, aber Multithreaded eine Schippe drauf legen. Ich nehme an dass Intel bei PTL in ST den 10-12W Betriebspunkt von LNL einfach übernimmt. Höhere Taktraten gibt es für ST ja auch nicht, aber falls man den Powerdraw für die ST Boostclocks auf unter 10W senken würde, dann wäre das imo schon ein überraschender Win und ein Schritt in die richtige Richtung.

mboeller
2025-11-06, 14:03:39
Wenn es nach diesem Bericht hier geht, dann ist Panther-Lake eher ein Side-Grade im Vergleich zu Arrow-Lake:

https://www.notebookcheck.com/Intel-Core-Ultra-X7-358H-ist-im-Benchmark-Leak-langsamer-als-Core-Ultra-7-255H-iGPU-kann-punkten.1151296.0.html

Hoffentlich schaut das bei einer geringeren TDP besser aus.

Undertaker
2025-11-06, 14:31:12
Auch wenn man für verlässliche Benches sicher noch etwas warten muss, ist das bzgl. MT-Leistung nicht wirklich überraschend bzw. haben wir hier in Bezug auf die Breite des Chips vor kurzem auch schon einmal diskutiert. 4+8(+4) Cores sind halt kein wirklicher Zuwachs ggü. 6+8 Cores, damit bleibt nur noch die Evolution bei Prozess und Architektur.

Von der Platzierung im Produktportfolio bzgl. Geräte-/Verbrauchsklasse ist PTL mMn eher Hybrid aus LL und ARL-H denn ein reiner ARL-H Nachfolger.

mocad_tom
2025-11-06, 15:17:12
Die Qualcomm-Snapdragon-Windows-Laptop-Werbung kommt bei euch auch, oder kommt die nur bei mir so oft in Wowtv (weil targeted Werbung)?


Ich denke Panther Lake haut komplett den Snapdragon 2 kaputt.
Qalcomm macht Werbung mit Laptop und möglichst lange ohne Steckdose.
Aber hier ist der Lunar Lake bereits auf Augenhöhe bei besserer Kompatibilität und Spieletauglichkeit.

Und Panther Lake wird hier nochmals eines draufsetzen.

Wenn die in ein HP OmniBook Ultra Flip 14" einen großen PTL mit 4+8+4+12Xe3 reinbekommen, dann wird die Brieftasche gezückt (und gerne mit 64GB).

https://geizhals.de/hp-omnibook-ultra-flip-14-fh0730ng-b1ft1ea-abd-a3414229.html

Da juckt ja dann auch der Cinebench score nicht - der muss nicht das gleiche können wie der Desktop-PC.
Das Ding ist im Popup-Store in München zu sehen und es hinterlässt einen bleibenden Eindruck.

iamthebear
2025-11-06, 20:52:21
Diesen entscheidenden Satz sehe ich im verlinkten X-Posting nicht, aber vielleicht versteckt der sich ja irgendwo in den Kommentaren. Ansonsten gäbe es für den festgesetzten ST-Takt ja zahlreiche mögliche Erwägungsgründe, von harter Clockwall über Effizienzerwägungen bis hin zur Ausbeute. Insofern eine berechtigte Nachfrage, wenn es explizit ein Temperaturthema sein soll

Hier ist der Link:
https://x.com/jaykihn0/status/1986148883592843375

Dass 18A lokale Hitzeprobleme bekommt konnte man ja anhand der 18A vs. Intel 3 Daten bereits vermuten:
Intel hat bei 1.1V 25% höhere Taktraten angegeben. Bei gleicher Spannung war der Energieverbrauch aber etwas höher. Oder alternativ kann bei gleichem Takt die Verlustleistung um 36% gesenkt werden.

Gleichzeitig wird jedoch die Transistordichte um 1.4x erhöht was bei gleichen Watt die Watt/mm² um 1.4x erhöht.
Intel hat also in der Theorie die Möglichkeit:
a) 1.4x höhere Transistordichte und 1.4x weniger Verbrauch aber dafür ähnlicher Takt
b) Gleiche Verlustleistung, höherer Takt aber dann kann man die 1.4x Transistordichte nicht nehmen, da das Ding sonst ins thermische Limit läuft.

Weiteres Problem:
Bisher waren Daten und Stromversorgung beim Chip unten und auf der Oberseite war ein monolithischer Block Silizium mit guten Wärmeleiteigenschaften.
Bei 18A und BSPD ist nun komplizierter, da die Transistoren nun zwischen Signalen und Power Leitungen gesandwiched sind.

imec hat hierzu schon Daten publiziert:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/65169-thermische-hotspots-backside-power-delivery-hat-nicht-nur-vorteile.html

Intel hat afaik den Effekt mit 18A etwas abschwächen können aber zu 100% wird das sicher nicht gelingen.

Passt thematisch gerade: könnte man nicht eigentlich in einem modernen Node 2 CPU Kerne bewusst größer machen im Footprint um die Hitze besser zu verteilen? Quasi 2 P Cores mit 1,5x oder 2x footprint, die dann ein paar hundert Mhz höher boosten können, dazu die normalen P Cores + E Cores. So wie in den mobilen SoCs teilweise...

Wenn ich mir die Größe von Lion Cove ansehe so hat Intel dies bei den ARL/LNL P Cores bereits so gemacht. Ansonsten wärem diese nicht so groß.
Bei den E Cores ist das nicht der Fall. Diese sind deutlich kompakter wodurch diese bei 1-1.1V ins thermische Limit laufen. Ansonsten wären auch 5GHz+ im Desktop locker machbar.

Die 18A Panther Cove P Cores sind grob geschätzt 1.2-1.3x kompakter als ARL obwohl normalerweise die Transistordichte zwischen N3B und 18A ca. gleich ist.
Man darf aber auch nicht vergessen: PTL ist ein Lunar Lake Nachfolger wo diese Entscheidung nicht unbedingt ein großer Nachteil ist. Für die Server CPUs wird es auch gut passen.
Für Desktops/dickere Notebooks (z.B. Nova Lake) könnte der Kern etwas anders aussehen.

Mal sehen wenn die ersten HWInfo Screens auftauchen wo man die PTL Spannung bei Max Boost sieht. Dann kann man eventuell abschätzen wie viel potentielle Reserven hier schlummern.

ryan
2025-11-07, 01:51:54
Wenn es nach diesem Bericht hier geht, dann ist Panther-Lake eher ein Side-Grade im Vergleich zu Arrow-Lake:

https://www.notebookcheck.com/Intel-Core-Ultra-X7-358H-ist-im-Benchmark-Leak-langsamer-als-Core-Ultra-7-255H-iGPU-kann-punkten.1151296.0.html

Hoffentlich schaut das bei einer geringeren TDP besser aus.


Der Artikel ist nicht gut, die haben abweichende Werte zur Originalquelle.

20.000 Punkte bei 50-60W erscheint mir nicht so schlecht vom 358H. Bei 60W macht der 255H 18689 Punkte auf Notebookcheck (https://www.notebookcheck.com/Der-Firefly-Nachfolger-der-auf-Intel-ARC-setzt-HP-ZBook-8-G1i-14-Laptop-Test.1137983.0.html).

Wuge
2025-11-07, 12:03:06
Das Problem ist eher der zu hohe Betriebspunkt bei ST Load. Lunarlake ist das zwar angegangen durch sinnvolle Taktreduktionen und verbraucht bei Integer/FP ST Workload nur 10/12W aber ist dabei eben auch 50-60% langsamer 1T als z.B ein Apple M5 P-Core, der dabei noch immer 25% weniger verbraucht und mit 3mm2 auch weniger Die-fläche benötigt.

Gibts eigentlich eine rationale Erklärung dafür, weshalb der einstige Branchenprimus und Erfahrungsweltmeister im CPU Design von Apple geschlagen wird? Ohne das jetzt überprüft zu haben... wenn das so ist, dann reden wir ja nicht davon, dass mal die eine oder andere Designeigenschaft besser oder schlechter ausgelegt ist. Das was du beschreibst wäre massive Unterlegenheit im logischen Design der Cores. Ist das so?

Pirx
2025-11-07, 12:32:30
verwendet Apple immer noch wesentlich mehr Transistoren für die Kerne, als Intel und/oder AMD?

CrazyIvan
2025-11-07, 13:51:30
Gibts eigentlich eine rationale Erklärung dafür, weshalb der einstige Branchenprimus und Erfahrungsweltmeister im CPU Design von Apple geschlagen wird? Ohne das jetzt überprüft zu haben... wenn das so ist, dann reden wir ja nicht davon, dass mal die eine oder andere Designeigenschaft besser oder schlechter ausgelegt ist. Das was du beschreibst wäre massive Unterlegenheit im logischen Design der Cores. Ist das so?
Ja, das kann man seit M1 schon so sagen.
Lange Zeit wurde der Prozessvorsprung seitens Apple angeführt, aber den gibt es momentan nicht. Und auch vorher war das Käse, weil der Vorsprung viel größer war, als der Prozess allein hergegeben hätte. Auch wurde ARM als großer ISA-Vorteil gegenüber AMD64 genannt, was selbst Leute wie Jim Keller deutlich abgeschwächt haben.
Und natürlich wird relativiert, dass Apple HW und SW besser auf einander abstimmen kann und der Markt sowieso ein anderer sei. Da aber die meisten Menschen eigentlich nur einen Browser und einige wenige, auf allen Plattformen verfügbaren, Applikationen benötigen, ist auch das Humbug außerhalb der Gaming-Nische.

De facto baut Apple seit 2020 die besten Single Thread CPUs der Welt - und bezieht man die Energieeffizienz ein, wird der Vorsprung wie von davidzo beschrieben geradezu absurd.
AMD hat kein ernsthaftes Interesse am Gleichziehen, da sie auf Server optimieren und damit sehr erfolgreich sind. Für Client sind die CPUs gut genug.
Warum Intel es nicht gebacken bekommt, ist die 1-Billion-Dollar-Frage.

aufkrawall
2025-11-07, 14:04:05
Warum sollte Intel ausgerechnet ULP gebacken bekommen, wenn sie schon mit Brute Force selbst gegen AMD abstinken? Ist ein Wunder, dass Panther Lake gegen AMD überhaupt so gut ist.
Aber nicht ausblenden, dass Qualcomm im Vergleich zu dem x86-Gammel auch sehr überzeugend und zuverlässig raushaut. Das Windows on ARM-Ökosystem wächst. Kann man jetzt noch belächeln, aber imho in spätestens zwei Jahren kann das ein böses Erwachen für AMD & Intel geben.

Undertaker
2025-11-07, 14:15:29
AMD steht ggü. einem M4/M5 leider keinen Deut besser da.

aufkrawall
2025-11-07, 14:20:00
Bei der Effizienz unter möglichst vergleichbaren Bedingungen zwischen AMD & Intel (also Desktop) schon, bzw. etwas weniger abgeschlagen als Intel.
Allerdings auch nur mehr oder weniger theoretisch, und nicht mit realen ULP-Produkten und realen Mobile-Workloads. Da würd ich mir niemals eine AMD-Saufziege holen, wenn es ansonsten vergleichbar Intel/Qualcomm zur Auswahl gäbe.
Mein Bruder hat ein Phoenix- und ein Alder Lake-Notebook. Sobald man auf dem AMD-Gerät irgendwas mit HDCP in der Netflix-App o.ä. guckt, sieht die Akku-Laufzeit kein Land mehr gegen Intel. Halt die typische reale AMD-Erfahrung vs. irgendwelche synthetischen Tests.

Undertaker
2025-11-07, 14:27:11
Im Desktop ist die Situation nicht viel anders, AMD hat nur eine Trumpfkarte: Gamingleistung und -effizienz der X3D-Modelle.

Ansonsten nehmen sich Anwendungs- und Spieleleistung sowie Effizienz der aktuellen Architekturen und Modelle nichts und liegen gleichermaßen weit hinter Apple. Leider.

y33H@
2025-11-07, 14:36:12
Das Windows on ARM-Ökosystem wächst. Kann man jetzt noch belächeln, aber imho in spätestens zwei Jahren kann das ein böses Erwachen für AMD & Intel geben.Das hieß es schon bei Windows RT und dann wieder seit dem Snapdragon 835 für Laptops ... insofern, beobachten und vor allem selbst abliefern.

robbitop
2025-11-07, 14:40:12
Die Frage ist wie viel davon die Cores selbst ist und wie viel Betriebspunkte und Powermanagement. Ohne Frage ist Apple bei den Cores vorn. Aber mein Eindruck ist dass es auch außerhalb der Cores suboptimal ist.

Exxtreme
2025-11-07, 16:11:32
Das Windows on ARM-Ökosystem wächst. Kann man jetzt noch belächeln, aber imho in spätestens zwei Jahren kann das ein böses Erwachen für AMD & Intel geben.

Ist nicht sehr wahrscheinlich, dass da was großartig passiert. Die Leute haben schon Probleme mit Linux auf AMD/Intel. Ein ISA-Wechsel ist da eine ganz andere Hausnummer was eine Umstellung angeht. Und alle Architekturen, die meinten x86 herausfordern zu müssen, sind am Ende gescheitert. Und die Nische, bei der x86 nicht so toll aussieht (Smartphones), da ist ARM eh' schon Platzhirsch. AMD und Intel haben ein viel zu gutes Preis-/Leistungsverhältnis, als dass man darauf verzichten könnte. Und es ist auch nicht absehbar, dass sich das ändert.

aufkrawall
2025-11-07, 16:22:45
Die Leute haben schon Probleme mit Linux auf AMD/Intel.
Die Kompatibilität von Windows on ARM ist ja auch viel besser als Linux x86. Da läuft ein Großteil populärer proprietärer Programme einfach, für die es unter Linux nur einen halben oder sonst wie mittelmäßigen Ersatz gibt. Und die Kompatibilität von Spielen mit Anti-Cheat ist auch zunehmend besser als mit dem Steam Deck.

bbott
2025-11-07, 17:17:29
Die Kompatibilität von Windows on ARM ist ja auch viel besser als Linux x86. Da läuft ein Großteil populärer proprietärer Programme einfach, für die es unter Linux nur einen halben oder sonst wie mittelmäßigen Ersatz gibt. Und die Kompatibilität von Spielen mit Anti-Cheat ist auch zunehmend besser als mit dem Steam Deck.
Die ARMs sind aber meist in besseren Fertigungsverfahren, haben viel weniger Schnittstellen (PCIe, USB etc.) und daher hochpreisig. Hochpreisig und inkompatibelität sind gewichtiger, als etwas mehr Performance.
Die ARM haben ja noch nicht mal für GPUs PCIe x16...

Und ich gehe davon aus, das auch x86 prinzipiell IPC erreichen kann.

dildo4u
2025-11-12, 15:52:53
Lunar Lake vs Panther Lake Größen Vergleiche (TSMC 3B vs 18A)


https://wccftech.com/intel-panther-lake-compute-tile-die-shot-18a-next-gen-cougar-cove-p-darkmont-e-cores

ryan
2025-11-12, 22:19:18
Demnach wäre 18A ein gutes Stück dichter als N3B. Von 1.09mm² auf 0.95mm² beim E-Kern. P-Kern sehr ähnlich, aber mit 20% größeren L2 Cache bei PTL. Und reine shrinks sind die Kerne nicht, kleine Verbesserungen gab es.

ryan
2025-11-14, 21:01:02
Auf Passmark gibt es erste Intel Core Ultra X7 358H Benchmarks: https://www.passmark.com/baselines/V11/display.php?id=304900900092

Zum Vergleich habe ich iGPUs der aktuellen Intel Generation verlinkt.

Arc 140T: https://www.videocardbenchmark.net/gpu.php?gpu=Intel+Arc+140T+GPU&id=5577
Arc 140V: https://www.videocardbenchmark.net/gpu.php?gpu=Intel+Arc+140V+GPU&id=5176

Intel Arc GPU: https://www.videocardbenchmark.net/gpu.php?gpu=Intel+Arc+GPU&id=7536

dildo4u
2025-11-25, 06:53:10
Könnte langsam Finale Performance sein schneller als Strix aber langsamer als Halo.


https://wccftech.com/intel-core-ultra-9-386h-panther-lake-cpu-leak-beats-amd-top-strix-chip-50-percent-faster-vs-lunar-lake-matches-24-core-raptor-lake/

ryan
2025-11-25, 08:31:02
Für 4700 Mhz wäre der ST Score überraschend hoch, allerdings sollte der 386H eigentlich auf 4900 Mhz gehen.

robbitop
2025-11-25, 09:03:06
Naja 1,5 Jahre nach Strix Launch mit "modernstem Fertigungsprozess der Welt" (18A für CPU und N3P? für die GPU vs N4P? bei Strix) sollte man auch schneller sein. Allerdings kommt Medusa (der echte Nachfolger von Strix) erst deutlich später (Ende 2026/Anfang 2027).

y33H@
2025-11-25, 09:48:56
Ja, Panther Lake tritt gegen Gorgon Point aka Strix Point Refresh an - und da muss PTL besser sein in allen Metriken, was auch der Fall zu sein scheint ... außer AMD hat zur CES noch ein (überraschendes) Ass im Ärmel.

Badesalz
2025-11-25, 10:20:16
Früher waren die neuen Produkte interessant, weil sie auch da schneller waren wo der Schuh den Consumer auch real drückte.

Wie ist das heute so?

Der_Korken
2025-11-25, 10:20:30
Haben Panther Lake und Nova Lake die gleichen P-Kerne? In ST sieht der Sprung ja nicht gerade überwältigend aus gegenüber den alten Mobil-SKUs.

HOT
2025-11-25, 10:23:19
Müsste alles neu sein bei NVL, selbst die NPU ist neu, nur die GPU wird teilsweise übernommen von PTL.

dildo4u
2025-11-25, 10:29:09
Haben Panther Lake und Nova Lake die gleichen P-Kerne? In ST sieht der Sprung ja nicht gerade überwältigend aus gegenüber den alten Mobil-SKUs.
AMD hat nur 4nm Refreshes in 2026 Apple ist eh in einer anderen Galaxy, das interresante ist hier das die GPU deutlich Fortschrittlicher ist als der erneute RDNA 3.5 Aufguss.

MSABK
2025-11-25, 10:30:42
Wie sieht den Snapdragon X2 Elite vom Score aus im Vergleich?

dildo4u
2025-11-25, 10:44:03
Massiv schneller wenn ich das richtig lese selbst mit 22 Watt.


Snapdragon X2E-88-100 wird unter 22 Watt Dauerlast geführt.

https://www.computerbase.de/news/prozessoren/snapdragon-x2-elite-im-benchmark-alle-drei-socs-im-vergleich-mit-apple-amd-und-intel.95123

MSABK
2025-11-25, 10:46:23
Dann wird die einzige Frage sein wie effizient der Chip ist. Die Speed scheint eher „normal“ zu sein.

ryan
2025-11-25, 11:43:11
Haben Panther Lake und Nova Lake die gleichen P-Kerne? In ST sieht der Sprung ja nicht gerade überwältigend aus gegenüber den alten Mobil-SKUs.


N3B taktet höher als 18A und PTL hat nur refresh Kerne, die allerdings mehr IPC bringen könnten als in der Vergangenheit. NVL bekommt neue Kerne in einem Fertigungsprozess mit mehr Taktpotenzial.

HOT
2025-11-25, 12:15:54
AMD hat nur 4nm Refreshes in 2026 Apple ist eh in einer anderen Galaxy, das interresante ist hier das die GPU deutlich Fortschrittlicher ist als der erneute RDNA 3.5 Aufguss.
Richtiger wäre, Apple ist eine eigene Galaxy.

Massiv schneller wenn ich das richtig lese selbst mit 22 Watt.


Snapdragon X2E-88-100 wird unter 22 Watt Dauerlast geführt.

https://www.computerbase.de/news/prozessoren/snapdragon-x2-elite-im-benchmark-alle-drei-socs-im-vergleich-mit-apple-amd-und-intel.95123

Bling Bling wie immer vorher und dann die Bauchlandung in real-World...

Der_Korken
2025-11-25, 15:19:38
N3B taktet höher als 18A und PTL hat nur refresh Kerne, die allerdings mehr IPC bringen könnten als in der Vergangenheit. NVL bekommt neue Kerne in einem Fertigungsprozess mit mehr Taktpotenzial.

Ah, es zwei Coves, die "C" anfangen (Cougar und Coyote). Deswegen dachte ich, dass das bereits die neue Architektur wäre.

ryan
2025-12-09, 16:33:03
https://browser.geekbench.com/v6/cpu/15474224

CPU: Intel Core Ultra X9 388H (16C 16T)
Min/Max/Avg: 4042/5077/5039 MHz
CPUID: C06C2 (GenuineIntel)
Single: 3057
Multi: 17687


300 Mhz weniger ST Boost und trotzdem noch schneller als ARL-H 285H mit 5400 Mhz. Das sind bestimmt +10% IPC.

mboeller
2025-12-09, 18:43:56
https://wccftech.com/intel-core-ultra-x9-388h-benchmarked-on-geekbench/

nette Vergleichs-Charts

Undertaker
2025-12-09, 19:07:38
Näher dran an den "großen" HX-Modellen als gedacht, wobei man das nochmal TDP-bereinigt vergleichen muss. Erfahrungsgemäß wird der Effizienzvorteil von Panther Lake sicherlich leiden, wenn man den Takt soweit überfährt, um mit anderen Modellen mit wesentlich mehr Kernen/Threads mithalten zu können...
Gespannt bin ich auf die Performance im ~35W-40W Bereich.

ryan
2025-12-09, 20:53:16
https://wccftech.com/intel-core-ultra-x9-388h-benchmarked-on-geekbench/

nette Vergleichs-Charts


Der 285H Vergleich mit 2604 ST ist aber unsinnig, die +21% sind Quark. Die besseren 285H schaffen 2800-2900 ST auf Geekbench. Es gibt sogar ein paar wenige Ausreißer noch weiter nach oben, aber sehr sehr wenige. Genau kann man das nicht vergleichen, weil es nur einen einzigen 388H Eintrag gibt.