Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Panther Lake (18A, 2025+)
Badesalz
2025-10-01, 06:39:27
Gut oder schlecht ist relativ. Auf der einen Seite:
ARL hatte nur Probleme mit Desktop Gaming. In allen Bereichen war es eine Verbesserung zu Raptor Lake/MTL und man ist auch auf einem Level mit AMD.
Du meinst wenn man Cinebench nimmt? Oder das von Intel handoptimierte AfterEffects?
davidzo
2025-10-01, 11:38:10
Nochmals zurück zu Qualcomm - es gibt ja dann wieder keinen PCI Express port für eine GPU.
Sorry aber woher hast du das?
Der SoC hat doch 12x Gen5.0 Lanes und 4x Gen4 Lanes. Das ist nicht viel, aber in vielen mobile Designs wird die GPU eh nur mit 8x lanes angebunden um energie zu sparen. x8 GPU + x4 SSD +x4 5G sollte möglich sein.
Auf dem Hawai Event soll Qualcomm in der Q&A session auch explizit bestätigt haben dass diskrete GPUs möglich sind und man das aber komplett den OEMs überlässt. Die angekündigten Geräte der ersten Welle werden aber alle IGP only sein und es ist offen ob Geräte mit dGPU kommen. Für diskrete GPUs liegt auch noch eine lange Treiberarbeit vor Nvidia und AMD. Ich könnte mir eher vorstellen dass es miniPCs mit dGPU slot gibt und erst in der nächsten Generation dann offiziellen support. Für Notebooks sind dGPUs aber eh uninteressant imo.
Nicht vergessen darf man in dem Zusammenhang aber dass Qualcomm einer der beiden Partner von nvidia NVlink Fusion ist, neben Fujitsu. Da geht es zwar in erster Linie um Server und es wird vermutlich noch lange dauern bis das Früchte trägt, aber das bestätigt dass die Firmen auch hinter der Kulisse schon zusammen arbeiten.
Und alle sprechen davon, dass PTL nicht besonders bei der IPC zulegen soll.
Aber MTL hat im Vergleich zu RPL an IPC verloren, weil der IMC plötzlich so weit weg war.
Sorry aber die IPC Regression war 5%, der Rest war fehlender Takt.
Wenn man Meterolake als Baseline nimmt braucht man in 2026 aber eher +50% mehr performance, mit 5% kommt man da nicht weit.
Und ja, das Speichersubsystem von MTL war schlecht sowohl bei der Latenz als auch bei der Bandbreite pro Core. Aber Verbesserungen im Speichersubsystem wirken sich nur direkt auf die IPC aus wenn es ein konkretes Bottleneck gibt. +50% mehr Bandbreite und 50% geringere Latenzen ergeben keine +50% IPC solange der Core nicht zu 100% an der Speicherlatenz hängt. In sehr vielen Anwendungsszenarios einer Mobil CPU (fast alles außer Spiele) war auch Meteorlake nicht Latenzlimitiert.
Davon auszugehen dass eine 20% bessere Speicherlatenz gegenüber Arrowlake in einem 20% IPC-Gewinn resultiert ist so als wenn ich auf einer 7600Xt den Speicher um 20% übertakte und dann 20% mehr FPS erwarte.
Ich würde auch nicht davon ausgehen das RPL wieder auf die Spitzenwerte bei der Speicherlatenz von LnL kommt, geschweige denn die von Raptorlake wie in deinem Meteor lake Vergleich. Die zusätzlichen Cores bedeuten gegenüber LnL mehr Ringbus stops und die GPU wird auch OFF-Die angebunden (Ringbus geht über multiple DIEs?).
basix
2025-10-01, 18:12:18
Nicht vergessen darf man in dem Zusammenhang aber dass Qualcomm einer der beiden Partner von nvidia NVlink Fusion ist, neben Fujitsu.
Intel in einem Intel Thread vergessen? :D
https://www.computerbase.de/news/wirtschaft/intel-mit-nvlink-und-rtx-gpus-nvidia-investiert-5-mrd-us-dollar-in-intel-fuer-pcs-ai-und-mehr.94379/
iamthebear
2025-10-02, 00:52:51
Du meinst wenn man Cinebench nimmt? Oder das von Intel handoptimierte AfterEffects?
Ich meine eher alle Anwendungen, die überlicherweise auf einem Notebook laufen:
Browser, Office, Updates installieren etc. Je nach Beruf kommen dann halt noch einige Spezialfälle dazu.
Bei ST liegt ARL-H ziemlich gleichauf mit Zen 5 bzw. je nach Kühlung teilweise sehr deutlich vor Raptor Lake, da der Takt weniger einbricht wenn 2-3 Anwendungen parallel laufen (das ist das was man in Reviews selten sieht).
Bei MT Anwendungen ist Arrow Lake meistens schneller als Zen 5 da mehr Kerne (wenn man im selben Preisbereich vergleicht). Gegenüber Raptor Lake etwas schneller aber da schmerzt das fehlende SMT etwas.
dildo4u
2025-10-02, 10:42:32
Für normale Consumer ist das Core gespamme doch kompletter Unsinn Intel musste nicht umsonst 265k massiv reduzieren damit man überhaupt was verkauft?
400 auf 290€
https://www.notebooksbilliger.de/intel+core+ultra+7+265k+prozessor+865785?nbbct=4001_geizhals
Das Problem für AMD ist nicht die CPU Leistung sondern die geringe Auswahl an Geräten was natürlich zu wenig Konkurrenz bei den Preisen führt.
Undertaker
2025-10-02, 10:48:53
ARL hat ein Imageproblem aufgrund der fehlenden Konkurrenzfähigkeit zu X3D und vor allem zum Release teilweisen Regressionen ggü. dem Vorgänger im Gaming. Ganz objektiv betrachtet ist ein 265k für 290 Euro auf dem Level eines 9900X für fast 100 Euro mehr - Zen 5 non-X3D ist aktuell in Relation zur ARL völlig überteuert.
dildo4u
2025-10-02, 11:19:10
Leute kaufen nach Gaming Performance das war mein Punkt da geht es nicht um ein Image, denn das war auch vor Arrow Lake der Fall.
E7v4S-xXiwI
mboeller
2025-10-02, 11:44:55
Leute kaufen nach Gaming Performance das war mein Punkt da geht es nicht um ein Image, denn das war auch vor Arrow Lake der Fall.
https://youtu.be/E7v4S-xXiwI
naja, dazu kommt dann noch die Sache mit den "kaputt werdenden" CPU. Beim Bild für das Youtube Video steht "unlocked" mit drauf... ist dann die CPU vom langsamen Sterben betroffen oder nicht?
Ich zumindest bin bei Intel verunsichert welche CPU jetzt davon betroffen ist oder nicht. So klar war die Abstellmaßnahme jetzt auch nicht, dass ich, für mich jetzt weiß bzw. entscheiden kann, diese CPU funktioniert (langfristig) und diese CPU nicht.
Undertaker
2025-10-02, 12:00:11
Gibt es bei Zen5 oder ARL bekannte Ausfallprobleme?
Zum Thema Gaming-Fokus: Ja, für die Zielgruppe >450€ und reiner Schwerpunkt Gamingleistung gibt es zu Zen5 X3D bei ARL keinen Gegenspieler. Bleibt der Rest, der einen gemischten oder sogar anwendungslastigen Blick auf die Leistung hat und bei AMD auf die Zen5-Modelle ohne X3D schauen würde. In diesem Segment liefert ARL aktuell mehr für's gleiche Geld, und das ist mMn ein Imageproblem (= klassische Prägung der Kundschaft durch die Presse zu den Topmodellen, was in der Vergangenheit auch der ehemals P/L-starken AMD-Mittelklasse das Leben erschwert hat).
mocad_tom
2025-10-02, 15:52:23
Nur mal kurz auf die Basics achtend:
66% Notebook - 33% Desktop (und ich glaube mittlerweile sogar noch weiter Richtung Notebook)
60% Geschäftlich - 40 % Privat (Terra Wortmann kommt aktuell mit den Lieferungen nicht hinterher, weil in den Firmen tatsächlich ein massiver Nachholeffekt gerade stattfindet)
Und ja die Speerspitze Strix Halo mag stärker sein.
Aber alles was da so an AMD Ryzen AI 9 365 im Notebook rumlungert ist komplett auf Augenhöhe mit Core Ultra 9 285H
Und AMD geht auch mit ihrem aktuell gebuchten Volumen so um, dass sie die anderen Segment verstärkt befüttert.
Also was werden wir so um den 30. Oktober rum zu den Quartalszahlen wieder sehen?
Und jeder der da jetzt einen 285H in letzter Zeit in Händen gehalten hat, der wird sich über die 'Text-Bild-Schere' wundern. Da kommen wahnsinnig kompetitve Alltagsgeräte raus.
Und die Lunar Lakes sind ebenso brutal in ihrer Alltagsleistung.
Hier als Beispiel das Asus Zenbook 14 einmal mit Ryzen 7 AI und einmal Core Ultra 7 255H
https://www.notebookcheck.com/AMD-Subnotebook-im-engen-Dreikampf-Asus-ZenBook-14-OLED-UM3406K-im-Test.1100173.0.html
https://www.notebookcheck.com/Intel-Subnotebook-macht-wieder-Boden-gut-Asus-ZenBook-14-OLED-UX3405CA-im-Test.1106561.0.html
Dadurch dass das Chassis so schmal ist, steht auch nicht besonders viel TDP zur Verfügung.
Die beiden Geräte unterscheiden sich in Nuancen.
Manch einer meckert dann, wie man in einen Langläufer-Laptop ein Oled reinknallen kann.
Mir ist das egal, ob das Gerät jetzt 9,5h oder 12h läuft, dafür habe ich aber bloß einen IPS Panel - ich bevorzuge da das schönere Oled.
Unten im Test in der Stromverbrauchstabelle:
Ryzen besser bei H.264 kucken, abgeschaltetes WLAN
Core Ultra besser bei leichtem WLAN surfen
In beiden Disziplinen besser: Lunar Lake
Das mit den Latenzen verstehe ich nicht:
Zenbook Oled mit Meteor lake 435ys
Zenbook oled Ryzen 786ys
Zenbook Oled Arrow Lake 3566ys
Das ist wohl wirklich nur was mit dem Treiber.
Weil so viel hat sich von Meteor Lake auf Arrow Lake beim Uncore gar nicht geändert.
Wenn man sich unterschied Platine Asus Zen mit Meteor und Asus Zen mit Arrow anschaut, dann ist da nur auf die gleiche Platine ein anderer Prozessor draufgelötet worden.
Review Asus Zen mit Meteor:
https://www.notebookcheck.com/Asus-Zenbook-14-OLED-im-Test-1-2-kg-Subnotebook-mit-120-Hz-OLED-und-Core-Ultra-7.801574.0.html
Also die beiden Geräte ist die Gen-over-Gen Steigerung.
Und ich hab das Meteor Zenbook hier und das ist bereits fein.
aceCrasher
2025-10-02, 22:53:02
naja, dazu kommt dann noch die Sache mit den "kaputt werdenden" CPU. Beim Bild für das Youtube Video steht "unlocked" mit drauf... ist dann die CPU vom langsamen Sterben betroffen oder nicht?
Ich zumindest bin bei Intel verunsichert welche CPU jetzt davon betroffen ist oder nicht. So klar war die Abstellmaßnahme jetzt auch nicht, dass ich, für mich jetzt weiß bzw. entscheiden kann, diese CPU funktioniert (langfristig) und diese CPU nicht.
Das mit den sterbenden CPUs war ein reines Raptor Lake Problem. Also 13. und 14. Gen.
In the first episode of a new series leading to Panther Lake, Talking Tech explores the development of hybrid computing from its performance-focused roots to the latest low-power islands.
https://youtu.be/n6wUk44HtO8
dildo4u
2025-10-04, 19:20:17
Performance Werte sollen angeblich erst in 2026 kommen
https://videocardz.com/newz/intel-to-detail-panther-lake-architecture-next-week-specs-and-performance-reportedly-in-2026
iamthebear
2025-10-04, 19:37:53
Das bedeutet kein Launch in 2025 obwohl Intel wiederholt bei Onvestormeetings betont hat, dass alles nach Plan läuft.
Wird spannend was Intel in 3 Wochen bei den Q3 Ergebnissen dazu sagt.
Alleged Intel Panther Lake Lineup And Configurations Leaked: Total Of 12 SKUs, Including Four From PTL-U Series (https://wccftech.com/alleged-intel-panther-lake-lineup-and-configurations-leaked/)
SKUs mit 8 Ziffer am Ende bekommen die größere iGPU mit 10 oder 12 Xe3 Kernen.
Undertaker
2025-10-05, 18:48:56
Nur 4+4(+4) Kerne für die Ultra 5, ich habe noch so meine Zweifel ob man sich damit insbesondere bei Konfigurationen mit höherer TDP (>40W) einen großen Gefallen tut. Schon ARL Ultra 5 hatte 4+8 Kerne und die LPEs bei PTL werden vermutlich nicht so sehr hoch takten... Hoffe mal, die IPC-Zuwächse gleichen das adäquat aus. 4+6(+4) hätte mir hier jedenfalls deutlich besser gefallen.
w0mbat
2025-10-05, 19:32:34
Da die E-cores immer in vierer Cluster kommen ist nur 4+4 oder 4+8 möglich.
Undertaker
2025-10-05, 20:06:43
Warum sollte eine Teileaktivierung deshalb nicht möglich sein? Aber ohnehin eine hypothetische Diskussion, mir ging es vorrangig um das Resultat dieser Entscheidung.
aceCrasher
2025-10-05, 20:07:32
Nur 4+4(+4) Kerne für die Ultra 5, ich habe noch so meine Zweifel ob man sich damit insbesondere bei Konfigurationen mit höherer TDP (>40W) einen großen Gefallen tut. Schon ARL Ultra 5 hatte 4+8 Kerne und die LPEs bei PTL werden vermutlich nicht so sehr hoch takten... Hoffe mal, die IPC-Zuwächse gleichen das adäquat aus. 4+6(+4) hätte mir hier jedenfalls deutlich besser gefallen.
Ich verstehe ehrlich gesagt nicht wofür man in einem <65W non-Workstation Laptop mehr als 8 Kerne braucht. Wofür die ganze MT-Leistung? Zum Spielen sicherlich nicht. Die meisten Anwendungen skalieren auch nicht sonderlich gut. Und falls man wirklich einer der wenigen Menschen ist die auf einem Laptop Anwendungen nutzen die wirklich MT-Leistung brauchen, gibt es ja den Ultra 7.
mocad_tom
2025-10-06, 10:36:57
Naiv gesagt:
Die Entwickeln Kerne für Server, die 3W bei 3GHz saufen dürfen (und davon dann 128 in einen Server Chip).
Und dann machen Sie ein paar hundert MHz mehr und 8 Stück davon in ein Mobile-SoC (oder 12 oder 14)
Für den Idle-Betriebspunkt ist es doch nur wichtig, dass der Low-Power-Quad-Core (ohne L3) am Knie der Frequenz-Stromverbrauch-Kurve betrieben wird.
Und ja mittlerweil braucht es echt 4 Cores für den ganzen Idle-Kram.
Chikipi hat sich schon darüber amüsiert, wieso AMD da nur zwei Cores in den I/O-Die reinbaut.
Badesalz
2025-10-06, 10:54:01
Chikipi hat sich schon darüber amüsiert, wieso AMD da nur zwei Cores in den I/O-Die reinbaut.Ja es ist SEHR wahrscheinlich, daß AMD das ungesehen entschieden hat :uconf3:
sarcasm off
Ich verstehe ehrlich gesagt nicht wofür man in einem <65W non-Workstation Laptop mehr als 8 Kerne braucht. Wofür die ganze MT-Leistung?
Der Rest sind die s.g. leaflet-cores.
basix
2025-10-06, 12:38:46
2C sind ja 4T oder 4 virtuelle Cores ;D
stinki
2025-10-06, 12:44:33
Sollte als erstes nicht eine 4+8+0+4 Variante noch dieses Jahr kommen?
Kommt die jetzt gar nicht mehr oder wird das eine Sonderversion für spezielle OEMs???
Angeblich wurde die Massenfertigung von September auf November verschoben. Wenn man jetzt die typischen 3 Monate vom Start bis zu den ersten Geräten im Handel einplant, wäre man im Februar. Natürlich könnten sie trotzdem im Dezember ein Modell launchen, damit sie 2025 einhalten. Aber das ist dann nur symbolisch.
mocad_tom
2025-10-07, 01:35:56
@badesalz
https://x.com/chickenonthepan/status/1923271399495397394
Es gibt Phasen da läuft Meteor recht lang und dann gibt es wieder Phasen, da ist das bei Meteor so mittel.
Das hängt davon ab, was bei den Windows Updates wieder verbockt wurde.
Aktuell geht es.
Und wie chikipi hier sagt:
Man hat die Low-Power-Cores - und wenn dann aber weiter drinnen im SoC die normalen Cores angeworfen werden müssen, dann ist es vorbei.
Und Lunar Lake zeigt seit November 2024 wie es geht.
Dort sind 4 Skymont als low power cores ohne L3.
Ziemlich nah am IMC und gleich daneben die Ausgabe für den Monitor, USB2 implementiert für Maus Tastatur und NVME.
Gegen Lunar ist im langsamen dahinbrowsen auch der Qualcomm nicht besser.
https://www.notebookcheck.com/Microsoft-Surface-Laptop-7-13-8-Copilot-im-Test-Dank-Snapdragon-X-Elite-endlich-ein-ernstzunehmender-MacBook-Air-Konkurrent.853937.0.html
https://www.notebookcheck.com/Dell-Pro-14-Premium-Test-Flaggschiff-OLED-Subnotebook-fuers-Business.1040569.0.html
Dell Lunar vs Surface Laptop Qualcomm
Lunar Idle
min: 3.5w
avg: 4.3w
max: 7.9w
Qualcomm Idle:
min: 1.4w
avg: 6.3w
max: 7.6w
bei Cyberpunk saufen beide 38W
aber Lunar macht bei Ultra 29fps
Qualcomm bei Ultra 14fps
Leider konnte ich dazu nichts finden, sind die 4 EU-Varianten auch Celestial oder sind die N5 BM? Ist doch bestimmt ein anderes GPU-Tile...
Da PTL kein on-Package-LPDDR mehr hat ist der Vergleich im Stromverbrauch semibrauchbar...
mocad_tom
2025-10-07, 20:15:15
Die igpu mit 12 EU kommt von TSMC N3
Die igpu mit 4 EU kommt von Intel 3
Die Execution Unit ist vergleichbar mit Celestial
fest auf das Board draufgelöteter LPDDR ram ist vom stromverbrauch her schon gut.
Wenn der auf OnPackage draufwandert passiert nicht mehr allzuviel.
Bei Onpackage ist der RAM im Stromverbrauch des Packages drin, wenn nicht dann nicht...
mocad_tom
2025-10-07, 21:48:44
Lunar idle average mit onpackage ram 4.3w
Qualcomm idle average ohne dem RAM 6.3w
Arrow Lake H im Asus Zenbook ohne RAM average: 3.5w
MSABK
2025-10-07, 22:11:07
Qualcomm dümpelt in N4 herum. Intel hat mit N3 klar die besseren Karten mit Lunar Lake.
mocad_tom
2025-10-07, 22:47:43
Mein Asus zenbook mit meteor mit Win 11 alles aktuell
Firmware aktuell
Wlan treiber alles schön aktuell gemacht.
https://x.com/p1cturedump/status/1975662943657239022
Es ist so extrem viel software enablement
Der hatte jetzt mal Monate drin, da wurde er unterm ideln warm.
In 2024 waren es mal 2 Monate,
dann wurde es wieder besser
dann wieder schlechter.
jetzt ist er auf 25H2 und aktuell ist laufzeit brutal gut.
Jetzt fangen die bei MS dann wieder zu murksen an.
Die igpu mit 12 EU kommt von TSMC N3
Die igpu mit 4 EU kommt von Intel 3
Die Execution Unit ist vergleichbar mit Celestial
fest auf das Board draufgelöteter LPDDR ram ist vom stromverbrauch her schon gut.
Wenn der auf OnPackage draufwandert passiert nicht mehr allzuviel.
Das sind Xe3 Kerne, ansonsten wären das etwas wenig EUs. PTL-U hat die Xe3 Architektur, das kann man auf github sehen.
Celestial ist das dGPU branding, theoretisch kann Celestial auch mit Xe4 Architektur kommen, wenn Intel ein oder zwei Generationen auslässt. Vorher kommt ja noch Xe3p.
mocad_tom
2025-10-08, 11:00:12
Xe3 und Xe3p unterscheiden sich ja nur im Herstellungsverfahren (und vllt im Systolic Array).
Es ist ja so, dass jede FAB für ihre Prozesse eigene Bibliotheken für SRAM hat.
Und sie haben auch eigene Bibliotheken für Arrays an Matrixmultiplikationen.
Xe3p ist die Xe3 Variante mit der zum Intel-Prozess passenden Matmul-Bibliothek.
Sie haben wohl Xe3 für TSMC N3.
Und sie haben wohl Xe3p für Intel 3 und Intel 18AP.
Und ich gehe davon aus, dass Celestial in Intel 18AP gefertigt wird.
Das wär doch auch spannend für ne diskrete GPU in 18AP oder nicht?
Xe3 und Xe3p unterscheiden sich ja nur im Herstellungsverfahren (und vllt im Systolic Array).
Es ist ja so, dass jede FAB für ihre Prozesse eigene Bibliotheken für SRAM hat.
Das hat mit dem Herstellungsverfahren nichts zu tun, sonst hätte Intel für PTL-U in Intel 3 ebenfalls eine andere Architekturbezeichnung wählen müssen. PTL-H und PTL-U sind beide Xe3 LPG, das kannst du auf den Entwicklerseiten nachsehen, zum Beispiel auf github (https://github.com/intel/compute-runtime/blob/9d8bad9f498535227b1886483a7b47e9239b2cac/shared/source/dll/devices/product_config_base.inl#L15). Das ist die gleiche Architektur.
Xe3p dagegen hat große Änderungen, hat letztens Bionic im Discord geschrieben.
Xe3P on NVL-H and AX
Xe3 IGPU reused from PTL for NVL-U and S
3P has significant changes
//differentRob
2025-10-08, 14:42:54
Es stehen 30% bessere Effizienz und bis zu 50% mehr Performance als LunarLake im Raum:
https://www.reuters.com/world/asia-pacific/intel-reveal-tech-details-forthcoming-pc-chip-sources-say-2025-10-07/
Hoffe das ist nicht nur PP-Folie sondern lässt sich auch benchen.
mocad_tom
2025-10-08, 15:25:57
@ryan
>3P has significant changes
Systolic Array austauschen (weil das im Hause TSMC bleiben muss) ist halt auch nicht so einfach.
Ich lass das mal hier:
https://x.com/search?q=systolic%20array%20(from%3Asquashbionic)&f=live&src=typed_query
(auch weil ich solche Sachen immer mal wieder rauskramen will)
Hier auch noch der interessante Fakt, dass sich Intel für Gaudi 2 / Gaudi 3 / Falcon Shores / Jaguar Shores ein Backenddesign-House mit dazu geholt hat (AIchip Taiwan)
https://x.com/Jukanlosreve/status/1955831984850395568
Undertaker
2025-10-08, 16:37:51
Es stehen 30% bessere Effizienz und bis zu 50% mehr Performance als LunarLake im Raum:
https://www.reuters.com/world/asia-pacific/intel-reveal-tech-details-forthcoming-pc-chip-sources-say-2025-10-07/
Ohne genauen Kontext sind das weder aussagekräftige noch sonderlich schwer zu erreichende Zahlen; PTL baut nun einmal deutlich breiter als LNL und wird damit bei identischer TDP in einem geringer taktenden, effizienteren Betriebspunkt laufen.
Spannend wird es, pro Kern (E/P) bei gleicher Leistungsaufnahme die Performance bzw. vice versa zu vergleichen. Hier bin ich sehr gespannt, was sich ggü. ARL/LNL bewegt.
bbott
2025-10-08, 16:59:29
Es stehen 30% bessere Effizienz und bis zu 50% mehr Performance als LunarLake im Raum:
https://www.reuters.com/world/asia-pacific/intel-reveal-tech-details-forthcoming-pc-chip-sources-say-2025-10-07/
Hoffe das ist nicht nur PP-Folie sondern lässt sich auch benchen.
Intel arbeitet immer mit biszu und nicht AVG, mit 1/2 könnte es schon realistischer in Benches aussehen.
Hatte man nicht sogar bereits verlautbaren lassen, SC kaum mehr Performance und mehr Multicore Performance?!
Badesalz
2025-10-08, 17:34:11
Hoffe das ist nicht nur PP-Folie sondern lässt sich auch benchen.Mit Cinebench garantiert :usweet:
ChaosTM
2025-10-08, 17:36:41
Es stehen 30% bessere Effizienz und bis zu 50% mehr Performance als LunarLake im Raum:
https://www.reuters.com/world/asia-pacific/intel-reveal-tech-details-forthcoming-pc-chip-sources-say-2025-10-07/
Hoffe das ist nicht nur PP-Folie sondern lässt sich auch benchen.
Hoffe ich auch. Wäre unerhört wichtig für die gesamte Industrie und vor allem für uns Kunden, dass Intel wieder in die Gänge kommt bezüglich Prozessorleistung und Fertigung.
Undertaker
2025-10-08, 17:52:16
Bzgl. Effizienz und Performance von LNL im angedachten Arbeitspunkt - ursprünglich waren 90% des Lineups mal für 17W PL1 geplant, hier steht der Chip absolut hervorragend da. Für maximale MT-Perf. bei >30 Watt muss der Chip einfach breiter bauen, auch ARL HX dreht in dieser Disziplin Kreise um ARL H. Insofern auch mein Schluss, das ein breiterer PTL hier zwangsläufig im Vorteil ist, unabhängig von jeglichem Architekturhub.
two_smoking_barrels
2025-10-08, 20:30:19
Lunar [Lake] Idle
min: 3.5w
avg: 4.3w
max: 7.9w
Qualcomm Idle:
min: 1.4w
avg: 6.3w
max: 7.6w
Die Messwerte von Notebookcheck messen nicht das, was du denkst, sie würden messen. Nehmen wir beispielsweise das von dir zitierte Qualcomm Gerät und die gleiche notebookcheck-Quelle (https://www.notebookcheck.com/Microsoft-Surface-Laptop-7-13-8-Copilot-im-Test-Dank-Snapdragon-X-Elite-endlich-ein-ernstzunehmender-MacBook-Air-Konkurrent.853937.0.html):
- Das Gerät hat ein 54Wh Akku; bei 6.3W Idle-avg-Verbrauch würde das in einer Laufzeit von 8,57h resultieren.
- Notebookcheck misst aber bei dem Gerät eine Laufzeit von 14,2h beim WLAN-Test. Das bedeutet eine AVG-Verbrauch beim WLAN-Test von 3,8W
- Das verrückte dabei: Idle ist bei Notebookcheck wirklich Idle mit minimaler Helligkeit, Windows-Desktop und ausgeschalteten WLAN, Bluetooth, etc; während WLAN-Test bei 150cd/m² Helligkeit, aktiven Browser, aktivierten WLAN etc. ist. Daher der WLAN-Test sollte merklich mehr verbrauchen.
- Die Ursache ist: Notebookcheck steckt das Notebook an einem Netzteil an und misst auf der Primärseite des Netzteil. Das bringt eine ganze Reihe Ungewissheiten mit sich:
-> Die Netzteilverluste sind bei den ganzen Messwerten mit enthalten. Und da die Netzteile für höhrere Lastpunkte ausgelegt sind, könnten die Netzteilverluste bei den niedrigen IDLE-Verbräuchen sehr signifikant sein (natürlich stark abhängig vom Netzteil und genauen Lastpunkt).
-> Oder Windows erkennt, dass das Gerät angesteckt ist und beginnt irgendwelche Komponente aus irgendwelche Low-Power-Zustände in höhere Zustände zu fahren, etc.
Belastbarer wäre es, die Kapazität durch die Akkulaufzeit zu teilen:
- AVG.-Verbrauch beim WLAN-Test des Qualcomm-Gerätes: 54Wh/14,2h=3,80W
- AVG.-Verbrauch beim WLAN-Test des Lunar_Lakes-Gerätes: 60Wh/15,2h=3,95W
Natürlich könnte man hier kritisieren, dass die Akkukapazitäten nur Nennkapazitäten sind und die wahren Kapazitäten anders sind.
Lunar idle average mit onpackage ram 4.3w
Qualcomm idle average ohne dem RAM 6.3w
Arrow Lake H im Asus Zenbook ohne RAM average: 3.5w
Btw. da Notebookcheck am Netzteil mit einem eigenem Messgerät misst, ist es egal ob die Prozessoren bei ihrer eigenen Leistungsmessung mit oder ohne Ram messen
mocad_tom
2025-10-08, 22:36:19
Danke für die Erläuterung.
Die Methodik kann man dann aber auch knicken, weil sie bei angestecktem Netzteil in ein anderes Windows-Powercfg-Profil reinfallen.
Wir haben früher mal für ein Paper zwischen Akku und Mainboard von Smartphones ein Speicheroszi reingehängt und dann haben wir nach und nach Dinge eingeschaltet, Bluetooth / über bluetooth com-port aufgemacht und Daten drüber / WLAN / 5G / für Always on Always connected einen Push Kanal aka pending socket aufgemacht.
Vllt über Hwinfo nachsehen, was das Gerät vom Akku rauszieht.
https://x.com/p1cturedump/status/1976022582815285742
Negative Laderate bei nicht angestecktem Netzteil wäre das was aus dem Akku gezogen wird.
Sobald man auf eine Taste klickt geht der Verbrauch hoch :biggrin:
@ryan
>3P has significant changes
Systolic Array austauschen (weil das im Hause TSMC bleiben muss) ist halt auch nicht so einfach.
Ich lass das mal hier:
https://x.com/search?q=systolic%20array%20(from%3Asquashbionic)&f=live&src=typed_query
(auch weil ich solche Sachen immer mal wieder rauskramen will)
Hier auch noch der interessante Fakt, dass sich Intel für Gaudi 2 / Gaudi 3 / Falcon Shores / Jaguar Shores ein Backenddesign-House mit dazu geholt hat (AIchip Taiwan)
https://x.com/Jukanlosreve/status/1955831984850395568
Wir reden schon von Änderungen an der GPU Architektur.
Xe3P is halfway Xe4 with some features backported from Xe4
Bzgl. Effizienz und Performance von LNL im angedachten Arbeitspunkt - ursprünglich waren 90% des Lineups mal für 17W PL1 geplant, hier steht der Chip absolut hervorragend da. Für maximale MT-Perf. bei >30 Watt muss der Chip einfach breiter bauen, auch ARL HX dreht in dieser Disziplin Kreise um ARL H. Insofern auch mein Schluss, das ein breiterer PTL hier zwangsläufig im Vorteil ist, unabhängig von jeglichem Architekturhub.
Soweit ich weiß, ist das ein Vergleich mit ARL-H, weil ARL-H der Vorgänger ist. Für LNL mit on package RAM und größerer iGPU gibt es keinen Nachfolger.
mocad_tom
2025-10-09, 10:21:36
Jaykihn
https://x.com/jaykihn0/status/1930082242078073115
>Nova Lake -S Xe3 + Xe4
> + not /
Jaykihn
https://x.com/jaykihn0/status/1930157575259238484
>Xe3 graphics + Xe4 display & media
Bionic
https://x.com/SquashBionic/status/1930162092117561389
>The Media is very nice, professional codec support.
>Also the graphics part isn't vanilla Xe³ tbf, it's got several changes
(für mich klingt dass so, dass sie bei den Xe3P Execution Units das Systolic Array ausgetauscht haben und im Zuge dessen manche Latenz-Charateristika, oder Bandwidth-Charakteristika verbessert wurden, aber im groben blieb es gleich)
Die Media Engine wurde aber richtig erneuert und kommt von der Xe4-Projektgruppe.
Oben steht:
> enable arch_gpu_xe3p_fs1
Was könnte fs1 bedeuten?
Was haltet ihr von Falcon Shores?
Holthaus meinte mal, dass von Falcon Shores zu Jaguar Shores eigentlich nur ein kleiner Sprung geplant war und das die nahe beieinander folgen sollten(nur in anderen Herstellungsprozessen).
Bioniq Squash meinte mal, dass das Falcon-Shores-Team / Jaguar-Shores-Team mit großen mitteln ausstaffiert wurde.
Projektgrößen aus dem Royal Core Team wurde angeboten, ob sie bei Falcon Shores arbeiten wollen oder gehen wollen.
Scheinbar wurde Core-Entwicklung runterpriorisiert und GPU/AI-Entwicklung hochpriorisiert (in der Phase wo Royal Core getötet wurde).
Es wurde ja geleakt, dass Intel eine GPU mit Fokus auf AI bringen will:
https://wccftech.com/intel-is-reportedly-developing-a-lower-power-ai-gpu/
Celestial mit arch_gpu_xe3p_fs1 ?
Die haben gerade bei Xe3 "feature freeze"
Bringe soviele Dinge mit Xe3 raus wie nur irgend möglich und baue dafür die besten Bibliotheken rundherum.
Xe3(p) in PTL, NVL, Celestial, Jaguar Shores
Undertaker
2025-10-09, 11:16:29
Soweit ich weiß, ist das ein Vergleich mit ARL-H, weil ARL-H der Vorgänger ist. Für LNL mit on package RAM und größerer iGPU gibt es keinen Nachfolger.
Glaube ich ehrlicherweise nicht, speziell die 50% Mehrleistung wären mit 4+8(+4) PTL Kernen vs. 6+8 ARL Kernen mMn nicht erreichbar. Auch 30% Effizienzverbesserung wären unerwartet viel (auch wenn man hier über eine geschickte Wahl des Arbeitspunktes viel bewirken kann), auch weil ARL H hier prinzipiell bereits recht gut performt. Ggü. LNL lässt sich die merkliche Verbreiterung in die Waagschale werfen, die ganz automatisch erhebliche Effizienzverbesserungen bewirkt.
Ja, ohne on-package DRAM ist PTL kein 100%iger LNL Ersatz, wird diesen mMn aber dennoch in entsprechenden Geräten ablösen.
dildo4u
2025-10-09, 12:05:13
Die 50% beziehen sich auf die GPU.
Glaube ich ehrlicherweise nicht, speziell die 50% Mehrleistung wären mit 4+8(+4) PTL Kernen vs. 6+8 ARL Kernen mMn nicht erreichbar. Auch 30% Effizienzverbesserung wären unerwartet viel (auch wenn man hier über eine geschickte Wahl des Arbeitspunktes viel bewirken kann), auch weil ARL H hier prinzipiell bereits recht gut performt. Ggü. LNL lässt sich die merkliche Verbreiterung in die Waagschale werfen, die ganz automatisch erhebliche Effizienzverbesserungen bewirkt.
Ja, ohne on-package DRAM ist PTL kein 100%iger LNL Ersatz, wird diesen mMn aber dennoch in entsprechenden Geräten ablösen.
50% sind GPU und 30% bezieht sich auf The new chips use 30% less energy than the prior generation. Das kann Effizienz bei Teillast oder keiner Last bedeuten und ist leicht zu erreichen mit den 4xLPE im Compute Tile. Die Ringbus Kerne und L3 Cache können sich bei vielen Sachen im Alltagsbetrieb abschalten.
Bei Lunar Lake geisterten immer 40 oder 50% rum, das war der Vergleich mit Meteor Lake bei wenig oder keiner Last. Von einer Mehrleistung war nicht die Rede.
Undertaker
2025-10-09, 12:28:55
Ah okay, der GPU-Bezug war mir nicht bewusst. Damit sind Einschätzungen zum CPU-Part leider doch nicht so wirklich möglich, von der Effizienzangabe halte ich wie geschrieben ebenfalls wenig (zumindest in Bezug auf das Lastverhalten).
Bei der Mehrleistung wird nichts oder fast nichts rauskommen, es sind ja P-Kerne weniger. Intel wird positive Szenarien wählen. Bei weniger Last ist PTL massiv effizienter.
Undertaker
2025-10-09, 13:36:48
Gibt es schon Leaks zum Takt der LPE Kerne? Das wäre zur Kompensation der fehlenden P-Cores ja durchaus ganz spannend.
dildo4u
2025-10-09, 15:12:27
Offizielle PTL Infos auf Computerbase.
https://i.ibb.co/yFXwD0jB/Screenshot-2025-10-09-151236.png (https://ibb.co/B2tXmLMK)
https://i.ibb.co/CK3FXhNc/14-1080-791f01aa.png (https://ibb.co/b5Mnyzq0)
https://i.ibb.co/RpkC213P/19-1080-34000a6f.png (https://ibb.co/WW4cnQkF)
https://i.ibb.co/ZpqkFwhv/16-1080-dcd83dfe.png (https://ibb.co/mVfM2YHd)
https://i.ibb.co/SXmVvgqT/20-1080-2bd16898.jpg (https://ibb.co/JRprkTXL)
https://www.computerbase.de/artikel/prozessoren/intel-panther-lake-details.94482
y33H@
2025-10-09, 15:16:11
PTL bitte =)
Exxtreme
2025-10-09, 15:31:47
Der Nachteil ist, jetzt gibt es drei verschiedene Kerne. Die Entwickler, die am WinDOS- und Linux-Kernel arbeiten, freuen sich garantiert schon, dass sie die OS-Scheduler wieder erweitern dürfen.
MSABK
2025-10-09, 16:10:38
Die iGpu scheint ja mega zu sein. Endlich mal mehr Cache.
Fusion_Power
2025-10-09, 16:50:42
Die iGpu scheint ja mega zu sein. Endlich mal mehr Cache.
Sieht so aus als gäbs die gute iGPU mal wieder nur im absoluten Top-High-End Chip. Verständlich, aber wäre natürlich schön wenn die preiswerteren Modelle auch noch ein bissl mehr bums abbekämen in Sachen integrierte Grafik. Halt nochmal ne Steigerung zur schon ganz guten Arc 140T.
bbott
2025-10-09, 17:25:08
Sieht so aus als gäbs die gute iGPU mal wieder nur im absoluten Top-High-End Chip. Verständlich, aber wäre natürlich schön wenn die preiswerteren Modelle auch noch ein bissl mehr bums abbekämen in Sachen integrierte Grafik. Halt nochmal ne Steigerung zur schon ganz guten Arc 140T.
Dar mach überhaupt keinen Sinn, Top CPUs werden meist mit Top dGPUs verbaut. Die kleineren bis maximal mittel CPU Klasse macht highend iGPU Sinn. Da ist AMDs Ansatz APU mit high iGPU und CPU mit lowend viel sinniger.
Undertaker
2025-10-09, 17:50:25
Dar mach überhaupt keinen Sinn, Top CPUs werden meist mit Top dGPUs verbaut. Die kleineren bis maximal mittel CPU Klasse macht highend iGPU Sinn. Da ist AMDs Ansatz APU mit high iGPU und CPU mit lowend viel sinniger.
Wo bekomme ich in AMDs low-end Modellen die Top GPU? Egal ob Strix Halo/Point, Krakan oder andere Serien, die volle GPU hat immer nur der große CPU-Ausbau. Z.B. bei Strix Halo bekommst du ~RTX 4060 Leistung nur beim Kauf des 16 Kerners... Finde ich auch schade, bei beiden Herstellern.
mboeller
2025-10-09, 17:54:22
Dar mach überhaupt keinen Sinn, Top CPUs werden meist mit Top dGPUs verbaut. Die kleineren bis maximal mittel CPU Klasse macht highend iGPU Sinn. Da ist AMDs Ansatz APU mit high iGPU und CPU mit lowend viel sinniger.
du hast aber schon gesehen, dass für Gaming Notebooks die "Variante 2" vorgesehen ist, also mit kleiner iGPU
dildo4u
2025-10-09, 17:56:51
Sollte man nicht mal erst Tests abwarten ob 4 Pcores genug für Games wie BF6@ 120 Hz sind?
Seit 2022 hatten selbst Low End 6 Pcores bei Intel 12400f etc.
Daredevil
2025-10-09, 18:03:22
Da die heutigen E-Cores so schnell sind wie damalige P-Cores, wird das schon passen.
Sogesehen hat man 4 super schnelle Kerne bzw. 12 sehr schnelle Kerne. Wenn ein "Old" 5800X3D das kann, dann auch diese Kombination. Ganz im Gegenteil könnte man hier sogar lieber ausschließlich die E-Cores nehmen, damit man den Rest des Power Budgets in die GPU stecken kann bei einem Notebook.
davidzo
2025-10-09, 20:04:00
it is disclosed that 18A is currently at its lowest defect density
Das bedeutet lediglich dass man keine Rückschritte beim Yield macht, lol ;D
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94339&stc=1&d=1760032992
Die Y-Achse ist nicht beschriftet. Was für eine Shit show.
Panther Lake unterstützt bis zu LPDDR5X-9600 oder DDR5-7200, das ist eine Überraschung. Dann hat sich MLID die angeblichen speed Probleme mit LPDDR5X nur aus den Fingern gesaugt.
PTL ist offenbar bei Teillast noch effizienter als Lunar Lake: https://youtu.be/cVSkLTfCZz8?t=20
Xe3P wurde von Intel offiziell angekündigt als Next Arc family: https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/67236-next-arc-family-xe3p-soll-basis-zuk%C3%BCnftiger-arc-karten-sein.html
Dann wird es wirklich so sein, dass Xe3P mehr Änderungen mit sich bringt als Xe3. Petersen sagt nichts anderes: https://youtu.be/Bjdd_ywfEkI?t=126
Die iGPU sieht aber stark auf von PTL. Das ist die neue Referenz für Dualchannel iGPUs.
Gut zusammengefasst ist das in dem Slide:
https://s1.directupload.eu/images/251010/yzya2pwb.png
Die Media Engine unterstützt jetzt übrigens auch Sony XAVC Formate.
Daredevil
2025-10-10, 13:34:28
Best of both Worlds, finde ich sehr sehr nett. :)
Thank god good old Intel ist auf dem richtigen Weg, jetzt müssen sie nur noch liefern.
bbott
2025-10-10, 16:40:00
Wo bekomme ich in AMDs low-end Modellen die Top GPU? Egal ob Strix Halo/Point, Krakan oder andere Serien, die volle GPU hat immer nur der große CPU-Ausbau. Z.B. bei Strix Halo bekommst du ~RTX 4060 Leistung nur beim Kauf des 16 Kerners... Finde ich auch schade, bei beiden Herstellern.
Die APUs haben 8 oder 12 CUs, welche von der Performance sehr nahe sind. Halo ist derzeit nische und selbst da passt es halbwegs. Bei Intel gibt es Highend GPU mit keinem i5 (oder i3), selbst die kleineren i7 hatten glaube ich nicht die ganz große iGPU.
Die Diskrepanz ist bei AMD viel geringer als bei Intel.
Es wird auch (sehr wahrscheinlich) nie ein i3 oder kleine AMD APU mit der max iGPU geben.
Das ist ein upselling Thema und Die Size kosten. CPUs bringen nunmal das Geld, CUs weniger... Zumal Bandbreiten Limitierung.
robbitop
2025-10-10, 16:52:34
Ich bin gespannt wie viel es an Effizienz kosten wird, dass der Speicher wieder vom package runter kommt. Das war sicherlich teurer und damit weniger beliebt bei Lunar Lake bei den OEMs aber nach meinem Verständnis hat das Energie gespart (kürzere Signalwege).
Wenn man jetzt package power vs package power vergleicht ist der Vergleich nicht korrekt weil das bei LL den Speicher inkludiert und bei PL nicht. Also interessant wäre es mit gleichen Voraussetzungen auch mit 3D Workload. Der obige Vergleich der gepostet wurde ist ja leider nur leichte Teillast so dass alles auf den LPE Cores landet. Da helfen 4 LPEs sicher. Aber interessant ist auch wie es beim Gaming ist. Wird der externer Speicher dann zum (Verbrauchs) Nachteil?
Ansonsten:
Sehr gute Verbesserungen von einem bereits sehr guten Lunar Lake:
1. mehr E-Cores
2. (ob die LP-E Cores bringen was sie sollen - nämlich den niedrigen Teillastverbrauch und idle Verbrauch zu senekken - muss man sehen. Oder ob sie nur "missbraucht" werden um MT Benchmarks höher zu bringen)
3. 50% dickere GPU, die auch noch deutliche Fortschritte auf uArch Ebene macht und das nur ~1 Jahr nach Xe2. Bereits Xe2 in Lunar Lake ist stärker und effizienter als Strix Point (zumindest in sinnvollen Betriebspunkten) und entsprechend die stärkste GPU eine APU die "normale" Betriebs und Preispunkte hat. Halo ist geil - aber eine ganz andere Kategorie (auch vom Preis). Jetzt fehlen richtig gute Linux Treiber für SteamOS (und bazzite und co) ^^
4. Ordentlich GPU Cache!! Schon LL war mit 8 MiB echt gut - jetzt sind es 16 MiB. Da kann die iGPU endlich etwas ihre Füße ausstrecken und ist nicht im APU typischen Bandbreitenlimit gefangen.
Bin auch gespannt was 18A so bringt. Die Limitierung auf mobile only ist ein Indikator, dass man bei Desktop Taktraten eventuell nicht mit TSMC mithalten kann. Aber ggf ein Indikator dass man es bei Effizienz kann.
Ein absoluter Jammer, dass Intel jetzt wo langsam die GPUs aus den Kinderschuhen kommen das Geld ausgeht und man bereits beschlossen hat die wieder abzuwürgen in dem man Nvidia Tiles verbauen will langfristig.
So wie Intel Arc innerhalb Generationen iteriert hat - schon wahnsinn. Klar man hat halt bei 0 gestartet - da kann man nicht erwarten gleich mit den alten Hasen mithalten zu können. Aber immerhin gab es seit Alchemist moderne Features: ML Super resolution, Matrix Units, Level 3.5 RT HW. Und man hat ja mit FG und MFG auch nachgelegt und erstes auch gleich mit ML. Jetzt direkt der erste IHV (soweit ich weiß) der sich zu precompiled shaders committed (so wie ich TAP verstehe hat das nicht notwendigerweise mit dem Microsoft Projekt zu tun wo es Integration in Spiele braucht sondern es läuft transparent zur Anwendung über den Treiber - wie beim SteamDeck -> sehr geil -> ich hab das schon ein paar Mal im Forum erwähnt dass das eine sinnvolle Sache wäre vom IHV das über den Treiber zu machen -> Intel machts ^^). Also sie geben schon echt Gas.
Ich denke da könnte wirklich was echt Gutes draus werden - man braucht eben ein paar Iterationen und man braucht wenn man gleich auf ist auch ein paar Jahre sich dort eine brand recognition aufzubauen - aber der Vertrag mit den Nvidia Tiles zeigt da intern zu starkes Misstrauen.
Daredevil
2025-10-10, 16:54:42
Die APUs haben 8 oder 12 CUs, welche von der Performance sehr nahe sind.
50% Unterschied sind jetzt schon nicht wenig. :D
Und die Kategorie des Strix Halo ist nicht unbedingt eine Nische, Strix Halo als Produkt ist es aber, da kaum im Markt verbreitet und eben auch kostenintensiv. Dass es einen Markt für diese Art SoCs gibt im Mobile als auch Desktop Markt, zeigt Apple.
Neben dem Vollausbau und dem inoffiziellen Lunar Lake Nachfolger wird es bestimmt auch kleine Modelle geben mit dedizierter GPU, ist ja jetzt auch nicht anders. Intel ist in dem Falle aber ein wenig flexibler durch ihren Tile Ansatz, beim bauen der SoCs als auch bei der Fertigung. Sie können sich die Welt so machen, wie sie möchten, das ist schon ein Wettbewerbsvorteil gegenüber einem One-Die-SoC. Gerüchte gehen rum, das Apple ihren SoC Ansatz im HPC auch aufbrechen möchte, um hier auch flexibler zu werden.
Große Empfehlung btw. für den Computerbase Podcast, Volker war ja bei Intel zu Gast! :)
reaperrr
2025-10-10, 22:26:13
3. 50% dickere GPU, die auch noch deutliche Fortschritte auf uArch Ebene macht und das nur ~1 Jahr nach Xe2. Bereits Xe2 in Lunar Lake ist stärker und effizienter als Strix Point (zumindest in sinnvollen Betriebspunkten) und entsprechend die stärkste GPU eine APU die "normale" Betriebs und Preispunkte hat.
Naja, Strix ist nur N4 und nur RDNA3.5.
Bis PTL breit verfügbar ist, sind die Medusas auch schon in den Startlöchern.
Wobei laut MLID die OEMs sagen, Xe3 sei tatsächlich ganz gut... wenn es nicht ständig abstürzen würde, weil die Treiber aktuell halt wieder typische Intel-Treiber sind.
So wie Intel Arc innerhalb Generationen iteriert hat - schon wahnsinn.
Naja, sooo doll ist es nun auch wieder nicht.
Man muss hier ja auch ne Durchschnittsrechnung machen.
Zunächst mal hat ALC schon wesentlich länger gedauert als geplant.
Battlemage hat zwar einige Schwächen abgebaut, aber ein fundamentaler Punkt, der gern geflissentlich übersehen wird:
Prozessnormiert hat BMG kaum Verbesserung der Perf/mm² gebracht.
Sowohl die architekturellen, als auch die Taktfortschritte wurden größtenteils schlicht durch (massiv) höhere Fläche in Relation zum Prozess erkauft.
Ich meine, G21 ist in N5 so groß wie AD104, und kaum schneller als AD107 und N33 (letzterer ist trotz N6, 128bit und RDNA3 kleiner und hat ähnliche Perf/W).
Das ist auch der Hauptgrund mMn, warum Intel kein Vertrauen in die Chancen hat: Gemessen an den R&D-Kosten holte man insgesamt, vor allem jetzt, wo AMD mit RDNA4 wieder einen riesigen Sprung gemacht hat, einfach viel zu langsam auf.
Und Checkbox-Features sind kein Indikator, Intel war da schon lange am Ball und z.B. bei Tesselation-Skalierung und DX11 FeatureLeveln mit ihren IGPs damals schon zeitweise auch an GCN vorbeigezogen, bis das 10nm-Fiasko zum Überspringen von GFX10 (Cannon Lake IGP) und massiver Verzögerung von GFX11 (Ice Lake IGP) geführt hat.
Nur in Sachen Perf/mm² und damit dann halt bei Prozessgleichstand auch Kosten sind sie nicht konkurrenzfähig, und das ist bei den mittlerweile extrem teuren Prozessen einfach Kacke für die überlebenswichtige Marge.
Bin gespannt wie Celestial da abschneidet.
Aber meine Prognose ist, dass es ggü. RDNA4 und Blackwell auch hier wieder eher mau aussieht, und bis die Celestial-Treiber gut genug sind, sind dann auch RDNA5 und Rubin in jeweils N3P/X am Start und lassen Celestial wieder weit hinter sich.
Im Endeffekt erwarte ich, dass PTL+12Xe3Cores nur extrem selten verbaut werden wird.
Gaming-Läppis nehmen Variante 2 + NV dGPU, Arbeits-Läppis halt Variante 2 ohne dGPU, wo die iGP-Leistung dann wahrscheinlich ca. gleichauf mit den 8 RDNA3.5 CUs der Mainstream-Zen6 APUs sein wird.
50% Unterschied sind jetzt schon nicht wenig. :D
Der reale Leistungsunterschied ist nur ein Bruchteil davon.
AMD's IGPs skalieren relativ schwach oberhalb von 8 CUs, teils durch Bandbreiten-/Cache-Limitierungen, teils durch Frontend- und Backend(ROPs)-Limitierungen, teils durch Taktunterschied unter realen Bedingungen (die großen Varianten throtteln in niedrigen TDPs oder Sparmodus auch gerne mal auf knapp um die 1 Ghz unter Last).
MSABK
2025-10-10, 22:35:28
Könnte auch sein, dass Nvidia mit ihrem Einstieg die Intel GPU torpedieren möchte weil die sehr schnell werden in kurzer Zeit jetzt.
dildo4u
2025-10-10, 22:40:47
Angeblich ist das doch nicht mal die echte neue Generation aktuell ist die RTX5050 genug für die b580 die wiederum massiv schneller ist als die PTL 12XE Core Version.
Naja, Strix ist nur N4 und nur RDNA3.5.
Bis PTL breit verfügbar ist, sind die Medusas auch schon in den Startlöchern.
Bis Medusa breit verfügbar ist, ist Nova Lake-H in den Startlöchern bzw. gibt es dann schon. Bei AMD kannst du mindestens 6 Monate draufrechnen.
Wobei laut MLID die OEMs sagen, Xe3 sei tatsächlich ganz gut... wenn es nicht ständig abstürzen würde, weil die Treiber aktuell halt wieder typische Intel-Treiber sind.
Vom einen Märchenerzähler zum anderen Märchenerzähler.
Der reale Leistungsunterschied ist nur ein Bruchteil davon.
Der Allwissende hat gesprochen.
dildo4u
2025-10-11, 06:49:28
Strix zeigt ganz gut das diese Chips komplett an der Bandbreite hängen.
Ich würde nicht zu viel erwarten schon eine 4060 ist 2x.
https://i.ibb.co/CxKh1gJ/Screenshot-2025-10-11-094144.png (https://ibb.co/SqwRsbQ)
https://youtu.be/pc_vZTcxumI?si=me_6C3iEMMg6tfp9
robbitop
2025-10-11, 08:38:40
Also IMO ist bei AMDs APUs IMO unnötigerweise sie Handbremse angezogen. Strix ist schon 1 Jahr alt (ind win echter Nachfolger mit neurer IP ist lange nicht in Sicht) und läuft noch mit RDNA3 was ärgerlich ist weil RDNA4 ordentlich Leistung draufpackt. Auch gab es bei den normalen APUs nie viel LLC für die GPU dass die sich mal ausstrecken kann obwohl man das könnte.
Klar Intels uArch kann noch nicht mithalten aber sie iterieren relativ intensiv mit viel Einsatz. Logischerweise braucht es eine Weile wenn man von 0 startet aber die Fortschritte sind groß. Bereits Xe2 in LL ist schneller als Strix Point. Dass AMD lieber einen günstigen N4 statt N3 wählt und auch mit der uArch hinterher bleibt ist eine bewusste Entscheidung.
APUs machen bei AMD leider in den letzten Jahren seit Rembrandt jetzt nicht mehr riesen große Sprünge - insbesondere pro Zeiteinheit.
Da gibt sich Intel einfach mehr Mühe. Wenn AMD wollte hätten wir schon heute RDNA4 auf N3 mit IF$ in APUs. Auch sowas wie 16-20 CUs und 16 MiB. Da hätte man heute schon mehr bums als PTL in 2026. Aber nein wir haben den alten Kram und 2026 soll iirc erstmal ein Strix Refresh kommen. Medusa mit Zen6 und RDNA5 ist iirc Ende 2026 wenn nicht sogar erst H1 2027. Aber bewusst fährt man mit angezogener Handbremse. Intel hingegen gibt alles und legt nach - die Sprünge sind pro Zeiteinheit größer. Dieser Spirit / Einsatz ist es den ich meine.
Was Windowstreiber angeht: sie letzten Videos wo es darum ging auch viele alte und exotische Spiele auf Arc zu testen gingen iirc alle erstaunlich gut aus.
MSABK
2025-10-11, 09:51:07
Die Pace von AMD gefällt mir nicht, wenn die so weiter schlafen holt die ja noch Qualcomm bei der iGPU ein.
Badesalz
2025-10-11, 09:56:15
Inwiefern gibt es überhaupt einen realen heimischen Markt für dieses Rennen?
robbitop
2025-10-11, 12:29:01
Wahrscheinlich ist es für den Erfolg im Markt zweitrangig wie gut die iGPU ist. Richtig gute iGPUs wurden bei AMD zu der Zeit als sie noch die Bulldozer Cores hatten nicht belohnt. Und bei Intel auch nicht als sie damals gt3e/gt4e (also größere iGPUs mit edram) hatten. Am meisten mit Abstand wurde GT2 (also kleine iGPU) verkauft. Cezanne schien auch nicht darunter zu leiden noch Vega IP zu haben. Die Mehrheit scheint von einer iGPU wenig zu erwarten und wer mehr Power haben will kauft eine dGPU dazu.
Aber ggf verschiebt sich das Ganze wenn günstige/bezahlbare APUs wenigstens so schnell werden Einsteiger GPUs aus der gleichen Generation. Also so schnell wie aktuell eine 5060/9060/7600/5050 (kA was da gerade die kleinste sinnvolle dGPU bei laptops ist) mobile. Dazu braucht es dann aber ein bisschen mehr „oompf“. Also mehr LLC und ein paar mehr Ausführungseinheiten und neuste uArch. Eine APU mit 16 MiB IF$ und 24 oder so RDNA4 CUs wäre schon auf dem Stand wo man bezahlbar in Laptops Einsteiger GPUs verdrängen würde. Vor allem wenn es dann auch noch günstiger wäre als eine APU plus kleiner dGPU im Laptop.
Intel hingegen gibt alles und legt nach - die Sprünge sind pro Zeiteinheit größer. Dieser Spirit / Einsatz ist es den ich meine.
Was Windowstreiber angeht: sie letzten Videos wo es darum ging auch viele alte und exotische Spiele auf Arc zu testen gingen iirc alle erstaunlich gut aus.
Das stimmt, in der nächsten Generation geht es weiter für NVL-H. Xe3p soll noch mehr Änderungen mit sich bringen. Offenbar ist der Architektur Schritt auf Xe3p größer als jetzt von Xe2 zu Xe3.
Intel’s head of architecture, graphics, and software, Tom Petersen, told reporters in a roundtable Q&A that Panther Lake would only hint at what’s implied by the name. “Xe3P is a significant architectural advancement from where we are now,” he said. Whether that means it’s a whole family of products, that doesn’t matter. However, it may still be called “Celestial,” more for the sake of continuity than anything.
https://gizmodo.com/intel-still-making-graphics-cards-2000670431
MSABK
2025-10-11, 13:48:45
Inwiefern gibt es überhaupt einen realen heimischen Markt für dieses Rennen?
Ich würde diesen Markt inzwischen bei den Handhelds sehen. Je besser und effizienter die iGPU ist, desto besser fur kommende Handhelds.
mczak
2025-10-11, 13:49:43
Die APUs haben 8 oder 12 CUs, welche von der Performance sehr nahe sind.
Was heisst hier 12? Hier haben wohl alle schon vergessen (weil es quasi nichts gebracht hat) dass Strix Point die CU-Anzahl gegenüber Phoenix von 12 auf 16 erhöht hat.
In der Praxis sind Phoenix (12 CUs RDNA 3.0) / Strix (16 3.5) / Krackan (8 3.5) alle sehr nahe beieinander. Klar bei den Peak TFlops sieht man den Unterschied sehr gut, aber im Durschschnitt bei Spielen ist vielleicht Strix so 30% schneller als Krackan.
Im Uebrigen denke ich nicht dass Xe2 (die Architektur) bezüglich Energieverbrauch effizienter ist als RDNA 3. Ich würde wetten hätte AMD Strix wie intel ebenfalls 8 MB (statt 2MB) GPU-L2 verbaut (klar 16MB IC wäre besser aber wohl nicht unbedingt nötig) würde man da locker mithalten (ausser bei RT), trotz schlechterem Prozess (und natürlich auch bei der Performance einen Sprung machen).
Auch dass BMG tatsächlich bandbreiteneffizienter ist als RDNA3/3.5, dafür gibt es nur wenig Indizien, das erledigt intel eben einfach mit mehr Cache. Auch wenn natürlich RDNA3 da niemanden vom Hocker reisst (dass da mehr geht sind man ja mit RDNA4).
Sieht man doch auch beim Vergleich der Desktop-Karten, ein BMG-G21 schlägt mit enormem Aufwand (bessere Fertigung, viel grösserer Chip, 50% breiteres SI (wenn auch 18MB gegenüber 32MB LLC)) gerade mal so N33 (ausgenommen wiederum RT / AI), sowohl punkto Leistung wie auch Energieeffizienz (und es gibt IMHO Indizien (z.B. GPU-Spannung) dass intel den Chip da vergleichsweise weniger weit über das Effizienzmaximum pusht). Und ist sowas von chancenlos gegen den aus rein technischer Sicht eigentlichen Konkurrenten N44.
Genau so wenig sehe ich da prinzipiell Skalierungsprobleme bei RDNA3, jedenfalls nicht bei den CU-Mengen die in den kleinen APUs verbaut sind (sonst würden Desktop-Karten mit 6x mehr CUs schlicht nicht sinnvoll funktionieren).
AMD hat es einfach verpasst den kleinen APUs ein sinnvolles Cache-System zu verpassen, aus was für Gründen auch immer (die Ingenieure sind ja nicht blöd und wussten garantiert ziemlich genau was die Folgen von bloss 2MB GPU LLC sind).
robbitop
2025-10-11, 13:51:09
Ich würde diesen Markt inzwischen bei den Handhelds sehen. Je besser und effizienter die iGPU ist, desto besser fur kommende Handhelds.
Wobei der PC Handheldmarkt (noch?) relativ klein ist. Die meisten Verkäufe hat wahrscheinlich in Summe Valve mit dem Steam Deck. Und da sind es afaik 5 Millionen Exemplare seit Release in 2022. Verglichen mit sowas wie der Switch sind das Peanuts.
robbitop
2025-10-11, 13:57:01
Was heisst hier 12? Hier haben wohl alle schon vergessen (weil es quasi nichts gebracht hat) dass Strix Point die CU-Anzahl gegenüber Phoenix von 12 auf 16 erhöht hat.
In der Praxis sind Phoenix (12 CUs RDNA 3.0) / Strix (16 3.5) / Krackan (8 3.5) alle sehr nahe beieinander. Klar bei den Peak TFlops sieht man den Unterschied sehr gut, aber im Durschschnitt bei Spielen ist vielleicht Strix so 30% schneller als Krackan.
Im Uebrigen denke ich nicht dass Xe2 (die Architektur) bezüglich Energieverbrauch effizienter ist als RDNA 3. Ich würde wetten hätte AMD Strix wie intel ebenfalls 8 MB (statt 2MB) GPU-L2 verbaut (klar 16MB IC wäre besser aber wohl nicht unbedingt nötig) würde man da locker mithalten (ausser bei RT), trotz schlechterem Prozess (und natürlich auch bei der Performance einen Sprung machen).
Auch dass BMG tatsächlich bandbreiteneffizienter ist als RDNA3/3.5, dafür gibt es nur wenig Indizien, das erledigt intel eben einfach mit mehr Cache. Auch wenn natürlich RDNA3 da niemanden vom Hocker reisst (dass da mehr geht sind man ja mit RDNA4).
Sieht man doch auch beim Vergleich der Desktop-Karten, ein BMG-G21 schlägt mit enormem Aufwand (bessere Fertigung, viel grösserer Chip, 50% breiteres SI (wenn auch 18MB gegenüber 32MB LLC)) gerade mal so N33 (ausgenommen wiederum RT / AI), sowohl punkto Leistung wie auch Energieeffizienz (und es gibt IMHO Indizien (z.B. GPU-Spannung) dass intel den Chip da vergleichsweise weniger weit über das Effizienzmaximum pusht). Und ist sowas von chancenlos gegen den aus rein technischer Sicht eigentlichen Konkurrenten N44.
Genau so wenig sehe ich da prinzipiell Skalierungsprobleme bei RDNA3, jedenfalls nicht bei den CU-Mengen die in den kleinen APUs verbaut sind (sonst würden Desktop-Karten mit 6x mehr CUs schlicht nicht sinnvoll funktionieren).
AMD hat es einfach verpasst den kleinen APUs ein sinnvolles Cache-System zu verpassen, aus was für Gründen auch immer (die Ingenieure sind ja nicht blöd und wussten garantiert ziemlich genau was die Folgen von bloss 2MB GPU LLC sind).
Sehe ich auch so. AMD könnte definitiv mehr rausholen aus den APUs. Aber mit altem Node, alter IP und Cachegeiz… Man könnte wie du schreibst wenigstens ein paar Handbremsen lösen.
Laut dem Test von thephawx ist Strix schon bei relativ niedrigen Taktraten im Bandbreitenlimit. Und taktet aber trotzdem fröhlich hoch obwohl es nichts bringt. IIRC war das schon ab grob 1200 MHz GPU Clock der Fall.
Mit 16 MiB IF$ wäre das Bandbreitenlimit wahrscheinlich weg.
Stattdessen gibt es nur „good enough“. Außer bei Halo. Aber da ist es dann wieder irre teuer. Und selbst da alter node und alte IP. (aber immerhin breit und IF$)
dildo4u
2025-10-11, 14:19:37
Hatten Gurken wie 6500XT nicht 16MB?
Wo waren die Limitiert?
robbitop
2025-10-11, 14:38:06
Die 6500xt hatte 16 MiB L3 und waren deshalb nicht limitiert. AMDs APUs (nicht Halo) haben hingegen keinen L3 (GPU) und sind es. Dazu kommt dass die 6500xt GDDR6 hat mit immerhin 18MT/s und Strix Point mit lpddr5x mit je nach SKU unter 10 MT/s.
Badesalz
2025-10-11, 15:42:18
Aber ggf verschiebt sich das Ganze wenn günstige/bezahlbare APUs wenigstens so schnell werden Das ist der Markt der Miniworkstations die Apple etablierte und auf der x86 Seite aktuell AMD den kompletten Fuß drin hat.
mironicus
2025-10-11, 19:48:48
Ich fürchte mit Panther Lake werden Handhelds einfach nur noch teurer. Da kann man ja gleich ein Strix Halo-Handheld kaufen.
dildo4u
2025-10-11, 20:31:07
Intel wird besser Preise anbieten eine B580 ist auch massiv aufwendiger als eine 5050 wird aber für das Selbe verkauft.
Bei Lunar Lake gab es nur einen Handheld und selbst MSI bietet dieses Modell jetzt mit AMD Chips an.
Da müssen sie deutlich aggressiver werden.
https://www.pcmasters.de/news/133714514-msi-claw-a8-mit-amd-ryzen-z2-schlaegt-intel-basierten-claw-8-ai-plus-in-spielen.html
iamthebear
2025-10-11, 21:21:37
Also ich glaube, dass der Markt der 1K+ Handhelds nicht allzu groß ist. Aber diesen Preis braucht man mittlerweile wenn aktuelle AAA Titel geslielt werden sollen. Für ESports Shooter ist der Formfaktor auch nicht geeignet wenn man mit PC Spielern mit Maus gematched wird ohne Auto aim.
Und Intel hat das Problem, dass sie einfach viel mebr Silizium für dieselbe Performanbce brauchen. Bei einem kleineren GPU Tile kann man das noch in den Margen der CPU verstecken. Sobald der GPU Tile aber den Großteil des Dies ausmacht ist man nicht mehr konkurrenzfähig.
robbitop
2025-10-11, 23:01:36
Ich vermute, dass mittelfristig für den Handheldmarkt auch relevant wird, wie gut es mit SteamOS läuft. Intel hat leider (noch?) nicht so gute Linux Treiber wie AMD mit RADV.
davidzo
2025-10-12, 12:24:13
Ich fürchte mit Panther Lake werden Handhelds einfach nur noch teurer. Da kann man ja gleich ein Strix Halo-Handheld kaufen.
Wieso sollte PTL so teuer sein?
Ich schätze Pantherlake als sehr kompetitiv ein bei den Herstellungskosten. Als Tan gesagt hat man sich jetzt auf (selbst gefertigte) Produkte mit mehr Marge konzentrieren wolle war damit denke ich Pantherlake gemeint, im Vergleich zu Arrowlake und Lunarlake, die durch die zugekauften Nodes katastrophal ausgefallen sind bei der Marge.
Intels Problem ist eher die Lieferbarkeit bzw. der mangelnde Fab output von 18A. Sonst könnte Intel leicht ein 4+0+4+12XE Modell als Counter zur AMD Z-Serie auflegen. Aber solange man selbst für den Premium Ultramobile Bereich nicht genügend CPUs liefert macht es keinen Sinn in so einen niedrigmargigeren Bereich wie Handhelds zu gehen.
AMD bietet mit der Z-Serie ja auch ihre big-DIE Top Modelle nochmal billiger an als im normalen Consumer-Bereich, nur um den Fuß in die Tür zu kommen bei Handhelds.
Wieso denke ich dass die Rohertragsmarge bei PTL besser ist?
Der Compute-Die ist 25% kleiner als bei Lunarlake und wird inhouse gefertigt, was günstiger sein dürfte als TSMC. Der zugekaufte GPU-Die bei 12XE ist nur 54mm2 groß und düfte den Kohl auch nicht fett machen, trotz wesentlich höherer Leistung. Das Packaging ist weniger komplex als Arrowlake-H, der Compute-Die minimal kleiner und die Gesamtgröße der Dies auch geringer. Gerade die PTL-H-Version mit der kleinen iGPU in Intel3 dürfte deutliche Kostenersparnissen für Intel gegenüber ARL-H erziehlen.
dildo4u
2025-10-12, 12:49:38
Ganz einfach man produziert nur ganz wenige 12XE Chips.
Das ist deutlich besser als Lunar Lake für Intel.
Es gibt auch kaum Strix Only Laptops die verkaufen sich deutlich besser mit einer 5050 an Board.
Die SOC Lösung wie Strix Halo scheint nicht deutlich effektiver als 35 Watt CPU plus 75 Watt 5050.
Zugang zu DLSS4 ist kritisch für Low End Karten da du aggressives Upscaling einsetzen musst.
iamthebear
2025-10-12, 13:23:21
Sonst könnte Intel leicht ein 4+0+4+12XE Modell als Counter zur AMD Z-Serie auflegen. Aber solange man selbst für den Premium Ultramobile Bereich nicht genügend CPUs liefert macht es keinen Sinn in so einen niedrigmargigeren Bereich wie Handhelds zu gehen.
Die 4+0+4 Variante ist in erster Linie für leichtere Office Workloads gedacht wo selten mehr als 2-3 Threads gebraucht werden und diese nicht sehr cachelastig sind und es in erster Linie darum geht die Idle Power zu senken.
Bei Gaming Workloads macht es wesentlich mehr Sinn die Threads auf die E Cores am Ring zu verlagern damit man den L3 nutzen kann und somit die Energie der DRAM Zugriffe spart.
Und Kostenmäßig machen die 8 zusätzlichen E Cores nicht viel Unterschied. Das sind gerade einmal 20mm² und dafür bekommt man auch noch 6MB zusätzlichen L3.
Was mit aufgefallen ist: Es gibt ein eigenes Die für 4C und 4+8C und das IOD scheint ebenfalls kleiner zu sein. Wie mal typisch Intel, für 12 Produkte 6 verschiedene Dies :freak:...
y33H@
2025-10-12, 14:29:13
Das ist nicht korrekt, es gibt folgende aktive Dies:
484 Compute (18A)
404 Compute (18A)
4Xe Graphics (i3)
12Xe Graphics (N3E)
PCD für IO (N6)
robbitop
2025-10-12, 15:12:53
Und dazu noch den relativ großen base die (nicht aktiv aber trotzdem muss man den belichten und managen) und streng genommen den filler die (der sollte aber egal sein weil nichts drin ist).
Ist schon trotzdem relativ viel. Ein nicht unwesentlicher Grund ist es ja mit wenigen Chiplets viele Produkte abzubilden. Aber seit Intel auch Chiplets „zusammen glued“ (worüber man sich ja mal lustig gemacht hat ^^) machen sie es gefühlt ein wenig zu komplex.
Ggf hätte es auch ein CPU chiplet getan wo man dann optional halt mehrere nutzen können wenn man skus mit mehr Kernen will.
Und ob man iGPU und IOD wirklich disaggregieren muss? Klar rein vom Fertigungsprozess macht es Sinn - aber es ist wieder 1x chiplet mehr. Ggf hätte zumindest ein IOD mit der kleinen GPU gereicht so dass man die nicht noch hätte neu auflegen müssen? (nur so Gedanken ohne Anspruch darauf dass das besser wäre)
Hoffentlich geht es trotzdem auf denn es braucht harten Wettbewerb damit es gut für den Endkunden bleibt.
mczak
2025-10-12, 18:32:52
Das ist nicht korrekt, es gibt folgende aktive Dies:
484 Compute (18A)
404 Compute (18A)
4Xe Graphics (i3)
12Xe Graphics (N3E)
PCD für IO (N6)
Ist das bloss ein IO Die? Laut den Symbolbildern sind es 2, obwohl der Unterschied ja tatsächlich anscheinend bloss 8 pcie 5 lanes sind (selbst laut den Symbolbildern wäre der Unterschied bei der Die-Grösse wohl bloss so 15%).
Mich stört sowieso weniger die Anzahl der Dies, sondern dass der Grössenunterschied der Compute-Dies (wohl so 25%) und eben allenfalls der IODs eher klein ist, so dass man sich fragen muss ob sich das wirklich lohnt. Bloss beim GPU-Die ist der Unterschied wirklich deutlich (wohl so Faktor 2?).
Wobei man sagen muss selbst bei AMD sind Strix und Krackan letztlich von der Grösse her wohl auch gar nicht so weit auseinander (wobei ich eigentlich Krackan für den deutlich besser ausbalancierten Chip halte, ist aber halt relativ low-end).
y33H@
2025-10-12, 18:47:30
Ein Basis-Design für PCD-U/P und davon abgeleitet eins für PCD-H.
mocad_tom
2025-10-12, 22:18:41
https://x.com/p1cturedump/status/1977468519135805719
Zum IO-Die
Aber das schaut schon so aus, als wären das zwei unterschiedliche, oder sägen sie das untere stück weg?
mboeller
2025-10-13, 09:07:54
https://x.com/p1cturedump/status/1977468519135805719
Zum IO-Die
Aber das schaut schon so aus, als wären das zwei unterschiedliche, oder sägen sie das untere stück weg?
schaut so aus, aber das sind bestimmt nur schematische Die-Shots und keine echten. Das ganze kann/sollte man nicht zu ernst nehmen.
davidzo
2025-10-13, 11:24:49
Die schematische Darstellung ist auf jeden Fall nicht ganz richtig, denn bei den realen CPUs schließt der I/O Die nicht bündig mit dem Compute Die ab, sondern geht noch 1-2mm neben dem Graphics Die entlang.
Die Exakten Die-Abmaße der 4+8+4+12 Version waren ja auch bereits im vorhinein von @Jaykihn geleakt und der Versatz der Dies damit genau belegt.
Auf der Messe hat Intel sich dann noch den Schnitzer geleistet eine der beiden CPUs auf den Kopf zu stellen. Wären sie richtig herum erkennt man leicht dass der i/O Die dieselben Abmaße hat:
https://pics.computerbase.de/1/1/9/5/0/1-0d5cd47683218913/article-1280x720.6e6098c7.jpg
mironicus
2025-10-14, 15:46:13
Das neue XeSS 3 Multi Frame Generation bei Panther Lake könnte interessant für Handhelds sein mit bis zu 3 KI Frames wie bei NVidia.Wenn man dann Battlefield 6 auf einen Intel Handheld mit 120-150 FPS spielen kann und bei AMD nur mit 60-80 FPS könnte das einige überzeugen zu wechseln.
dildo4u
2025-10-14, 15:49:51
Die nutzen bisher keine Displays für die man mher als 2x brauchen würde.
Die schematische Darstellung ist auf jeden Fall nicht ganz richtig, denn bei den realen CPUs schließt der I/O Die nicht bündig mit dem Compute Die ab, sondern geht noch 1-2mm neben dem Graphics Die entlang.
Die Exakten Die-Abmaße der 4+8+4+12 Version waren ja auch bereits im vorhinein von @Jaykihn geleakt und der Versatz der Dies damit genau belegt.
Auf der Messe hat Intel sich dann noch den Schnitzer geleistet eine der beiden CPUs auf den Kopf zu stellen. Wären sie richtig herum erkennt man leicht dass der i/O Die dieselben Abmaße hat:
https://pics.computerbase.de/1/1/9/5/0/1-0d5cd47683218913/article-1280x720.6e6098c7.jpg
Das ist nicht korrekt. Ausgerechnet der 4+0 und das 12-XE-Modell haben ja beide nur 12 Lanes, nur der 4+8 mit 4-XE hat 20 Lanes und damit das volle IOD.
davidzo
2025-10-15, 11:33:25
Das ist nicht korrekt. Ausgerechnet der 4+0 und das 12-XE-Modell haben ja beide nur 12 Lanes, nur der 4+8 mit 4-XE hat 20 Lanes und damit das volle IOD.
Genau darum ging es. Vielleicht mal die 2-3 posts darüber lesen. :rolleyes:
Es gibt anscheinend nur einen IO Die, obwohl in den Marketingunterlagen zwei dargestellt werden. Aber die dieshots stimmen nicht mit den marketingunterlagen überein und deuten eher daraufhin dass es derselbe I/O Die ist und die lanes nur fused off sind.
In der kleinen Version bietet er aus Stromspargründen nicht genug PCIe-Lanes um eine diskrete GPU anzusprechen. Dies ist nur im Vollausbau des I/O-Tiles, die vermutliche Core Ultra 300H nutzen wird, möglich. Dass der I/O-Tile letztlich unter der Haube der gleiche ist, hat eher mit der Fertigung zu tun. Wegen ein paar mm² Einsparung eine neue Maske aufzulegen, wenn auf der anderen Seite weiterhin zwei Filler-Tiles für ein stabiles Package sorgen müssen, rechnet sich nicht. So wird der kleine I/O-Tile letztlich nur kastriert, das Silizium ist identisch.
robbitop
2025-10-15, 12:18:26
Das neue XeSS 3 Multi Frame Generation bei Panther Lake könnte interessant für Handhelds sein mit bis zu 3 KI Frames wie bei NVidia.Wenn man dann Battlefield 6 auf einen Intel Handheld mit 120-150 FPS spielen kann und bei AMD nur mit 60-80 FPS könnte das einige überzeugen zu wechseln.
Ich denke dass Frame Generation und Multi Frame Generation nicht geeignet sind um spielbare Frameraten zu erzeugen. Sie sind ein gutes Werkzeug high refresh rate Monitore auszufahren (also Bewegtschärfe zu erhöhen was damit in Bewegung die Bildqualität steigert weil in Bewegung mehr Details erhalten bleiben).
Frame Generation kostet allerdings etwas (fest computational cost bezogen auf eine bestimmte Auflösung und GPU). Senkt also immer die reale (Input) Framerate. Eine gewisse (und stabile) Inputframerate ist nötig damit es gut aussieht und sich auch gut anfühlt (inputlatenz).
Und gerade bei Handhelds ist nicht so irre viel Reserve bei der GPU vorhanden und man kämpft bei modernen Spielen schon ohne FG um auf gute Frameraten zu kommen.
Man darf sich von den hohen Frameraten nicht beeindrucken lassen mit MFG. Man probiere mal zB 40 fps per frame limiter und das mit 3x MFG auf 120 fps aufzublasen. Spielt sich furchtbar.
IMO ist das nichts was man nutzen sollte von nicht flüssig und flutschigen fps auf hohe fps zu kommen. Es ist etwas um mit bereits sehr flüssigen Zustand (relativ gute fps und input latenz) noch flüssiger werden zu lassen um hohe refreshreates auszureizen. Und die computational cost lässt die base framerate ja noch ein Stück einbrechen.
IMO (die Empfehlungen von Nvidia und AMD sind auch so) schon 60 fps als input fps haben damit es richtig gut wird. Damit man 60 fps input fps trotz computational overhead bekommen braucht man ohne FG ~70-80 fps. Also ordentlich overhead.
Deshalb denke ich nicht, dass das ein idealer Anwendungsfall für Handhelds und Konsolen ist (zumindest bei fordernden Spielen).
mironicus
2025-10-15, 14:31:00
Also bei meinem Notebook Razer Blade 16 (AMD HX 370 mit RTX 5090 Mobile), spüre ich mit MFGx4 kaum einen Input Lag, zumindest bei Cyber Punk 2077 (sogar mit Pathtracing an bei 2560x1600) oder Claire Obscure 33, wenn ich mit Xbox Controller spiele. Mit Controller hat man vielleicht hier einen Sweet Spot was die Latenz angeht, das Spielen mit Tastatur und Maus könnte sich das natürlich anders anfühlen. Das ist mittlerweile auch ein Feature wo man meinen könnte, nie wieder ohne, wenn alles stimmt.
Es ist echt bedauerlich, das es keinen PC-Handheld mit NVidia-Grafik gibt.
mboeller
2025-10-16, 13:29:36
https://www.notebookcheck.com/Frueher-Intel-Panther-Lake-GPU-Benchmark-beeindruckt-mit-50-hoeherer-Leistung-gegenueber-Lunar-Lake.1140004.0.html
Laut Ergebnissen von 3DMark Time Spy Graphics, die vor wenigen Tagen vom chinesischen Magazin Laptop Review veröffentlicht wurden, erzielt der Panther-Lake-Flaggschip Core Ultra X9 388H rund 6.233 Punkte, wenn er mit 8.533 MT/s-Speicher kombiniert wird. Mit besonders schnellem 9.600 MT/s-RAM steigt das Ergebnis sogar auf beeindruckende 6.300 Punkte.
trotz 12,5% mehr Bandbreite nur 1% schneller. Der große L2-Cache scheint sehr gut zu funktionieren. nett!
Zum Vergleich:
https://www.notebookcheck.com/AMD-Radeon-890M-Grafikkarte-Benchmarks-und-Spezifikationen.848128.0.html
die iGPU 890m von AMD schafft 3430 Punkte
MSABK
2025-10-16, 13:54:07
Die iGPU wird schnell werden, daran habe ich keine Zweifel. Intel gibt da gut gas, Nvidia hat da sogar Angst bekommen und steigt bei Intel ein.
dildo4u
2025-10-16, 14:44:22
Timespy ist nutzlos um Intel Performance zu bewerten eine B580 Performt dort wie eine 5060 Ti.
robbitop
2025-10-16, 15:12:34
Ja aber das kann man zumindest grob als Offset zu Xe2 sehen. 50% mehr Performance einfach auf den Index packen (ich finde leider nur keinen - das ist bei IGPs irgendwie immer kacke - da scheinen die üblichen Verdächtigen nur 3-4 Spiele zu benchen und fertig). Intel hat ja IIRC selbst von +50% gesprochen ggü Lunar Lake.
Also LL war in realen Spielen mit neusten Treibern ungefähr auf Strix Point Level*. Also wird Xe3 dann ~50% drüber liegen. Strix bekommt IIRC noch ein Refresh - aber da kommt nicht sooo viel mehr Leistung bei rum. Und vor Medusa mit RDNA5/Zen6 wird man da dann die Führung halten können (wenn man Halo mal ausklammert). Panther Lake soll Anfang nächsten Jahres auf den Markt kommen. Wahrscheinlich wenigstens 1 Jahr vor Medusa. Ggf. muss Medusa dann schon gegen den Nachfolger (Novalake?) kommen.
*Im Kapitel Mega Handheld Test sieht man Lunar Lake und Strix zusammen: https://www.youtube.com/watch?v=ltUv6p6lS80
Vielleicht kann die Xe3 ihre theoretische Leistung besser in den Spielen umsetzen, es wurden einige Problemstellen angegangen. Siehe: https://youtu.be/HwZx9RIl13Y?t=327
Lehdro
2025-10-16, 15:14:45
Timespy ist nutzlos um Intel Performance zu bewerten eine B580 Performt dort wie eine 5060 Ti.
Tale as old as time.
Zusätzlich: iGPUs skalieren im Timespy auch meist außergewöhnlich gut.
Aber Hoffnung habe ich hier sehr wohl, wird Zeit das jemand AMD in den Hintern tritt was die GPU Leistung angeht.
robbitop
2025-10-16, 16:27:19
Wird auch mal Zeit. Sie bekommen etwas complacent bei den APUs. Zeigt, dass Wettbewerb immer wichtig ist und bleibt ^^
mocad_tom
2025-10-30, 18:49:05
Im Intel popup store am Viktualienmarkt München kann man sich wohl laufende Panther Lake Laptops anschauen.
https://x.com/highyieldYT/status/1983838450144215400
3dcenter Forums treffen Samstag in einer Woche?
wenn y33H@ nicht persönlich vorbeischaut klauen wir das PTL Laptop aus dem Laden
w0mbat
2025-10-30, 19:30:22
Für den Presseevent waren PTL Laptops da, zu Kaufen gibt es aktuell aber nur LNL und ARL.
Und yeeha war natürlich vor Ort. Ganz persönlich. Was denkst du, aus wessen Tasche die Chips kamen?
mocad_tom
2025-10-30, 19:41:44
Also sind die PTL Laptops ab morgen nicht mehr da?
:udown: ?
Ich hätte gehofft wir das normale Fußvolk darf auch mal draufschauen
https://www.notebookcheck.com/Frueher-Intel-Panther-Lake-GPU-Benchmark-beeindruckt-mit-50-hoeherer-Leistung-gegenueber-Lunar-Lake.1140004.0.html
trotz 12,5% mehr Bandbreite nur 1% schneller. Der große L2-Cache scheint sehr gut zu funktionieren. nett!
Zum Vergleich:
https://www.notebookcheck.com/AMD-Radeon-890M-Grafikkarte-Benchmarks-und-Spezifikationen.848128.0.html
die iGPU 890m von AMD schafft 3430 Punkte
Angeblich jetzt 6830 Punkte beim X7 358H nach Treiber Updates.
Das Highlight von Intels Laptop-Prozessoren der nächsten Generation ist die Xe3-iGPU mit zwölf Recheneinheiten, die in 3DMark Time Spy mit 6.830 Punkten in diesem Benchmark-Durchlauf beachtliche 72 Prozent schneller ist als die iGPU des Core Ultra 7 255H.
Previously, the laptop evaluation network has disclosed that Intel Core Panther Lake's ES (Engineering Sample) in TimeSpy graphics run score can reach 6300 points. Now with the gradual optimization of the production model, the TimeSpy graphic score is further improved by nearly 10%.
https://www.notebookcheck.com/Intel-Core-Ultra-X7-358H-ist-im-Benchmark-Leak-langsamer-als-Core-Ultra-7-255H-iGPU-kann-punkten.1151296.0.html
https://laptopreview.club/intel-core-ultra-x7-358h-spec-performance-and-benchmark/
Lohnt sichs mal zum Pop up store zu gehen? Oder ist das auch nix anderes als die Mediamarkt Laptop Abteilung?
dildo4u
2025-10-31, 11:44:12
Mediamarkt wird Panther Lake erst in 2026 haben.
mocad_tom
2025-11-01, 13:53:50
Aktueller Plan ist
Intel Popup-Store und danach Swatch laden plündern
Intel Popup-Store zu Swatch-Laden (https://www.google.com/maps/dir/LOUIS+Hotel,+Viktualienmarkt,+M%C3%BCnchen-Altstadt-Lehel/Sendlinger+Str.+17,+80331+M%C3%BCnchen/@48.1358535,11.5710763,592m/data=!3m3!1e3!4b1!5s0x479e75f57f4adc11:0xecda3a2a63b6e2dd!4m14!4m13!1m5!1m1!1s0x 479e758abf64ec17:0x68e341ce4ee9e5b!2m2!1d11.575807!2d48.1359729!1m5!1m1!1s0x479e 751b12de084f:0x9cae77c63e3b6fd7!2m2!1d11.5710174!2d48.1353703!3e2?entry=ttu&g_ep=EgoyMDI1MTAyOS4yIKXMDSoASAFQAw%3D%3D)
Es scheint so als wäre dort ein Streaming-Rig mit Elgato dran und das ist ein Panther Lake.
Ohne das dort mit Pfeilen großartig hingedeutet wird.
Kann natürlich auch sein, dass die den dann auch mal schnell wegverschwinden lassen können.
https://www.hardwareluxx.de/index.php/news/allgemein/vor-ortmessen/67393-ki-erleben-erster-intel-experience-store-in-muenchen-eroeffnet.html
Da den Text lesen - ich hoffe ich hab das nicht falsch interpretiert.
Und der Herr, der da den PTL in die Kamera hält - das ist y33H@ ?
y33H@
2025-11-01, 17:10:48
Nein, das ist Frank Kuypers - der hat die Präsentation gehalten, aber die Chips kamen von mir und ich war für Q&A sowie die Demos vor Ort ... die PTL sind derzeit in Berlin falls jemand Fotos will ^^
mocad_tom
2025-11-01, 17:58:04
Also die PTL-Chips sind in Berlin.
Aber das PTL-Laptop an dem Elgato-Platz ist in München im Popup Store?
y33H@
2025-11-01, 21:52:50
Der ist vermutlich bereits zurück in Oregon, ich meine das Demo Team hat den wieder eingepackt.
mironicus
2025-11-01, 22:45:01
TDP 65 Watt. Ist zuviel für ein PC-Handheld. Die Leistung bei 15 Watt sollte gemessen werden.
iamthebear
2025-11-05, 23:57:12
https://x.com/jaykihn0/status/1986086104286597269
Schnellstes 4+8+4 Modell 5.1 GHz
4+0+4 maximal 4.8GHz
Also 300 MHz weniger als bei ARL-H bzw. LNL
Der limitierende Faktor scheint jedoch die Kühlung zu sein auf Grund der gestiegenen Transistordichte bei gleichzeitig schlechteren Wärmeleitfähigkeit durch Backside Power Delivery.
Ich denke damit ist 18A für Desktop einmal für die nächste Zeit vom Tisch.
Undertaker
2025-11-06, 00:31:38
Wo genau gab es Details zur Temperaturentwicklung inkl. eines verwertbaren Vergleichsmaßstabes?
davidzo
2025-11-06, 00:50:10
Wo genau gab es Details zur Temperaturentwicklung inkl. eines verwertbaren Vergleichsmaßstabes?
Was genau verstehst du daran nicht @Undertaker wenn jemand ein educated guess mit "scheint..." einleitet und in einem Spekulationsforum äußert?
Die Basis der Aussage hat er bereits im Post verlinkt.
No, all 4+4+4 and 4+8+4 have both 65W & 80W configurations.
OEMs choose. (preliminary)
Because PTL is hard to cool for ST boost.
Experience Based PL1 will also debut on PTL. More info in the future.
https://x.com/jaykihn0/status/1986105832732336515
Angeblich gehen die OEMs bei der TDP extra nicht in die Vollen. Wenn die TDP aber niedrig ist, müsste der Chip leicht zu kühlen sein. Zumal der Compute-Die mit 114mm2 nicht ungewöhnlich klein ist. Da gibts bei AMD bereits mehr Core Density.
Wenn aber bei single-threaded schon die Kühlung limitiert ist das nicht der TDP geschuldet, denn die wird mit nur einem Thread eh nicht erreicht. Die Logische Erklärung ist eine schlechte Wöärmeverteilung im DIE bzw. ein Isoliereffekt ähnlich wie bei AMDs 5800x3d und 7800x3d.
Um die 5 Ghz hat bei Intel schon Tradition. MTL-U mit Intel 4 hatte auch nur max 5.1 Ghz. Genauso sollte nach Intel Tradition die refresh Fertigung gut was zulegen können. Im Vergleich zu ARL-H mit N3B hat PTL-H ein ST Boost Defizit von 300 Mhz.
Undertaker
2025-11-06, 07:42:02
Die Basis der Aussage hat er bereits im Post verlinkt.
Diesen entscheidenden Satz sehe ich im verlinkten X-Posting nicht, aber vielleicht versteckt der sich ja irgendwo in den Kommentaren. Ansonsten gäbe es für den festgesetzten ST-Takt ja zahlreiche mögliche Erwägungsgründe, von harter Clockwall über Effizienzerwägungen bis hin zur Ausbeute. Insofern eine berechtigte Nachfrage, wenn es explizit ein Temperaturthema sein soll
dildo4u
2025-11-06, 08:54:17
5.1Ghz sind doch ok 285HX im Titan hängt dort und befeuert Nvidia High-End.
AMD hat nur ein Strix Refrech und Apple zersört beide eh um mherere Generationen.
https://youtu.be/Bxh-3WLoS8g?si=qhu7G1-B3f7mgaL2&t=3711
Passt thematisch gerade: könnte man nicht eigentlich in einem modernen Node 2 CPU Kerne bewusst größer machen im Footprint um die Hitze besser zu verteilen? Quasi 2 P Cores mit 1,5x oder 2x footprint, die dann ein paar hundert Mhz höher boosten können, dazu die normalen P Cores + E Cores. So wie in den mobilen SoCs teilweise...
mboeller
2025-11-06, 11:12:05
Passt thematisch gerade: könnte man nicht eigentlich in einem modernen Node 2 CPU Kerne bewusst größer machen im Footprint um die Hitze besser zu verteilen? Quasi 2 P Cores mit 1,5x oder 2x footprint, die dann ein paar hundert Mhz höher boosten können, dazu die normalen P Cores + E Cores. So wie in den mobilen SoCs teilweise...
google behauptet Lion-Cove ist 4,5mm2 groß. 2x2-fach = 9mm2 mehr Die-Fläche. Würde also gehen. Aber die längeren Wege in der CPU verursachen wahrscheinlich auch wieder Timing-Probleme.
mocad_tom
2025-11-06, 11:14:58
> OEMs choose. (preliminary)
> Because PTL is hard to cool for ST boost.
Da könnte jetzt wirklich durchspitzen, dass PowerVia in der Ableitung der Wärmeenergie nicht optimal ist.
Deshalb hat man ja auch schon davon gesprochen, dass Intel 18A chips nur dann in ein Smartphone gehen können, wenn das Smartphone eine Heatpipe bekommt.
Ansonsten -> da kommt Volumen.
So viele SKU wie die hier auflegen.
Der PTL 332 mit vPro und voller Copilot+ Unterstützung wird wohl ein Sonderwunsch von Microsoft gewesen sein.
Das fräst auch direkt in die Intel-7-Volumina hinein.
------
Ich war auch im Intel Popup Store gestern.
An dem Elgato-Eck war nur ein Core Ultra 9 285H
(der PTL ist verschwunden, wie bereits angekündigt).
Auch die anderen Ausstellungsstücke waren altbekanntes.
Das HP Omnibook mit Lunar Lake hat so ein "Must resist"-Gefühl geweckt.
Ich muss jetzt einfach durchhalten bis zu den vernünftigen PTL
davidzo
2025-11-06, 12:48:37
Passt thematisch gerade: könnte man nicht eigentlich in einem modernen Node 2 CPU Kerne bewusst größer machen im Footprint um die Hitze besser zu verteilen? Quasi 2 P Cores mit 1,5x oder 2x footprint, die dann ein paar hundert Mhz höher boosten können, dazu die normalen P Cores + E Cores. So wie in den mobilen SoCs teilweise...
Die P-kerne sind bei Intel bereits gigantisch. Bei Arrowlake und Lunarlake (N3B) sind die ohne ihren Slice an L3 Cache gute 5mm2 groß, bzw. 7,7mm mit 3Mb vom shared Cache. Apples P-Kerne sind unter 2,9mm2, bzw. 4,8mm2 mit 4MB an shared cache.
18A legt ja bei der Density kaum zu im Vergleich zu N3B. Vielleicht geht es bei Cougar Cove runter auf 4.5 oder 4mm2 reine Core area mit private cache aber weniger würde ich nicht erwarten.
Intel verteilt die P-Cores auch bereits möglichst weit auseinander mit einem großen L3 Pool und den beiden L2 caches zwischen zwei Cores womit die Funktionseinheiten schon an den äußeren Die Kanten und somit maximal weit auseinander liegen.
Das Problem ist eher der zu hohe Betriebspunkt bei ST Load. Lunarlake ist das zwar angegangen durch sinnvolle Taktreduktionen und verbraucht bei Integer/FP ST Workload nur 10/12W aber ist dabei eben auch 50-60% langsamer 1T als z.B ein Apple M5 P-Core, der dabei noch immer 25% weniger verbraucht und mit 3mm2 auch weniger Die-fläche benötigt. Die Absenkung des ST Betriebspunkts war also nur ein Tropfen auf dem heißen Stein.
Man kann jetzt sagen, ja okay Apple ist Apple. Aber gegenüber Qualcomms neuen Oryon-L prime cores sieht das sicher nicht viel anders aus.
Arrowlake-H darf mit 20-25Watt das doppelte verbrauchen, schafft damit aber nur 300mhz mehr. Ein M5 P-Core Ist z.B., in Cinebench R24 mit 208 vs 132 Punkten im ST immer noch 57% schneller bei nur rund einem Drittel des Verbrauchs (7,6Watt).
- Ja Intel betreibt seine P-Cores auch in Notebooks leider mit so absurden Betriebspunkten dass die Effizienz um rund Faktor fünf schlechter ist (M5 vs 285h). Und das obwohl wir ausnahmsweise mal Fertigungsnode-Parität haben.
Lunarlake ist da zwar besser, aber auch kein Lichtblick. In Geekerwans Test vom 258V lagen die Kurven von Lion Cove und Skymont immer noch schlechter als die Betriebspunkte der Apple M1 Firestorm und Icestorm Kerne.
Pantherlake soll eine ähnliche Effizienz wie Lunarlake haben, aber Multithreaded eine Schippe drauf legen. Ich nehme an dass Intel bei PTL in ST den 10-12W Betriebspunkt von LNL einfach übernimmt. Höhere Taktraten gibt es für ST ja auch nicht, aber falls man den Powerdraw für die ST Boostclocks auf unter 10W senken würde, dann wäre das imo schon ein überraschender Win und ein Schritt in die richtige Richtung.
mboeller
2025-11-06, 14:03:39
Wenn es nach diesem Bericht hier geht, dann ist Panther-Lake eher ein Side-Grade im Vergleich zu Arrow-Lake:
https://www.notebookcheck.com/Intel-Core-Ultra-X7-358H-ist-im-Benchmark-Leak-langsamer-als-Core-Ultra-7-255H-iGPU-kann-punkten.1151296.0.html
Hoffentlich schaut das bei einer geringeren TDP besser aus.
Undertaker
2025-11-06, 14:31:12
Auch wenn man für verlässliche Benches sicher noch etwas warten muss, ist das bzgl. MT-Leistung nicht wirklich überraschend bzw. haben wir hier in Bezug auf die Breite des Chips vor kurzem auch schon einmal diskutiert. 4+8(+4) Cores sind halt kein wirklicher Zuwachs ggü. 6+8 Cores, damit bleibt nur noch die Evolution bei Prozess und Architektur.
Von der Platzierung im Produktportfolio bzgl. Geräte-/Verbrauchsklasse ist PTL mMn eher Hybrid aus LL und ARL-H denn ein reiner ARL-H Nachfolger.
mocad_tom
2025-11-06, 15:17:12
Die Qualcomm-Snapdragon-Windows-Laptop-Werbung kommt bei euch auch, oder kommt die nur bei mir so oft in Wowtv (weil targeted Werbung)?
Ich denke Panther Lake haut komplett den Snapdragon 2 kaputt.
Qalcomm macht Werbung mit Laptop und möglichst lange ohne Steckdose.
Aber hier ist der Lunar Lake bereits auf Augenhöhe bei besserer Kompatibilität und Spieletauglichkeit.
Und Panther Lake wird hier nochmals eines draufsetzen.
Wenn die in ein HP OmniBook Ultra Flip 14" einen großen PTL mit 4+8+4+12Xe3 reinbekommen, dann wird die Brieftasche gezückt (und gerne mit 64GB).
https://geizhals.de/hp-omnibook-ultra-flip-14-fh0730ng-b1ft1ea-abd-a3414229.html
Da juckt ja dann auch der Cinebench score nicht - der muss nicht das gleiche können wie der Desktop-PC.
Das Ding ist im Popup-Store in München zu sehen und es hinterlässt einen bleibenden Eindruck.
iamthebear
2025-11-06, 20:52:21
Diesen entscheidenden Satz sehe ich im verlinkten X-Posting nicht, aber vielleicht versteckt der sich ja irgendwo in den Kommentaren. Ansonsten gäbe es für den festgesetzten ST-Takt ja zahlreiche mögliche Erwägungsgründe, von harter Clockwall über Effizienzerwägungen bis hin zur Ausbeute. Insofern eine berechtigte Nachfrage, wenn es explizit ein Temperaturthema sein soll
Hier ist der Link:
https://x.com/jaykihn0/status/1986148883592843375
Dass 18A lokale Hitzeprobleme bekommt konnte man ja anhand der 18A vs. Intel 3 Daten bereits vermuten:
Intel hat bei 1.1V 25% höhere Taktraten angegeben. Bei gleicher Spannung war der Energieverbrauch aber etwas höher. Oder alternativ kann bei gleichem Takt die Verlustleistung um 36% gesenkt werden.
Gleichzeitig wird jedoch die Transistordichte um 1.4x erhöht was bei gleichen Watt die Watt/mm² um 1.4x erhöht.
Intel hat also in der Theorie die Möglichkeit:
a) 1.4x höhere Transistordichte und 1.4x weniger Verbrauch aber dafür ähnlicher Takt
b) Gleiche Verlustleistung, höherer Takt aber dann kann man die 1.4x Transistordichte nicht nehmen, da das Ding sonst ins thermische Limit läuft.
Weiteres Problem:
Bisher waren Daten und Stromversorgung beim Chip unten und auf der Oberseite war ein monolithischer Block Silizium mit guten Wärmeleiteigenschaften.
Bei 18A und BSPD ist nun komplizierter, da die Transistoren nun zwischen Signalen und Power Leitungen gesandwiched sind.
imec hat hierzu schon Daten publiziert:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/65169-thermische-hotspots-backside-power-delivery-hat-nicht-nur-vorteile.html
Intel hat afaik den Effekt mit 18A etwas abschwächen können aber zu 100% wird das sicher nicht gelingen.
Passt thematisch gerade: könnte man nicht eigentlich in einem modernen Node 2 CPU Kerne bewusst größer machen im Footprint um die Hitze besser zu verteilen? Quasi 2 P Cores mit 1,5x oder 2x footprint, die dann ein paar hundert Mhz höher boosten können, dazu die normalen P Cores + E Cores. So wie in den mobilen SoCs teilweise...
Wenn ich mir die Größe von Lion Cove ansehe so hat Intel dies bei den ARL/LNL P Cores bereits so gemacht. Ansonsten wärem diese nicht so groß.
Bei den E Cores ist das nicht der Fall. Diese sind deutlich kompakter wodurch diese bei 1-1.1V ins thermische Limit laufen. Ansonsten wären auch 5GHz+ im Desktop locker machbar.
Die 18A Panther Cove P Cores sind grob geschätzt 1.2-1.3x kompakter als ARL obwohl normalerweise die Transistordichte zwischen N3B und 18A ca. gleich ist.
Man darf aber auch nicht vergessen: PTL ist ein Lunar Lake Nachfolger wo diese Entscheidung nicht unbedingt ein großer Nachteil ist. Für die Server CPUs wird es auch gut passen.
Für Desktops/dickere Notebooks (z.B. Nova Lake) könnte der Kern etwas anders aussehen.
Mal sehen wenn die ersten HWInfo Screens auftauchen wo man die PTL Spannung bei Max Boost sieht. Dann kann man eventuell abschätzen wie viel potentielle Reserven hier schlummern.
Wenn es nach diesem Bericht hier geht, dann ist Panther-Lake eher ein Side-Grade im Vergleich zu Arrow-Lake:
https://www.notebookcheck.com/Intel-Core-Ultra-X7-358H-ist-im-Benchmark-Leak-langsamer-als-Core-Ultra-7-255H-iGPU-kann-punkten.1151296.0.html
Hoffentlich schaut das bei einer geringeren TDP besser aus.
Der Artikel ist nicht gut, die haben abweichende Werte zur Originalquelle.
20.000 Punkte bei 50-60W erscheint mir nicht so schlecht vom 358H. Bei 60W macht der 255H 18689 Punkte auf Notebookcheck (https://www.notebookcheck.com/Der-Firefly-Nachfolger-der-auf-Intel-ARC-setzt-HP-ZBook-8-G1i-14-Laptop-Test.1137983.0.html).
Das Problem ist eher der zu hohe Betriebspunkt bei ST Load. Lunarlake ist das zwar angegangen durch sinnvolle Taktreduktionen und verbraucht bei Integer/FP ST Workload nur 10/12W aber ist dabei eben auch 50-60% langsamer 1T als z.B ein Apple M5 P-Core, der dabei noch immer 25% weniger verbraucht und mit 3mm2 auch weniger Die-fläche benötigt.
Gibts eigentlich eine rationale Erklärung dafür, weshalb der einstige Branchenprimus und Erfahrungsweltmeister im CPU Design von Apple geschlagen wird? Ohne das jetzt überprüft zu haben... wenn das so ist, dann reden wir ja nicht davon, dass mal die eine oder andere Designeigenschaft besser oder schlechter ausgelegt ist. Das was du beschreibst wäre massive Unterlegenheit im logischen Design der Cores. Ist das so?
verwendet Apple immer noch wesentlich mehr Transistoren für die Kerne, als Intel und/oder AMD?
CrazyIvan
2025-11-07, 13:51:30
Gibts eigentlich eine rationale Erklärung dafür, weshalb der einstige Branchenprimus und Erfahrungsweltmeister im CPU Design von Apple geschlagen wird? Ohne das jetzt überprüft zu haben... wenn das so ist, dann reden wir ja nicht davon, dass mal die eine oder andere Designeigenschaft besser oder schlechter ausgelegt ist. Das was du beschreibst wäre massive Unterlegenheit im logischen Design der Cores. Ist das so?
Ja, das kann man seit M1 schon so sagen.
Lange Zeit wurde der Prozessvorsprung seitens Apple angeführt, aber den gibt es momentan nicht. Und auch vorher war das Käse, weil der Vorsprung viel größer war, als der Prozess allein hergegeben hätte. Auch wurde ARM als großer ISA-Vorteil gegenüber AMD64 genannt, was selbst Leute wie Jim Keller deutlich abgeschwächt haben.
Und natürlich wird relativiert, dass Apple HW und SW besser auf einander abstimmen kann und der Markt sowieso ein anderer sei. Da aber die meisten Menschen eigentlich nur einen Browser und einige wenige, auf allen Plattformen verfügbaren, Applikationen benötigen, ist auch das Humbug außerhalb der Gaming-Nische.
De facto baut Apple seit 2020 die besten Single Thread CPUs der Welt - und bezieht man die Energieeffizienz ein, wird der Vorsprung wie von davidzo beschrieben geradezu absurd.
AMD hat kein ernsthaftes Interesse am Gleichziehen, da sie auf Server optimieren und damit sehr erfolgreich sind. Für Client sind die CPUs gut genug.
Warum Intel es nicht gebacken bekommt, ist die 1-Billion-Dollar-Frage.
aufkrawall
2025-11-07, 14:04:05
Warum sollte Intel ausgerechnet ULP gebacken bekommen, wenn sie schon mit Brute Force selbst gegen AMD abstinken? Ist ein Wunder, dass Panther Lake gegen AMD überhaupt so gut ist.
Aber nicht ausblenden, dass Qualcomm im Vergleich zu dem x86-Gammel auch sehr überzeugend und zuverlässig raushaut. Das Windows on ARM-Ökosystem wächst. Kann man jetzt noch belächeln, aber imho in spätestens zwei Jahren kann das ein böses Erwachen für AMD & Intel geben.
Undertaker
2025-11-07, 14:15:29
AMD steht ggü. einem M4/M5 leider keinen Deut besser da.
aufkrawall
2025-11-07, 14:20:00
Bei der Effizienz unter möglichst vergleichbaren Bedingungen zwischen AMD & Intel (also Desktop) schon, bzw. etwas weniger abgeschlagen als Intel.
Allerdings auch nur mehr oder weniger theoretisch, und nicht mit realen ULP-Produkten und realen Mobile-Workloads. Da würd ich mir niemals eine AMD-Saufziege holen, wenn es ansonsten vergleichbar Intel/Qualcomm zur Auswahl gäbe.
Mein Bruder hat ein Phoenix- und ein Alder Lake-Notebook. Sobald man auf dem AMD-Gerät irgendwas mit HDCP in der Netflix-App o.ä. guckt, sieht die Akku-Laufzeit kein Land mehr gegen Intel. Halt die typische reale AMD-Erfahrung vs. irgendwelche synthetischen Tests.
Undertaker
2025-11-07, 14:27:11
Im Desktop ist die Situation nicht viel anders, AMD hat nur eine Trumpfkarte: Gamingleistung und -effizienz der X3D-Modelle.
Ansonsten nehmen sich Anwendungs- und Spieleleistung sowie Effizienz der aktuellen Architekturen und Modelle nichts und liegen gleichermaßen weit hinter Apple. Leider.
y33H@
2025-11-07, 14:36:12
Das Windows on ARM-Ökosystem wächst. Kann man jetzt noch belächeln, aber imho in spätestens zwei Jahren kann das ein böses Erwachen für AMD & Intel geben.Das hieß es schon bei Windows RT und dann wieder seit dem Snapdragon 835 für Laptops ... insofern, beobachten und vor allem selbst abliefern.
robbitop
2025-11-07, 14:40:12
Die Frage ist wie viel davon die Cores selbst ist und wie viel Betriebspunkte und Powermanagement. Ohne Frage ist Apple bei den Cores vorn. Aber mein Eindruck ist dass es auch außerhalb der Cores suboptimal ist.
Exxtreme
2025-11-07, 16:11:32
Das Windows on ARM-Ökosystem wächst. Kann man jetzt noch belächeln, aber imho in spätestens zwei Jahren kann das ein böses Erwachen für AMD & Intel geben.
Ist nicht sehr wahrscheinlich, dass da was großartig passiert. Die Leute haben schon Probleme mit Linux auf AMD/Intel. Ein ISA-Wechsel ist da eine ganz andere Hausnummer was eine Umstellung angeht. Und alle Architekturen, die meinten x86 herausfordern zu müssen, sind am Ende gescheitert. Und die Nische, bei der x86 nicht so toll aussieht (Smartphones), da ist ARM eh' schon Platzhirsch. AMD und Intel haben ein viel zu gutes Preis-/Leistungsverhältnis, als dass man darauf verzichten könnte. Und es ist auch nicht absehbar, dass sich das ändert.
aufkrawall
2025-11-07, 16:22:45
Die Leute haben schon Probleme mit Linux auf AMD/Intel.
Die Kompatibilität von Windows on ARM ist ja auch viel besser als Linux x86. Da läuft ein Großteil populärer proprietärer Programme einfach, für die es unter Linux nur einen halben oder sonst wie mittelmäßigen Ersatz gibt. Und die Kompatibilität von Spielen mit Anti-Cheat ist auch zunehmend besser als mit dem Steam Deck.
bbott
2025-11-07, 17:17:29
Die Kompatibilität von Windows on ARM ist ja auch viel besser als Linux x86. Da läuft ein Großteil populärer proprietärer Programme einfach, für die es unter Linux nur einen halben oder sonst wie mittelmäßigen Ersatz gibt. Und die Kompatibilität von Spielen mit Anti-Cheat ist auch zunehmend besser als mit dem Steam Deck.
Die ARMs sind aber meist in besseren Fertigungsverfahren, haben viel weniger Schnittstellen (PCIe, USB etc.) und daher hochpreisig. Hochpreisig und inkompatibelität sind gewichtiger, als etwas mehr Performance.
Die ARM haben ja noch nicht mal für GPUs PCIe x16...
Und ich gehe davon aus, das auch x86 prinzipiell IPC erreichen kann.
dildo4u
2025-11-12, 15:52:53
Lunar Lake vs Panther Lake Größen Vergleiche (TSMC 3B vs 18A)
https://wccftech.com/intel-panther-lake-compute-tile-die-shot-18a-next-gen-cougar-cove-p-darkmont-e-cores
Demnach wäre 18A ein gutes Stück dichter als N3B. Von 1.09mm² auf 0.95mm² beim E-Kern. P-Kern sehr ähnlich, aber mit 20% größeren L2 Cache bei PTL. Und reine shrinks sind die Kerne nicht, kleine Verbesserungen gab es.
Auf Passmark gibt es erste Intel Core Ultra X7 358H Benchmarks: https://www.passmark.com/baselines/V11/display.php?id=304900900092
Zum Vergleich habe ich iGPUs der aktuellen Intel Generation verlinkt.
Arc 140T: https://www.videocardbenchmark.net/gpu.php?gpu=Intel+Arc+140T+GPU&id=5577
Arc 140V: https://www.videocardbenchmark.net/gpu.php?gpu=Intel+Arc+140V+GPU&id=5176
Intel Arc GPU: https://www.videocardbenchmark.net/gpu.php?gpu=Intel+Arc+GPU&id=7536
dildo4u
2025-11-25, 06:53:10
Könnte langsam Finale Performance sein schneller als Strix aber langsamer als Halo.
https://wccftech.com/intel-core-ultra-9-386h-panther-lake-cpu-leak-beats-amd-top-strix-chip-50-percent-faster-vs-lunar-lake-matches-24-core-raptor-lake/
Für 4700 Mhz wäre der ST Score überraschend hoch, allerdings sollte der 386H eigentlich auf 4900 Mhz gehen.
robbitop
2025-11-25, 09:03:06
Naja 1,5 Jahre nach Strix Launch mit "modernstem Fertigungsprozess der Welt" (18A für CPU und N3P? für die GPU vs N4P? bei Strix) sollte man auch schneller sein. Allerdings kommt Medusa (der echte Nachfolger von Strix) erst deutlich später (Ende 2026/Anfang 2027).
y33H@
2025-11-25, 09:48:56
Ja, Panther Lake tritt gegen Gorgon Point aka Strix Point Refresh an - und da muss PTL besser sein in allen Metriken, was auch der Fall zu sein scheint ... außer AMD hat zur CES noch ein (überraschendes) Ass im Ärmel.
Badesalz
2025-11-25, 10:20:16
Früher waren die neuen Produkte interessant, weil sie auch da schneller waren wo der Schuh den Consumer auch real drückte.
Wie ist das heute so?
Der_Korken
2025-11-25, 10:20:30
Haben Panther Lake und Nova Lake die gleichen P-Kerne? In ST sieht der Sprung ja nicht gerade überwältigend aus gegenüber den alten Mobil-SKUs.
Müsste alles neu sein bei NVL, selbst die NPU ist neu, nur die GPU wird teilsweise übernommen von PTL.
dildo4u
2025-11-25, 10:29:09
Haben Panther Lake und Nova Lake die gleichen P-Kerne? In ST sieht der Sprung ja nicht gerade überwältigend aus gegenüber den alten Mobil-SKUs.
AMD hat nur 4nm Refreshes in 2026 Apple ist eh in einer anderen Galaxy, das interresante ist hier das die GPU deutlich Fortschrittlicher ist als der erneute RDNA 3.5 Aufguss.
MSABK
2025-11-25, 10:30:42
Wie sieht den Snapdragon X2 Elite vom Score aus im Vergleich?
dildo4u
2025-11-25, 10:44:03
Massiv schneller wenn ich das richtig lese selbst mit 22 Watt.
Snapdragon X2E-88-100 wird unter 22 Watt Dauerlast geführt.
https://www.computerbase.de/news/prozessoren/snapdragon-x2-elite-im-benchmark-alle-drei-socs-im-vergleich-mit-apple-amd-und-intel.95123
MSABK
2025-11-25, 10:46:23
Dann wird die einzige Frage sein wie effizient der Chip ist. Die Speed scheint eher „normal“ zu sein.
Haben Panther Lake und Nova Lake die gleichen P-Kerne? In ST sieht der Sprung ja nicht gerade überwältigend aus gegenüber den alten Mobil-SKUs.
N3B taktet höher als 18A und PTL hat nur refresh Kerne, die allerdings mehr IPC bringen könnten als in der Vergangenheit. NVL bekommt neue Kerne in einem Fertigungsprozess mit mehr Taktpotenzial.
AMD hat nur 4nm Refreshes in 2026 Apple ist eh in einer anderen Galaxy, das interresante ist hier das die GPU deutlich Fortschrittlicher ist als der erneute RDNA 3.5 Aufguss.
Richtiger wäre, Apple ist eine eigene Galaxy.
Massiv schneller wenn ich das richtig lese selbst mit 22 Watt.
Snapdragon X2E-88-100 wird unter 22 Watt Dauerlast geführt.
https://www.computerbase.de/news/prozessoren/snapdragon-x2-elite-im-benchmark-alle-drei-socs-im-vergleich-mit-apple-amd-und-intel.95123
Bling Bling wie immer vorher und dann die Bauchlandung in real-World...
Der_Korken
2025-11-25, 15:19:38
N3B taktet höher als 18A und PTL hat nur refresh Kerne, die allerdings mehr IPC bringen könnten als in der Vergangenheit. NVL bekommt neue Kerne in einem Fertigungsprozess mit mehr Taktpotenzial.
Ah, es zwei Coves, die "C" anfangen (Cougar und Coyote). Deswegen dachte ich, dass das bereits die neue Architektur wäre.
https://browser.geekbench.com/v6/cpu/15474224
CPU: Intel Core Ultra X9 388H (16C 16T)
Min/Max/Avg: 4042/5077/5039 MHz
CPUID: C06C2 (GenuineIntel)
Single: 3057
Multi: 17687
300 Mhz weniger ST Boost und trotzdem noch schneller als ARL-H 285H mit 5400 Mhz. Das sind bestimmt +10% IPC.
mboeller
2025-12-09, 18:43:56
https://wccftech.com/intel-core-ultra-x9-388h-benchmarked-on-geekbench/
nette Vergleichs-Charts
Undertaker
2025-12-09, 19:07:38
Näher dran an den "großen" HX-Modellen als gedacht, wobei man das nochmal TDP-bereinigt vergleichen muss. Erfahrungsgemäß wird der Effizienzvorteil von Panther Lake sicherlich leiden, wenn man den Takt soweit überfährt, um mit anderen Modellen mit wesentlich mehr Kernen/Threads mithalten zu können...
Gespannt bin ich auf die Performance im ~35W-40W Bereich.
https://wccftech.com/intel-core-ultra-x9-388h-benchmarked-on-geekbench/
nette Vergleichs-Charts
Der 285H Vergleich mit 2604 ST ist aber unsinnig, die +21% sind Quark. Die besseren 285H schaffen 2800-2900 ST auf Geekbench. Es gibt sogar ein paar wenige Ausreißer noch weiter nach oben, aber sehr sehr wenige. Genau kann man das nicht vergleichen, weil es nur einen einzigen 388H Eintrag gibt.
Hier ist das PTL Pressdeck: https://download.intel.com/newsroom/2026/CES2026/Intel-CES2026-Core-Ultra-Series-3-Press-Deck.pdf
Zusammenfassung von Computerbase: https://www.computerbase.de/news/prozessoren/intel-core-ultra-300-panther-lake-startet-mit-14-modellen-und-sehr-hoher-leistung.95677/
Das Highlight ist wie zu erwarten die iGPU. Intel gibt auf ihren Folien im Durchschnitt von 45 Spielen rund +80% an gegenüber Lunar Lake/Arrow Lake/Strix Point. Intel hat außerdem XeSS3 angekündigt.
Der Verkauf soll aber erst am 27. Januar starten.
Pre-orders for the first consumer laptops powered by Intel Core Ultra Series 3 processors will begin Jan. 6, 2026. Systems will be available globally starting Jan. 27, 2026, with additional designs coming throughout the first half of the year.
mocad_tom
2026-01-06, 15:13:49
Ich hätte das gerne mit Panther Lake
https://www.computerbase.de/news/notebooks/panther-lake-und-snapdragon-x2-hp-greift-mit-omnibook-ultra-14-das-macbook-air-und-xps-an.95511/
Ich hoffe, dass da noch ein HP Omnibook Ultra Flip kommt.
Also mit Touchscreen.
Und eine 96GB Version - ich dachte ich hätte das schon bei anderen Herstellern gelesen.
Ich war absolut begeistert von der Haptik von dem HP OmniBook Ultra Flip mit Lunar Lake. Da sind sie gerade echt gut.
robbitop
2026-01-06, 16:01:52
Hier ist das PTL Pressdeck: https://download.intel.com/newsroom/2026/CES2026/Intel-CES2026-Core-Ultra-Series-3-Press-Deck.pdf
Zusammenfassung von Computerbase: https://www.computerbase.de/news/prozessoren/intel-core-ultra-300-panther-lake-startet-mit-14-modellen-und-sehr-hoher-leistung.95677/
Das Highlight ist wie zu erwarten die iGPU. Intel gibt auf ihren Folien im Durchschnitt von 45 Spielen rund +80% an gegenüber Lunar Lake/Arrow Lake/Strix Point. Intel hat außerdem XeSS3 angekündigt.
Der Verkauf soll aber erst am 27. Januar starten.
Intels GPU IP wird immer besser :up:
Wie ich es immer schreibe: ein Jammer dass das Senior Management nicht genug Vertrauen in ihre Leute hatten und diesen Deal mit Nvidia gemacht haben. Wenn man bei 0 anfängt (was quasi mit Alchemist der Fall war) muss man erwarten, dass es einige Iterationen dauert bis man mithalten kann. Und das wird jetzt immer mehr der Fall.
Klar die APU von AMD ist schon 1,5 Jahre alt und ist veraltet - uArch ist von 2022 (RDNA4 kam ja letztes Jahr und RDNA5 ist nur 1 Jahr entfernt), nur 4 nm und kein IF$. Also man fährt da mit sehr angezogener Handbremse während Xe3 neuste IP, neusten Node und LLC bringt. Da bekommt AMD jetzt die Quittung in APUs nicht alles zu geben. Aber Celestial sieht auch so aus als könnte man auch mit RDNA4 ggf konkurrenzfähig sein.
Gern mehr Intel GPU IP! Weil es Vielfältigkeit und Wettbewerb bringt. :)
Sehr beeindruckend was die kleine IGP da rausholt aus ihrer TDP.
Aber Celestial sieht auch so aus als könnte man auch mit RDNA4 ggf konkurrenzfähig sein.
Gern mehr Intel GPU IP! Weil es Vielfältigkeit und Wettbewerb bringt. :)
Sehr beeindruckend was die kleine IGP da rausholt aus ihrer TDP.
Celestial wäre Xe3p. Laut Petersen wird Xe3p ein noch größerer Architektur Sprung als Xe2 zu Xe3: https://youtu.be/P2AsCkKi-vs?t=1733
robbitop
2026-01-06, 16:25:03
Also ist Xe3 eigentlich ein geupdater Battlemage? Deshalb das B in der IGP Bezeichnung?
Na zumindest hat man die GPU an den richtigen Stellen aufgebohrt (APUs brauchen Bandbreite -> mehr Cache ist da super hilfreich; mehr Breite -> besser für die Energieeffizienz)
Und ist Xe3P nicht eigentlich eine compute uArch anstatt 3D GPU? (irgendwie sowas ist ganz dunkel in meinem Gedächtnis)
Also ist Xe3 eigentlich ein geupdater Battlemage? Deshalb das B in der IGP Bezeichnung?
Na zumindest hat man die GPU an den richtigen Stellen aufgebohrt (APUs brauchen Bandbreite -> mehr Cache ist da super hilfreich; mehr Breite -> besser für die Energieeffizienz)
Und ist Xe3P nicht eigentlich eine compute uArch anstatt 3D GPU? (irgendwie sowas ist ganz dunkel in meinem Gedächtnis)
Xe3 geht schon in Ordnung, eher hätten sie Xe3p besser Xe4 nennen sollen.
Ich kenne die Änderungen nicht im Detail. Angeblich soll Xe3p auf SIMD32 wechseln, das wollen einige aus den github Patches rausgelesen haben. Explizit soll eine verbesserte PPA in Intel Dokumenten hervorgehoben sein.
Xe3p kommt für die größere NVL-H iGPU und auch für Razor Lake. Das wird dann wohl kaum eine compute uArch sein. Natürlich könnte es sein, dass sich Xe3p_HPG für Crescent Island zur Xe3p_LPG im Detail unterscheidet.
robbitop
2026-01-06, 16:45:21
Wenn man das ALU Setup so ändert würde ich auch sagen, dass man das schon Xe3 nennen kann. :)
Ich bin gespannt ob es mit Xe3 oder Xe3p nochmal dGPUs geben wird.
Das hoffe ich ernsthaft auch. Ich sehe das auch nicht so düster wie Tom von MLID, sicherlich konnte man nicht erwarten innerhalb von 4 Jahren in die Gewinnzone mit dGPUs zu kommen, dazu ist noch sehr viel mehr Arbeit erforderlich. MMn werden NV und AMD aber eh auf 2,5-3 Jahre pro Generation wechseln, vielleicht hilft Intel das doch etwas um konkurrenzfähig zu werden. Vielleicht sehen wir ja irgendwann sogar einen PowerVR-Ableger auch China aufschließen so in 5-10 Jahren.
Wenn man das ALU Setup so ändert würde ich auch sagen, dass man das schon Xe3 nennen kann. :)
Ich bin gespannt ob es mit Xe3 oder Xe3p nochmal dGPUs geben wird.
Das wäre bei Xe3p mit SIMD32, nicht Xe3. Den Gerüchten zufolge wurde Celestial mit Xe3p gestrichen. Das wäre sehr Schade, weil die Xe3p deutlich mehr reißen könnte.
Natürlich könnten sie Celestial später mit Xe4 oder Xe4p neu auflegen, was aber Jahre dauern würde. Es ist schon auffällig, dass Intel nichts mehr zur Consumer dGPU Zukunft sagt. Auch an die B770 glaube ich so langsam nicht mehr, vielleicht hat sich Intel das nach der Speicherkrise doch noch anders überlegt. Wahrscheinlicher wäre noch eine Pro Karte auf Basis der G31.
Fusion_Power
2026-01-07, 00:29:55
Hmmm...
8wNnLtsxNkY
Ok, Intel hätte so ne Präsentation sicher besser machen können. ich hoffe da kommt noch was außer heißer Marketing-Luft.
Mayhem
2026-01-07, 09:54:48
Also die Leistung der iGPU ist schon gut, aber wenn ich mit LunarLake Vergleiche steht da 77% bessere Performance bei 80% mehr Energieverbrauch (45W zu 25W sustained). Was dann iwie nicht mehr soooo überragend ist, generational.
dildo4u
2026-01-07, 10:08:03
Du kannst das nicht so einfach Auskoppeln du hast deutlich mher CPU Kerne die mher Energie wollen da die IGPU höher Native FPS erlaubt.
robbitop
2026-01-07, 11:01:24
Naja man sollte trotzdem TDP normiert testen. Ansonsten sind es Äpfel gegen Birnen.
Also 25 W LL gegen 25 W PTL (oder gern noch weniger).
Nightspider
2026-01-07, 11:08:30
Die IGP wird in N3E gefertigt oder?
Endlich mal wieder etwas Konkurrenzdruck für AMD.
robbitop
2026-01-07, 11:31:59
N3E soweit ich weiß. Und ja das sollte für AMD mal ein Zeichen sein, weniger complacent bei den APUs zu werden. Der letzte okaye Sprung war Phoenix gegenüber Rembrandt. Und Strix gibt es nun auch seit 1,5 Jahre und es gibt dann erstmal nur Gorgon Point. Medusa wird dann noch dauern. Ggf wird Strix/Gorgon (ist ja das gleiche im Prinzip) 2-2,5 Jahre auf dem Markt gewesen sein. Ohne ordentlichen LLC, ohne modernen node, mit uralter GPU IP (RDNA3 kam Ende 2022 und auch wenn das 3.5 sein soll ist da enttäuschend wenig getan worden - hebt sich nicht sonderlich von 3.0 ab).
Naja mal schauen wie Medusa wird. Dann gibt es Zen 6, RDNA5/UDNA mit größerem L2. Aber auch nur 10 MB anstatt wie bei Panther Lake 16 MB. Und Intel wird mit Novalake (der dann ja zu einem ähnlichen Zeitpunkt kommen wird) noch nachlegen. Da gibt es dann Xe3p, der ja wohl dann erst den richtigen uArch Sprung zu Celestial machen wird und weniger L2 Cache wird es dann auch nicht geben - ggf ja sogar mehr.
Klar könnte man jetzt sagen AMD hat ja die Halo SKU und ist ungeschlagen - aber die sind ultra teuer und spielen in einer ganz anderen Liga.
16 RDNA4 CUs mit 16 MiB IF$ und N3 wären für jetzt (Anfang 2026) sicher möglich gewesen und da wäre man dann wahrscheinlich auch halbwegs konkurrenzfähig gewesen.
Badesalz
2026-01-07, 11:36:15
Hmmm...full time sugar daddy Nvidia? :D
Nightspider
2026-01-07, 11:57:43
Für mich war alles mit RDNA3 irgendwie enttäuschend.
Rembrandt war die letzte APU die Begeisterung ausgelöst hat.
Strix kam ja auch schon mit Verspätung. Ich hoffe Medusa kommt trotzdem noch im Sommer, das wären dann 2 Jahre nach Strix.
Für einen Handheld reichen gerade auch noch 4 starke Kerne. Dann lieber eine moderne IGP.
robbitop
2026-01-07, 12:18:52
Ja stimmt schon. Der Sprung von Rembrandt auf Phoenix war trotz deutlich modernerem Node und IP nicht besonders. Und das zog sich dann ja weiter so durch.
Die Sprünge sind bei den APUs schon lange klein leider. Intel (und auch die ARM SoCs) zeigen, dass das bezüglich der IGP nicht sein muss. Ich vermute aber nach wie vor, dass die IGP Performance vom Zielmarkt (abseits der Nerd- und Handheldbubble die aber nur einen kleinen Teil des Marktes ausmachen) kaum belohnt wird. Jahrelang waren Intel GT2s der Verkaufsschlager mit Größenordnungen mehr Designwins als GT3e/GT4e und den AMD Bulldozer APUs und frühe Zen APUs obwohl die alle massiv mehr IGP Leistung hatten. Wurde anscheinend vom Klientel nicht belohnt. Die wollten eine gute CPU und ggf gute Akkulaufzeit und eine GPU die "serviceable" ist. Und wer mehr will/wollte griff zur dGPU im Laptop (und im PC sowieso). Ggf. ist das auch bis heute der Fall. Wenn es nicht honoriert wird, wozu das Silizium ausgeben?
Andererseits will man ja low end dGPUs damit kannibalisieren aber dafür sind die IGPs widerum alle einfach einen Schluck zu schwach - außer Halo - die ist wiederum viel zu teuer und auch eine Liga höher.
Aber wenn man die 50er und vielleicht 60er mobile dGPU SKU von Nvidia/AMD anpeilt vom IGP Level sieht es ggf. anders aus. Intels B390 IGP will das zumindest mit der last gen 4050 von Nvidia machen. Besser wäre current gen aber dafür reicht es dann wahrscheinlich nicht.
Badesalz
2026-01-07, 12:37:18
Ich vermute aber nach wie vor, dass die IGP Performance vom Zielmarkt (abseits der Nerd- und Handheldbubble die aber nur einen kleinen Teil des Marktes ausmachen) kaum belohnt wird.ENDLICH fiel das jemandem auf :smile:
dildo4u
2026-01-07, 12:52:48
Ist die IGP nicht deutlich potenter für AI Anwendungen als die NPU?
Theoretisch kannst zu Panther Lake als Konkurrenz zu den Low End Halo Modellen sehen.
Referenz Gerät hatte volle IGP Performance ohne Netzteil
NdLYuQQPo5c
basix
2026-01-07, 13:03:18
Für mobile Workstations ist eine schnelle iGPU schon ein Gewinn. Mit zusätzlicher dGPU wird alles deutlich schwerer, heisser und Akkus halten meistens auch weniger lang. Mit einer performanten iGPU muss man bei den Sekundärnoten weniger Kompromisse eingehen. Apple zeigt es vor.
robbitop
2026-01-07, 13:57:53
Ist die IGP nicht deutlich potenter für AI Anwendungen als die NPU?
Die NPU ist wohl energieeffizienter und besser für realtime Sachen (wobei interessanterweise GPUs auch in Echtzeit NNs crunchen sehe FG und SR usw). Aber ganz ehrlich bis dato sehe ich primäre Liebhaberei und Spielkram damit on device.
Wahrscheinlich trotzdem noch zu wenig Rechenleistung und Speicher.
Fusion_Power
2026-01-07, 14:10:55
full time sugar daddy Nvidia? :D
Nvidia ist doch im Grunde schon lange für uns gamer gestorben, ne einzige Enttäuschung in (fast) allen Belangen.
Ich persönlich setze auf die Konkurrenz, starke iGPUs in effizienten und stromsparenden Systemen, keine Boliden für die oberen 1%. Kommt am Ende natürlich auch auf den Preis an. AMD und Intel verbauen ihre stärksten iGPUs natürlich vornehmlich auch in ihren stärksten CPUs.
dildo4u
2026-01-07, 14:19:37
Asus Kombiniert 5070/5080 im G14 2026 nur mit Ultra 9 386H.
Ryzen 465 bekommt nur 5060
https://www.ultrabookreview.com/74167-asus-rog-zephyrus-g14-gu405-ga403/
7hojuMGtxGY
robbitop
2026-01-07, 14:25:53
Nvidia ist doch im Grunde schon lange für uns gamer gestorben, ne einzige Enttäuschung in (fast) allen Belangen.
Ich persönlich setze auf die Konkurrenz, starke iGPUs in effizienten und stromsparenden Systemen, keine Boliden für die oberen 1%. Kommt am Ende natürlich auch auf den Preis an. AMD und Intel verbauen ihre stärksten iGPUs natürlich vornehmlich auch in ihren stärksten CPUs.
Naja sie stellen nach wie vor die besten GPUs her und sind auch was die Features und Software angeht die besten. Aber P/L ist mangels starkem Wettbewerb nicht besonders toll.
Also die Leistung der iGPU ist schon gut, aber wenn ich mit LunarLake Vergleiche steht da 77% bessere Performance bei 80% mehr Energieverbrauch (45W zu 25W sustained). Was dann iwie nicht mehr soooo überragend ist, generational.
Das ist normal bei den iGPUs, die Skalierung lässt oben raus deutlich nach. Im 3DMark Steel Nomad liegen 50% zwischen Lunar Lake 25W und Panther Lake 25W. Von 25W auf 45W legt PTL vielleicht nochmal 30% drauf.
Undertaker
2026-01-07, 15:37:08
Nvidia ist doch im Grunde schon lange für uns gamer gestorben, ne einzige Enttäuschung in (fast) allen Belangen.
Ich persönlich setze auf die Konkurrenz, starke iGPUs in effizienten und stromsparenden Systemen, keine Boliden für die oberen 1%. Kommt am Ende natürlich auch auf den Preis an. AMD und Intel verbauen ihre stärksten iGPUs natürlich vornehmlich auch in ihren stärksten CPUs.
Welche attraktiven iGPUs für Gamer siehst du denn aktuell? Alles <= 890M ist maximal halb so schnell wie eine angestaubte RTX 4060 und steckt im Fall der 890M in Geräten >1.500 Euro. :ugly: Mit Strix Halo, in etwa einer RTX 4060 mit mehr VRAM entsprechend, gibt genau zwei Modelle ab 2.300 bzw. 2.800 Euro, davon ein Tablet und ein Business-Notebook.
Wer derzeit ein Gaming-Notebook sucht, kann aktuell NUR Nvidia kaufen. Ob er will oder nicht.
Panther Lake wird das nicht ändern, zum einen ist auch dort die Top-GPU "nur" irgendwo zwischen Strix Point und Halo (= RTX 4050), zum anderen ebenfalls nur in den teuren Topmodelle zu finden.
Was weiterhin fehlt, und zwar von allen Herstellern: Ein SoC mit mid-range bis Performance-GPU (= RTX 5060 - 5070 Ti) mit aktueller IP und Mittelklasse-CPU (~16 Threads) für Geräte um 1.000 - 1.400 Euro. Alles andere ist im Gaming-Bereich unverkäuflich, da GPU-seitig zu langsam bzw. zu schlechtes P/L.
PS: Nichtsdestotrotz finde ich die PTL-GPU extrem beeindruckend, dass Teil wird ein Monster für (hochpreisige) Handhelds oder MacBook-Clone. Aber ohne dGPU natürlich nichts für Gaming-Notebooks.
Fusion_Power
2026-01-07, 15:59:58
Welche attraktiven iGPUs für Gamer siehst du denn aktuell? Alles <= 890M ist maximal halb so schnell wie eine angestaubte RTX 4060 und steckt im Fall der 890M in Geräten >1.500 Euro. :ugly: Mit Strix Halo, in etwa einer RTX 4060 mit mehr VRAM entsprechend, gibt genau zwei Modelle ab 2.300 bzw. 2.800 Euro, davon ein Tablet und ein Business-Notebook.
Nee, ich meinte dass ich nur noch ne iGPU brauche zum leichten Gaming, nicht dass nun die (Hardcore) Zocker alle auf ne iGPU wechseln sollten oder gar könnten. Und ja wie gesagt die guten iGPUs werden nur in den arschteuren Premium Geräten verbaut und ja, alles unter ner 880M/890M ist aktuell da auch nicht wirklich großartig brauchbar.
Ich HOFFE halt einfach dass mal was kommt dass ne gute APU bietet mit der man auch ein wenig zocken kann und man preislich trotzdem insgesamt noch unter ner dedizierten GPU+CPU bleibt.
Strix Halo geht in die richtige Richtung aber ist preislich (für mich) indiskutabel. Ja, für die Kohle bekommt man locker nen anständigen PC samt gescheiter dedizierter Grafikkarte die mehr Leistung hat als so ne iGPU. Weiß nicht was AMD geritten hat bei der Marktpositionierung von Strix Halo, die Massen werden sie damit jedenfalls nicht erreichen.
dildo4u
2026-01-07, 16:03:10
Diese IGP brauchen den schnellsten RAM der verfügbar ist also wird nichts billiger die Angebote gab es letztes Jahr.
Es gibt erste Listungen in den USA ab $1299 mit X7 358H, 32GB LPDDR5X, 1TB SSD, touchscreen.
robbitop
2026-01-07, 16:27:14
Welche attraktiven iGPUs für Gamer siehst du denn aktuell? Alles <= 890M ist maximal halb so schnell wie eine angestaubte RTX 4060 und steckt im Fall der 890M in Geräten >1.500 Euro. :ugly: Mit Strix Halo, in etwa einer RTX 4060 mit mehr VRAM entsprechend, gibt genau zwei Modelle ab 2.300 bzw. 2.800 Euro, davon ein Tablet und ein Business-Notebook.
Wer derzeit ein Gaming-Notebook sucht, kann aktuell NUR Nvidia kaufen. Ob er will oder nicht.
Panther Lake wird das nicht ändern, zum einen ist auch dort die Top-GPU "nur" irgendwo zwischen Strix Point und Halo (= RTX 4050), zum anderen ebenfalls nur in den teuren Topmodelle zu finden.
Was weiterhin fehlt, und zwar von allen Herstellern: Ein SoC mit mid-range bis Performance-GPU (= RTX 5060 - 5070 Ti) mit aktueller IP und Mittelklasse-CPU (~16 Threads) für Geräte um 1.000 - 1.400 Euro. Alles andere ist im Gaming-Bereich unverkäuflich, da GPU-seitig zu langsam bzw. zu schlechtes P/L.
PS: Nichtsdestotrotz finde ich die PTL-GPU extrem beeindruckend, dass Teil wird ein Monster für (hochpreisige) Handhelds oder MacBook-Clone. Aber ohne dGPU natürlich nichts für Gaming-Notebooks.
Genauso. Das Ziel der APUs war IIRC low end dGPUs zu ersetzen. Und das nicht zum Selbstzweck sondern weil es durch die Integration und den unified memory günstiger wird. Aber bis dato ist es entweder deutlich zu langsam für das Ziel oder deutlich zu teuer oder beides. Ziel verfehlt bis dato leider.
Undertaker
2026-01-07, 16:31:13
Es gibt erste Listungen in den USA ab $1299 mit X7 358H, 32GB LPDDR5X, 1TB SSD, touchscreen.
Absolut betrachtet nicht grandios, für ein erstes Listing in Zeiten der Speicherkrise aber doch sehr angemessen. Ich würde sogar behaupten, es gibt aktuell kein iGPU-Notebook mit mehr Grafikleistung pro €/$.
davidzo
2026-01-07, 16:36:48
Theoretisch kannst zu Panther Lake als Konkurrenz zu den Low End Halo Modellen sehen.
Genau, der X9 388H wird sich nicht nur mit den unteren Halo Modellen, sondern auch mit Qualcomms X2 Elite Extreme messen müssen. Qualcomm wird da unterm Strich die niedrigsten Chip Fertigungslosten haben und für AMD ist das immerhin eine Salvage APU. 18A, große GPU in N3 und das advanced Packaging sind sicher nicht ganz billig und Intel möchte sich diese CPUs diesmal richtig bezahlen lassen laut Tans früherer Ankündigung.
Und sowohl gegenüber dem AI Max+ 392 als auch dem X2 elite Extreme wird PTL aber eher alt aussehen. Ersterer hat eben 12 big Cores mit SMT, 256bit RAM und 40CUs und letzterer hat ein 192bit SI mit +50% Speicherbandbreite.
Gerade bei der IGP performance wird es spannend. Immerhin ist Intel bei der Spielekompatibilität nicht mehr das Schlusslicht, aber sich darauf ausruhen kömnnen Sie deshalb noch lange nicht.
mczak
2026-01-07, 16:41:11
Panther Lake wird das nicht ändern, zum einen ist auch dort die Top-GPU "nur" irgendwo zwischen Strix Point und Halo (= RTX 4050), zum anderen ebenfalls nur in den teuren Topmodelle zu finden.
Keine Ahnung was intel dafür haben will, aber rein von den Kosten her müssen Notebooks mit der 12 Xe-Cores Konfiguration nicht sonderlich teuer sein. Strix Halo hat halt ein riesiges IOD, aber das 12 Kern GPU-Tile bei Panther Lake soll ja nur ~54mm^2 gross sein. Das ist ordentlich klein, da sind auch die 16MB GPU L2 mit dabei (davon kann Strix Point bloss träumen). (Das ist IMHO auch im Vergleich mit z.B BMG-G31 winzig, auch unter Berücksichtigung der besseren Fertigung, auch wenn das natürlich keine "komplette" GPU ist, weil da weder SI- noch pcie Interfaces (stattdessen nur ein die-to-die fabric link), auch Displayausgänge und Media-Codecs sind nicht Teil des GPU-Tiles.)
Die Performance von Xe3 ist vermutlich gar nicht allzu gross verbessert (wahrscheinlich verbaut man aber auch kaum mehr Transistoren), aber gegenüber Lunar Lake sind es halt 12 statt 8 Xe-Cores, die auch noch höheren Takt erreichen sollen.
AMD hat es halt komplett verpasst da was konkurrenzfähiges zu entwickeln, obwohl das mehr oder weniger trivial gewesen wäre (es fehlt zur Hauptsache einfach an GPU-Cache, selbst wenn die 16 rdna 3.5 CUs auch mit mehr Cache nicht in jeder Beziehung mithalten könnten, dafür bräuchte man rdna 4).
Genauso. Das Ziel der APUs war IIRC low end dGPUs zu ersetzen. Und das nicht zum Selbstzweck sondern weil es durch die Integration und den unified memory günstiger wird. Aber bis dato ist es entweder deutlich zu langsam für das Ziel oder deutlich zu teuer oder beides. Ziel verfehlt bis dato leider.
Die lowend dGPUs wurden doch verdrängt wegen den iGPUs. dGPUs vom Kaliber der MX Serie gibt es gar nicht mehr, die wären obsolet.
robbitop
2026-01-07, 17:38:46
Ja das stimmt - aber die waren schon immer so anämisch, dass die praktisch kein Gaming mit zeitgemäßen Spielen ermöglicht haben. Die waren ja auch nicht wesentlich besser als IGPs wenn ich mich richtig erinnere. Das waren so 30er SKUs oder gar noch drunter. 50er sollte man schon mindestens anpeilen IMO damit man auch moderne Spiele halbwegs spielen kann. Und es ist ja nicht unrealistisch - B390 peilt immerhin anscheinend 4050 mobile an.
Undertaker
2026-01-07, 17:45:26
Keine Ahnung was intel dafür haben will, aber rein von den Kosten her müssen Notebooks mit der 12 Xe-Cores Konfiguration nicht sonderlich teuer sein. Strix Halo hat halt ein riesiges IOD, aber das 12 Kern GPU-Tile bei Panther Lake soll ja nur ~54mm^2 gross sein. Das ist ordentlich klein, da sind auch die 16MB GPU L2 mit dabei (davon kann Strix Point bloss träumen).
Sagen wir, sie müssten nicht teuer sein. Rein von den Herstellungskosten stimme ich dir zu, die Dies sind relativ klein, sollten damit eine gute Ausbeute haben und zusätzlich fällt zumindest teilweise (für den großen GPU-Die natürlich bekanntermaßen nicht, aber andere Teile des Chips) der Gewinnaufschlag an TSMC dank anteilig eigener Fertigung weg. Und auch das schmälere Speicherinterface ggü. Strix Halo wird Kosten sparen.
Aber abseits der theoretischen (und mit vielen Unbekannten behafteten) Betrachtung sehen wir ja auch die Einordnung im Produktportfolio: Nur der Ultra X7/X9 bekommt den Vollausbau, nur ein Ultra 5 eine rund 20% beschnittene Variante. Das läuft halt immer noch auf relativ hochpreisige Notebooks hinaus, wenn man die schnell(st)e iGPU will, wenn auch nicht ganz so übertrieben wie bei AMD aktuell.
Qualcomm ist mit Fokus auf Windows-Gaming für mich eh nach wie vor raus, bis das mal in 99% aller Titel sauber läuft wird es noch dauern.
Badesalz
2026-01-07, 18:03:51
Für mobile Workstations ist eine schnelle iGPU schon ein Gewinn.Gibt es dafür etwas was man einen Markt nennen könnte?
Apple zeigt es vor.Das interessiert nur die Creators. Und das einen Teil davon. Der komplete gesamte Rest von dem übrig gbliebenen Rest, von denen die schon länger dabei sind, kann keiner (KEINER(*)) sagen wieviel schneller die Mx GPU ist im Vergleich zum letzten Intel Macbook.
(*)die keine Komputerforen besuchen...
dildo4u
2026-01-07, 18:06:48
Es gibt doch Versionen wo die IGP massiv beschnitten ist wenn du das willst.
Ist aber Fraglich ob sie die Abverkaufs Preise eines Apple M4 Notebook erreichen.
Daredevil
2026-01-07, 19:31:52
"Content Creation" basiert quasi nur auf Leistung der GPU, insofern ist das natürlich enorm von Vorteil. Bildbearbeitung, Videobearbeitung, GenAI, LLMs, Text Transkribierung, "AI Gaming" ect. sind alle GPU beschleunigt. AMD nennt das z.B. "AI Developer".
Und wer das nicht braucht, dem reicht halt auch Lunar Lake oder nen Core2Duo ;C, dazu brauchste halt nicht den neuesten Shit. Die bekommen halt ne gute Akkulaufzeit, damit sie 22 Stunden am Tag Excel fahren können. Also... Workstations brauchen halt nur die, die damit auch "worken", ist klar oder? ^^
Mayhem
2026-01-07, 19:55:28
Das ist normal bei den iGPUs, die Skalierung lässt oben raus deutlich nach. Im 3DMark Steel Nomad liegen 50% zwischen Lunar Lake 25W und Panther Lake 25W. Von 25W auf 45W legt PTL vielleicht nochmal 30% drauf.
Gibt's dazu noch mehr Infos? Ich meine, das wäre ja auch zu erwarten bei den ganzen Änderungen (allein schon wegen breiter und LLC). IMHO wäre das auch der interessanteste Vergleich gewesen wenn man schon so auf "Generational" pocht.
Gibt's dazu noch mehr Infos? Ich meine, das wäre ja auch zu erwarten bei den ganzen Änderungen (allein schon wegen breiter und LLC). IMHO wäre das auch der interessanteste Vergleich gewesen wenn man schon so auf "Generational" pocht.
Infos zu was genau? Ich gehe davon aus, dass wir Skalierungstests ab Ende Januar sehen werden. Es wird aber so sein, dass PTL mit 25W erheblich effizienter läuft als zum Beispiel mit 45W.
Ja das stimmt - aber die waren schon immer so anämisch, dass die praktisch kein Gaming mit zeitgemäßen Spielen ermöglicht haben. Die waren ja auch nicht wesentlich besser als IGPs wenn ich mich richtig erinnere. Das waren so 30er SKUs oder gar noch drunter. 50er sollte man schon mindestens anpeilen IMO damit man auch moderne Spiele halbwegs spielen kann. Und es ist ja nicht unrealistisch - B390 peilt immerhin anscheinend 4050 mobile an.
Die damaligen entry dGPUs sind den ersten iGPU Generationen ab 2010 noch deutlich überlegen gewesen. Erst die Jahre danach wurden sie immer mehr obsolet, dementsprechend hat sich das lowend deutlich weiter nach oben verschoben, aber auch die typische TDP. Eine RTX 4050 Mobile läuft oft bei 100+ Watt.
Nightspider
2026-01-07, 23:21:42
Ohne die nutzlosen NPUs wären die IGPs schon locker 50% schneller wenn man den Platz in mehr Shader oder Cache investiert hätte.
Aber leider bringt es ja nichts da zu meckern.
Kann man nur hoffen das mehr dedizierte kleine Gaming APUs auf den Markt kommen. Der Markt dafür ist schließlich vorhanden und auch für AMD gibts keine Ausreden mehr nicht auch dedizierte Gaming APUs in jeder Generation auf den Markt zu bringen.
4-6 Kerne + SMT, mittelgroße GPU, keine NPU und das Ding wird nicht mal besonders groß.
Fusion_Power
2026-01-08, 02:50:53
Ohne die nutzlosen NPUs wären die IGPs schon locker 50% schneller wenn man den Platz in mehr Shader oder Cache investiert hätte.
Aber leider bringt es ja nichts da zu meckern.
Kann man nur hoffen das mehr dedizierte kleine Gaming APUs auf den Markt kommen. Der Markt dafür ist schließlich vorhanden und auch für AMD gibts keine Ausreden mehr nicht auch dedizierte Gaming APUs in jeder Generation auf den Markt zu bringen.
4-6 Kerne + SMT, mittelgroße GPU, keine NPU und das Ding wird nicht mal besonders groß.
Also offenbar gibts von Panther Lake ja auch was „kleines“ mit einer (hoffentlich) trotzdem brauchbaren iGPU: Core Ultra 5 Processor 338H (https://www.intel.de/content/www/de/de/products/sku/245531/intel-core-ultra-5-processor-338h-18m-cache-up-to-4-70-ghz/specifications.html), also nen knuffiger „5er“ mit immerhin einer Arc B370 GPU. Laut Specs hat die 10 XE Einheiten, also 2 mehr als Intels aktuelle Arc 140er iGPUs. Ich kann mir Laptops und Mini-PCs deutlich unter 1000€ damit gut vorstellen. Mir würde sowas halt schon reichen.
Badesalz
2026-01-08, 06:46:26
"Content Creation" basiert quasi nur auf Leistung der GPU, insofern ist das natürlich enorm von Vorteil. Bildbearbeitung, Videobearbeitung, GenAI, LLMs, Text Transkribierung, "AI Gaming" ect. sind alle GPU beschleunigt. AMD nennt das z.B. "AI Developer".Das wäre eine interessante Frage wer von denen die hier über die iGPUs lästern irgendetwas davon auf APUs tun und diesen enormen Vorteil nutzen...
Also... Workstations brauchen halt nur die, die damit auch "worken", ist klar oder? ^^Das macht man natürlich am liebsten am Laptop :freak:
ChaosTM
2026-01-08, 08:24:10
Wenn man einen 32+ Moni dranhängt geht das recht gut ;)
mboeller
2026-01-08, 08:25:13
hoffentlich kein Doppel-Post zu dem Test:
https://www.notebookcheck.com/Intel-Core-Ultra-X9-388H-iGPU-Gaming-Performance-und-Stromverbrauch-in-Cyberpunk-2077-getestet.1199215.0.html
Kann jemand die iGPU-Performance einordnen?
Badesalz
2026-01-08, 08:40:30
Wenn man einen 32+ Moni dranhängt geht das recht gut ;)Tatsächlich ist das dann für eine iMac "Workstation" charmanter. Oder halt Mac Studio.
Ich mein knapp 80% (!) von allem was nicht-iPhone ist, sind bei Apple die Laptops...
Daredevil
2026-01-08, 09:41:02
Die dicke iGPU sollte 20-30% schneller sein als ein M5 und hat ein modernes Featureset mit XeSS und De/Encoder, insofern sind ziemlich viele Menschen auf genau so eine Leistung aus im iMac/MacBook/Tablet/MiniPC/Gaming Handheld. Wenn die Kiste dann noch 20Std+ hält, super. Mal abgesehen vom katastrophalen Namescheme macht Intel hier absolut alles richtig, um gleichzeitig Apple/AMD/Qualcomm einen mitzugeben. Es scheint so, dass dies der „M1 Moment“ für Intel ist.
Badesalz
2026-01-08, 09:45:20
Die dicke iGPU sollte 20-30% schneller sein als ein M5 und hat ein modernes Featureset mit XeSS und De/Encoder, insofern sind ziemlich viele Menschen auf genau so eine Leistung aus im iMac/MacBook/Tablet/MiniPC/Gaming Handheld.Hä? Pofalla oder wie?
Die Laufzeit nimmt natürlich jeder gerne mit. Keine Frage.
robbitop
2026-01-08, 10:11:36
Die dicke iGPU sollte 20-30% schneller sein als ein M5 und hat ein modernes Featureset mit XeSS
Naja MetalFX hat auch mittlerweile eine NN Variante und es gibt auch ein FG Verfahren.
Aber bei Apple behandelt man Gaming nur halbherzig, deshalb ist es wahrscheinlich komplett irrelevant.
Wenn sie wollten, könnten sie ein Proton Äquivalent für MacOS bauen und die Treiber auf ein entsprechendes Niveau bringen usw. Aber Apple sieht Gaming im Vergleich zu ihren jetzigen Geschäften anscheinend als unwichtig an. Und wahrscheinlich würde Gaming auf Macbooks auch nie so extrem abheben, dass es ein wahnsinnig toller business case wäre. Wahrscheinlich nur eine Minderheit die das interessiert auf Macs.
Dass man eine stärkere GPU hat als ein Chip für Tablets die ein paar hundert Gramm wiegen und keine Kühlung haben ist IMO jetzt nicht die richtige Messlatte (und ja die können auch mit höheren Frequenzen in Notebooks betrieben werden - aber wenn man die erhöhte TDP von Laptops ggü Tablets nutzen will, ist die PRO Version der M SoCs wahrscheinlich eher die Messlatte IMO)
mironicus
2026-01-08, 10:59:09
Asus Expert Ultra für 2999 Euro, nur Benachrichtigung möglich, noch keine Vorbestellung.
https://estore.asus.com/de/90nx09j1-m00t60-asus-expertbook-ultra-copilot-pc-b9406.html
Badesalz
2026-01-08, 11:07:33
Und wahrscheinlich würde Gaming auf Macbooks auch nie so extrem abheben, dass es ein wahnsinnig toller business case wäre. Wahrscheinlich nur eine Minderheit die das interessiert auf Macs.Ich hab vorher auf YT einfach mal nach irgendeinem 3D Demo (egal was) auf einem M-Chip gesucht. Etwas was also in Echtzeit berechnet wird. Grafik Techdemos halt.
(5 Jahre altes book of the dead mal außen vor)
hmm...
dildo4u
2026-01-08, 11:32:20
Paar Gameing Benchmarks mit XeSS ohne FG
https://videocardz.com/newz/intel-shows-off-arc-b390-graphics-in-games-playable-at-1080p-with-xess
Daredevil
2026-01-08, 11:57:45
Naja MetalFX hat auch mittlerweile eine NN Variante und es gibt auch ein FG Verfahren.
Aber bei Apple behandelt man Gaming nur halbherzig, deshalb ist es wahrscheinlich komplett irrelevant.
Wenn sie wollten, könnten sie ein Proton Äquivalent für MacOS bauen und die Treiber auf ein entsprechendes Niveau bringen usw. Aber Apple sieht Gaming im Vergleich zu ihren jetzigen Geschäften anscheinend als unwichtig an. Und wahrscheinlich würde Gaming auf Macbooks auch nie so extrem abheben, dass es ein wahnsinnig toller business case wäre. Wahrscheinlich nur eine Minderheit die das interessiert auf Macs.
Dass man eine stärkere GPU hat als ein Chip für Tablets die ein paar hundert Gramm wiegen und keine Kühlung haben ist IMO jetzt nicht die richtige Messlatte (und ja die können auch mit höheren Frequenzen in Notebooks betrieben werden - aber wenn man die erhöhte TDP von Laptops ggü Tablets nutzen will, ist die PRO Version der M SoCs wahrscheinlich eher die Messlatte IMO)
1. Das AI Upscaling ist qualitativ schlecht, das ist auf Stand von FSR2-3. Ein natives FG gibt es noch nicht( ist angekündigt ), in Cyberpunk wird FSR FG dazu genutzt, mir all seinen Vor und Nachteilen.
2. Apple behandelt das Thema vielleicht halbherzig, vielleicht aber auch nur vorsichtig an um den richtigen Zeitpunkt zu erwischen. Heute gibt es so viele Apple Silicon Spiele und so viele Möglichkeiten moderne Spiele zu starten, wie noch nie. Mit einem modernen M4/M5 Prozessor bekommt man einen Großteil der Spiele mit GPTK mit gleichwertiger Hardware ganz gut zum laufen. Nicht super gut, nicht sehr gut, aber es geht. Es ist aber in keinem Fall schon 0815 Safe, weil es nicht "Click and Run" ist, wie eben Rosetta2 oder auf dem Steam Deck.
Die Entwicklung und die "Aufholjagd" von Apple ist allerdings da, nur sieht man sie nicht öffentlich wirksam. ^^
3. Apple verkauft zum Großteil an Consumer und demnach ist Gaming natürlich absolut relevant. Gaming ist in jeder sozialen Schicht, jeder Altersklasse und jeder Gehaltsklasse relevant.
Das Video hier hat 185k Views, mehr als AMDs CES Keynote. Gaming on Mac scheint also doch wichtig zu sein. :D
3YHZ1E6_xKw
Hier gehts aber nicht primär im Gaming und schon gar nicht um Apple.
iGPU Leistung ist mehr als Gaming, das habe ich hier ja bereits geschrieben. GPU Leistung macht heute einen Großteil der Customer Satisfaction aus neben der Akkulaufzeit und der Qualität des Displays/Lautsprecher. Die CPU ist auch nett, hat aber eigentlich kaum noch Effekt, da die meisten Dinge, die "Menschen tun", auf der GPU läuft. Demnach macht Intel hier alles richtig, auch wenn es nur ein gepimpter TSMC Battlemage ist. Der volle Fokus auf die GPU hat imho mehr Effekt, als wenn die CPU doppelt so viel MT Leistung hätte.
Badesalz
2026-01-08, 12:08:45
Nochmal Pofalla? Was für ein Blödsinn :facepalm:
robbitop
2026-01-08, 12:21:08
1. Das AI Upscaling ist qualitativ schlecht, das ist auf Stand von FSR2-3. Ein natives FG gibt es noch nicht( ist angekündigt ), in Cyberpunk wird FSR FG dazu genutzt, mir all seinen Vor und Nachteilen.
Inkludiert das die NN Variante von MetalFX? Denn da gibt es ja ettliche Versionen davon. Soweit ich das gesehen habe gibt es das Frame Generation schon und man kann es umleiten:
https://www.youtube.com/watch?v=B8kIeQAag7w
2. Apple behandelt das Thema vielleicht halbherzig, vielleicht aber auch nur vorsichtig an um den richtigen Zeitpunkt zu erwischen. Heute gibt es so viele Apple Silicon Spiele und so viele Möglichkeiten moderne Spiele zu starten, wie noch nie. Mit einem modernen M4/M5 Prozessor bekommt man einen Großteil der Spiele mit GPTK mit gleichwertiger Hardware ganz gut zum laufen. Nicht super gut, nicht sehr gut, aber es geht. Es ist aber in keinem Fall schon 0815 Safe, weil es nicht "Click and Run" ist, wie eben Rosetta2 oder auf dem Steam Deck.
Die Entwicklung und die "Aufholjagd" von Apple ist allerdings da, nur sieht man sie nicht öffentlich wirksam. ^^
Jo man bekommt es gängig. Und GPTK ist ja ein Proton Äquivalent aber nur halbherzig.
Was schade ist weil die HW sehr gut ist.
Apple ist ja nicht erst gestern irgendwie im Gaming dran - aber nur halbherzig. Seit Jahrzehnten. Ich glaube nicht, dass sich das zeitig ändern wird. Die Zielgruppe passt nicht so recht.
3. Apple verkauft zum Großteil an Consumer und demnach ist Gaming natürlich absolut relevant. Gaming ist in jeder sozialen Schicht, jeder Altersklasse und jeder Gehaltsklasse relevant.
Ich bin da skeptisch. Ja eine Teilmenge wird auch zocken - aber ob unbedingt auf Macs? Zumindest bis dato gibt es da deutlich bessere Plattformen vom Formfaktor, IO und Preis Leistung.
Aber ich bin mir sicher, dass Apple alles davon ändern könnte. Aber ist es ihre resources wert? Sie stehen auf sehr hohe Margen. Ich bin da sehr sehr skeptisch und man redet ja schon sehr lange davon dass Apple da mal was unternehmen könnte. Und ändern tat sich ja dann doch nicht viel. Ich würde mich persönlich aber sehr freuen wenn es anders käme. Denn Wettbewerb und Vielfalt sind immer super :)
Das Video hier hat 185k Views, mehr als AMDs CES Keynote. Gaming on Mac scheint also doch wichtig zu sein. :D
https://youtu.be/3YHZ1E6_xKw[/quete] [\quote]Ich bin mir nicht sicher ob Views ein valider Indikator für Erfolg sind. Und 185K sind im globalen Youtube nicht besonders viel. Wirkt eher wie eine kleine nerd bubble die begeistert ist (inklusive mir :))
[QUOTE=Daredevil;13865123]
Hier gehts aber nicht primär im Gaming und schon gar nicht um Apple.
iGPU Leistung ist mehr als Gaming, das habe ich hier ja bereits geschrieben. GPU Leistung macht heute einen Großteil der Customer Satisfaction aus neben der Akkulaufzeit und der Qualität des Displays/Lautsprecher. Die CPU ist auch nett, hat aber eigentlich kaum noch Effekt, da die meisten Dinge, die "Menschen tun", auf der GPU läuft. Demnach macht Intel hier alles richtig, auch wenn es nur ein gepimpter TSMC Battlemage ist. Der volle Fokus auf die GPU hat imho mehr Effekt, als wenn die CPU doppelt so viel MT Leistung hätte.
Es wurde der M5 als Referenzpunkt gewählt.
Und natürlich geht es auch um Gaming. Damit bewirbt Intel in ihren PTL Slides besonders stark. ;)
Daredevil
2026-01-08, 12:56:52
Ich habe sowohl PSSR hier auf der PS5 Pro, DLSS4 mit meiner 5090 und ebenso viel Erfahrung mit MetalFX und dem DLSS Wrapper in Metal4 via GPTK und letzteres ist einfach noch leider sehr unsauber und weit hinter dem Rest vom Fest. Und Frame Generation ist angekündigt in Metal4, genauso wie Ray Rekonstruktion, aber es ist noch nicht implementiert. Wenn ich Frame Generation in Expedition 33 aktiviere(via GPTK), ist das imho ein FSR based Produkt im Hintergrund. Das hat man auch schon früher bekommen, wenn man z.B. Cyberpunk via Crossfire und GPTK gestartet hat.
Es ist allerdings ein enormer Schritt, das man nun in quasi jeglichem lauffähigen DLSS Spiel MetalFX dazu schalten kann, weil durch die Emulation natürlich Raw Performance fehlt. So bekomme ich nun Diablo 4 in 4K-High spielbar zum laufen ( Siehe hier: https://www.youtube.com/watch?v=7mcOH5pvwcw ). M3 sind natürlich steinalte Kerne, mit einem hypothetischen M5 Ultra o.ä. schaffe ich locker das 120fps CAP meines Monitors und kann vielleicht auch schon RT dazu schalten und das entspricht dann 3090-5080 Level. Mit meiner 3090 ging das zumindest nicht und meine 5090 langweilt sich dort, also irgendwas in der Mitte. :D
Ich bin da skeptisch. Ja eine Teilmenge wird auch zocken - aber ob unbedingt auf Macs? Zumindest bis dato gibt es da deutlich bessere Plattformen vom Formfaktor, IO und Preis Leistung.
Die große Frage ist halt, ob man sich deswegen einen zweiten PC anschafft, oder eben nicht. Indie Games und Casual Kram läuft halt und das wird nun einmal am meisten gezockt. Ein M4/M5 hat mehr Leistung als der durchschnittliche Steam PC und demnach ist es eben über dem Schnitt der Anforderungen der Masse.
Ein M4 ist die 700$ Klasse im Notebook Segment und die 500$ Klasse im Desktop.
-------
Ich würde aber behaupten, dass Intel sich hier deutlich mehr mühe gibt mit XeSS und deswegen finde ich die Entwicklung halt sehr spannend.
Panther Lake kombiniert doch zu einem gewissen Teil folgendes:
Die Effizienz der Apple SoCs
Die MultiCore Performance der AMD SoCs
Die Laufzeit der Qualcomm SoCs
Das GPU Featureset ( XeSS, Upscaling, FrameGen, En/Decoder, AI Software Stack ect. ) von Nvidia
Dazu sind sie durch ihre Tile Based Geschichte relativ flexibel, sie bauen den Spaß teilweise selbst und können je nach Marktgegebenheit auf TSMC zurück greifen. Das klingt für mich wie eine Eierlegende Wollmilchsau, wenn der Preis noch stimmt. Es ist halt Intels "M1 Moment", wo alles irgendwie passt. Lunar Lake war zu lahm, Arrow Lake zu ineffizient. Das ist nun best of Both Worlds und Best of Both ist jeder Richtung verbessert.
Das Intel Gaming so besonders stark bewirbt, liegt aber auch einfach nur daran, dass AMD Lastgen Hardware verbaut hat und Qualcomm Software Probleme mitbringt, das man Spiele überhaupt zu laufen bekommt. :D
Deswegen sag ich ja, eine GPU ist mehr als Gaming, aber natürlich ist es auch Gaming, ist doch klar.
robbitop
2026-01-08, 17:13:01
Sehr gutes Interview von DF mit Tom Petersen https://youtu.be/8ydfKE1dffo?si=fgQ_GqK7fimdj4dC.
IMO ist seine Ansicht zu FG sehr sehr gut und objektiv.
MSABK
2026-01-08, 17:14:36
Sehr guter Chip, perfekt für einen Handheld. Was Amd da bis mitte 2027 im Programm hat ist schwach.
Hoffe die Intel-Teiber unter Linux werden besser.
Daredevil
2026-01-08, 17:16:53
Nice, Tom war gestern auch bei HotHardware, der ist imho ein echtes und ehrliches Goldstück. ^^
Der differenziert ganz klar im Gegensatz zu Intels PR Folien und nennt das "Smoothing Frames", das passt imho ziemlich gut. Schaue ich mir heute Abend an, Tom zuzuhören macht viel Spaß. Da hat man bei Intel so richtig den Eindruck, dass hier die Passion in der GPU Sparte steckt. Er hat Bock, er weiß wovon er spricht, er ist sympathisch und hat Spaß an der ganzen Sache. :)
ChaosTM
2026-01-08, 17:28:17
8ydfKE1dffo
lauft neben Quake Brutalist Jam 3
Badesalz
2026-01-08, 17:29:28
Nice, TomHimmel :biggrin: :rolleyes:
Sehr guter Chip, perfekt für einen Handheld. Was Amd da bis mitte 2027 im Programm hat ist schwach.Die haben das grad leider nicht nötig, weil sie in der Lage sind da die dicke Kohle zu machen wo Intel rein garnichts zu melden hat. Daher bleibt Intel auch nichts anderes als die Flucht in die andere Richtung. In unsere, sozusagen =)
Es sieht so aus als wenn Donald das aufgeteilt hätte. Es gibt Kohle für HPC/AI, wenn ihr Intel hochkommen lasst. Weil das Gesamtbudget braucht man an der Stelle (Erträge) um die Fabs aufzurichten. Weil die Fabs sind nun nationale Sicherheit. Intel muss dafür also Geld machen können.
Selbst die Xeons sind mittlerweile witzig gegenüber Epycs. Intel wird also vielleicht DER Hersteller für CES :) Während die anderen beiden SC dominieren (sollen).
Unaufgeschriebenes Agreement? :rolleyes: Keine Ahnung. es scheint irgendwie, als wenn paar Kreigsbeile bis Mitte 2027 vergraben wurden...
MSABK
2026-01-08, 18:01:11
Es sieht so aus als wenn Donald das aufgeteilt hätte. Es gibt Kohle für HPC/AI, wenn ihr Intel hochkommen lasst. Weil das Gesamtbudget braucht man an der Stelle (Erträge) um die Fabs aufzurichten. Weil die Fabs sind nun nationale Sicherheit. Intel muss dafür also Geld machen können.
Selbst die Xeons sind mittlerweile witzig gegenüber Epycs. Intel wird also vielleicht DER Hersteller für CES :) Während die anderen beiden SC dominieren (sollen).
Das sowieso. Die ganzen Tech-Firmen in den USA sind als eine gesamte Firma zu sehen. Dort wird jetzt Intel great again gemacht damit die nicht so abfallen, die anderen sind made great already. Mir kann es recht sein. Solange gute Produkte kommen.
ChaosTM
2026-01-08, 18:04:53
Firmen kann man nicht Trump like "Great" machen.
Da muss schon auch Gehirnschmalz dahinter stehen und Intel scheint auf einem guten Weg zu sein.
Politische Hilfen schaden aber nie.
+ Gutes Gespräch von Alex und dem Intel Mann..
Badesalz
2026-01-08, 18:13:01
@Chaos
Wer hat was anderes gesagt? Ihr tut immer so als wenn irgendetwas was Trump macht, Trump sich ausgedacht hätte. echt... Der kriegt keine 2 Sätze auf dem College-Niveau zusammen.
Noch nie aufgefallen?
ChaosTM
2026-01-08, 18:19:41
bezog sich auch nicht auf dich .. "Dort wird jetzt Intel great again gemacht" hat wer anderer gesagt und das geht halt nicht
Daredevil
2026-01-08, 20:54:20
_2c0z_naImI
Animation Error als Wert ist nett, bin gespannt ob wir dies auch in anderen Tools sehen.
388H vs HX 370 von Club386: https://www.club386.com/intel-panther-lake-gpu-benchmarks/
Based on these initial results, we’re blown away by what Intel has managed to achieve with Panther Lake’s integrated GPU performance. You could buy a thin and light, low-power machine without a discrete graphics chip, and genuinely play the latest games on it. I was initially sceptical about adding multi frame gen to an integrated GPU, as I didn’t think the base frame rates would be high enough, but I’ve been proved wrong. You can play games without MFG on this chip, and just turn it on if you want smoother motion, perhaps if your laptop’s screen has a high refresh rate.
Nice, Tom war gestern auch bei HotHardware, der ist imho ein echtes und ehrliches Goldstück. ^^
Der differenziert ganz klar im Gegensatz zu Intels PR Folien und nennt das "Smoothing Frames", das passt imho ziemlich gut. Schaue ich mir heute Abend an, Tom zuzuhören macht viel Spaß. Da hat man bei Intel so richtig den Eindruck, dass hier die Passion in der GPU Sparte steckt. Er hat Bock, er weiß wovon er spricht, er ist sympathisch und hat Spaß an der ganzen Sache. :)
Kann ich aus Live-Gesprächen mit ihm bestätigen. Der Gute kennt sich nicht nur aus, er hat sich den Enthusiasmus behalten. Umso mehr hoffe ich, dass Intel bei Arc insgesamt dranbleibt und nicht "nur" flotte IGPs baut.
MfG
Raff
Undertaker
2026-01-08, 22:09:56
388H vs HX 370 von Club386: https://www.club386.com/intel-panther-lake-gpu-benchmarks/
Auch ohne sauberen TDP-Vergleich u.ä.: Das ist mal eben Faktor 2 in CyberPunk. Das man gewinnt war zu erwarten, aber die Marge ist schon der Hammer. PTL wird bei niedrigen-mittleren TDPs wohl selbst Strix Halo bügeln...
mocad_tom
2026-01-08, 23:12:05
Umso mehr hoffe ich, dass Intel bei Arc insgesamt dranbleibt und nicht "nur" flotte IGPs baut.
Allein Crescent Island zeigt doch schon, dass sie da weiter dran arbeiten wollen.
Diese Intel + nVidia APU schaut mir so aus, als würde nvidia ein Custom Silicon bei Intel bestellen und nvidia verkauft dann das Produkt.
Und der x86-Server-Chip mit NVLink schaut mir auch so aus, als würde nvidia custom silicon von Intel bestellen.
Kann sein, dass da politischer Druck ausgeübt wurde.
Kann aber auch sein, dass da große Kunden danach gefragt haben (bei beiden Custom Silicon Bestellungen).
Ich bin gespannt, wie die konkrete "Produkt-Schachtel" am Ende des Tages bei dieser APU und bei der Server-CPU aussehen wird.
Aktuell ist es ja auch so: Man bestellt ein Supermicro-nvidia-DGX-Rack(mit x86 CPU) und darf dann im Kleingedruckten nachschauen was das genau für eine Emerald Rapids Server CPU ist.
Und diese GB200 (auch wenn das nvidia gerne anders verkauft), diese GB200 sind so Lock-In-Produkte (und dadurch Ladenhüter). In China kann nvidia die gar nicht verkaufen.
BTT
Intel haben jetzt endlich ihr Systolic Array auf der Höhe und haben jetzt auch den Treiber auf der Höhe. Schau dir Intel AI Playground auf Github an. Die waren auf einer langen Reise und Panther Lake + AI Playground ist so ein Dreamteam.
Und das Systolic Array brauchst du eh für deine Fab als lizensierbarer Building Block. Die Foundry Kunden fragen nach einem guten Matrix-Multiplikations-Element. Und diese IP darf ja auch nicht von der TSMC-Fab zur Intel-Fab mitgenommen werden, sondern die Fab schneidert das 'maßgenau' auf ihre Transistoren drauf. Das ist wie mit den Cache Zellen.
Badesalz
2026-01-09, 06:19:12
Kann sein, dass da politischer Druck ausgeübt wurde.
Kann aber auch sein, dass da große Kunden danach gefragt haben (bei beiden Custom Silicon Bestellungen).Nummer 1.
PS:
Das freut mich jetzt irgendwie, daß der Tom die jahrzehtelange Intel Hybris ® mit einer Handbewegung wegwischen konnte. toi toi toi
davidzo
2026-01-09, 14:55:35
Diese Intel + nVidia APU schaut mir so aus, als würde nvidia ein Custom Silicon bei Intel bestellen und nvidia verkauft dann das Produkt.
Umgekehrt.
Intel wird CPUs mit integrated RTX graphics vermarkten:
For personal computing, Intel will build and offer to the market x86 system-on-chips (SOCs) that integrate Nvidia RTX GPU chiplets. These new x86 RTX SOCs will power a wide range of PCs that demand integration of world-class CPUs and GPUs,[...]
https://nvidianews.nvidia.com/news/nvidia-and-intel-to-develop-ai-infrastructure-and-personal-computing-products
Im Serverbereich ist das aber so wie du sagst: Nvidia holt sich eine Alternative zu ihren Grace und Vera CPUs rein und verkauft Nvidia gebrandete Produkte mit Intel CPU-Silizium drin. Schon bei den DGX Rubin kommt ja wieder mal Intel zum Zug mit Granite Rapids.
Wenn Intel in Zukunft noch NVlink mit anbieten könnte wäre das ein großer Mehrwert für die off the shelf DGX racks. Ob Intel jemals in nvidias NVL Rackscale Lösungen rein kommt ist aber offen und liegt wohl auch daran wie gut nvidia ihre eigene CPU Roadmap executen kann. NV wird wohl kaum ihr CPU-team weg sparen, dazu verfügt man über zuviel Kapital. Aber bisher hat nvidia es nicht geschafft mit der Kadenz von x86 Prozessoren mit zu halten, insbesondere mit AMD. Vera sieht zwar stark AI optimiert aus mit 1,2tb/s LPDDR5X und custom Cores mit 6x128bit FP pipes, aber AMD hat das bessere Cache Setup und auch nicht weniger per Core Leistung bei mehr als dem doppelten Corecount.
dildo4u
2026-01-09, 15:02:01
AMD feuert gegen Intel sie erwarten Hohe Preise für B390 IGP.
https://www.tomshardware.com/pc-components/gpus/amd-is-unphased-by-panther-lakes-big-integrated-gpu-its-not-even-a-fair-fight-to-compare-the-arc-b390-to-strix-halo-amd-exec-claims
Undertaker
2026-01-09, 15:10:27
Wenn die B390 gemäß dem ersten Listing tatsächlich noch unter Strix Point Geräten erhältlich ist und Strix Halo Notebooks grob das doppelte kosten, ist das eine etwas abstruse Perspektive. :ugly:
Daredevil
2026-01-09, 15:20:42
Aus AMDs Sicht würde ich das auch machen, gegen Strix Halo soll natürlich auch kein SoC ankommen, sondern das regelt dann Intel/Nvidia sowohl von der Hardware, als auch von der Software. Für alles andere gibts Panther Lake mit 12 Cores.
Wenn Intel voll auf Marge fährt und die Kisten natürlich wirklich so teuer sind wie Strix Halo, dann gibts sicherlich eine andere Argumentationsgrundlage. :<
In der Natur der Sache kann man aber nun einmal lowTDP Geräte günstiger bauen als welche, die über 100w saugen. Chassis, Kühlung, Board Design, Netzteil ect.
Und letztendlich kommt es ja auch auf den Anwendungszweck an. Panther Lake mit 96GB wird in LLM Tests mit großen Modellen Strix Halo mit 64GB schon verprügeln, aber da kann der SoC ja wenig für.
vBulletin®, Copyright ©2000-2026, Jelsoft Enterprises Ltd.