Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Lunar Lake ("LNL", Meteor-Lake-Nachfolger, TSMC N3B/N6, 2024)
unter Last sieht Meteor Lake eher schlecht aus, siehe Notebookcheck-Tests mit vergleichbar großen Akkus - und wer weiß, was Intel in seinen eigenen Bechmarks so manipuliert hat, wie die Konfigs wirklich aussahen usw.
Allein der nahe RAM sollte aber wohl einiges bringen für LL.
fondness
2024-06-06, 08:35:44
unter Last sieht Meteor Lake eher schlecht aus, siehe Notebookcheck-Tests mit vergleichbar großen Akkus - und wer weiß, was Intel in seinen eigenen Bechmarks so manipuliert hat, wie die Konfigs wirklich aussahen usw.
Allein der nahe RAM sollte aber wohl einiges bringen für LL.
Vor allem bei niedrigen TDP sieht Meteor Lake aktuell richtig richtig schlecht aus. Überaus die meisten Tests wurden ja bei 45W und mehr gemacht, da sieht es halbwegs okay aus.
Wenn es im Low End nicht dominiert ist was massiv falsch gelaufen weil sie schon zugeben das das Ding nicht nach oben skaliert.
https://wccftech.com/intel-panther-lake-power-on-18a-node-next-gen-about-ipc-supports-several-segments
Es ist zumindest mal positiv, dass Intel das Problem mit der viel zu hohen Leistungsaufnahme endlich mal angeht.
Kriegsgeier
2024-06-06, 09:08:09
Bevor hier alle ARROW LAKE nur auf A20 reduzieren: nicht vergessen bitte, dass ARROW LAKE die gleichen E- und P-Cores vom LUNAR LAKE teilt! Also die Microarchitektur selbst nicht zu krass vernachlässigen bitte.
Meiner Meinung nach kann Intel "Apple" Effizienz außerhalb des Applesuniversums anbieten. Und das wird ein wirklicher Gamechanger für intel darstellen. Alle hochpreisigen Laptops werden dann eher Lunar Lake und später die Ableger davon tragen.
Ich finde der Paradigmenwechsel ist schon jetzt zu spüren.
Plus: krass wäre wenn die Hardware von Switch 2 wesentlich weniger effizienter arbeiten würde als die LUNAR LAKE APU. Dann wäre Intel noch im HandHeld Bereich alternativlos!
fondness
2024-06-06, 09:15:36
Meiner Meinung nach kann Intel "Apple" Effizienz außerhalb des Applesuniversums anbieten. Und das wird ein wirklicher Gamechanger für intel darstellen.
Ja eh. Ist halt nichts, dass AMD nicht schon seit Jahren anbietet und keinen interessierts.
Plus: krass wäre wenn die Hardware von Switch 2 wesentlich weniger effizienter arbeiten würde als die LUNAR LAKE APU. Dann wäre Intel noch im HandHeld Bereich alternativlos!
Als ob das bei der Switch jemals eine Rolle gespielt hat. Die ist jetzt auch völlig unterlegen.
Kriegsgeier
2024-06-06, 09:22:42
Wirklich? Und das nicht mit 45 Watt? Ich spreche hier von <15 Watt und dann die Leistung von einem 45-55 Watt Teil. Und das kann AMD auch noch nicht. Intel hoffentlich in 3 Monaten ;)
robbitop
2024-06-06, 09:24:35
Bevor hier alle ARROW LAKE nur auf A20 reduzieren: nicht vergessen bitte, dass ARROW LAKE die gleichen E- und P-Cores vom LUNAR LAKE teilt! Also die Microarchitektur selbst nicht zu krass vernachlässigen bitte.
Meiner Meinung nach kann Intel "Apple" Effizienz außerhalb des Applesuniversums anbieten. Und das wird ein wirklicher Gamechanger für intel darstellen. Alle hochpreisigen Laptops werden dann eher Lunar Lake und später die Ableger davon tragen.
Ich finde der Paradigmenwechsel ist schon jetzt zu spüren.
Plus: krass wäre wenn die Hardware von Switch 2 wesentlich weniger effizienter arbeiten würde als die LUNAR LAKE APU. Dann wäre Intel noch im HandHeld Bereich alternativlos!
Die Switch 2 bekommt einen schon fast antiken SoC. Mit A78 CPU Cores (2020 der erste Einsatz) und Ampere GPU IP (2020 der erste Einsatz) und wahrschein gefertigt in Samsungs 8LPP (einem 10 nm Prozess der etwas optimiert wurde) oder Samsungs 7LPP (der noch meilenweit hinter TSMCs N7 liegt, welcher 2018 das erste mal genutzt wurde).
Der Switch 2 SoC ist laut MLID seit 2022 fertig und wurde komplett auf low cost optimiert (deshalb auch ein billiger, alter Fertigungsprozess). Die Switch 2 wird wahrscheinlich 2025 herauskommen. Da werden wahrscheinlich alle ARM high end SoCs mit N3B oder N3E gebaut werden und wahrscheinlich würde die Switch 2 SoC von allem abgehängt werden was perf/W angeht.
Jetzt muss man bedenken, dass jeder SoC und jede uArch Implementierung für einen bestimmten Performance und Energieenvelope geplant ist. Da kann man natürlich etwas mit Takt und Spannung nach oben und unten skalieren - aber zu beiden Seiten fällt die Kurve irgendwann ab.
Bedeutet ein 28W SoC wird sagen wir mal in einem TDP Budget von <10W so überproportional an Takt und Leistung verlieren, dass er auch von einem älteren SoC, der für <10W ausgelegt ist, besiegt werden kann.
Sieht man zB an AMD's Van Gohh. Man kann sagen, das war AMDs Version von Lunar Lake (nur eben schon im Jahr 2021). Absolut optimiert für <15W. Skaliert kaum noch über 15W ist aber hervorragend für <15W. Und schlägt dort selbst Phoenix deutlich der in 4 nm gebaut wurde und deutlich neuere CPU und GPU IP hatte.
Wenn Nintendo nicht viel ändert (also sagen wir Switch 1 Formfaktor), wird das Power Budget für den SoC nicht 15W (oder wie moderne Handhelds zT >25W) betragen sondern eher <10W - vielleicht sogar deutlich <10W.
Wenn es zB 7 W wären, könnte es sein, dass selbst Lunar Lake da nicht mehr toll skaliert und überproportional an Leistung einbüßen muss, so dass tatsächlich ein älterer ARM SoC nicht schlecht dasteht.
Ist aber am Ende irrelevant, denn die HW für Nintendo's Switch muss günstig sein, damit sie bei der Konsole keinen Verlust machen und diese auch gekauft wird. Da wäre ein LL (und wahrscheinlich ein Strix) zu teuer. Da ist ein "alter" SoC im "alten" Prozess wahrscheinlich die bessere Wahl.
Aber Lunar Lake wird seine Anwendung sicherlich auch in Gaming Handhelds finden. Die Frage ist nur, wie gut sind die Linux Treiber. Denn Windows auf einem Handheld ist gewöhnungsbedürftig (und ja ich weiß - da gibt es Möglichkeiten es hinzubekommen - aber so ganz unfrickelig wird es nicht - siehe Windowsupdates usw).
Wenn Valve wirklich wahrmacht und eine HW agnostische Version von SteamOS herausbringt, werden Linux Treiber wichtig werden.
AMD hat den Vorteil dass die Linuxtreiber ziemlich gut sind - zT besser als deren Windowstreiber. IIRC gibt es da aber auch eine große Opensource community die die Linuxtreiber schreibt. Keine Ahnung wie es da bei Intel ist.
Was die Apple Effizienz angeht: von der HW kann es gut sein, dass LL das kann. Aber Apple hat den Vorteil, dass sie auch das OS machen. MacOS scheint einen guten Teil der Sparsamkeit auszumachen - und es scheint so als würde es Ermöglichen, dass Apple auch viel von ihren Fixed Function HW Blöcken oft einsetzen kann (fixed function HW ist oft deutlich energie effizienter als general purpose HW). Und dazu (zumindest für Leute die Videoverarbeitung machen) die HW Beschleunigung von ProRes.
Aber dennoch ist LL als HW schon beeindruckend und wird sicherlich ganz vorn sein, was energieeffiziente mobile devices angeht. Mal schauen wie gut der Qualcomm SoC ist und Strix. Ich könnte mir vorstellen, dass es bei Gaming ein enges Rennen zwischen LL und Strix gibt im lowTDP Bereich. Im höheren wird Strix davon ziehen. Im non Gaming Energieeffizienzbereich könnte es eher ein enges Rennen zwischen QCom und LL geben. Warum? Ist mein "Bauchgefühl" nach dem was so vorgestellt wurde. Mal schauen - hach wie spannend es endlich geworden ist. Endlich mehr Wettbewerb! (und das ist gut für uns Endkunden)
Kriegsgeier
2024-06-06, 09:33:16
Interessant was du da schreibst.
PS: muss nicht QCom beim Windows in einer Art Emulator laufen? Und LL wäre dann eher eine native Lösung?
Undertaker
2024-06-06, 09:43:42
Naja AMD hat noch Strix. Da muss man erstmal abwarten wie sich LL gegen astrid schlägt.
Da sind die Verbesserungen bei Fertigung und Technologie ungleich evolutionärer, vor allem aber zielt selbst Strix Point auf einen tendenziell höheren TDP-Bereich bis 45 Watt. Van Gogh hat ziemlich gut gezeigt, wie viel das ausmacht - und ein solches Pendant zu Lunar Lake explizit für den Handheld-TDP-Sweetspot ist Strix eben nicht. Klar kann man trotzdem entsprechend nach unten skalieren und bis ~15 Watt wird das auch halbwegs klappen, Lunar Lake hat in dieser Verbrauchsregion aber einen prinzipiellen Auslegungsvorteil.
robbitop
2024-06-06, 09:44:05
Interessant was du da schreibst.
PS: muss nicht QCom beim Windows in einer Art Emulator laufen? Und LL wäre dann eher eine native Lösung?
QCOM nutzt eine ARM CPU. Entsprechend kann diese nur ARM code ausführen. Alles was x86/x86-64 Code ist muss emuliert werden.
Meine Vermutung ist, dass Microsoft Windows nun so kompiliert hat, dass das OS sowohl in ARM als auch x86 vorliegt. Also nativ auf QCOM laufen kann. Wahrscheinlich auch die typische Software die MS macht. Browser, Paint, MS Office usw. Und sicherlich wird es auch Sachen wie Chrome und Firefox in ARM geben.
Aber wenn es um Dinge wie Spiele geht - die liegen (zumindest derzeit) nur in X86 vor. Entsprechend muss x86 in ARM übersetzt werden. Und das wird sicherlich etwas Geschwindigkeit kosten. Vermutlich im Bereich 20...40%. Irgendwo in dem Spektrum.
Sicherlich gibt es auch viel an Software für Windows (ich würde sagen aktuell die überwiegende Mehrzahl) für die das auch gilt.
Heißt: QCOM kann sich ihre Benchmarks danach aussuchen was in ARM vorliegt und dann cherrypicken.
Ein weiteres Problem für den QCOM SoC ist die Adreno Grafik. Adreno hat seine Wurzeln halt in Android Smartphones.
Bedeutet, dass sehr wahrscheinlich deren Treiber nicht annähernd auf dem Niveau von AMD/NV mitspielen (Spielespezifische Optimierungen, alte APIs optimiert usw). Bei Intel hat man ja gesehen wie viel Arbeit das war (und auch noch ist - sie sind immer noch nicht auf dem Level von AMD/NV - aber deutlich besser als vor 2 Jahren noch).
Und wer weiß wie gut die Adreno HW zu modernen Spielen passt. Auch da musste Intel mit ARC ordentlich Lehrgeld zahlen was Kompatibilität und Auslastung angeht.
robbitop
2024-06-06, 09:45:50
Da sind die Verbesserungen bei Fertigung und Technologie ungleich evolutionärer, vor allem aber zielt selbst Strix Point auf einen tendenziell höheren TDP-Bereich bis 45 Watt. Van Gogh hat ziemlich gut gezeigt, wie viel das ausmacht - und ein solches Pendant zu Lunar Lake explizit für den Handheld-TDP-Sweetspot ist Strix eben nicht. Klar kann man trotzdem entsprechend nach unten skalieren und bis ~15 Watt wird das auch halbwegs klappen, Lunar Lake hat in dieser Verbrauchsregion aber einen prinzipiellen Auslegungsvorteil.
Sehe ich ähnlich. Aber Intel hat auch mehr aufzuholen. Gerade im lowTDP Bereich.
Ich kann mir aber aus den gleichen Argumenten (von dir benannt) vorstellen, dass LL sub 15W besser da stehen wird. Strix' Vorgänger waren sub 15W auch nicht so toll (verglichen mit Van Gogh) - LLs Vorgänger waren da aber noch schlechter. :)
Laut Gerüchten will AMD ja auch einen ARM SoC (wahrscheinlich für dieses Segment) bauen. Ich hoffe jedenfalls, dass es irgendwann mal einen Van Gogh Nachfolger gibt. Denn mit VG hat AMD 2021 ja bereits ein LL ähnliches Konzept hingelegt was im Steam Deck hervorragend zeigt, wie gut man sein kann wenn man konsequent für <15W auslegt.
Vielleicht kommt ja 2025/26 ja nochmal was in N2 oder N3E mit RDNA4/5 und Zen6c oder so. 6c/12t wäre da auch ganz gut ausgesucht für die TDP Klasse. Idealerweise mit einem LLC, der die Energieeffizienz nochmal deutlich erhöht. Intel hat ja immerhin 8 MiB in LL eingebaut. Etwas mehr dürfte es schon sein - aber besser als nix. :)
Kriegsgeier
2024-06-06, 09:49:51
warum spricht ihr von sub 15 Watt überhaupt?
Sind sogar die permanent umgesetzte 15 Watt nicht wenig genug um eine <1kg Notebook (ok aus alu) lautlos betreiben zu können und das >10 Stunden?
PS: für sub 15 Watt haben wir doch Smartphones oder nicht?
dildo4u
2024-06-06, 09:54:24
15 Watt ist z.b Steam Deck das würde erlauben Windows Handhelds zu bauen die länger als 1 Stunde halten.
MSI hat eine Claw Version mit 80wh Akku plus Lunar Lake.
https://www.tomshardware.com/video-games/handheld-gaming/msis-claw-8-ai-is-first-lunar-lake-handheld-gaming-console-comes-in-fallout-themed-version
Kriegsgeier
2024-06-06, 10:01:24
ok, stimmt. Wenn ich etwas länger darüber nachdenke.
Hatte nur im Kopf, dass 45 Watt im Notebook sehr viel für eine CPU sind. Und die 15 Watt dachte ich wären ok bzw. relativ wenig --> für eine NAPU inkl. 32GB DDR5X Speicher wohlgemerkt ;)
robbitop
2024-06-06, 10:04:06
warum spricht ihr von sub 15 Watt überhaupt?
Sind sogar die permanent umgesetzte 15 Watt nicht wenig genug um eine <1kg Notebook (ok aus alu) lautlos betreiben zu können und das >10 Stunden?
PS: für sub 15 Watt haben wir doch Smartphones oder nicht?
Smartphone SoCs liegen wahrscheinlich eher bei 5W peak. Dünne, ultra leichte Notebooks sind bei 15W. Alles was mehr ist wird dicker / schwerer.
fondness
2024-06-06, 10:14:21
Naja AMD hat noch Strix. Da muss man erstmal abwarten wie sich LL gegen Strix schlägt.
Kraken point wäre da wohl der sinnvollere Gegenpart zu LL. Strix liegt eigentlich klar darüber. Der soll mit 4 Zen 5 plus 4 Zen 5c cores kommen und 512 RDNA35 SPs haben. Also gleiche SP Anzahl wie van Gogh nur halt mit RDNA35, bei den cores eine ähnliche config wie LL aber man hat noch immer den SMT Vorteil. Und vielleicht kommt der ja sogar in 3nm.
Kriegsgeier
2024-06-06, 10:26:08
Habt ihr euch mal gefragt, warum genau Intel mit ihrem Lunar Lake den gleichen Prozess wie Apple bei TSMC abbekommen hat? Und AMD dennoch auf N4 setzen muss?
Na? Na?
Klar: weil das Design von Lunar Lake dem von Apple ähnlich ist! Ich glaube Intel + Apple + TSMC haben mehr Absprachen als wir denken.
robbitop
2024-06-06, 10:28:14
Kraken point wäre da wohl der sinnvollere Gegenpart zu LL. Strix liegt eigentlich klar darüber. Der soll mit 4 Zen 5 plus 4 Zen 5c cores kommen und 512 RDNA35 SPs haben. Also gleiche SP Anzahl wie van Gogh nur halt mit RDNA35, bei den cores eine ähnliche config wie LL aber man hat noch immer den SMT Vorteil. Und vielleicht kommt der ja sogar in 3nm.
Oh über Kraken Point habe ich bisher noch gar nichts gehört. Ja das wäre wie du sagst eher der Konkurrent - und ggf auch ein netter Nachfolger für VG im Steam Deck. Allerdings könnte es sein, dass man mit 8 CUs ggü den 8 VE von Xe2 (die ja breiter sind) dann (ggf deutlich) im Nachteil sein wird.
fondness
2024-06-06, 10:29:41
Habt ihr euch mal gefragt, warum genau Intel mit ihrem Lunar Lake den gleichen Prozess wie Apple bei TSMC abbekommen hat? Und AMD dennoch auf N4 setzen muss?
Na? Na?
Klar: weil das Design von Lunar Lake dem von Apple ähnlich ist! Ich glaube Intel + Apple + TSMC haben mehr Absprachen als wir denken.
Lol, das ist wohl eher eine simple kosten nutzen Rechnung. Zumal AMD ein größerer tsmc Kunde ist als Intel.
robbitop
2024-06-06, 10:31:29
Habt ihr euch mal gefragt, warum genau Intel mit ihrem Lunar Lake den gleichen Prozess wie Apple bei TSMC abbekommen hat? Und AMD dennoch auf N4 setzen muss?
Na? Na?
Klar: weil das Design von Lunar Lake dem von Apple ähnlich ist! Ich glaube Intel + Apple + TSMC haben mehr Absprachen als wir denken.
Also LL wurde in N3B gebaut (so wie der M3). Der M4 wurde in N3E gebaut. N3B scheint was Performance und Energieeffizienz angeht nicht so viel besser zu sein vs N4P wie man dachte (dafür dass das der nächste fullnode ist!). N3E hingegen macht dagegen schon einen besseren Sprung nach vorn.
Ansonsten vermute ich, dass Intel einfach ohne Wenn und Aber das bestmögliche Produkt hinlegen wollte und nicht limitiert durch einen alten Fertigungsprozess sein wollte.
Da N3 Kapazität aber noch begrenzt ist, ist es entsprechend teuer und nicht so breit verfügbar. Für AMD scheint der mix aus Preis und Verfügbarkeit für das entsprechende Volumen von Strix wichtiger zu sein.
fondness
2024-06-06, 10:33:11
Oh über Kraken Point habe ich bisher noch gar nichts gehört. Ja das wäre wie du sagst eher der Konkurrent - und ggf auch ein netter Nachfolger für VG im Steam Deck. Allerdings könnte es sein, dass man mit 8 CUs ggü den 8 VE von Xe2 (die ja breiter sind) dann (ggf deutlich) im Nachteil sein wird.
Ja da sind ohnehin noch sehr viele Fragezeichen drinnen. Mal schauen wie die Intel perf/Watt jetzt überhaupt aussieht und wie die gpu überhaupt performed. Aktuell ist man da im nirgendwo und das LL das jetzt alles auf den Kopf stellt muss man erstmal beweisen.
Zumal das mit der gpu Performance bei sehr kleinen TDPs ja nicht so einfach ist. So liegt auch Phoenix2 mit nur 4 CUs erstaunlich nahe an Phoenix mit 12 CUs. Und btw liegt aktuell selbst Phoenix2 mit nur 4 CUs vor Intel in 15W :-)
Bevor hier alle ARROW LAKE nur auf A20 reduzieren: nicht vergessen bitte, dass ARROW LAKE die gleichen E- und P-Cores vom LUNAR LAKE teilt! Also die Microarchitektur selbst nicht zu krass vernachlässigen bitte.
Meiner Meinung nach kann Intel "Apple" Effizienz außerhalb des Applesuniversums anbieten. Und das wird ein wirklicher Gamechanger für intel darstellen. Alle hochpreisigen Laptops werden dann eher Lunar Lake und später die Ableger davon tragen.
Ich finde der Paradigmenwechsel ist schon jetzt zu spüren.
Plus: krass wäre wenn die Hardware von Switch 2 wesentlich weniger effizienter arbeiten würde als die LUNAR LAKE APU. Dann wäre Intel noch im HandHeld Bereich alternativlos!
Arrow Lake fehlen die Skymont LPE Kerne im Compute tile, weswegen die Akkulaufzeit/Effizienz im praxisnahen Betrieb nicht ansatzweise auf dem Niveau von Lunar Lake liegen wird. Erst durch die LPE kann der Ringbus mitsamt der Kerne schlafen gelegt werden. Das dürfte der eigentliche Vorteil sein und ich vermute Lunar Lake wird im x86 Bereich konkurrenzlos sein. Erst mit Panther Lake setzt Intel auf das gleiche Design wie bei Lunar Lake, es baut darauf auf.
Kriegsgeier
2024-06-06, 11:15:12
kannst du das noch etwas detaillierter erläutern?
Hat also ARROW Lake nur die E und P Kerne vom LUNAR Lake aber nicht das Management dieser?
robbitop
2024-06-06, 11:16:30
So wie Intel über die E-Cores spricht, klingt es für mich so als wenn die P Cores (so wie sie jetzt sind) keine Zukunft haben und erstmal nur ein stop gap sind. Dann irgendwann die Royal Cores only (mit rentable units).
kannst du das noch etwas detaillierter erläutern?
Hat also ARROW Lake nur die E und P Kerne vom LUNAR Lake aber nicht das Management dieser?
lies dir doch einen Launch Artikel von Lunar Lake durch. So wie den von Computerbase. Da steht alles drin. Grob gesagt sind die 4 E Cores in LL nicht am Ringbus der P Cores und des L3 Cache sondern sind in ihrer eigenen Island. Mit eigener Powerrail.
Entsprechend muss der Ringbus und der L3 Cache nicht angeworfen werden, wenn die low power island es allein packt. Das spart Strom. Bei den bisherigen CPUs und Arrowlake sind die E-Cores mit im Ringbus und haben wahrscheinlich auch die gleiche voltage rail.
kannst du das noch etwas detaillierter erläutern?
Hat also ARROW Lake nur die E und P Kerne vom LUNAR Lake aber nicht das Management dieser?
Arrow Lake hat Lion Cove und Skymont im Ringbus. Die LPE Skymont außerhalb vom Ringbus fehlen. Arrow Lake-H hat noch die 2 alten Crestmont LPE im Soc tile, die aber im praxisnahen Betrieb nur für sehr sehr leichte workloads einen Nutzen haben. ARL-H ist wie MTL-H, nur dass die Ringbus Kerne erneuert wurden. Bei Lunar Lake ist alles Neu. Es hat gute Gründe, weshalb Intel kaum bis gar nicht von ARL mobile spricht. Alleine die alte NPU ist ein Fail. Immerhin haben sie Lunar Lake, das werden sie puschen.
Kriegsgeier
2024-06-06, 11:24:28
jetzt habe ich es verstanden. Thx.
PS: ja, das mit P Cores als aussterbende Spezies spürt man förmlich. Aber dann in 2-5 Jahren werden die neuen "besseren" E Cores dann plötzlich aufgebläht - so die Vermutung.
Irgendwas muss mit dem Cash passieren. Am besten es gibt nur den L0 Cash und das 100 Mb für alle freizugänglich. Wäre es überhaupt möglich? Oder ein separater Cash Baustein auf dem neuen intel-Interposer...
Ja ich weiß: E = 1/2CU² usw. Die Biester Cs sind überall und müssen umgeladen werden :(
Exxtreme
2024-06-06, 11:29:25
Irgendwas muss mit dem Cash passieren. Am besten es gibt nur den L0 Cash und das 100 Mb für alle freizugänglich. Wäre es überhaupt möglich? Oder ein separater Cash Baustein auf dem neuen intel-Interposer...
Die Latenzen wären zu hoch. Je größer der Cache desto höher die Latenzen. Und deshalb gibt es ja diese Aufteilung mit Level 1, 2, 3 etc. Einen einzigen riesigen Level 1-Cache zu machen wäre kein Problem. Nur hätte er die Latenz eines Level 3-Cache. Und deshalb teilt man das auf, dass der Level 1-Cache nur sehr wenige Nanosekunden Latenz hat.
fondness
2024-06-06, 11:48:35
Arrow Lake fehlen die Skymont LPE Kerne im Compute tile, weswegen die Akkulaufzeit/Effizienz im praxisnahen Betrieb nicht ansatzweise auf dem Niveau von Lunar Lake liegen wird. Erst durch die LPE kann der Ringbus mitsamt der Kerne schlafen gelegt werden. Das dürfte der eigentliche Vorteil sein und ich vermute Lunar Lake wird im x86 Bereich konkurrenzlos sein. Erst mit Panther Lake setzt Intel auf das gleiche Design wie bei Lunar Lake, es baut darauf auf.
Das hat allerdings auch potentiell klare Nachteile was die Performance betrifft. Ich bin gespannt wie Intel das löst und wie das im Detail aussieht und sich auswirkt. Ein gemeinsamer Ringbus und L3 ist eben primär da um möglichst schnell Daten austauschen zu können. Und wenn man dann jedes mal einen context Switch machen muss wenn man die P-Cores doch braucht stelle ich mir auch nicht gerade lustig vor.
Das hat allerdings auch potentiell klare Nachteile was die Performance betrifft. Ich bin gespannt wie Intel das löst und wie das im Detail aussieht und sich auswirkt. Ein gemeinsamer Ringbus und L3 ist eben primär da um möglichst schnell Daten austauschen zu können. Und wenn man dann jedes mal einen context Switch machen muss wenn man die P-Cores doch braucht stelle ich mir auch nicht gerade lustig vor.
Der Unterschied zwischen Skymont Ringbus LLC und Skymont LPE beträgt laut Intel etwa 5%.
fondness
2024-06-06, 12:26:14
Der Unterschied zwischen Skymont Ringbus LLC und Skymont LPE beträgt laut Intel etwa 5%.
Das ist vermutlich ein nichtssagender Durchschnittswert. Wenn ich da eine Multi-Core-Anwendung habe, die massiv Daten zwischen den Kernen schiebt verliere ich mit hoher Wahrscheinlichkeit sehr viel mehr als 5%.
robbitop
2024-06-06, 12:32:11
In Spielen wird es mehr sein als 5%. Die sind ja oft ziemlich dominiert von Latency. Aber ggf. federt der LLC nochmal etwas ab.
latiose88
2024-06-06, 12:36:10
für eine NAPU inkl. 32GB DDR5X Speicher wohlgemerkt ;)
ähm was ist denn bitte sehr eine nwpu, was heißt das auf deutsch und die Bedeutung so?
latiose88
2024-06-06, 12:37:58
Ja das wäre wie du sagst eher der Konkurrent - und ggf auch ein netter Nachfolger für VG im Steam Deck. Allerdings könnte es sein, dass man mit 8 CUs ggü den 8 VE von Xe2 (die ja breiter sind) dann (ggf deutlich) im Nachteil sein wird.
wie heißt denn VG Ausgeschrieben oder bezog sich das auf was mit dem steam deck und so?
Kriegsgeier
2024-06-06, 12:38:15
Neural APU
robbitop
2024-06-06, 12:41:34
wie heißt denn VG Ausgeschrieben oder bezog sich das auf was mit dem steam deck und so?
Van Gogh. Die Steam Deck APU.
iamthebear
2024-06-06, 21:37:52
Ja eh. Ist halt nichts, dass AMD nicht schon seit Jahren anbietet und keinen interessierts.
Geh Mal auf Geizhals und schau nach wie viele Zen4 Modelle du mit Win11 Pro (d.h. Hardware qualitativ geeignet für Businesskunden) es nach fast 2 Jahren gibt und was diese kosten. Unter 1K findest du da gar nichts. AMD liefert an den Laptopmark großteils Zen3 oder sogar Zen2.
Zum Vergleich: Raptor Cove bekommst du ab 500 Euro. Selbst MTL ist bereits ab 850€ zu haben.
Arrow Lake fehlen die Skymont LPE Kerne im Compute tile, weswegen die Akkulaufzeit/Effizienz im praxisnahen Betrieb nicht ansatzweise auf dem Niveau von Lunar Lake liegen wird. Erst durch die LPE kann der Ringbus mitsamt der Kerne schlafen gelegt werden. Das dürfte der eigentliche Vorteil sein und ich vermute Lunar Lake wird im x86 Bereich konkurrenzlos sein. Erst mit Panther Lake setzt Intel auf das gleiche Design wie bei Lunar Lake, es baut darauf auf.
Was die Akkulaufzeit durch die niedrigeren Idle Verbräuche im Office Alltag angeht magst du sicher Recht haben.
Für das Kühlkonzept das bestimmt wie dünn die Geräte werden ist jedoch eher der Verbrauch unter Last relevant und hier wird der Verbrauch pro Kern sicher ähnlich sein.
Wenn Lunar Lake 4+4 mit 15W vernünftig läuft dann werden 6+8 ARL mit 28W auch gut funktionieren.
Oder umgekehrt: Wenn man einen ARL 6+8 in dasselbe 25W Design wie aktuell RPL 2+8 steckt wird der abgehen wie die Sau und ist das ideale Upgrade für die ganzen 2020 angeschafften Home Office/ELearning Ice Lakes.
So wie Intel über die E-Cores spricht, klingt es für mich so als wenn die P Cores (so wie sie jetzt sind) keine Zukunft haben und erstmal nur ein stop gap sind. Dann irgendwann die Royal Cores only (mit rentable units).
So wie ich das verstanden habe sind die "P Cores" dann deutlich kleiner, dafür gibt es doppelt so viele (gute MT Performance). Diese sind in einem Cluster von 2 Kernen angeordnet und wenn nicht alle Kerne gebraucht werden dann "borgt" sich der Kern einige Einheiten des Nachbarkerns aus. Also genau das Gegenteil von SMT.
Da stellt sich mir eher die Frage wozu es dann noch E Cores braucht wenn die P Cores dieselbe Größe haben.
Der Unterschied zwischen Skymont Ringbus LLC und Skymont LPE beträgt laut Intel etwa 5%.
Ich denke das wird in der Praxis deutlich komplizierter sein als dass man da pauschal eine Aussage treffen kann.
Ein großer Teil der Software dessen Daten in die 4MB L2 passen werden da nicht viel Unterschied spüren.
Was Gaming angeht ist das eine Schedulingfrage:
Wird klassisches Scheduling betrieben wird die Performance wohl ziemlich einbrechen sobald Gaming Threads auf einen E Core ohne L3 geschoben werden da dann so gut wie alles aus dem RAM gelesen werden muss.
Wird Smart Scheduling betrieben wie mit APO so landen auf den E Core Clustern verteilt die Threads, die hauptsächlich nur mit ihren eigenen Daten arbeiten. Wenn man da die richtigen 4 Threads erwischt so entlastet das die L3 Kapazität um bis zu 16MB.
robbitop
2024-06-07, 06:56:36
Beim Gaming auf einem LL SoC wird man bei 15W ohnehin meist GPU limitiert sein. Entsprechend macht es wahrscheinlich Sinn in den meisten Fällen, die E-Cores zuerst zu nutzen. Die liefern der GPU wahrscheinlich meistens genug fps.
Vllt sind aber die 15 W auch wieder nur Makulatur, wie seit vielen Jahren bei Intel.
robbitop
2024-06-07, 08:33:44
Wie meinst du das genau?
Ausgerechnet bei Intel die in den letzten Jahren jede Mikrosekunde zum "boosten" über die TDP hinaus nutzten, um bspw. in kurzen Benchmarks besser dazustehen, als es eigentlich der Fall ist, nun davon auszugehen, daß sie ein hartes 15 W-Limit einführen, wie früher, finde ich doch etwas voreilig.
Am MSI Claw sieht man gut, was Intel bei niedrigem und bei den Geräten praxisnahem Energieumsatz erstmal aufzuholen hat, ggü. AMD. https://www.computerbase.de/2024-02/erste-benchmarks-msi-claw-mit-core-ultra-gegen-rog-ally-mit-ryzen-z1-extreme/
https://www.hardwareluxx.de/index.php/artikel/consumer-electronics/konsolen/63461-der-meteor-hinterlaesst-keinen-krater-die-msi-claw-im-test.html?start=2
robbitop
2024-06-07, 09:13:25
OK verstehe ich und die Skepsis ist anhand der Vergangenheit angebracht.
Es gibt aber sehr sehr gute Argumente warum es mit LL anders sein sollte:
- eine extra SKU (mit eigenen Chips und Packaging) für Ultra Low Power
- das compute tile ist praktisch monolitisch (ggü Meteorlake) - entsprechend weniger Verluste für interchip communication (selbst mit modernem packaging kostet off chip transfers mehr joules pro bit als onchip)
- man hat extra das Compute tile in TSMCs N3 fertigen lassen
- es gibt on package memory (kürzere Signalwege -> RAM Zugriffe kosten weniger joules pro bit)
- es gibt einen zusätzlichen 8 MiB LLC, der RAM Zugriffe reduziert (spart joules pro bit im Durchschnitt)
- E Cores als seperates power island
- der Thread direktor hat Priorität 1 auf die E-Cores (anstatt wie sonst auf die P Cores) - was für niedrige Betriebspunkte absolut Sinn macht
- die E Cores takten endlich deutlich niedriger als die P cores und sollten somit endlich Gebrauch von ihrem Skalierungsvorteil haben
- nur 4 P Cores
- der Fortschritt der E Cores ist beeindruckend
- die Demo vs MTL zeigte >2x Energieeffizienz (3DMark auf 60fps festgetackert und der MTL SoC nahm ~25-30W und der LL SoC nahm 12-15W bei gleicher Szene! und bei LL war sogar der Stromverbrauch des Speichers schon inkludiert weil on package und bei MTL kommt das noch on top)
LL erscheint mir als Gesamtkonstrukt (siehe auch das gute Video von high yield) wirklich von vorn bis hinten als ULP SoC ausgelegt zu sein.
Kriegsgeier
2024-06-07, 09:15:40
nene, hier handelt es sich ja um Ultrabook Segment --> die Akkulaufzeit würde sonst diese Boosterei sofort auffliegen lassen.
Daher denke ich, dass Intel genau bei Lunar Lake voll abliefern wird.
Genau!
PLUS: ein Auftrag ARM vs. x86 Schlacht zu gewinnen!
Sicher, aber der wirklichen Vor- und Nachteile in allen Aspekten (Preis?) werden sich erst im Praxiseinsatz erweisen. Bis dahin würde ich den Ball mal fach halten, nach all den groooßen Ankündigungen von Intel der letzen Jahre.
Kriegsgeier
2024-06-07, 09:26:07
also preislich wird Intel bei Lunar Lake an Apple orientieren. Anders geht es wohl kaum:
N3B Prozess --> teuer
Zusammensetzung auf dem Interposer (oder wie die Baseplate da heißt) kostet auch.
Speicher schon dabei --> 16 oder 32GB
Hier hätte ich an Intels Stelle eher 16Gb und 64Gb angeboten...
Die Systemseller werden aber dafür günstiger produzieren können --> geringerer Kühlungsaufwand + weniger Abschirmung --> Bessere WLAN Antennen?
Wesentlich weniger externe Chips für i/o?
robbitop
2024-06-07, 09:31:17
Sicher, aber der wirklichen Vor- und Nachteile in allen Aspekten (Preis?) werden sich erst im Praxiseinsatz erweisen. Bis dahin würde ich den Ball mal fach halten, nach all den groooßen Ankündigungen von Intel der letzen Jahre.
Grundsätzlich sehe ich das auch so. Aber: es gab ja immerhin schon eine Demo mit Praxisergebnissen (die ich genannt habe). Das heißt wir wissen in der Praxis, dass LL mit 12-15W das leistet was MTL in 26-30 W leistet. Auf MTL kann man wahrscheinlich sogar noch 5W drauf addieren für den RAM, der ja bei LL schon inkludiert ist.
Ohne diese Demo würde ich es genauso sehen - aber so ist ein gewisser Optimismus schon angebracht.
Ich bin allerdings hauptsächlich begeistert wie konsequent Intel den SoC zusammengestellt hat für ULP. Konzeptionell ziemlich vergleichbar mit den Apple M SoCs.
fondness
2024-06-07, 09:55:27
Das heißt wir wissen in der Praxis, dass LL mit 12-15W das leistet was MTL in 26-30 W leistet. Auf MTL kann man wahrscheinlich sogar noch 5W drauf addieren für den RAM, der ja bei LL schon inkludiert ist.
Selbst wenn das alles so ist und es da nicht noch irgendeinen Pferdefuß gibt wie so oft bei Intel in den letzten Jahren, reicht das vermutlich gerade mal um mit AMDs alten Chips gleichzuziehen. Es ist ja bekannt, dass MTL nach unten sehr schlecht skaliert. Und das alles bei riesigen Aufwand und einem full Mode shrink Vorsprung? Naja. Und für den RAM hat Intel 2W angegeben.
Aber gut ich verstehe es irgendwie schon, man spürt hier regelrecht mit jeder Phaser seines Körpers wie lange die Intel Anhänger leiden musste. Da ist etwas Euphorie wohl durchaus angebracht wenns dann mal wieder einen deutlichen Fortschritt gibt. :)
robbitop
2024-06-07, 09:59:47
Also ich für meine Person bin ein Tech-Anhänger. Ich kann mich für jeden IHV begeistern (ich bin als Ingenieur grundsätzlich Technik und Technologiebegeistert) und empfinde LL ist ein technisch sehr interessanter SoC, egal ob er von Intel ist oder sonst wem. Warum man sich auf einen IHV festlegen muss habe ich noch nie verstanden. (ich kaufe immer das was ich am interessantesten finde - Intel oder AMD - hatte viele Core CPUs und aktuell einen 5800X3D weil P/L super gut war. Ich hatte Radeons, ich hatte Geforces, ich hatte Matrox und mehrere 3DFX Voodoos und S3 (sogar die Chrome S20 Series)).
(geht mir beim Fußball aber auch so - ich schaue grundsätzlich gern Fußball aber habe keine Präferenz für irgendwen - ich schaue einfach gern guten Fußball und mir ist egal wer gewinnt - insofern habe ich das Fan Prinzip nie verstanden ^^)
Wenn man mal objektiv ist, muss man schon zugeben, dass LL rein auf technischer Ebene absolut interessant ist und sehr konsequent für ULP ausgelegt ist (also </=15W die beste Performance zeigen sollte). In >15W wird er schnell (wie Van Gogh) ausgefahren sein und abgehängt werden - aber <15W kann sich das schnell drehen. Man sieht ja bei vielen SoCs, dass < 15W sie überproportional zusammenbrechen von der Leistung. Und zumindest kennen wir einen Datenpunkt dank der Demo. Ich sehe es aber auch so, dass man nach wie vor skeptisch bleiben muss bis es erste Tests gibt. Sub 15W kann ich mir aber gut vorstellen, dass LL besonders gut dastehen wird.
fondness
2024-06-07, 10:04:13
Na eh, aber man muss halt immer schauen mit was verglichen wird. Man braucht sich ja nur mal diese von pirx verlinken benchmarks, ebenfalls vom 3dmark anzusehen.
https://www.hardwareluxx.de/index.php/artikel/consumer-electronics/konsolen/63461-der-meteor-hinterlaesst-keinen-krater-die-msi-claw-im-test.html?start=2
Und da fehlen die wirklich schmutzigen Werte mit unter 35W für MTL. Das reicht häufig mit 35W nicht mal für ein 15W ROG Ally und selbst ein 10W Steam Deck ist häufig schneller.
robbitop
2024-06-07, 10:10:19
Uh das ist ja richtig übel. Aber: ich habe irgendwo gelesen (ich glaube sogar hier im Forum), dass im April updates für MTL kamen, die deutlich Perf/W gebracht haben. Die Frage ist, ob das in dem Test schon installiert war. Aber der Test ist ja sehr sehr neu. Kann also sein.
Aber ja: der "Fog of war" ist zu dicht, um es relativ zu Strix oder Hawk Point oder Phoenix vergleichen zu können.
fondness
2024-06-07, 10:11:38
Der test ist von 30. April mit damals aktuellsten Treibern.
robbitop
2024-06-07, 10:15:14
Um so schlimmer für MTL.
fondness
2024-06-07, 10:16:17
Um so schlimmer für MTL.
Ja ist so, der "Fog of War" sieht für mich aktuell so aus, dass doppelte perf/Watt bei 15 W zu wenig ist.
Das müsstest du eh am besten wissen, du spielst auf einem 10W Steam Deck aktuelle Spiele :-). Die Dinger sind unfassbar effizient.
robbitop
2024-06-07, 10:18:45
Ja und ausgehend von VG will ich eine Verdopplung. ^^
fondness
2024-06-07, 10:45:10
Das wäre vermutlich mit einem VG-Nachfolger in 3nm möglich, aber wohl kaum mit einem LL. Die Cores saufen bei Intel einfach zu viel, da hilft auch 3nm nur begrenzt. Aber gut mal abwarten und Tests studieren.
robbitop
2024-06-07, 11:02:46
Das wäre vermutlich mit einem VG-Nachfolger in 3nm möglich, aber wohl kaum mit einem LL. Die Cores saufen bei Intel einfach zu viel, da hilft auch 3nm nur begrenzt. Aber gut mal abwarten und Tests studieren.
Ja das wird noch dauern. Ich befürchte sogar fast, dass Valve keinen custom SoC mehr beauftragen wird. Gerüchte besagen, dass AMD VG für Microsoft Surface (und ggf noch für dieses eine VR Headset) gemacht hat und die abgesprungen sind und VG schon fast fertig war und Valve dann übernommen hat. Den 6 nm Shrink hat Valve ggf bezahlt. Aber ob sich irgendwann ein brand neuer SoC nur für das Steam Deck lohnen wird...?
Was Kraken angeht - waren die Gerüchte leider bei 2025 und nur 4 nm. Scheint eher ein Nachfolger für Little Phoenix zu werden. War Little Phoenix denn besonders effizient in <15W? In Handhelds wurde der IIRC gar nicht verbaut. edit: hm der hatte auch nur 2 WGPs.
Die neuen E-Cores könnten aber sparsamer sein. Und soweit ich LL verstanden habe, werden die E-Cores mit höherer Priorität angeschaltet und die P Cores nur wenn die E-Cores es nicht schaffen. Und für das was die iGPU im Gesamtenvelope von 15W schafft, sollten die E-Cores ja reichen.
Naja mal schauen was die Tests sagen.
Für das Steam Deck wäre LL vermutlich sowieso zu teuer und vermutlich sind Intels Linux Treiber nicht auf dem Stand wie AMDs.
Uh das ist ja richtig übel. Aber: ich habe irgendwo gelesen (ich glaube sogar hier im Forum), dass im April updates für MTL kamen, die deutlich Perf/W gebracht haben. Die Frage ist, ob das in dem Test schon installiert war. Aber der Test ist ja sehr sehr neu. Kann also sein.
Aber ja: der "Fog of war" ist zu dicht, um es relativ zu Strix oder Hawk Point oder Phoenix vergleichen zu können.
Das große Mai Update fehlt: https://www.msi.com/news/detail/The-MSI-Claw-Gaming-Handheld-Sees-Another-Game-Performance-Boost-Through-New-BIOS-and-MSI-Center-M-143666
Aber ja MTL wird nie super performen unterhalb von 30W. Intel sagt ja selber bei der Xe2 LNL Vorstellung, dass MTL-H/Xe LPG 8 Xe schlecht nach unten skaliert: https://youtu.be/cH4D0_sW38A?t=1227
Xe2 deep dive von Petersen gibt es hier: https://youtu.be/-2yxPal4wQI
Lunar Lake kommt auch erst in 4 Monaten, da kann sich noch einiges ändern bis dahin.
fondness
2024-06-07, 11:23:20
Was Kraken angeht - waren die Gerüchte leider bei 2025 und nur 4 nm.
Ja Kraken muss mal abwarten. Es gab mal einen Eintrag eines AMD-Mitarbeiters bei Linkedin, der für Kraken einen kleineren Fertigungsprozess vorsah, deshalb halte ich 3nm für nicht so unwahrscheinlich.
Scheint eher ein Nachfolger für Little Phoenix zu werden. War Little Phoenix denn besonders effizient in <15W? In Handhelds wurde der IIRC gar nicht verbaut. edit: hm der hatte auch nur 2 WGPs.
Klar wird der verbaut, ist der Ryzen Z1. Und ich sage mal so, für einen MTL reicht es selbst mit nur 2 WGPs. :D Er ist auch erstaunlich nahe am Z1 Extreme dran mit 12 CUs.
Die neuen E-Cores könnten aber sparsamer sein. Und soweit ich LL verstanden habe, werden die E-Cores mit höherer Priorität angeschaltet und die P Cores nur wenn die E-Cores es nicht schaffen. Und für das was die iGPU im Gesamtenvelope von 15W schafft, sollten die E-Cores ja reichen.
Naja mal schauen was die Tests sagen.
Nur 4 Threads sind IMO zu wenig für Spiele. Selbst 8 Threads ist nicht viel. So wie ich das sehe werden da bei Spielen sowohl die E- als auch die P-Cores beschäftigt sein.
Kriegsgeier
2024-06-07, 12:06:42
Also jetzt, nach dem Video verstehe ich wer genau der Konkurrent von Lunar Lake werden wird:
Snapdragon X Elite
PS: im Endeffekt sind es Apples Köpfe, die dieses Monster erschaffen haben. Wahnsinns Video:
Ach ja: war jedem klar, dass Quallcoms neuer Drache ca. 180mm Fläche aufweist?
Apples M4 hat ca. 140mm! Wahnsinn
https://youtu.be/PGjdN_qfqgg?si=WykolkcofYYMrT3l
Kriegsgeier
2024-06-07, 12:21:20
Eine Frage noch: wie kann es sein, dass der Design von Lunar Lake Ende 2019 startete und das Ding schon eine NPU bekommen hat? Der AI Hype ist doch erst Ende 2022 gestartet?
Einer eine Idee?
Kriegsgeier
2024-06-07, 12:29:49
Langsam verstehe ich auch warum man NVIDIA verboten hat ARM zu übernehmen.
robbitop
2024-06-07, 12:40:22
Klar wird der verbaut, ist der Ryzen Z1. Und ich sage mal so, für einen MTL reicht es selbst mit nur 2 WGPs. :D Er ist auch erstaunlich nahe am Z1 Extreme dran mit 12 CUs.
Ah - ok ich dachte immer das wäre ein Cutdown Phoenix gewesen? IIRC war Z1 was Energieeffizienz anging im LTT Test nicht so toll.
Und klar skalieren die 12 CUs nicht so toll in Phoenix weil sie schnell in ein Bandbreitenlimit rennen. Es ist eine Schande, dass es bis dato noch keinen ULP SoC mit ordentlichem IF$/LLC gibt. 16 MiB IF$ für die GPU würde wahrscheinlich schon ordentlich was tun.
Nur 4 Threads sind IMO zu wenig für Spiele. Selbst 8 Threads ist nicht viel. So wie ich das sehe werden da bei Spielen sowohl die E- als auch die P-Cores beschäftigt sein.
Ja die P Cores werden anspringen müssen - aber dann nur für die Nebenthreads - aber klar es gibt auch Spiele, die 8T richtig auslasten können (und mehr). Andererseits ist im <15W Envelope eh nicht so viel Framerate drin. Entsprechend sind die CPUs nicht soo am Limit bzw können ordentlich runtertakten.
Aber ja ich denke auch dass 6-8 effiziente Cores mit SMT für einen next gen Handheld SoC die bessere Wahl gewesen wären. Vielleicht hätte Intel mal lieber 2P + 8E verbaut.
Eine Frage noch: wie kann es sein, dass der Design von Lunar Lake Ende 2019 startete und das Ding schon eine NPU bekommen hat? Der AI Hype ist doch erst Ende 2022 gestartet?
Einer eine Idee?
(1) ich denke nicht, dass der Komplette SoC 2019 schon in Stein gemeißelt war. Wahrscheinlich hat man da mit den ersten IP Blöcken begonnen. Eine NPU nachschieben, ging wahrscheinlich noch bis 2020...21...22?
(2) Ist das Thema AI mindestens seit mitte der 2010er Jahre eigentlich klar gewesen, dass es richtig abgeht. OpenAI wurde 2015 gegründet und da hatte Elon Musk schon seine Finger mit drin (als einer der Finanzierer - und 2015 hatte er nicht annähernd die Möglichkeiten wie heute) Google hat schon 2016 TPUs gebaut (und sowas erforder große Investitionen), 2017 wurde das Transformer Modell erfunden, was die Vielseitigkeit und Effizienz für NN nochmal auf eine andere Stufe gehoben hat. Nvidia brachte mit Volta 2017 die erste uArch mit Matrixcores. Und andere große wie Amazon haben da auch schon an custom Silicon geschraubt für AI. Und vom fertigen Produkt bis zum Start sind sicherlich auch 3-4 Jahre. Also kann man gut sagen, dass vor ~10 Jahren der Anfang für diese Hockeystickcurve gelegt wurde - davor gab es NN schon Jahrzehnte aber dümpelte ziemlich herum weil es noch sehr in den Kinderschuhen steckte und die Rechenleistung noch sehr eingeschränkt war.
2022 wusste es dann jeder Hans Franz in der Einkaufspassage - aber das war nicht mal ansatzweise der Anfang wo es richtig Bedeutung aufnahm.
y33H@
2024-06-07, 12:45:20
Eine Frage noch: wie kann es sein, dass der Design von Lunar Lake Ende 2019 startete und das Ding schon eine NPU bekommen hat? Der AI Hype ist doch erst Ende 2022 gestartet?Weil alle schon wussten wohin die Reise gehen soll ;)
Richtig cool wäre es, wenn man Softwareseitig das Compute tile deaktivieren könnte, so dass es gar nicht erst anspringt und umgedreht nur mit Ringbus Kerne ohne LPE genauso. So könnte man interessante Tests fahren.
robbitop
2024-06-07, 12:49:06
Das compute tile ist doch der ganze N3 SoC. Wenn man den deaktiviert funktioniert der Computer nicht mehr. Du meinst den P-Core cluster mit Ringbus?
Exxtreme
2024-06-07, 12:49:55
Eine Frage noch: wie kann es sein, dass der Design von Lunar Lake Ende 2019 startete und das Ding schon eine NPU bekommen hat? Der AI Hype ist doch erst Ende 2022 gestartet?
Einer eine Idee?
AI ging schon vieeeeeeel früher los. Nur hat es damals nicht so geheissen.
Schau mal, Tensorflow kam 2015 raus:
https://de.wikipedia.org/wiki/TensorFlow
Das compute tile ist doch der ganze N3 SoC. Wenn man den deaktiviert funktioniert der Computer nicht mehr. Du meinst den P-Core cluster mit Ringbus?
P core Cluster ja. Aber gut E Kerne im Ringbus fehlen bei LNL, trotzdem wäre es interessant wenn es eine Art LPE Erzwingung geben könnte.
robbitop
2024-06-07, 13:03:51
Zum Glück bleibt der P Cluster aus bis die E Cores es nicht mehr allein schaffen und wird dann nur dazu geschaltet. Die E Cores sind diesmal in Front - so hab ich das von den launch slides verstanden.
fondness
2024-06-07, 13:29:22
Ah - ok ich dachte immer das wäre ein Cutdown Phoenix gewesen?
Nope ist little Phoenix.
IIRC war Z1 was Energieeffizienz anging im LTT Test nicht so toll.
Leider gibt da keine brauchbaren Tests dazu, zumindest kenne ich keine. Ich kenne nur Tests mit zu viel TDP und da lauft der 4CU little Phoenix knapp über MTL Niveau in Spielen. Aber wie er bei <15W performed, keine Ahnung. Sollte aber durch die c-Cores und weniger I/O allemal besser sein als bei Phoenix.
Bei 15W ist Phoenix mit 12 CUs jedenfalls noch knapp vorne (Performance Profil):
https://gamersnexus.net/handheld-pcs/asus-weird-rog-ally-non-extreme-z1-benchmarks-vs-z1-extreme-ally
Kriegsgeier
2024-06-07, 13:34:15
Kann es sein, dass Intels eingene Baseplate genau das beste für Back-Sine-Power Delivery darstellt? Und somit Intels Interposer non plus Ultra für die nächsten Chipgenerationen sein wird?
Denn, alles ist ja patentiert…
Kriegsgeier
2024-06-07, 13:53:54
Wenn nur 4% von Silicon für Teansistorlayer genutzt werden und Rest für Signalwires und Powerwires dann ist das die Technilogie schlicht hin.
Intel wird hier der erster sein, dass 16 Schichten auf 5 Schichten reduziert werden! Für Powerlines!
Kriegsgeier
2024-06-07, 14:00:33
20A nutzt es als erstes! Deshalb ist Arrow Lake wahrscheinlich noch wichtiger als manche denken!
Immer schön unter der Haube schauen!
latiose88
2024-06-07, 14:33:35
Grundsätzlich sehe ich das auch so. Aber: es gab ja immerhin schon eine Demo mit Praxisergebnissen (die ich genannt habe). Das heißt wir wissen in der Praxis, dass LL mit 12-15W das leistet was MTL in 26-30 W leistet. Auf MTL kann man wahrscheinlich sogar noch 5W drauf addieren für den RAM, der ja bei LL schon inkludiert ist.
Ohne diese Demo würde ich es genauso sehen - aber so ist ein gewisser Optimismus schon angebracht.
Ich bin allerdings hauptsächlich begeistert wie konsequent Intel den SoC zusammengestellt hat für ULP. Konzeptionell ziemlich vergleichbar mit den Apple M SoCs.
OK damit kann man ja zumindest 180 Watt die gleiche Leistung erwarten wie mit einem 14900k mit voll ausgefahren CPU rechnen. Also sprich i9 14900k mit 320 Watt vs kommende CPU mit 180 Watt und gleicher leistung. Es wird halt nicht ganz an AMD heran reichen wo 142 Watt so hat. Besser als nichts kann man so sagen.
robbitop
2024-06-07, 14:36:12
LL ist eine 15W SKU. Das hat nichts mit Desktop CPUs zu tun. Dafür wird es Arrowlake geben. Das ist ein ganz anderer SoC.
dildo4u
2024-06-07, 15:23:48
Die Betriebspunkte sind nicht vergleichbar wie bei AMD Mobile hängt bei 5Ghz rum was Arrow Lake braucht steht in den Sternen.
Kriegsgeier
2024-06-07, 16:32:16
Dennoch, einst steht fest: Intel wird unterschätzt und das gewaltig meiner Meinung nach.
arcanum
2024-06-07, 16:52:52
Sollte keine große Überraschung sein, dass Intel die Lücke mit besserer Fertigung und dem ganzen R&D der letzten Jahre schließen kann und es hat auch lange genug gedauert. Der echte Durchbruch für AMD kam ja erst mit 7nm und wurde von Lisa Su auch explizit beworben. Mit bis zu 2 Nodes Rückstand war Intel zumindest im Desktop-Bereich Leistungstechnisch noch immer kompetitiv aber spätestens ab diesem Zeitpunkt ist der Verbrauch explodiert.
fondness
2024-06-07, 19:23:56
LG ist "besorgt", dass Intel ein halbes Jahrt hinter AMD und Qualcomm ist, was die next-gen AI APUs betrifft:
We are concerned that Lunar Lake is about half a year behind AMD and Qualcomm (Snapdragon X Elite). Intel is a company that does not often experience product release delays, so I think Intel is also very concerned. The product release schedule is more in the hands of Intel and Microsoft than us.
We want to release the next product faster than other companies, but it depends on the efforts of our engineers.
- LG Electronics's Yoon-seok Lee
https://wccftech.com/lg-concerned-about-intel-lunar-lake-cpu-supply-half-a-year-behind-qualcomm-amd/
robbitop
2024-06-07, 19:33:57
Schon merkwürdig. Releast wurden die drei doch fast gleichzeitig und Demogeräte gab es auch - also sind die Chips alle fertig.
fondness
2024-06-07, 19:36:05
Nicht wirklich Qualcomm und AMD-Geräte sind im Juli im Handel, LL wohl erst Ende des Jahres. Deshalb gabs wohl auch so wenig (bzw. gabs überhaupt welche?) Vorstellungen von LL Geräten. Und etwas größeres als LL kommt wohl noch später. MS will jetzt aber ihren CoPilot+ pushen. Das könnte auch zu Marktanteilsverlusten von x86 ggü. ARM führen wenn AMD die Lücke (Stückzahlen) nicht vollends füllen kann.
Microsofts Auto SR “Automatic Super Resolution” braucht zB offensichtlich eine NPU:
https://wccftech.com/microsoft-showcases-auto-sr-automatic-super-resolution-the-first-os-integrated-ai-upscaling-technology-powered-by-npus/
Well, it's the first time we have seen an upscaling technology debut at an operating system level since Microsoft's Automatic Super Resolution (Auto SR) doesn't depend upon external resources such as graphics cards. Instead, it leverages the new AI engines incorporated into the latest processors, such as Qualcomm's Snapdragon X Elite.
amdfanuwe
2024-06-07, 20:03:49
Schon merkwürdig. Releast wurden die drei doch fast gleichzeitig und Demogeräte gab es auch - also sind die Chips alle fertig.
Zwischen Prototypen und Massenproduktion mit gutem Yield ist noch ein kleiner Unterschied.
dildo4u
2024-06-08, 05:40:16
Schon merkwürdig. Releast wurden die drei doch fast gleichzeitig und Demogeräte gab es auch - also sind die Chips alle fertig.
AMD und Qualcomm nutzen TSMC4 die müssen deutlich früher kommen.
Und Intel wird wenig Interesse haben viele Chips in Fremdfertigung zu verkaufen die werden eher Meterolake pushen.
w0mbat
2024-06-08, 08:29:29
LNL ist letzte Woche in die Massenproduktion gegangen. Strix und Oryon werden schon eine Weile produziert.
y33H@
2024-06-08, 08:53:35
Hamoa bitte, Oryon ist die uArch der CPU Kerne ^^
MSABK
2024-06-08, 09:28:18
Hieß es nicht Herbst 24 für LL?
Qualcomm Elite X Geräte kommen ja nächste Woche raus. Wobei ich denke, dass da bei den Elite X Chips schnell Ernüchterung breit machen wird.
LL hingegen sieht mal endlich spannend aus. Könnte in einem Handheld gut aussehen.
dildo4u
2024-06-08, 09:33:04
Für "Gamer" vielleicht ich sehe nicht wo es kein Ersatz für Macbooks sein kann und Apple hat ordentlich was von Markt genommen seit 2020.
fondness
2024-06-08, 10:37:40
Hieß es nicht Herbst 24 für LL?
Qualcomm Elite X Geräte kommen ja nächste Woche raus. Wobei ich denke, dass da bei den Elite X Chips schnell Ernüchterung breit machen wird.
LL hingegen sieht mal endlich spannend aus. Könnte in einem Handheld gut aussehen.
Hier jubeln alle, weil Intel ein ausführlichen Technik-Preview gebracht hat. Und ja klar, ist eh toll mal so viele Details zu erfahren. Nur nüchtern betrachtet sieht es für Intel nicht gerade prickelnd aus:
- Im Desktop fällt man klar zurück. AMD bringt 16% IPC plus ein verbessertes Cache Die. Intel 14% IPC plus weniger Takt plus fehlendes HT.
- Mobile hat man gegen Strix und Hamoa erstmal gar nichts. Das wäre aber dringend nötig um den AI-PC-Zug von MS nicht zu verpassen. Und da kommt auch noch Strix Halo, Konkurrenz Fehlanzeige.
- Eine Stufe drunter mit LL holt man zumindest wohl mal deutlich auf, ob es für mehr reicht ist allerdings fraglich. Man ist aber spät dran. Und LL ist primär ein Handheld- und ultra mobile-SoC, für mehr zu leistungsschwach mit nur 8T.
- Bei Server holt man wohl auch deutlich auf. Aber auch hier gilt, dass es wohl nicht für mehr reicht, AMD dürfte weiter vorne bleiben.
Also ja es gibt deutliche Fortschritte in Bereichen wo man bisher klar hinten war. Um ihre Position zu behaupten braucht es aber mindestens nochmal so einen Sprung.
fondness
2024-06-08, 10:39:13
Für "Gamer" vielleicht ich sehe nicht wo es kein Ersatz für Macbooks sein kann und Apple hat ordentlich was von Markt genommen seit 2020.
Die GPU dürfte auch relativ schwach sein. AMD gibt im 3dmark (wo der Treiber keine Rolle spielen sollte) eine 60% höhere Leistung mit Strix an als Qualcomms Snapdragon-X Elite. Also ja für Spieler erstmal uninteressant und die ARM-Artchitektur hat nach wie vor Nachteile. Denke auch, dass man da erstmal abwarten sollte.
dildo4u
2024-06-08, 10:48:15
AMD gibt bisher auch keine Laufzeit für Strix an und die Low Power Modelle sind 2025?
https://videocardz.com/newz/amd-ryzen-8000-9000-apu-roadmap-leaks-out-strix-point-to-launch-mid-2024-fire-range-and-strix-halo-in-2025
Hier jubeln alle, weil Intel ein ausführlichen Technik-Preview gebracht hat. Und ja klar, ist eh toll mal so viele Details zu erfahren. Nur nüchtern betrachtet sieht es für Intel nicht gerade prickelnd aus:
- Im Desktop fällt man klar zurück. AMD bringt 16% IPC plus ein verbessertes Cache Die. Intel 14% IPC plus weniger Takt plus fehlendes HT.
Die IPC wurde unterschiedlich ermittelt, AMD hat IPC Booster eingesetzt. Teiltests von Geekbench statt den ganzen Score. Also nicht direkt vergleichbar. Ob man wirklich von 2% mehr IPC Anstieg sprechen kann, werden erst unabhängige Tests zeigen. Es kann auch sein, dass Lion Cove in ARL mehr zulegt als in Lion Cove. Raichu (https://x.com/OneRaichu/status/1798699363763699760) deutet das an. Wobei ich glaube, dass der IMC im Soc tile bei ARL-S für Spiele hinderlich sein dürfte.
- Mobile hat man gegen Strix und Hamoa erstmal gar nichts. Das wäre aber dringend nötig um den AI-PC-Zug von MS nicht zu verpassen. Und da kommt auch noch Strix Halo, Konkurrenz Fehlanzeige.
AMD verkauft kein Strix unterhalb von 28 Watt oder können dafür nicht eingesetzt werden? Andersrum könnte man sagen, AMD hat nichts gegen Lunar Lake. Also gar nichts würde ich so nicht stehen lassen. Natürlich skaliert LNL nicht ins H Segment für dGPU Laptops aber was ist darunter.
- Eine Stufe drunter mit LL holt man zumindest wohl mal deutlich auf, ob es für mehr reicht ist allerdings fraglich. Man ist aber spät dran. Und LL ist primär ein Handheld- und ultra mobile-SoC, für mehr zu leistungsschwach mit nur 8T.
So wie du versuchst Lunar Lake ständig in ein schlechtes Licht zu rücken, klingst du wirklich besorgt. Die Besorgnis ist teilweise begründet. Die Wahrscheinlichkeit ist hoch, dass Lunar Lake der x86 Chip mit der längsten Akkulaufzeit werden wird, hier AMD erstmal nichts aufzubieten. Ich bezweifle, dass AMD hier mithalten kann.
Wäre Strix die große Verbesserung in dem Bereich, wären sie aggressiver gewesen beim Marketing. Auch einige Features können sie nicht bieten wie VVC Hardware Decoding. Der Markt ist trotzdem groß für Chips in dem Bereich wo sich Lunar Lake bewegt, als wenn die Masse mehr als 8 Kerne braucht.
fondness
2024-06-08, 11:09:35
AMD verkauft kein Strix unterhalb von 28 Watt oder können dafür nicht eingesetzt werden? Andersrum könnte man sagen, AMD hat nichts gegen Lunar Lake. Also gar nichts würde ich so nicht stehen lassen. Natürlich skaliert LNL nicht ins H Segment für dGPU Laptops aber was ist darunter.
15-54W, also doch der skaliert runter.
https://www.amd.com/de/products/processors/laptop/ryzen/300-series/amd-ryzen-ai-9-hx-370.html
So wie du versuchst Lunar Lake ständig in ein schlechtes Licht zu rücken, klingst du wirklich besorgt. Die Besorgnis ist teilweise begründet. Die Wahrscheinlichkeit ist hoch, dass Lunar Lake der x86 Chip mit der längsten Akkulaufzeit werden wird, hier AMD erstmal nichts aufzubieten. Ich bezweifle, dass AMD hier mithalten kann.
Müssen solchen persönlichen Spitzen immer sein? ich kritisiere dich auch nicht für deine eindeutige Intel-Affinität. :)
Wäre Strix die große Verbesserung in dem Bereich, wären sie aggressiver gewesen beim Marketing. Auch einige Features können sie nicht bieten wie VVC Hardware Decoding. Der Markt ist trotzdem groß für Chips in dem Bereich wo sich Lunar Lake bewegt, als wenn die Masse mehr als 8 Kerne braucht.
Ja für näheres muss man natürlich Tests abwarten keine Frage.
dildo4u
2024-06-08, 11:12:01
Die 15 Watt Modelle haben keine 12 Kerne.
fondness
2024-06-08, 11:13:09
Die 15 Watt Modelle haben keine 12 Kerne.
Lesen hilft, selbst das Topmodell skaliert bis auf 15W. Es gibt keine extra H, HX oder U Modelle mehr wie in der Vergangenheit.
dildo4u
2024-06-08, 11:21:45
Und niemand wird die CPU so konfigurieren AMD bringt nicht umsonst extra Modelle mit 8 Kernen.
Baseclock ist 2 GHz für das 12 Core Modell damit man 15 Watt erreicht.
https://i.ibb.co/5F7kB6P/Screenshot-2024-06-08-11-22-01-002-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/FVPXgKF)
fondness
2024-06-08, 11:27:40
Und niemand wird die CPU so konfigurieren AMD bringt nicht umsonst extra Modelle mit 8 Kernen.
Baseclock ist 2 GHz für das 12 Core Modell damit man 15 Watt erreicht.
Klar man kann auch einfach irgendwas behaupten. Aktuell gibt es keine 8 core Modelle. Und selbst wenn die irgendwann kommen logisch, man will ja auch das Produkt differenzieren. :rolleyes:
ASUS Zenbook S16 läuft zB mit dem Topmodell und lässt sich zwischen 15 und 28W einstellen. Und Baseclock ist 2Ghz wegen der c-Cores. Aber das ist hier im übrigen OT. :rolleyes:
robbitop
2024-06-08, 13:02:41
Im neuen ThePhawkx Video lässt er Hawk Point so wie in Intels LL Demo mit 60 fps lock in 3DM durchlaufen. Wenn man das inkludiert was bei LL als CPU package gilt liegt LL wohl sehr knapp vor Hawk Point.
Aber: Strix ist 1 Jahr weiter und: Es ist nur 1x Datenpunkt und Intel ist traditionell in 3DM besonders stark.
Es kann also in 15 W Gaming auch knapp werden.
Ich liebe diese Spannung und wie sich alle IHVs jetzt gegenseitig pushen! Für uns Endkunden gibt es nichts Besseres. :)
amdfanuwe
2024-06-08, 13:08:48
Und Baseclock ist 2Ghz wegen der c-Cores.
Nein.
Baseclock 2GHz gilt wenn alle Kerne bei 28W TDP aktiv sind. Hat nichts mit den c-Cores zu tun.
dildo4u
2024-06-08, 13:08:52
Im neuen ThePhawkx Video lässt er Hawk Point so wie in Intels LL Demo mit 60 fps lock in 3DM durchlaufen. Wenn man das inkludiert was bei LL als CPU package gilt liegt LL wohl sehr knapp vor Hawk Point.
Aber: Strix ist 1 Jahr weiter und: Es ist nur 1x Datenpunkt und Intel ist traditionell in 3DM besonders stark.
Es kann also in 15 W Gaming auch knapp werden.
Ich liebe diese Spannung und wie sich alle IHVs jetzt gegenseitig pushen! Für uns Endkunden gibt es nichts Besseres. :)
Vermutlich hat Kraken Point nur 8 CU das sollte sich nicht viel geben.
The iGPU of "Kraken Point" will be based on the RDNA 3.5 graphics architecture, just like the one on "Strix Point," but will consist of 4 WGPs (workgroup processors); worth 8 CU, or 512 stream processors.
https://www.techpowerup.com/318424/amd-kraken-point-silicon-succeeds-hawk-point-with-zen-5-4p-4c-core-config-npu
Die Partner die Handhelds bauen können sicherlich eine andere Kombination ordern aber 8CU sollte für normale Notebooks reichen.
fondness
2024-06-08, 13:23:56
Im neuen ThePhawkx Video lässt er Hawk Point so wie in Intels LL Demo mit 60 fps lock in 3DM durchlaufen. Wenn man das inkludiert was bei LL als CPU package gilt liegt LL wohl sehr knapp vor Hawk Point.
Aber: Strix ist 1 Jahr weiter und: Es ist nur 1x Datenpunkt und Intel ist traditionell in 3DM besonders stark.
Es kann also in 15 W Gaming auch knapp werden.
Ich liebe diese Spannung und wie sich alle IHVs jetzt gegenseitig pushen! Für uns Endkunden gibt es nichts Besseres. :)
Danke für die Info, das ist schon aussagekräftiger. Allerdings ist Strix eher 2 Jahre weiter. Hawk Point ist ja nur ein unbenannter Phoenix. Aber ja wie schon erwartet, für einen knappen Gleichstand könnte es zumindest Produktnormiert reichen. Fertigungsnormiert wäre das aber noch immer ein klarer Rückstand. Und 3dmark braucht kaum CPU-Power weil vorgescriptet, und dort schluckt Intel normalerweise zu viel Strom was auch die GPU kanabalisiert. Ergo ich gehe noch immer davon aus, dass es nicht ganz reichen wird.
fondness
2024-06-08, 13:25:18
Nein.
Baseclock 2GHz gilt wenn alle Kerne bei 28W TDP aktiv sind. Hat nichts mit den c-Cores zu tun.
Der Takt wird bei den c-Cores niedriger sein, genauso wie die c-Cores natürlich nicht den Boost von 5.1 Ghz erreichen werden. AMD gibt diese aber bis dato nicht getrennt an. Ergo gehe ich davon aus, dass der Base-Clock auch nur bei den c-Cores so niedrig sein wird.
mboeller
2024-06-08, 13:32:47
Schon merkwürdig. Releast wurden die drei doch fast gleichzeitig und Demogeräte gab es auch - also sind die Chips alle fertig.
Du verwechselt Vorstellung mit Release. Vorgestellt wurden die Elite SoC zB. bereits im Oktober`23
https://www.notebookcheck.com/Snapdragon-X-Elite-Qualcomm-zeigt-ausfuehrlichere-Benchmark-Ergebnisse.763530.0.html
LNL ist auch erst vorgestellt worden.
Nur AMD hat sich die Vorstellung von StrixPoint gespart bzw. so spät dass sie gleich 1 Monat darauf auf den Markt kommen.
amdfanuwe
2024-06-08, 15:41:44
Der Takt wird bei den c-Cores niedriger sein, genauso wie die c-Cores natürlich nicht den Boost von 5.1 Ghz erreichen werden.
Wieso sollte der Takt niedriger sein? c-Cores erreichen die 5.1 GHz nicht und fangen eher zu saufen an wie die normalen Cores. Bei niedrigem Takt sind sie etwas genügsamer.
Bei 28W/12 = 2,3W/Core dürften die c-Cores eher etwas höher tackten als die normalen Cores.
Bei ZEN4 ist die Leistung bei 3W/Core für normalen Core und c-Core etwa gleich.
https://pics.computerbase.de/1/0/9/9/2/0-e1d09eff5e6a20d1/8-640.244d758a.png
Kriegsgeier
2024-06-19, 13:34:15
Seit heute in der Produktion in TSMC!
https://videocardz.com/newz/intel-core-ultra-200v-lunar-lake-enters-production-at-tsmc
Damit dürfte man im Oktober auch mit Massen launchen können und hat zeitig die OEMs vor Jahresende versorgt. Mit TSMC schafft man das zum ersten Mal seit Jahren pünktlich :freak:. LNL bekommt man natürlich wesentlich früher.
mboeller
2024-06-19, 13:46:58
da bin ich mir nicht so sicher. Hab deshalb einfach mal Perplexity gefragt:
//tsmc 5nm how long does it take from start of wafer to finish//
Hab extra nach 5nm gefragt, weil das schon länger in der Produktion ist
Antwort:
Based on the search results, here is a summary of how long it takes to manufacture chips using TSMC's 5nm process technology:
The typical cycle time, or the time it takes for a wafer to go through the entire manufacturing process at TSMC's 5nm fab, is around 4-5 months.
Specifically:
It takes about 12-20 weeks (3-5 months) on average for a semiconductor wafer to go through the entire fab process, from start to finish. This includes the various steps like lithography, deposition, etching, implantation, etc.
After the wafer fabrication is complete, it takes an additional 4-5 months for the finished integrated circuits (ICs) to reach the market. This includes the back-end processes of wafer probe, assembly, and testing.
So in total, the full cycle time from the start of wafer manufacturing to the finished ICs reaching customers is around 8-10 months for TSMC's 5nm process. The long cycle time is due to the complexity of the manufacturing process, with over 600-1000 individual steps required.
The search results indicate that TSMC has been working to improve cycle times and increase production volumes for its leading-edge 5nm process technology to meet strong customer demand
https://www.perplexity.ai/search/tsmc-5nm-how-T8UF9q5OQu2mAmxuJwuEpg
Warum Perplexity? weil da auch die Quellen mit angegeben werden, siehe Link
Kriegsgeier
2024-06-19, 13:46:58
ich denke das Tierchen hier wird extremst unterschätzt. Hier kommt ein Gamechanger von intel. Und keiner merkt es... noch nicht...
Aber vielleicht ist es auch gut so.
mocad_tom
2024-06-19, 14:24:33
Die Frage ist halt auch, wie viele von diesen Schritten sind bei TSMC und wieviele sind bei Intel selber.
Wird zersägen und Testing noch bei TSMC gemacht?
Testing hat Intel bei Battlemage selbst gemacht.
Das Base Tile ist Intel 22FFL
Sprich packaging macht Intel selbst, so wie sie auch schon packaging bei Meteor Lake gemacht haben.
Intel könnte mittlerweile bei advanced Packaging mehr Chips packagen als TSMC.
(ich meine hier nicht "man pappt ein fertiges Die auf Substrat")
mboeller
2024-06-19, 14:40:47
Die Frage ist halt auch, wie viele von diesen Schritten sind bei TSMC und wieviele sind bei Intel selber.
...
sehe ich auch so, aber die 12-20 Wochen für einen Wafer-Durchlauf sind trotzdem da. Bei 12 Wochen geht es sich gerade noch aus, dass sie Ende '24 (Nov) auf den Markt kommen können, bei 20 Wochen nicht mehr.
Die anderen Schritte sind ja auch noch notwendig, egal ob bei TSMC od. Intel. Intel kann halt LNL bevorzugt und beschleunigt durchschleusen, aber Zeit kostet es trotzdem.
da bin ich mir nicht so sicher. Hab deshalb einfach mal Perplexity gefragt:
//tsmc 5nm how long does it take from start of wafer to finish//
Hab extra nach 5nm gefragt, weil das schon länger in der Produktion ist
Antwort:
https://www.perplexity.ai/search/tsmc-5nm-how-T8UF9q5OQu2mAmxuJwuEpg
Warum Perplexity? weil da auch die Quellen mit angegeben werden, siehe Link
Intel braucht für gewöhnlich 3-4 Monate bei einer mobilen Plattform. Braucht TSMC länger oder wie soll man das verstehen? Die Quellen, die ich kenne, reden von einer Verfügbarkeit im Oktober. Der launch selber findet im September statt.
ich denke das Tierchen hier wird extremst unterschätzt. Hier kommt ein Gamechanger von intel. Und keiner merkt es... noch nicht...
Aber vielleicht ist es auch gut so.
Bei der Akkulaufzeit/Effizienz gut möglich. Allerdings wird Lunar Lake mit 8 Kernen nicht an die 10 oder 12 Kerner rankommen bei voller Kernbelastung. Das können sie erst mit Panther Lake, der 16 Kerne bekommt.
mboeller
2024-06-25, 13:21:50
Lunar Lake Tabelle mit Specs und TDP bis 30w (PL2)
https://www.notebookcheck.com/Intel-Lunar-Lake-Leak-enthuellt-9-Chips-bis-hin-zum-Core-Ultra-9-288V-samt-TDP-und-iGPU-Varianten.852575.0.html
Also wie bei den "u"-Varianten bei AMD, oder?
Platos
2024-06-25, 14:09:48
Warum wird da die Ram-Menge angegeben? Also was gat das mit der CPU zu tun?
y33H@
2024-06-25, 14:11:09
Memory on Package ...
12MB System Cache? Ich dachte 8MB wäre das Maximum. Am moderaten PL2 kann man die Ausrichtung sehen. Nur 1 Modell mit 30W PL1 zum Glück. Bei 30W können die 8 Kerne und 8 Threads nicht effizient sein, da gibt es bessere CPUs wenn man nur MT betrachtet. Nur die 32GB SKUs haben Dualrank Module verbaut, für maximale iGPU Leistung hat man nur eine Wahl.
Triskaine
2024-06-25, 20:51:55
Das ist der P-Core L3, nicht der System Level Cache. Stand auf den geleakten Folien vor ein paar Monaten genau so drauf.
dildo4u
2024-06-26, 13:44:23
12MB System Cache? Ich dachte 8MB wäre das Maximum. Am moderaten PL2 kann man die Ausrichtung sehen. Nur 1 Modell mit 30W PL1 zum Glück. Bei 30W können die 8 Kerne und 8 Threads nicht effizient sein, da gibt es bessere CPUs wenn man nur MT betrachtet. Nur die 32GB SKUs haben Dualrank Module verbaut, für maximale iGPU Leistung hat man nur eine Wahl.
Mit dem 30 Watt Modell kannste du verhindern daß er wieder langsamer als Raptor Lake im Single Core ist.
Geekbench Leaks 2700 SC 10000 MC
https://videocardz.com/newz/intel-core-ultra-7-268v-lunar-lake-cpu-appears-on-geekbench
Undertaker
2024-06-26, 15:46:31
30 Watt für ST? Never. Die 30 Watt helfen vielleicht bei MT, vor allem aber bei kombinierter CPU/GPU-Volllast. Vermutlich bewegt man sich da aber schon weit über dem eigentlichen Sweetspot. Mich interessiert der Arbeitspunkt 10-15 Watt und vor allem auch Niedrig-/Teillastszenarien.
dildo4u
2024-06-26, 15:49:08
Du brauchst für SC Boost überdurchschnittlich Spannung siehe 14900ks der gewinnt nix im MT.
Undertaker
2024-06-26, 17:25:28
Ja, du brauchst überdurchschnittlich Spannung, aber keine 30 Watt für 5,1 GHz. Und ein 14900KS braucht auch keine 253 Watt für einen Thread bei 6,2 GHz. Wo hast du denn diese Einschätzung her??
Nee aber so 60-80W kannste nem 14900KS schon mit einem harten Thread abverlangen. Also 30W SC ist sicher noch nicht am Skalierungslimit.
aceCrasher
2024-06-26, 18:13:27
Sollte LNL ernsthaft 30W unter ST-Last ziehen wäre der Chip Dead-On-Arrival für den Zielmarkt.
Undertaker
2024-06-26, 18:17:52
Wovon reden wir hier eigentlich? Die Behauptung war, dass LL die 30 Watt bräuchte, um beim Topmodell die 5,1 GHz Single Core ausfahren. Dem widerspreche ich und sage, dass die 30 Watt lediglich bei MT und insbesondere kombinierter CPU/GPU-Last gebraucht werden bzw. dort die Turbo-Ausnutzung verbessern. Das ist doch nun wirklich mehr als trivial bei aktuellen Multi-Core SoCs, da hängt kein einziger bei ST im TDP-Limit. Damit würdest du gerade im Mobil Bereich jeglichen Sweet-Spot überfahren. Und nein, wir reden hier nicht von einem harten Skalierungslimit, davon ist ein Ultra-Mobile-Chip meilenweit entfernt (darum ist auch die 14900KS-Referenz unsinnig, wenngleich auch der seine TDP nicht für ST Tasks braucht).
dildo4u
2024-06-26, 18:22:57
Habt ihr die Intel Folien nicht gesehen die Leistung muss über Takt kommen da das Ding nur 14% IPC zulegt, ein großer Cache würde das für Games ändern kostet aber vermutlich zu viel Fläche.
Kriegsgeier
2024-06-26, 18:34:55
Wie sind diese Leistungswerte zu werten? Ideen?
dildo4u
2024-06-26, 18:41:18
Er scheint vergleichbar mit Apple M3 das war vermutlich das Ziel.
Theoretisch passiv Kühlbar und für Einsatz im Tablets.
Für Ryzen 9 AI kommt Arrow Lake.
Kriegsgeier
2024-06-26, 18:50:53
Sehr cool! Und das ein x86 wo jede Software drauf läuft! Geil.
Wenn man überlegt, dass Intel diese Entscheidung vor gut 4 Jahren getroffen hat, der ARM Welt Stirn zu bieten.
Sehr geil!
dildo4u
2024-06-26, 18:54:15
Ja leider fertigen sie nicht selber wird interessant wie die Preise aussehen TSMC 3NB soll Recht teuer sein selbst Nvidia bleibt bei 4nm für Blackwell.
arcanum
2024-06-26, 19:03:48
Es gibt (gab) wahrscheinlich einfach keine weitere Kapazität in 3nm weil Apple und Intel sich einen Großteil geschnappt haben. Auch Intel hat den Vertrag nicht kurz vor Knapp sondern noch unter Bob Swan abgeschlossen. Damals (Mitte 2021!) wurden Apple und Intel in selben Satz als erste Kunden für 3nm bekannt gegeben und dem gingen wahrscheinlichen noch etliche Monate Evaluation voraus.
Kriegsgeier
2024-06-26, 19:18:03
Das meine ich!
Genau wie damals Lisa sich 7nm bei TSMC gesichert hat.
1A Entscheidung!
arcanum
2024-06-26, 19:23:30
Rückblickend wahrscheinlich wirklich eine gute Entscheidung um wenigstens den letzten Teil der Durststrecke zu überbrücken bis man wieder zu TSMC aufschließt. Nicht zuletzt weil Mobile aktuell sehr wichtig für Intel ist und sich sehr viel tut auf dem Markt.
Mit dem 30 Watt Modell kannste du verhindern daß er wieder langsamer als Raptor Lake im Single Core ist.
Geekbench Leaks 2700 SC 10000 MC
https://videocardz.com/newz/intel-core-ultra-7-268v-lunar-lake-cpu-appears-on-geekbench
Da dürfte ziemlich genau auch Kraken Point rauskommen.
Er scheint vergleichbar mit Apple M3 das war vermutlich das Ziel.
Theoretisch passiv Kühlbar und für Einsatz im Tablets.
Für Ryzen 9 AI kommt Arrow Lake.
ARL hat die TOPs nicht, erst ARL-Refresh soll entsprechend TOPs haben.
iamthebear
2024-06-26, 23:02:21
Auffällig ist der Basistakt von 3.3GHz. Das wäre relativ hoch für eine 17W CPU wobei der RAM ja auch noch mit dazu zählt.
Was das 30W Modell angeht: Bei reinen ST Workloads reichen 17W wohl auch noch aus. Bei 2 Threads wird es dann aber schon knapp mit dem vollen Takt.
In der Praxis wird das aber sowieso wieder OEM Sache sein mit welcher TDP gefahren wird.
dildo4u
2024-06-27, 08:24:19
30 Watt sind für schweres MT und die GPU.
https://wccftech.com/intel-lunar-lake-core-ultra-200v-cpu-benchmarks-leak-17w-30w-cpu-gpu-performance-power-explored
https://i.ibb.co/nMrv18V/Screenshot-2024-06-27-082107.png (https://ibb.co/PGxnWzb)
https://i.ibb.co/hW07TWy/Screenshot-2024-06-27-082335.png (https://ibb.co/tsRm1s4)
MSABK
2024-06-27, 09:18:30
Wow, die iGPU legt gut zu.
dildo4u
2024-06-27, 09:27:52
30 Watt ist gut für die Performance die A380 ist 75 TDP und hat um 4000 im Timespy.
mboeller
2024-06-27, 09:36:22
30 Watt sind für schweres MT und die GPU.
verstehe ich nicht.
LNL ist immer 30w (PL2). Das komische ist halt nur, dass alle Varianten bis zur Variante Core Ultra 7 268V 17w (PL1) haben und nur die Top-Variante Core Ultra 9 288V hat auch bei PL1 30w.
siehe nochmal:
https://www.notebookcheck.com/Intel-Lunar-Lake-Leak-enthuellt-9-Chips-bis-hin-zum-Core-Ultra-9-288V-samt-TDP-und-iGPU-Varianten.852575.0.html
robbitop
2024-06-27, 09:36:56
Wow, die iGPU legt gut zu.
Erstmal nur 3DMark Benchmarks - da waren die Intel GPUs schon immer gut. Aber für Spiele sollte man auch einiges erwarten. Intel hat ja einiges an Battlemage geändert, was problematisch an Alchemist war. Und man hat auch nun einiges mehr an Transistoren investiert. Die harte Arbeit der letzten Jahre wird sich schon ordentlich auszahlen. :)
In Raytracing (zwar irrelevant für eine iGPU) wird man Strix wahrscheinlich deutlich hinter sich lassen. AMD muss echt aufpassen, denn Intel wird bei iGPUs potenziell jetzt schnell "gefährlich".
Wenn man sich die ARM Geschichte ein wenig weiter denkt: viele der Probleme/Bugs werden sicherlich in den nächsten Monaten ausgeräumt seitens PRISM und Windows 11. Dazu werden die Qualcomm Treiber und GPUs (man will sich ähnlich reinhängen wie Intel bei der Treiberarbeit die letzten Jahre) auch besser. Und nächstes Jahr kommt angeblich ein Mediatek SoC mit Nvidia Blackwell IP und Cortex X925 (ARM v9 -> also sollte AVX2/256 Emulation dann auch möglich machen). Es wird immer mehr Wettbewerb bei "APUs" geben. Geil für uns Konsumenten - denn jetzt müssen alle Gas geben.
mboeller
2024-06-27, 11:31:38
der Stromverbrauch ist interessant:
https://www.notebookcheck.com/Intel-Lunar-Lake-Benchmarks-enthuellen-Performance-der-Xe2-iGPU-sowie-Stromverbrauch.853332.0.html
"Freut" vielleicht die ARM-"Jünger" ;)
edit: die Tabelle zeigt aber, zumindest beim 4K Youtube Verbrauch (Intel Core Ultra 7 165U) was ganz anderes als die alte Tabelle beim Qualcomm Test:
https://www.notebookcheck.com/Qualcomm-Snapdragon-X-Elite-in-der-Analyse-Effizienter-als-AMD-Intel-Apple-bleibt-aber-klar-vorne.847341.0.html
Das war zwar ein 155H, aber warum sollte der Verbrauch so unterschiedlich sein? Der Video-Block, der die meiste Arbeit erledigt sollte ja der gleiche sein, egal ob 165u oder 155H, oder?
Prinzenrolle
2024-06-27, 11:44:15
Das sieht sehr gut aus für LunarLake.
dildo4u
2024-06-27, 11:48:32
verstehe ich nicht.
LNL ist immer 30w (PL2). Das komische ist halt nur, dass alle Varianten bis zur Variante Core Ultra 7 268V 17w (PL1) haben und nur die Top-Variante Core Ultra 9 288V hat auch bei PL1 30w.
siehe nochmal:
https://www.notebookcheck.com/Intel-Lunar-Lake-Leak-enthuellt-9-Chips-bis-hin-zum-Core-Ultra-9-288V-samt-TDP-und-iGPU-Varianten.852575.0.html
17 Watt für die Leistung ist komplett unrealistisch nicht vergessen der Ram ist dort enthalten was bei anderen x86 Modellen nicht der Fall ist.
Die aktuellen x86 Performance Kerne sind einfach zu fett für Tablet/Handheld Einsatz.
Bei AMD waren viele enttäuscht von der Zen 4 APU vs Steam Deck @ 15 Watt, der CPU Teil ist Overkill und nimmt der IGP zu viel Power weg.
Der Cinebench MT Wert bekräftigt das das Ding kann 30 Watt nutzen wenn die IGP idelt.
https://i.ibb.co/HXQv9kb/Screenshot-2024-06-27-114901.png (https://ibb.co/DLnXjSv)
https://youtu.be/egdV0NLoL-c?si=_qE95qRE6tjzJbUC&t=591
Undertaker
2024-06-27, 15:39:45
Bei den Messungen mit unterschiedlichem PL1/PL2 sind das erst einmal nur Indikationen, da man noch nicht genau sagen kann, für welchen Zeitanteil im Benchmark welche Leistungsaufnahme genau anlag. Da braucht es auf jeden Fall noch saubere sustained-Messungen im "eingeschwungenen" Zustand mit konstantem Verbrauch.
Was man aber qualitativ schon sagen kann: Wie erwartet scheint LL sehr stark bzw. der neue Benchmark zu werden im niedrigen TDP-Bereich für Handhelds.
verstehe ich nicht.
LNL ist immer 30w (PL2). Das komische ist halt nur, dass alle Varianten bis zur Variante Core Ultra 7 268V 17w (PL1) haben und nur die Top-Variante Core Ultra 9 288V hat auch bei PL1 30w.
siehe nochmal:
https://www.notebookcheck.com/Intel-Lunar-Lake-Leak-enthuellt-9-Chips-bis-hin-zum-Core-Ultra-9-288V-samt-TDP-und-iGPU-Varianten.852575.0.html
30W ist das festgelegte Limit von Intel für den PL2, welcher ein OEM theoretisch einstellen kann. Der tatsächliche Wert ist von Gerät zu Gerät individuell. Wenn der OEM das so will, kann auch nur der PL1 anliegen. Bei MTL-U liegt das PL2 Limit bei 57 Watt.
Die 3dmark Werte sind von einer 16GB Variante, also nur single rank. Dual rank könnte bis zu 10% drüber liegen.
Bei den Messungen mit unterschiedlichem PL1/PL2 sind das erst einmal nur Indikationen, da man noch nicht genau sagen kann, für welchen Zeitanteil im Benchmark welche Leistungsaufnahme genau anlag. Da braucht es auf jeden Fall noch saubere sustained-Messungen im "eingeschwungenen" Zustand mit konstantem Verbrauch.
Was man aber qualitativ schon sagen kann: Wie erwartet scheint LL sehr stark bzw. der neue Benchmark zu werden im niedrigen TDP-Bereich für Handhelds.
Ist eh noch nicht final alles.
iamthebear
2024-06-27, 23:29:06
Die Quelle:
https://x.com/jaykihn0/status/1805718733207298541
Die 17W Ergebnisse sind nach seiner Aussage sowohl PL1 als auch PL2.
Was ich etwas seltsam finde:
Geekbench MT verliert sogar Leistung während Cinebench 25% zulegt. Das ist etwas unlogisch.
Aber wenn die Werte stimmen sieht der Energieverbrauch sehr gut aus.
Zum Vergleich: Mein 12700H macht bei 15W TDP und 4+4 Kernen ohne SMT um die 3-3.5K Punkte.
Mit 25W (Basistakt ohne Turbo) sind es um die 5K.
Klar mit den 6+8+2 MTL Varianten hat es Lunar Lake bei schweren MT Workloads schwierig aber die ganzen 2+8 Raptor Lakes in 15-20W Geräten wird Lunar Lake komplett zerstören.
Und auch für ARL sieht der Ausblick schon einmal gut aus, dass es nicht wieder eine 350W Orgie wird.
Die Quelle:
https://x.com/jaykihn0/status/1805718733207298541
Die 17W Ergebnisse sind nach seiner Aussage sowohl PL1 als auch PL2.
Was ich etwas seltsam finde:
Geekbench MT verliert sogar Leistung während Cinebench 25% zulegt. Das ist etwas unlogisch.
Er testet ein Pre-QS, es wird noch nicht alles rund laufen.
robbitop
2024-06-28, 11:23:20
Das wird ein richtig gutes Jahr für Handhelds! :)
Ich bin auch gespannt, ob nächstes Jahr der Mediatek/Nvidia SoC da auch noch mit eingreifen wird.
Endlich passiert auch im niedrigen Teillastbereich was und auch Performance in niedrigen TDPs. Wobei ich <15W noch gespannt bin, was die Dinger (Strix und LL) leisten.
y33H@
2024-06-28, 17:30:55
Ich hab meinen TGL durchweg auf 15W laufen, reicht für mein Office Zeug meistens - freue mich auf LNL als Upgrade!
Zossel
2024-06-28, 18:01:30
Ich hab meinen TGL durchweg auf 15W laufen, reicht für mein Office Zeug meistens - freue mich auf LNL als Upgrade!
Wie viel Stunden Office machst du den so am Tag?
y33H@
2024-06-28, 20:29:05
Schwankt - iwas zwischen sieben und zehn zumindest ... am schlimmsten sind Teams Calls ^^ mein "reicht" bezog sich allerdings eher auf die Performance denn die Akkulaufzeit.
30 Watt für ST? Never. Die 30 Watt helfen vielleicht bei MT, vor allem aber bei kombinierter CPU/GPU-Volllast.
Ja, du brauchst überdurchschnittlich Spannung, aber keine 30 Watt für 5,1 GHz. Und ein 14900KS braucht auch keine 253 Watt für einen Thread bei 6,2 GHz. Wo hast du denn diese Einschätzung her??
Nicht, dass es wirklich für LNL relavant wäre aber ich hab meinem 14900KS mal CB23 Single Thread drauf geworfen... 6200-6300 Mhz, 1.38-1.43V, pendelt um die 80-84W ;)
iamthebear
2024-07-01, 22:42:20
Wobei 6,2GHz ST Takt auch bedeuten, dass der Ring (der sich über 24 Kerne erstreckt) voll am Anschlag läuft und dass auch die restlichen Kerne um die 6GHz und 1,4V dahin idlen und 23 Kerne voll am Anschlag können auch ganz schön Leerlaufverbrauch verursachen.
Den realen ST Verbrauch eines 14900KS würde ich eher auf um die 40W schätzen.
Lunar Lake wurde aber mit Sicherheit auch nicht bis zum absoluten Brechreiz getrieben. Es geht ja nicht nur darum das TDP Limit einzuhalten sondern auch bei Teillast im Batteriebetrieb möglichst sparsam zu sein.
Was die GPU Benchmarks angeht:
Diese produzieren ja kaum CPU Last. Ich gehe davon aus, dass Intel mit APO das Taktverhalten so weit optimiert hat, dass im GPU Limit die CPU nur so viel TDP zugeteilt bekommt wie sie wirklich braucht um die GPU nicht auszubremsen.
Ja das mag sein... da rödelt natürlich auch jeder Background-Task mit 1.4V und hardcore Takt.
Aber man sieht, 30W kann man schon auch auf einem Kern rausballern wenn der am Limit taktet.
Loeschzwerg
2024-07-02, 09:31:18
Ich hab meinen TGL durchweg auf 15W laufen, reicht für mein Office Zeug meistens - freue mich auf LNL als Upgrade!
Bei mir rödelt noch ein 8365U und der reicht mir auch. Am schlimmsten sind die Gängelungen der internen IT... ständig Updates, Systemchecks, Verschlüsselung usw., die das System sehr sehr langsam machen und Arbeitsspeicher fressen.
Prinzipiell wäre ich dem neuen Surface Laptop mit Snapdragon nicht abgeneigt, aber LNL dürfte, so wie es momentan aussieht, meinem Bedarf eher gerecht werden. Und ich bin auch sehr auf Xe2 gespannt, von daher... Kaufe ich doch einfach zwei Notebooks :freak: (*Spaß*... oder nicht?!)
robbitop
2024-07-02, 09:38:56
Firmeninterne Spy und Malware ist das Ätzenste. Wo man hinschaut. Die Laptops werden schnarchlangsam und die Lüfter rennen ständig mit hohen RPM. Furchtbar dass das offenbar nicht effizienter geht.
Bei uns sind die, die es irgendwie hinbekommen haben sich ein Macbook zu bestellen echtes Glück weils für die anscheinend diese spy- und malware nicht gibt und trotzdem kommen sie damit ins Firmennetz. X-D
latiose88
2024-07-02, 09:47:31
Das wird alles so spannend werden. Mehr Kerne werden wir zwar nicht mehr sehen aber dafür ne höhere effizients unter vollast auf jedenfall.
So ne gute cpu könnte ich mir echt gut als Laptop cpu vorstellen. Und ja so ne tragbare Gerät das hat schon was. Besonders wenn man damit zum Beispiel auf einer lanparty geht und ist viel schneller fertig als die PC User. Und zudem auch viel schneller eingeschaltet und hat alles nötige das man braucht da.
Loeschzwerg
2024-07-02, 09:51:32
@robbitop: Du sprichst mir aus der Seele. Hier läuft z.B. der FireEye-Agent der das Nutzerverhalten analysiert und auch gerne eine hohe Last auf der SSD verursacht. Mir wurde auch schon Notepad++ "deinstalliert" (sollte ein Update werden, aber der Rollout war verbuggt) und ungespeicherte Arbeit gelöscht :freak:
Aber gut, daran wird auch LNL nichts ändern können ^^
MSABK
2024-07-02, 10:05:07
Endlich tut sich unter 20W mal mehr. Werden spannende Geräte. Würde auch gut in ein Surface passen, da ist ARM nicht in Stein gemeißelt.
mboeller
2024-07-12, 11:25:10
komplett OT:
https://www.notebookcheck.com/Honor-MagicBook-Art-14-packt-3-2-OLED-Display-und-magnetische-Webcam-ins-1-kg-Ultrabook.861817.0.html
aber mit LNL ... so was von "haben will" ...
MSABK
2024-07-12, 13:56:52
komplett OT:
https://www.notebookcheck.com/Honor-MagicBook-Art-14-packt-3-2-OLED-Display-und-magnetische-Webcam-ins-1-kg-Ultrabook.861817.0.html
aber mit LNL ... so was von "haben will" ...
Mega Teil. Das Display ist wirklich sehr exotisch und interessant. 3:2 mit 14,6 Zoll. Mal sehen, vlt kommt das auch von anderen.
Tralalak
2024-07-21, 18:20:52
Geekbench 6.1.0 for Windows AVX2 Valid
2 731
Single-Core Score
11 031
Multi-Core Score
source: https://browser.geekbench.com/v6/cpu/6949786
fondness
2024-07-22, 11:15:27
Geekbench 6.1.0 for Windows AVX2 Valid
2 731
Single-Core Score
11 031
Multi-Core Score
source: https://browser.geekbench.com/v6/cpu/6949786
Zum Vergleich: Ryzen AI 9 HX 370 in einem ASUS ProArt P16
2913
Single-Core Score
15044
Multi-Core Score
https://browser.geekbench.com/v6/cpu/6997664
basix
2024-07-22, 11:25:47
Lunar Lake wäre damit bei MT in etwa so schnell wie ein 7840U.
dildo4u
2024-07-22, 11:30:11
Das wichtige ist das idle/Sleep vernünftig Funktioniert es wird immer noch Oft das Macbook mit M3 empfohlen auch wenn es keine MT Rekorde aufstellt.
Bin mal gespannt ob es passiv gekühlte Notebooks geben wird.
fondness
2024-07-22, 11:38:54
Lunar Lake wäre damit bei MT in etwa so schnell wie ein 7840U.
Hängt natürlich noch von den TDPs ab, mit denen die Werte erzielt wurden, aber könnte grob hinkommen.
basix
2024-07-22, 12:48:21
Lunar Lake wäre ja primär auf tiefe TDP getrimmt. 28W 7840U vs. 30W Lunar Lake könnte daher schon gut passen für den Vergleich.
Undertaker
2024-07-22, 13:17:45
Na da geht noch etwas... Single-Rank Speicher, 300 MHz unter dem Topmodell, 17 Watt PL1... Wobei mich weniger die Ergebnisse bei hoher TDP interessieren, als vielmehr der Konkurrenzvergleich in dieser Verbrauchsklasse. :)
Kriegsgeier
2024-07-29, 18:14:18
Was sagt ihr zu den Werten? Lunar Lake at 30Watt:
https://videocardz.com/newz/core-ultra-9-288v-flagship-lunar-lake-processor-debuts-on-geekbench
OgrEGT
2024-07-29, 18:36:09
Bei 2 von den 3 getesteten 288V könnte was mit der Kühlung faul gewesen sein, wenn die einfach so 1500 Punkte im MT niedriger liegen. Oder die bei allen 3 angegebenen 30W stimmen nicht, so dass die ersten 2 mit weniger Leistungsaufnahme liefen...
Ohne Angabe von tatsächlicher Leistungsaufnahme und maximalen anliegenden Taktraten kann man nicht so viel sagen...
dildo4u
2024-07-30, 19:33:17
3.9 ist der Launch
https://videocardz.com/newz/intel-core-ultra-200v-lunar-lake-launches-september-3rd
dildo4u
2024-08-02, 08:15:50
Meteor Lake hatte zu schlechte Yields und Lunar Lake nutzt externe Fabs Pat warnt schon mal vor.
The AI PC is a big winner for the company and the early signals on the performance of Lunar Lake are very positive. We therefore intend to ramp that product significantly next year to meet market demand. While the part is great, it was originally a narrowly targeted product, using largely external wafers and not optimized for cost.
As a result, our gross margins will likely be up only modestly next year. The good news is the follow-on product, Panther Lake, is internally sourced on 18A and has a much improved cost structure.
https://wccftech.com/intel-18a-panther-lake-client-clearwater-forest-servers-booted-lunar-lake-copilot-pcs-shipping-this-quarter/
Zossel
2024-08-02, 08:55:03
Meteor Lake hatte zu schlechte Yields und Lunar Lake nutzt externe Fabs Pat warnt schon mal vor.
Bei weniger verkaufter High-End Waferfläche als TSMC wird Intel erstmal keine bessere Kostenstruktur als TSMc auf diesen Prozessen haben.
fondness
2024-08-02, 09:05:33
Meteor Lake hatte zu schlechte Yields und Lunar Lake nutzt externe Fabs Pat warnt schon mal vor.
https://wccftech.com/intel-18a-panther-lake-client-clearwater-forest-servers-booted-lunar-lake-copilot-pcs-shipping-this-quarter/
Lol, sie nehmen den aller teuersten TSMC node, den AMD laut eigenen Aussagen vermieden hat weil viel zu teuer und jetzt erklärt gelsinger die Margen werden halt leider nächstes Jahr nix sein?
dildo4u
2024-08-02, 09:08:00
Ziel ist halt Apple Preise mit den Geräten zu erreichen bisher sind die neuen Geräte ja alle Absurd teuer egal ob 4 oder 3nm.
Undertaker
2024-08-02, 09:19:03
Bei weniger verkaufter High-End Waferfläche als TSMC wird Intel erstmal keine bessere Kostenstruktur als TSMc auf diesen Prozessen haben.
Von den reinen Herstellungskosten sicherlich nicht. Aber: Die immense TSMC-Marge fällt weg, ist Logistik vereinfacht sich, designspezische Anpassungsaufwände vom Standardprozess erübrigen sich bzw. sind von vorneherein eingeflossen, Tooling und Design passen zu den Entwicklungsprozessen, Kommunikation und sonstiger Overhead entfällt - das alles spart natürlich massiv Geld. Würde mich nicht wundern, wenn 18A selbst im Falle etwas schlechterer Yields von Tag 1 an massiv kostengünstiger für Intel wäre.
basix
2024-08-02, 09:26:09
Für Intel als Company ist 18A sicher günstiger. Aber für die Client Group usw. ja eigentlich nicht? Die zahlen doch aufgrund IDM 2.0 die selben Preise wie externe Kunden?
fondness
2024-08-02, 09:28:03
Bei weniger verkaufter High-End Waferfläche als TSMC wird Intel erstmal keine bessere Kostenstruktur als TSMc auf diesen Prozessen haben.
Sie haben halt auch das Problem, dass LL ihr einziger Chip ist, der die AI PC Anforderungen erfüllt. Bei ARL hat man ja bei der NPU gespart. Und die Hersteller wollen diesen sticker wohl unbedingt.
Von den reinen Herstellungskosten sicherlich nicht. Aber: Die immense TSMC-Marge fällt weg, ist Logistik vereinfacht sich, designspezische Anpassungsaufwände vom Standardprozess erübrigen sich bzw. sind von vorneherein eingeflossen, Tooling und Design passen zu den Entwicklungsprozessen, Kommunikation und sonstiger Overhead entfällt - das alles spart natürlich massiv Geld. Würde mich nicht wundern, wenn 18A selbst im Falle etwas schlechterer Yields von Tag 1 an massiv kostengünstiger für Intel wäre.
Das ist glaube ich ne fette Fehleinschätzung und das die Einfachheit der TSMC-Prozesse all diese Kosten wieder aufwiegt und das selbst die Marge von TSMC ggü. der eigenen Fertigung nicht ins Gewicht fällt.
Der einzige Kostenfaktor (und der gewichtigste) für Intel sind die nicht ausgelasteten Fabs. Intel kann massiv eigene Produkte bei TSMC fertigen ohne Kostenprobleme, wenn es Kunden für ihre eigenen Fabs gäbe. Das ist aber nicht der Fall, deswegen muss massiv Staatsknete her um Intels Fertigung bis zur Wirtschaftlichkeit zu retten. AMD hatte mit Global Foundries ganz ähnliche Probleme damals, nur das die so schlau waren, die Kostenfalle vorher abzustoßen und einen unendlich potenten Geldgeber dafür zu finden...
Undertaker
2024-08-02, 09:40:17
Das ist glaube ich ne fette Fehleinschätzung und das die Einfachheit der TSMC-Prozesse all diese Kosten wieder aufwiegt und das selbst die Marge von TSMC ggü. der eigenen Fertigung nicht ins Gewicht fällt.
Der einzige Kostenfaktor (und der gewichtigste) für Intel sind die nicht ausgelasteten Fabs.
Ähm, genau das hat Gelsinger doch oben im Ergebnis sogar bestätigt 😅. 18A wird für Intel günstiger, klare Ansage.
Was Pat bestätigt und was tatsächlich so ist, sind zwei unterschiedliche Dinge ;).
18A ist zur TSMC-Kostenstruktur sicherlich ebenfalls kaum konkurrenzfähig (so wie Samsung i.Ü.), aber es lastet eigene Fabs aus, das rechnet der mit ein.
Undertaker
2024-08-02, 09:52:36
Ist das deine gesamte Argumentation? Der CEO stellt sich hin und lügt bei kursrelevanten Themen, weil du ein anderes Weltbild hast? :D Die Gründe für den Kostennachteil bei TSMC habe ich oben schon aufgeführt.
der CEO, insbesondere bei Intel seit einiger Zeit, "lügt" doch ständig bei kursrelevanten Themen bzw. interpretiert für die Investoren so, wie es gerade gut passt, siehe die ganzen Verschiebungen und grooooßen Ankündigungem die sich später alle als Luftnummern erwiesen bzw. Pferdefüsse noch und nöcher hatten
Zossel
2024-08-02, 21:07:53
Was Pat bestätigt und was tatsächlich so ist, sind zwei unterschiedliche Dinge ;).
18A ist zur TSMC-Kostenstruktur sicherlich ebenfalls kaum konkurrenzfähig (so wie Samsung i.Ü.), aber es lastet eigene Fabs aus, das rechnet der mit ein.
Das alles scheint die Märkte nicht zu überzeugen. Auch weil der Vorstandsvorsitzende Gelsinger in seiner E-Mail an die Mitarbeiter recht dramatisch klang. Intels Kostenstruktur sei "nicht wettbewerbsfähig", schrieb er unter anderem.
https://www.zdf.de/nachrichten/wirtschaft/unternehmen/intel-stellenabbau-halbleiter-chips-magdeburg-100.html
fondness
2024-08-02, 21:59:08
https://www.zdf.de/nachrichten/wirtschaft/unternehmen/intel-stellenabbau-halbleiter-chips-magdeburg-100.html
Wundert das eigentlich irgendjemanden? Ich meine Designs wie Meteor Lake mit x verschiedenen Chips und tapeouts plus Base Die müssen ein Vermögen kosten im Vergleich zu AMD. Auch Lunar Lake in 3nm und wieder mit Base Die und vielen unterschiedlichen Chips. Da wird auch nichts wiederverwendet wie das I/O Die bei AMD oder die Chiplets, welche auch im Serverbereich Verwendung finden.
amdfanuwe
2024-08-03, 00:41:55
Solange Intels Client Computing Group alleine mehr Umsatz und Gewinn wie AMD insgesamt macht, wird es daran nicht liegen.
dildo4u
2024-08-03, 05:05:55
Acer hat wohl günstige Modelle hoffentlich sofort im September.
https://videocardz.com/newz/acer-swift-14-ai-with-intel-core-ultra-5-226v-lunar-lake-spotted-in-europe-first-retail-product-with-xe2-gpu-architecture
fondness
2024-08-03, 08:47:04
Solange Intels Client Computing Group alleine mehr Umsatz und Gewinn wie AMD insgesamt macht, wird es daran nicht liegen.
Ja lol weil sie jetzt die ganzen Verluste an die foundry auslagern.
KarlKastor
2024-08-03, 09:07:11
Umgekehrt wird ein Schuh draus. Zuvor wurden Foundry Verluste in die CPU Sparte ausgelagert.
basix
2024-08-03, 09:47:35
Der wichtigste Punkt ist mMn, dass man nun die Dividenden-Zahlungen eingestellt hat. Das ist für Investoren zwar nicht schön (deswegen der -30% Drop an der Börse), doch es kann nicht sein dass man Dividenden in den Verlust hinaus bezahlt (wie z.B. bei einigen anderen Unternehmen). Wenn man genug Gewinn macht, kann man Dividenden zahlen.
fondness
2024-08-03, 10:01:58
Umgekehrt wird ein Schuh draus. Zuvor wurden Foundry Verluste in die CPU Sparte ausgelagert.
Unterm Strich steht jedenfalls ein satter Verlust. Da zu argumentieren, dass das Client Segment ja so profitabel ist, ist schon leicht absurd. Klar profitiert Intel von Skaleneffekten, weil sie schlicht sehr hohe Stückzahlen fahren, aber ihr aktueller Ansatz ist wohl unbestreitbar sehr teuer.
Umgekehrt wird ein Schuh draus. Zuvor wurden Foundry Verluste in die CPU Sparte ausgelagert.
Momentan hat er recht. Intel macht zu geringe 10nm-Preise für die CPU-Sparte. 10nm ist ein unfassbar teurer Prozess, deshalb macht die Foundry Verlust.
10nm machen die komplett dicht, sobald das geht mMn, es wird eine günstige 22nm, eine günstige 14nm und eine günstige Intel3-Variante geben, die Preise für 18A müssen konkurrenzfähig werden, das wird alles sehr sehr eng als Foundry. Aber sie werden vom Steuerzahler mitfinanziert werden, weil Intels Fertigung aufgrund er Taiwan-Situation wichtig für die nationale Sicherheit der USA ist. Das rettet sie evtl.
y33H@
2024-08-03, 10:41:07
10nm aka Intel 7 ist kein Foundry-Node.
basix
2024-08-03, 10:56:23
Was willst du damit sagen? Dass das nicht via Foundry Sparte verrechnet wird? Wäre sehr ungewöhnlich. Da ist es sinnvoller, Intel 7 nicht für externe Kunden anzubieten (weil eben zu teuer). Für interen "Kunden" dann schon, mit halt geringen Margen für die Foundry.
fondness
2024-08-03, 10:57:50
Momentan hat er recht. Intel macht zu geringe 10nm-Preise für die CPU-Sparte. 10nm ist ein unfassbar teurer Prozess, deshalb macht die Foundry Verlust.
10nm machen die komplett dicht, sobald das geht mMn, es wird eine günstige 22nm, eine günstige 14nm und eine günstige Intel3-Variante geben, die Preise für 18A müssen konkurrenzfähig werden, das wird alles sehr sehr eng als Foundry. Aber sie werden vom Steuerzahler mitfinanziert werden, weil Intels Fertigung aufgrund er Taiwan-Situation wichtig für die nationale Sicherheit der USA ist. Das rettet sie evtl.
Richtig, dass hat ja Intel bei den letzten Zahlen selbst eingeräumt. Man hat bei 10/7nm auf EUV-Lithografie verzichtet, dadurch ist der Prozess extrem teuer. Jetzt macht man einen Bilanztrick, indem die Foundry intern nur noch Preise berechnen darf, "die der Performance ihrer Produkte entspricht", was immer das auch heißen mag. Das sind wohl schon erste Vorbereitungen um die Foundry bei fortlaufenden Problemen abstoßen zu können.
Kriegsgeier
2024-08-03, 14:41:06
Was genau macht den Prozess ohne UV teuerer? Mehr Schritte/Belichtungen nötig?
Gibt es gar kein Vorteil ein Prozess ohne UV zu betreiben?
Irgendwas hat Intel sich dabei gedacht?
fondness
2024-08-03, 15:01:25
Was genau macht den Prozess ohne UV teuerer? Mehr Schritte/Belichtungen nötig?
Gibt es gar kein Vorteil ein Prozess ohne UV zu betreiben?
Irgendwas hat Intel sich dabei gedacht?
Genau, sie müssen Multi-Pattering machen, während TSMC bei 6nm mit Single-Pattering auskommt. Vorteile sind man erspart sich die teuren EUV-Maschinen, die sind aber schnell wieder eingespielt wenn man viel schneller fertigen kann. Man hat sich damals wohl für so unglaublich gut gehalten, dass man EUV nicht benötigt, das waren zumindest die öffentlichen Aussagen.
Kriegsgeier
2024-08-03, 15:23:05
Aha, ok interessant soweit.
Das heißt man wusste, dass die Konkurrenz zu 100% drauf setzen wird und trotzdem hat man sich dagegen entschieden? Nicht mal Zweigleisigkeit hat man vorgesehen? Krass, fast schon fahrlässig.
dildo4u
2024-08-03, 15:40:03
Eine solche Umstellung dauert halt EUV Nutzung wurde in 21 angekündigt, damals war Intel mit Alderlake noch Konkurrenzfähig ohne das sich die Chips selber zerstören.
https://www.intel.de/content/www/de/de/newsroom/news/intel-foundry-opens-new-frontier-chipmaking.html
A18 soll High-EUV nutzen.
//differentRob
2024-08-03, 16:21:50
Ich dachte für High-EUV reicht es beim 18A noch nicht, das kommt erst mit A14.
https://www.computerbase.de/2024-02/intel-foundry-roadmap-mit-intel-14a-und-intel-3-p-wird-ifs-zum-zweiten-tsmc/#abschnitt_intel_14a_mit_highna_euv_folgt_auf_intel_18a
Erst 14A kann High-NA nutzen. Sie können 14A auch ohne High-NA bringen können, falls sich das verzögern sollte.
iamthebear
2024-08-03, 19:04:48
Man hat sich damals wohl für so unglaublich gut gehalten, dass man EUV nicht benötigt, das waren zumindest die öffentlichen Aussagen.
Intel war damals noch 2 Jahre vor TSMC und laut Intels Aussage wollte man das Risiko nicht gehen da man nicht wusste ob EUV rechtzeitig in ausreichender Menge verfügbar sein wird.
Intel 10nm war damals für 2016 geplant. TSMC hat erst Ende 2020 mit N5 EUV flächendeckend eingesetzt.
Generell glaube ich nicht, dass Intels Fertigungsprobleme viel mit EUV zu tun haben. TSMCs N7 braucht auch kein EUV und hatte keine Probleme.
Eine solche Umstellung dauert halt EUV Nutzung wurde in 21 angekündigt, damals war Intel mit Alderlake noch Konkurrenzfähig ohne das sich die Chips selber zerstören.
Konkurrenzfähig im Sinn von maximaler ST Performanbce im Desktop ja.
Bei Performance/Watt oder Performance/Fläche sieht es anders aus.
amdfanuwe
2024-08-03, 22:36:22
Unterm Strich steht jedenfalls ein satter Verlust. Da zu argumentieren, dass das Client Segment ja so profitabel ist, ist schon leicht absurd. Klar profitiert Intel von Skaleneffekten, weil sie schlicht sehr hohe Stückzahlen fahren, aber ihr aktueller Ansatz ist wohl unbestreitbar sehr teuer.
Wie viele "teure" Meteor Lake sind bis jetzt raus? Wird noch nicht den großen Anteil am Umsatz und Gewinn im CCG haben. Aber ich bin mal gespannt, wie sich das die nächsten Quartale weiter entwickelt. Interposer, Packaging und TSMC Fertigung machen MTL und folgende teuer im Vergleich zu monolithischen Chips bzw. Chiplet Designs der Konkurrenz. Zudem werden die eigenen Fabs weniger ausgelastet. Meiner Ansicht nach kommen da noch ein paar üble Quartale auf Intel zu.
KarlKastor
2024-08-04, 10:36:30
Unterm Strich steht jedenfalls ein satter Verlust. Da zu argumentieren, dass das Client Segment ja so profitabel ist, ist schon leicht absurd. Klar profitiert Intel von Skaleneffekten, weil sie schlicht sehr hohe Stückzahlen fahren, aber ihr aktueller Ansatz ist wohl unbestreitbar sehr teuer.
Es ging ja um einen Vergleich mit AMD. AMD weißt ja auch keinen Investitionen von TSMC bei sich mit aus.
KarlKastor
2024-08-04, 10:39:08
Momentan hat er recht. Intel macht zu geringe 10nm-Preise für die CPU-Sparte. 10nm ist ein unfassbar teurer Prozess, deshalb macht die Foundry Verlust.
Quelle?
Die Foundry macht Verluste, weil massive Investitionen in zukünftige Prozesse getätigt werden und der ganze Umbau zur 3rd party Foundry verschlingt auch Milliarden.
Der ganze riesige Verlust kommt doch nicht durch die Fertigung eines ausgereiften Nodes, das ist doch völlig absurd.
rentex
2024-08-04, 10:45:41
Quelle?
Die Foundry macht Verluste, weil massive Investitionen in zukünftige Prozesse getätigt werden und der ganze Umbau zur 3rd party Foundry verschlingt auch Milliarden.
Der ganze riesige Verlust kommt doch nicht durch die Fertigung eines ausgereiften Nodes, das ist doch völlig absurd.
+1
Zossel
2024-08-04, 14:11:09
Quelle?
Die Foundry macht Verluste, weil massive Investitionen in zukünftige Prozesse getätigt werden und der ganze Umbau zur 3rd party Foundry verschlingt auch Milliarden.
Ohne das hätte der Kram bald nur noch Schrottwert.
basix
2024-08-05, 11:49:07
Die Foundry macht Verluste, weil massive Investitionen in zukünftige Prozesse getätigt werden und der ganze Umbau zur 3rd party Foundry verschlingt auch Milliarden.
Der ganze riesige Verlust kommt doch nicht durch die Fertigung eines ausgereiften Nodes, das ist doch völlig absurd.
Verluste macht man wegen 10nm / Intel 7 sicher nicht. Aber evtl. auch nicht viel Marge. Bleibt unter dem Strich einfach weniger Geld in der Kasse. Aber ich stimme schon zu, die Verluste werden von den Investitionen herrühren. Doch ein für Intel potentiell teurer Node macht es nicht besser und momentan läuft der Grossteil von Intels CPUs & GPUs via Intel 7 und TSMC. Von den Kostenstrukturen her ist beides nicht ideal, für Gesamt-Intel wie auch ihre Foundry.
mocad_tom
2024-08-06, 14:56:20
https://x.com/p1cturedump/status/1820800802316746804
Intel 7 kostet gerade schon über Gebühr viel.
Intel hat das anders geplant (siehe Slide von März 2024).
Beim Conference Call haben sie davon gesprochen, dass 85% der Waferstarts sind Intel 7.
15% der Waferstarts sind Intel 4/3.
Sie wollten Intel 4/3 lieber softer rampen und dafür danach sofort Intel 20A/ 18A stärker rampen.
Geplant war, sie verkaufen weiterhin und noch länger große Mengen an Intel 7 und die Preise sollen auch nicht besonders runtergehen.
Erst wenn dann Intel 18A da ist geht man gleich auf 18A rüber.
Der Plan klappt nun nicht, weil
1. 18A nicht so schnell Marktreif wird wie geplant
2. die Konkurrenz guten Stoff verkauft und Intel 7 gerade schwer in den Regalen liegt, also muss man mit Preisrunden nachhelfen(also wird der Intel 7 Prozess weniger Wert).
(bzw. muss man Intel 3 und Intel 4 auch über die Hau-Ruck-Methode hochziehen, siehe vorschnelles rampen der Intel-Ireland-Fab)
Intel hatte am Donnerstag 01.08. einen prophetischen Conference Call gehabt(man hat vorhergesehen, was am Montag 05.08. passieren wird).
Die anderen werden von ihrer Guidance, die sie vom 24.Juli bis zum 31.Juli ausgegeben haben abrücken müssen.
Intel hat bei der Guidance eine schwache Wirtschaft bereits mit drin, die anderen nicht.
Ich bin gespannt ob Microsoft(z.B.) ihre Kunden-Würge-Preisgestaltung so weiter durchhalten kann - ich kann mir hier einen richtigen Rücksetzer vorstellen.
MSABK
2024-08-06, 15:26:30
Ist das neu? Dann müssten ja die Designs bei Lenovo und co angepasst werden.
Lunar Lake systems require a minimum of two Thunderbolt 4 ports, one on each side of the chassis, and up to three total ports are supported in the silicon.
https://www.notebookcheck.net/Conversations-around-ARM-vs-x86-power-are-false-Intel-s-Robert-Hallock-on-Lunar-Lake-s-strategy-and-how-it-is-well-poised-to-challenge-ARM-s-efficiency-narrative.867249.0.html
fondness
2024-08-12, 14:23:39
GPD claims AMD Radeon 890M iGPU will outperform Intel’s next-gen Arc A140V in TimeSpy
https://videocardz.com/newz/gpd-claims-amd-radeon-890m-igpu-will-outperform-intels-next-gen-arc-a140v-in-timespy
Wenn es nicht mal in TimeSpy reicht wirds eng.....
MSABK
2024-08-12, 14:25:02
GPD claims AMD Radeon 890M iGPU will outperform Intel’s next-gen Arc A140V in TimeSpy
https://videocardz.com/newz/gpd-claims-amd-radeon-890m-igpu-will-outperform-intels-next-gen-arc-a140v-in-timespy
Wenn es nicht mal in TimeSpy reicht wirds eng.....
Hatten die auch nicht Fantasiezahlen zur AI 370?
fondness
2024-08-12, 14:26:03
Hatten die auch nicht Fantasiezahlen zur AI 370?
Wer? GDP ist immerhin ein Notebookhersteller.
https://gpd.hk/gpdpocket4
Die Scores kommen direkt von ihrer Homepage, ein bisschen runter scrollen.
https://i.postimg.cc/1tpN978T/Screenshot-2024-08-12-143017.png (https://postimg.cc/k6g5scFF)
Da kannste für Spiele noch mal 10-20% abziehen, dann biste auf Hawk Point-Niveau und ich glaube mehr sollte man von LNL realistischerweise auch nicht erwarten.
dildo4u
2024-08-12, 14:44:06
Ich dachte die Dinger gehen nur bis 30 Watt?
Gipsel
2024-08-12, 14:50:40
Ich dachte die Dinger gehen nur bis 30 Watt?Default TDP und maximal setzbares Powerlimit sind 2 verschiedene Dinge. ;)
Aber wäre natürlich schon nett zu wissen, wie das bei für Handhelds realistischeren Werten (10, 15, 20W) aussieht.
Loeschzwerg
2024-08-12, 14:54:28
Ja, PL2 soll bei 30W liegen und PL1 bei 17W (bis auf die höchste SKU). Zumindest sind die Werte von GPD so nicht wirklich vergleichbar.
MSABK
2024-08-12, 14:56:10
Wer? GDP ist immerhin ein Notebookhersteller.
https://gpd.hk/gpdpocket4
Die Scores kommen direkt von ihrer Homepage, ein bisschen runter scrollen.
https://i.postimg.cc/1tpN978T/Screenshot-2024-08-12-143017.png (https://postimg.cc/k6g5scFF)
Ja, die hatten ja für AI 370 auch zu hihe Werte gezeigt bevor die Tests kamen.
dildo4u
2024-08-12, 15:02:50
Laut dem passen die 890m Werte 3600 machbar über 30 Watt.
https://www.notebookcheck.net/AMD-Zen-5-Strix-Point-iGPU-analysis-Radeon-890M-versus-Intel-Arc-Graphics-Apple-M3-and-Qualcomm-Adreno-X1-85.868475.0.html
GPD claims AMD Radeon 890M iGPU will outperform Intel’s next-gen Arc A140V in TimeSpy
https://videocardz.com/newz/gpd-claims-amd-radeon-890m-igpu-will-outperform-intels-next-gen-arc-a140v-in-timespy
Wenn es nicht mal in TimeSpy reicht wirds eng.....
GPD kann man nicht mehr ernst nehmen. Die haben einfach das 17W Ergebnis von Jaykihn genommen, der damals mit einem Pre-QS getestet hatte: https://x.com/jaykihn0/status/1805718733207298541
Exakt der gleiche score, unglaublich.
Auch der 268V ist falsch, weil dieses Modell 32GB besitzt. Jaykihn hat mit einem 16GB Modell getestet. Und wie kommen die auf 45W. PL2 soll ja bei 30W liegen. Das ist alles komplett erfunden von GPD. Für 45W wäre LNL gar nicht ausgelegt, sieht man doch schon an den niedrigen Boost Taktraten der GPU. Wahrscheinlich liegt bei 30W schon der volle GPU Boost an, wenn schon zwischen 17W und 30W nur 20,7% liegen.
dildo4u
2024-08-25, 09:59:56
Es gibt Angeblich Geräte um 1000€ zum Launch
https://wccftech.com/intel-lunar-lake-core-ultra-200v-laptops-asus-acer-listed-prices-830-to-1170-euros
Neuer Geekbench Leak
https://wccftech.com/intel-core-ultra-7-268v-lunar-lake-even-better-new-cpu-gpu-benchmarks/
MSABK
2024-08-25, 12:22:13
Das wäre eine Kampfansage an Qualcomm, and Amd sowieso. Qualcomm will ja 8 Kerne für unter 1000€ bringen. Weiß aber nicht ob die Performance da langt, zumal die GPU da noch schwächer sein wird.
dildo4u
2024-08-25, 12:35:37
Muss man abwarten ob die GPU wirklich besser als Hawkpoint ist der Preis macht Sinn da man nicht High-End Meteor Lake/Strix bei CPU Performance erreicht.
Undertaker
2024-08-25, 13:51:47
Immer noch die falsche Vergleichsbasis, zumindest bzgl. Peak-Performance. LL zielt vor allem auf die ~15W Klasse, im Gegensatz zu Meteor Lake oder Hawk Point ist da keine signifikante Skalierung bis 45W oder mehr zu erwarten. Teilweise werden letztere ja in Geräten mit bis zu 65 Watt (speziell bei Mini-PCs) betrieben, das ist für LL gänzlich utopisch bzw. mindestens mal unsinnig.
dildo4u
2024-08-25, 13:55:07
Hawkpoint gibt es als Low Power Version eigentlich macht es sogar wenig Sinn dort über 30 Watt anzusetzen.
Undertaker
2024-08-25, 14:05:04
Und Lunar Lake liegt vom Sweetspot noch niedriger, der Chip ist nicht das Pendant zu einem 12C-Chip. Dafür gibt bzw. wird es anderen Serien geben.
dildo4u
2024-08-26, 08:30:45
Und Lunar Lake liegt vom Sweetspot noch niedriger, der Chip ist nicht das Pendant zu einem 12C-Chip. Dafür gibt bzw. wird es anderen Serien geben.
Ich wette es wird kein Gerät ohne Aktive Kühlung geben daher sehe ich den Sinn nicht für 17 Watt es sei denn wir reden von Handheld mit kleinen akku.
4 P Kerne in 30 Watt ist ok die Low Power Meteor Lake hatten nur 2.
https://www.intel.de/content/www/de/de/products/sku/237329/intel-core-ultra-7-processor-165u-12m-cache-up-to-4-90-ghz/specifications.html
Undertaker
2024-08-26, 08:53:24
Was die Hersteller daraus bauen, muss man sehen; ein 15" MacBook Air liegt wohl sustained bei ca. 15W (22W Peak), was ziemlich gut zu LL passen würde. In einem kleineren Handheld sehe ich aber auch wenig Raum für eine passive Kühlung. Da ist eher die Akkulaufzeit der Anreiz für niedrige TDP-Einstellungen.
fondness
2024-08-26, 10:41:08
Und Lunar Lake liegt vom Sweetspot noch niedriger, der Chip ist nicht das Pendant zu einem 12C-Chip. Dafür gibt bzw. wird es anderen Serien geben.
Was zu beweisen wäre. Strix geht bis auf 15W runter, Hawkpoint genauso. Beide muss LL erstmal schlagen.
davidzo
2024-08-26, 14:23:57
Immer noch die falsche Vergleichsbasis, zumindest bzgl. Peak-Performance. LL zielt vor allem auf die ~15W Klasse, im Gegensatz zu Meteor Lake oder Hawk Point ist da keine signifikante Skalierung bis 45W oder mehr zu erwarten.
Da bist du aber schlecht informiert. LL zielt leicht höher bei der TDP als derzeit MTL-U.
MTL-U geht im moment von 15-28W base power. Das hebt man nun auf 17-30Watt an.
Der 1,5x MT Vergleich den Hallock damals im Video gemacht hat bezieht sich auch auf genau diesen Klassenvergleich: MTL-U mit 2+8 bei 15Watt vs LL mit 4+4 bei 17Watt:
Interview zur Architektur
Robert Hallock sagt LL wird die größte Meteorlake Konfig schlagen in Multihreading.
https://youtu.be/4Nl3SF-m4JY
Ich denke das große Ding mit LNL wird es sein den Idle Verbrauch herunter zu bekommen. MTL-U war da zum Teil ein Rückschritt.
Chiplet-Verbindungen verbrauchen einfach Power, das ist bei AMD so und bei Intel nicht anders. Lunarlake bringt die GPU zurück in den CPU-Tile und spart damit die Power die man bei der letzten generation durch die Tile-Aufteilung verloren hat. Der PCH ist wie bei Intel früher schon wieder extern, also handelt es sich nicht um einen echten SOC, aber immerhin ist er auf demselben Package.
Ganz so gut wie ein echtes SOC wird es nie werden, aber es gibt andere Tricks: - Zum Beispiel mehr Accelerator für das offloading von energiehungrigen Tasks zu verbauen, ein e-core first Scheduling und weniger Schnittstellen zu verbauen die statische Energie ziehen.
Qualcomm hat es mit dem X-Elite quasi vorgemacht. Der SOC-Teil dort ist von Handy-Socs abgeleitet und hat entsprechend mehr integrierte IP und offloading aber weniger i/o Vielfalt, PCIelanes, etc. als z.B. MTL-H oder Hawk Point. - Der Idle und low load Verbrauch ist dementsprechend besser.
Laut den Leaks liegt LNL im Singlethreaded leicht vor Qcomm und Hawk, aber die 1T Verbräuche der P-Cores sind derzeit bei Intel auch noch jenseits von gut und Böse. Bei der Energieefiizienz muss man gegenüber Qcomm noch viel aufholen denn der X-Elite liegt gute 50% vor MTL-U bei ST loads und gegenüber MTL-H sogar Faktor 2x obwohl beide signifikant langsamer sind.
In MT loads gibt es ebenfalls +50% Rückstand bei der Energieeffizienz laut NBC.
Bisher sieht es auch nach einem Rückstand bei der MT-Leistung aus gegenüber dem X-Elite (11K vs 14K un GB6), wenn sich da effizienzmäßig nicht einiges bei den Kernen verbessert wird man trotzdem ähnlich viel oder mehr dabei verbrauchen.
Ich sehe noch nicht richtig wie Intel das spinnen will dass die Konkurrenz eben nicht in "derselben" Klasse liegt. Das ist dem Kunde im Zweifelsfalle egal.
Wenn er mit dem X-Elite schon 15h Laufzeit bekommt interessiert wenig ob es ein Gerät gibt dass 17h bietet bei 100g weniger Gewicht aber auch geringerer MT-Leistung und etwas besserer Grafikperformance.
Das sind keine richtigen Differentiatoren. Da müsste man schon etwas ganz anderes kommen.
Nichtmal passivkühlung wäre ein ausreichender Differentiator. Das M3 MBA wird in den MTL und X-Elite Tests immer mitgebencht, aber kaum einer schreibt etwas davon dass es eine andere Geräteklasse wäre durch die Passivkühlung und die deutlich niedrigere TDP. Ab einer bestimmten Effizienzklasse ist der SOC-Verbrauch bei Notebooks schlichtweg nur noch unter "ferner liefen". Display-, storage, i/o Entscheidungen spielen da irgendwann für die Akkulaufzeit die größere Rolle als der SOC.
Ich glaube also nicht dass Intel sich hier so über features differenzieren kann, dass LNL vom Kunden als "eigene Klasse" wahrgenommen wird.
Die Kunden werden die LNL Geräte mit X-Elite und Strix Notebooks vergleichen, da kannst du nichts gegen machen.
KarlKastor
2024-08-26, 15:24:41
LL ist inklusive RAM.
Undertaker
2024-08-26, 22:56:40
Was zu beweisen wäre. Strix geht bis auf 15W runter, Hawkpoint genauso. Beide muss LL erstmal schlagen.
Ich habe im zitierten Posting überhaupt nicht von Leistungsvergleichen gesprochen, sondern vom vorrangigen Betriebspunkt des Designs. Und ja, hier bleibt es dabei: LL ist als 8C/8T-Chip zweifellos eine TDP-Klasse tiefer angesiedelt, unabhängig davon, ob sich einzelne Modelle in den jeweiligen TDP-Randbereichen ggf. einmal überschneiden. Klar kannst du auch einen Strix Point bei 15W betreiben, du kannst ihm aber auch 80(!) Watt wie im ProArt P16 verpassen. Benches mit reiner CPU-Last zeigen, dass Strix Point selbst von 55 auf 65 Watt noch skaliert, was bei einem 12C/24T Chip auch nicht wirklich verwundert.
Wer will mit mir Wetten abschließen, dass es kein Lunar Lake Notebook mit 80 Watt geben wird?
Da bist du aber schlecht informiert. LL zielt leicht höher bei der TDP als derzeit MTL-U.
MTL-U geht im moment von 15-28W base power. Das hebt man nun auf 17-30Watt an.
Es wurde ja schon erläutert, dass dies inkl. RAM ist. Gut, dass du so hervorragend informiert bist. :)
Manchen scheint überhaupt nicht bewusst zu sein, dass da auch noch ein ARL mit U-, H- und HX-Modellen kommt, DAS ist die eigentliche Ablösung von MTL. LL befüllt eine Lücke mit einem eigenen Chip dezidiert für den ~15/17 Watt Bereich, schmaler I/O-Anbindung (Thema PCIe-Lanes) ohne wirkliche Auslegung für eine DGPU-Anbindung und starkem Fokus auf Effizienz insbesondere auch im Niedrig- und Teillastbereich (wenige Tiles, on-package Memory).
MTL-U läuft in der Praxis zwischen 21-30W PL1 und 36-40W PL2 wenn man die Geräte vom 155U+165U bei Notebookcheck vergleicht. Theoretisch wären bis 57W drin.
Bei LNL gibt es auch die Option auf 8W, während MTL-U offiziell nur bis 12W runtergeht als minimal sichergestellte Leistung.
Bei der PL2 gibt Intel für LNL wohl 30W an. Wobei nicht klar ist, ob das der Maximalwert sein soll oder nur eine Art Basis PL2. Aus den vorliegenden Infos ist mir nicht klar, wo LNL höher angesiedelt sein soll, sieht eher nach dem Gegenteil aus. Hört sich für mich nach Märchenstunde an.
30W LNL wäre auch nicht höher als 28W MTL. Die 2 zusätzlichen Watt sind wegen dem on package RAM, deswegen doch auch 17W statt 15W. Sollte man schon wissen.
fondness
2024-08-27, 10:13:13
Ich habe im zitierten Posting überhaupt nicht von Leistungsvergleichen gesprochen, sondern vom vorrangigen Betriebspunkt des Designs. Und ja, hier bleibt es dabei: LL ist als 8C/8T-Chip zweifellos eine TDP-Klasse tiefer angesiedelt, unabhängig davon, ob sich einzelne Modelle in den jeweiligen TDP-Randbereichen ggf. einmal überschneiden. Klar kannst du auch einen Strix Point bei 15W betreiben, du kannst ihm aber auch 80(!) Watt wie im ProArt P16 verpassen. Benches mit reiner CPU-Last zeigen, dass Strix Point selbst von 55 auf 65 Watt noch skaliert, was bei einem 12C/24T Chip auch nicht wirklich verwundert.
Wer will mit mir Wetten abschließen, dass es kein Lunar Lake Notebook mit 80 Watt geben wird?
Was spielt das für eine Rolle? Das ist doch ein reines Konfigurationsthema, interessant ist einzig die Perf/Watt.
Zumal die AMD-Chip über 25W auch kaum mehr skalieren. Von 25W auf 50W bringen so 10% mehr Leistung, eigentlich absurd so viel TDP drauf zu geben.
Und wie hoch dann LL wirklich boostet ist im übrigen auch noch nicht bekannt. Die TDP-Angaben von Intel kennen wir ja schon.
Undertaker
2024-08-27, 11:01:04
Von 28 auf 65 Watt legt ein HX 370 im CB R23 bei NBC noch rund 45% zu, das ist schon heftig viel. :) Insofern kein Wunder, dass es dort Geräte mit derart hohen TDPs gibt bzw. auch noch mehr wie die zuvor genannten 80 Watt.
Was meinst du denn mit deinem Verweis auf "TDP-Angaben [...] kennen wir ja schon"? Das AMD wie Intel Referenzwerte für ihre Mobile-Modelle angeben, die von den Notebookherstellern für die tatsächlichen long/short-term limits oftmals nur rudimentär berücksichtigt werden? Wie bei einem HX 370 mit max. 54W cTDP, der von Asus auf 80W ausgefahren wird? Das ist ja nun nicht wirklich neu bei AMD wie Intel gleichermaßen. Immerhin: An korrekt konfigurierte Limits halten sich die Chips auch, so kann man dann ganz gut vergleichen, bei Lunar Lake natürlich unter Berücksichtigung des bereits inkludierten Speichers.
fondness
2024-08-27, 11:08:51
Ich bezog mich auf Hawk (den ich als LL Gegner sehe). Ja bei Strix ist es etwas mehr, trotzdem wird man arg ineffizienter. Selbst bei deinem Extrembeispiel, das ich jetzt nicht überprüft habe gibst du die 2,23x TDP drauf für 45% Mehrleistung. Und ob es bei LL anders aussieht ist reine Spekulation, aktuell skaliert Intel wesentlich stärker bei höherer TDP. ;)
Und mit TDP-Angabe kennen wir schon meine ich, dass bei Intel aktuell fast alle Geräte deutlich mehr TDP drauf geben als von Intel angegeben.
dildo4u
2024-08-27, 12:01:50
Gibt Intel nicht 100Watt Boost für Meteor Lake H an?
Das gibt es keine Regel die überschritten werden
https://www.notebookcheck.com/Intel-Core-Ultra-7-165H-Prozessor-Benchmarks-und-Specs.782992.0.html
Undertaker
2024-08-27, 12:05:54
Ich bezog mich auf Hawk (den ich als LL Gegner sehe). Ja bei Strix ist es etwas mehr, trotzdem wird man arg ineffizienter. Selbst bei deinem Extrembeispiel, das ich jetzt nicht überprüft habe gibst du die 2,23x TDP drauf für 45% Mehrleistung. Und ob es bei LL anders aussieht ist reine Spekulation, aktuell skaliert Intel wesentlich stärker bei höherer TDP. ;)
Das genannte Beispiel entspricht ziemlich genau einer quadratische Skalierung von Leistungsaufnahme und Performance, das ist ein mehr als üblicher Bereich was das Ausreizen des Sweet-Spots betrifft. Von einem mangelnden Mehrwert höherer TDPs würde ich erst bei deutlich geringeren Zuwächsen sprechen. Klar: Über extreme Verbreiterung und extreme Taktabsenkungen kann man idR noch mehr herausholen (siehe die T-Serien von Intel im Embedded-Bereich), grenzenlos Chipfläche dafür verschenken kann man im normalen Endkundenmarkt aber idR nicht.
Und natürlich kann man fundiert qualitativ abschätzen, dass die Skalierung bei Lunar Lake bei erheblich geringeren TDPs als bei aktuellen Meteor Lake Modellen stattfindet: Vom Meteor Lake Vollausbau mit 6P + 8E geht es auf 4P + 4E herunter bei gleichzeitiger massiver Fertigungs- und Architekturverbesserung – ob das in Summe jetzt einer Halbierung, Drittelung oder X-Teilung eines vergleichbaren Betriebspunktes bzgl. Abflachung der Takt- zu Verbrauchskurve entspricht, werden genauere Analysen zeigen (mein Tipp: Verschiebung eines vergleichbaren Betriebspunktes bei reiner CPU-Last auf rund 1/4 ggü. einem 6P + 8E MTL). Nochmal: Lunar Lake ist kein Meteor Lake Nachfolger im eigentlichen Sinne, schon gar nicht im Vergleich zur bisherigen H-Serie. Nicht umsonst kommt hier noch Arrow Lake als vollwertiger Ersatz für HX, H aber auch U-Serie.
Und mit TDP-Angabe kennen wir schon meine ich, dass bei Intel aktuell fast alle Geräte deutlich mehr TDP drauf geben als von Intel angegeben.
Ich sehe bei fast allen AMD-Notebooks Überschreitungen der Standard-TDP, und oft genug auch deutlich über die offiziell angegebene cTDP-Range hinaus. Bei MTL sind die offiziellen PL2-Vorgaben meines Wissens eine recht fixe Grenze (ich kenne zumindest ad hoc keine Gegenbeispiele), jedoch wird die PL1 oftmals angehoben. Ein grundsätzlich unterschiedliches Vorgehen erkenne ich hier nicht, ganz im Gegenteil scheint es eher so, als ob diese fixe PL2-Obergrenze von Intel bei AMD nicht wirklich existiert (zumindest kenne ich sie nicht).
PL1-Anhebungen wird es sicherlich auch bei Lunar Lake hier und da geben, aber abgeleitet von der Ausgestaltung des Modell-Lineups mutmaßlich auf geringerem Niveau als bei MTL. Schau wir mal genauer auf die Modellpalette:
Meteor Lake H: überwiegend 28W PL1 (185H: 45W), 115W PL2
Meteor Lake U: 15W PL1, 57W PL2
Lunar Lake: überwiegend 17W PL1 (288V: 30W), 30W PL2
Lunar Lake tritt mit effektiv halbiertem PL2 ggü. der U-Serie und 1/4 PL2 der MTL-H-Serie an, das impliziert den oben argumentierten erheblich niedrigeren Betriebspunkt. Bei PL1 wird es sicherlich Hersteller geben, die eine Anhebung irgendwo im Bereich zwischen 17 - 30W vornehmen.
Notebookcheck hatte letztens ein Asus ROG Zephyrus Gerät mit HX 370 getestet. Verbrauch je nach eingestelltem Power Profil 55/60W, 65/70W, 80W - konstante 80W und kein kurzer Boost wohlgemerkt! Nominelle TDP liegt bei 28W und TDP up geht eigentlich bis 54W. AMD ist schon lange nicht mehr ehrlich, AMD muss hier wirklich nicht mehr mit dem Finger auf andere zeigen.
fondness
2024-08-27, 12:37:22
Gibt Intel nicht 100Watt Boost für Meteor Lake H an?
Das gibt es keine Regel die überschritten werden
https://www.notebookcheck.com/Intel-Core-Ultra-7-165H-Prozessor-Benchmarks-und-Specs.782992.0.html
LOL, 115W für einen mobile-Chip. Okay dann formuliere ich es anders, die Dinger saufen einfach zu viel. :ugly:
dildo4u
2024-08-27, 12:39:46
Asus verkauft die mit einer 4090 das zu limitieren würde Performance kosten.
Strix hat bisher nix über 4070 kein Plan wer das festlegt.
Undertaker
2024-08-27, 14:12:40
Wie gesagt, mit Verbrauchslimits von 115W (die MTL 6+8C aber offenbar nicht ausreizen kann, sondern <100W bleibt) oder 80W (so zumindest das bisherige Maximum bei Strix Point, ob da noch mehr kommt?), egal ob sustained oder Peak, bewegt man sich weit jenseits dessen, was bei LL zu erwarten ist. Ich denke nicht, dass LL in realen Notebooks erst oberhalb von 30W PL2 limitiert wird, zumindest nicht in der Breite des Angebotes. Geschweige denn, dass wir hier Werte jenseits der 50W sehen oder mehr. ;)
davidzo
2024-08-27, 15:47:44
Wer will mit mir Wetten abschließen, dass es kein Lunar Lake Notebook mit 80 Watt geben wird?
Darum geht es doch gar nicht. Es ging um die Aussage dass LnL eine ganz andere Geräteklasse bedient, die ich so einfach nicht stehen lassen kann.
Ich behaupte sowohl X-Elite, Strix und LnL gehen in dieselbe Geräteklasse. Dass es Ausreißer nach unten und oben gibt oder das durchschnittliche Strix Notebook höher konfiguriert wird und mehr i/o bietet ändert nicht den Fakt dass die letzendlich bei OEMs auch mal im demselben Chassis mit vergleichbarer Kühlung und TDP landen werden. Das heißt Intel muss sich mit AMD und Qualcomm vergleichen und kann sich nicht darauf zurückziehen das LnL ja einen ganz anderen Markt bedient und man deswegen keine konkurrenzfähige performance abliefern muss.
MTL-U läuft in der Praxis zwischen 21-30W PL1 und 36-40W PL2 wenn man die Geräte vom 155U+165U bei Notebookcheck vergleicht. Theoretisch wären bis 57W drin.
Das interessiert doch nicht, denn von LnL gibt es auch noch keine praktischen Limits sondern nur die Werte laut Datenblatt/Tabelle.
Tabellenwerte mit Tabellenwerten lassen sich vergleichen und Praxiswerte mit Praxiswerten. Alles andere sind Äpfel- und Birnen-Vergleiche und derzeit auch einfach ins Blaue geraten.
Was spielt das für eine Rolle? Das ist doch ein reines Konfigurationsthema, interessant ist einzig die Perf/Watt.
Zumal die AMD-Chip über 25W auch kaum mehr skalieren. Von 25W auf 50W bringen so 10% mehr Leistung, eigentlich absurd so viel TDP drauf zu geben.
Und wie hoch dann LL wirklich boostet ist im übrigen auch noch nicht bekannt. Die TDP-Angaben von Intel kennen wir ja schon.
Genau dies. Es ist anzunehmen dass es auch Strix Notebooks geben wird mit ähnlicher TDP Konfiguration wie vergleichbare LnL geräte. Und ob LnL dagegen dann noch halbwegs konkurrenzfähige MT performance abliefern kann wenn man schon gegen den X-Elite hinten liegt ist fraglich. Auch ist unklar ob ein hypotetischer Akkulaufzeit Vorsprung gegenüber Strix durch einen niedrigen Teillastverbrauch noch ein signifikantes Kaufargument ist oder ob die Kunden in dem Fall nicht gleich zu Qualcomm greifen.
Ich glaube sogar die Mehrzahl der Designs wird in diesem Chassis-Bereich liegen der bereits ausreichend von OEMs etabliert ist und nicht eben darunter wie zum Beispiel 8-15Watt bei Passivkühlung á la Macbook Air. 15-28Watt bzw. 25-40Watt sind halt etabliert. Hier wird man sowohl LnL als auch Strix rein klatschen und die Geräte werden im Laden nebeneinander stehen.
Nochmal: Lunar Lake ist kein Meteor Lake Nachfolger im eigentlichen Sinne, schon gar nicht im Vergleich zur bisherigen H-Serie. Nicht umsonst kommt hier noch Arrow Lake als vollwertiger Ersatz für HX, H aber auch U-Serie.
Nochmal: Der Vergleich kommt von Robert Hallock persönlich. 2P+8E und 4P+4E sind sehr wohl vergleichbar vom Transistoreinsatz und erwartbarer Leistung. Den Sinn von ARL-U im portfolio sehe ich auch noch nicht, abgesehen von OEM chassis reuse durch die pin-Kompatibilität mit MTL-U. Das wird eher eine ziemliche Ramsch-SKU wenn LnL locker in denselben Marktbereich ziehlt aber in allen belangen etwas besser ist.
PL1-Anhebungen wird es sicherlich auch bei Lunar Lake hier und da geben, aber abgeleitet von der Ausgestaltung des Modell-Lineups mutmaßlich auf geringerem Niveau als bei MTL.
Das werden die OEMs entscheiden. Wenn sie das gefühl haben sie brauchen die Anhebung um wenigestens ein paar Benchmarks zu gewinnen, dann werden sie es wieder tun egal ob es die user experience für die Kunden verschlechtert. Das ist eben wie der x86 Markt tickt.
Lunar Lake tritt mit effektiv halbiertem PL2 ggü. der U-Serie und 1/4 PL2 der MTL-H-Serie an, das impliziert den oben argumentierten erheblich niedrigeren Betriebspunkt. Bei PL1 wird es sicherlich Hersteller geben, die eine Anhebung irgendwo im Bereich zwischen 17 - 30W vornehmen.
Wie kommst du darauf dass 30Watt die max PL2 ist, gibt es da belastbare Leaks zu? Ich dachte 30Watt sind die maximal konfigurierbare Base-TDP, also PL1.
Aber unabhängig davon ist das auch Intels großes Problem das man dringend angehen muss: Die Ineffizienz bei Singlecore Lasten. Es ist im mobile Szenario ziemlich sinnbefreit eine 10Kern mobile CPU mit 15-28Watt TDP bei ST Workloads so zu übertakten dass ein einzelner Kern mehr als 28Watt aufnimmt. Selbst Apples erste Generation M-Socs von 2021 drehen bei der Effizienz noch Kreise um Intels beste MTL Chips. Und der X-Elite ist höher getaktet als der M1 aber bei der Effizienz vergleichbar mit M1+M2. Da wird LnL mehr als nur ein bisschen aufholen müssen.
Übrigens nicht nur im mobile. Auch im Desktop gibt es das Phänomen und das ist nicht nur schlecht für die Stromrechung sondern sicher auch nicht gut für Electromigration, burnin-effekt, Wärmeausdehnung, also die Zuverlässigkeit der Chips.
dildo4u
2024-08-27, 15:53:45
Mher Infos zu Verbesserungen gegenüber Meteor Lake.
https://wccftech.com/intel-lunar-lake-p-core-e-core-latency-bandwidth-improvements-3x-vs-meteor-lake-20-percent-mt-st-performance/
Undertaker
2024-08-27, 17:50:01
Darum geht es doch gar nicht. Es ging um die Aussage dass LnL eine ganz andere Geräteklasse bedient, die ich so einfach nicht stehen lassen kann.
Ich behaupte sowohl X-Elite, Strix und LnL gehen in dieselbe Geräteklasse.
Dass es Ausreißer nach unten und oben gibt oder das durchschnittliche Strix Notebook höher konfiguriert wird und mehr i/o bietet ändert nicht den Fakt dass die letzendlich bei OEMs auch mal im demselben Chassis mit vergleichbarer Kühlung und TDP landen werden.
Nun, welche Strix Geräte mit <=28W gibt es denn aktuell so bzw. sind angekündigt? Oder sprechen wir von den 80W-Modellen wie von Asus und der Erwartung deinerseits, das LL in derartigen Konfigurationen ausgeliefert wird?
Das werden die OEMs entscheiden. Wenn sie das gefühl haben sie brauchen die Anhebung um wenigestens ein paar Benchmarks zu gewinnen, dann werden sie es wieder tun egal ob es die user experience für die Kunden verschlechtert. Das ist eben wie der x86 Markt tickt.
Das würde voraussetzen, dass der Chip TDP-Anhebungen in diesem Bereich überhaupt noch merklich in Mehrleistung umsetzen kann, was in Anbetracht des schmalen Designs stark anzuzweifeln ist. Ferner müsste Intel entsprechende Anhebungen über das PL2-Limit überhaupt gestatten, was bei einer bislang eher als absolutes oberes Limit zu sehenden Definition der PL2 im Mobile-Segment ebenso abwegig klingt.
Das interessiert doch nicht, denn von LnL gibt es auch noch keine praktischen Limits sondern nur die Werte laut Datenblatt/Tabelle.
Wie kommst du darauf dass 30Watt die max PL2 ist, gibt es da belastbare Leaks zu? Ich dachte 30Watt sind die maximal konfigurierbare Base-TDP, also PL1.
PL1 und PL2 sind zusammen mit der Modellpalette seit Wochen geleaked. Alles unter dem Topmodell kommt mit 17W PL1, PL2 liegt durchgängig bei 30W. Und die PL2-Spec ist üblicherweise auch das Limit dessen, was die Hersteller als maximale PL1-Anhebung konfigurieren (bzw. meistens eher weniger).
Der Vergleich kommt von Robert Hallock persönlich. 2P+8E und 4P+4E sind sehr wohl vergleichbar vom Transistoreinsatz und erwartbarer Leistung. Den Sinn von ARL-U im portfolio sehe ich auch noch nicht, abgesehen von OEM chassis reuse durch die pin-Kompatibilität mit MTL-U. Das wird eher eine ziemliche Ramsch-SKU wenn LnL locker in denselben Marktbereich ziehlt aber in allen belangen etwas besser ist.
Den Unterschied zwischen beiden Serien sieht man beim Blick auf die Details sehr schnell: ARL-U wird bei gleicher Einstufung wie MTL-U rund das doppelte PL2-Limit bieten, zusätzlichen PCIe-Lanes für dedizierte GPUs, die Option auf gesockelten Speicher und in Anbetracht des geringen Abstandes der P- und E-Cores letztlich auch etwas mehr CPU-Power (auch wenn das Marketing das nicht differenziert, sind 4 zusätzliche E-Cores bei ARL nach aktuellen Daten stärker als 2 P-Cores).
Aber unabhängig davon ist das auch Intels großes Problem das man dringend angehen muss: Die Ineffizienz bei Singlecore Lasten. Es ist im mobile Szenario ziemlich sinnbefreit eine 10Kern mobile CPU mit 15-28Watt TDP bei ST Workloads so zu übertakten dass ein einzelner Kern mehr als 28Watt aufnimmt. Selbst Apples erste Generation M-Socs von 2021 drehen bei der Effizienz noch Kreise um Intels beste MTL Chips.
ST-Effizienz scheint keine Stärke von Strix Point (https://www.notebookcheck.com/AMD-Zen-5-Strix-Point-CPU-Analyse-Ryzen-AI-9-HX-370-gegen-Intel-Core-Ultra-Apple-M3-und-Qualcomm-Snapdragon-X-Elite.866997.0.html#toc-4) zu sein, insofern vermutlich leichtes Spiel für LL bzw. vielmehr ARL als eigentlichem Gegner. Problematisch bei MTL war eher MT, hier helfen dann mMn vor allem Fertigung und die neuen E-Cores. Warten wir für Details mal weitere Leaks inkl. Verrbauchsangaben ab.
fondness
2024-08-27, 18:04:19
Darum geht es doch gar nicht. Es ging um die Aussage dass LnL eine ganz andere Geräteklasse bedient, die ich so einfach nicht stehen lassen kann.
Ich behaupte sowohl X-Elite, Strix und LnL gehen in dieselbe Geräteklasse. Dass es Ausreißer nach unten und oben gibt oder das durchschnittliche Strix Notebook höher konfiguriert wird und mehr i/o bietet ändert nicht den Fakt dass die letzendlich bei OEMs auch mal im demselben Chassis mit vergleichbarer Kühlung und TDP landen werden. Das heißt Intel muss sich mit AMD und Qualcomm vergleichen und kann sich nicht darauf zurückziehen das LnL ja einen ganz anderen Markt bedient und man deswegen keine konkurrenzfähige performance abliefern muss.
Genau so ist es. Aber das ist wohl selbst Undertaker bewusst, er will wohl nur trollen. Strix kommt selbst in Handhelds. Zumal LL offensichtlich auch nicht weiter nach unten skaliert.
Das interessiert doch nicht, denn von LnL gibt es auch noch keine praktischen Limits sondern nur die Werte laut Datenblatt/Tabelle.
Das interessiert sehr wohl, letztendlich ist das sogar entscheidend. Der PL2 kann als PL1 konfiguriert werden. Von LNL gibt es noch keine Datenblätter. Bei dem größten Modell sind PL1 und PL2 gleich auf 30W festgelegt wenn man dem Leak glauben schenken kann, was ungewöhnlich ist. Könnte sogar sein, dass 30W das Maximum darstellt beim PL2. Es zeigt gut auf, dass LNL eine andere Philosophie verfolgt, also mehr auf geringeren real world Verbrauch hin zugunsten von Effizienz getrimmt als bei MTL-U.
Badesalz
2024-08-28, 13:02:31
Es zeigt gut auf, dass LNL eine andere Philosophie verfolgt, also mehr auf geringeren real world Verbrauch hin zugunsten von Effizienz getrimmt als bei MTL-U.Hast du grad die Zwänge und die Nöten der (hoffentlich) vergangenen Tage, Philosophie genannt?
mboeller
2024-08-28, 13:09:46
Nun, welche Strix Geräte mit <=28W gibt es denn aktuell so bzw. sind angekündigt? Oder sprechen wir von den 80W-Modellen wie von Asus und der Erwartung deinerseits, das LL in derartigen Konfigurationen ausgeliefert wird?
.
gleich das erste Notebook mit StrixPoint:
https://www.notebookcheck.com/Asus-Zenbook-S-16-Laptop-im-Test-Der-erste-Copilot-Laptop-mit-AMD-Zen-5-im-1-3-cm-flachen-Gehaeuse.866609.0.html
Notebookcheck hatte letztens ein Asus ROG Zephyrus Gerät mit HX 370 getestet. Verbrauch je nach eingestelltem Power Profil 55/60W, 65/70W, 80W - konstante 80W und kein kurzer Boost wohlgemerkt! Nominelle TDP liegt bei 28W und TDP up geht eigentlich bis 54W. AMD ist schon lange nicht mehr ehrlich, AMD muss hier wirklich nicht mehr mit dem Finger auf andere zeigen.
Quelle...
Quelle...
Bitteschön: https://www.notebookcheck.com/Asus-ROG-Zephyrus-G16-2024-im-Test-Flacher-Gaming-Laptop-jetzt-mit-AMD-Zen-5.875819.0.html
Undertaker
2024-08-28, 13:22:29
Das interessiert sehr wohl, letztendlich ist das sogar entscheidend. Der PL2 kann als PL1 konfiguriert werden. Von LNL gibt es noch keine Datenblätter. Bei dem größten Modell sind PL1 und PL2 gleich auf 30W festgelegt wenn man dem Leak glauben schenken kann, was ungewöhnlich ist. Könnte sogar sein, dass 30W das Maximum darstellt beim PL2. Es zeigt gut auf, dass LNL eine andere Philosophie verfolgt, also mehr auf geringeren real world Verbrauch hin zugunsten von Effizienz getrimmt als bei MTL-U.
Exakt das ist der Punkt. (y)
gleich das erste Notebook mit StrixPoint:
https://www.notebookcheck.com/Asus-Zenbook-S-16-Laptop-im-Test-Der-erste-Copilot-Laptop-mit-AMD-Zen-5-im-1-3-cm-flachen-Gehaeuse.866609.0.html
Auch wenn 33W nur knapp über 28W liegen, trotzdem rund 18% über der PL2-Spec von LL. Aber ja, die 28W sustained würden sich zumindest mit der PL1 des einen LL-Topmodells decken. Da hätten wir tatsächlich eine der Überschneidungen in den Randbereichen der TDP-Range gefunden.
Im oberen TDP-Bereich hat Strix Point als breiteres 12C-Design mMn einen Auslegungsvorteil, im unteren TDP-Bereich bei <20W sowie generell bei Teillast dürfte wiederum LL den Vorteil des schmäleren Designs ausspielen.
fondness
2024-08-28, 15:59:24
Auch wenn 33W nur knapp über 28W liegen, trotzdem rund 18% über der PL2-Spec von LL. Aber ja, die 28W sustained würden sich zumindest mit der PL1 des einen LL-Topmodells decken. Da hätten wir tatsächlich eine der Überschneidungen in den Randbereichen der TDP-Range gefunden.
Im oberen TDP-Bereich hat Strix Point als breiteres 12C-Design mMn einen Auslegungsvorteil, im unteren TDP-Bereich bei <20W sowie generell bei Teillast dürfte wiederum LL den Vorteil des schmäleren Designs ausspielen.
Das Notebook hat vier verschiedene Power-Modi und ermöglicht Strix selbst mit 12W zu betreiben.
Das interessiert sehr wohl, letztendlich ist das sogar entscheidend. Der PL2 kann als PL1 konfiguriert werden. Von LNL gibt es noch keine Datenblätter. Bei dem größten Modell sind PL1 und PL2 gleich auf 30W festgelegt wenn man dem Leak glauben schenken kann, was ungewöhnlich ist. Könnte sogar sein, dass 30W das Maximum darstellt beim PL2. Es zeigt gut auf, dass LNL eine andere Philosophie verfolgt, also mehr auf geringeren real world Verbrauch hin zugunsten von Effizienz getrimmt als bei MTL-U.
Eine andere Philosophie gibt es definitiv, das Stand denke ich auch nie zur Abrede.
fondness
2024-09-02, 11:13:20
Lunar Lake launch Event: Sept. 3 at 6 p.m. CEST (9 a.m. PDT)
But... it is too silent
https://x.com/harukaze5719/status/1830527403409670576
Er deutet einen Paper Launch an.
Das war dir wirklich wichtig zu posten, sehr gut. Keiner erwartet einen hard launch, die ersten Geräte werden für Oktober erwartet. Mit dem offiziellen Start ermöglicht Intel den OEMs auf der IFA frei darüber berichten zu können und ihre Geräte ohne Einschränkungen vorzustellen. Das bietet sich einfach an. Die nächste große Messe wäre die CES im Januar.
Lehdro
2024-09-02, 16:14:08
Er deutet einen Paper Launch an.
Das war doch von vorneherein klar, sonst hätten wir schon viel mehr Handfestes. Ich bin jedenfalls gespannt was kommt, denn es fallen ja doch einige Beschränkungen bald. Lunar Lake ist Intels Bewährungsprobe, wenn das nix wird (und ARL-S) können sie sich eigentlich direkt einsargen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.