Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Lunar Lake ("LNL", Meteor-Lake-Nachfolger, TSMC N3B/N6, 2024)
Gipsel
2024-09-25, 15:58:29
Dann muss ich wohl die Tests nicht richtig lesen könnenGenau. Oder Du liest nicht, was ich schreibe.
Ein Chip mehr mehr Kernen/Threads ist immer wesentlich effizienter als einer mit weniger, wenn das Anwendungsszenario/TDP stimmt.In Sachen Performance/Watt nicht unbedingt, wenn man dem Chip mit weniger Kernen erlaubt, auf einem niedrigeren Verbrauchslevel zu laufen (an seinem Optimum) als der Chip mit mehr Kernen und es keinen rieseigen Overhead durch irgendein IO-Die oder so gibt (hier hat LunarLake in dem Vergleich sogar einen Vorteil gegenüber Strix, weil der Grundverbrauch des SoCs niedriger zu sein scheint).
Jede Architektur hat ja seinen eigenen optimalen Betriebspunkt. Es ging mir darum, dieses Verhalten zu charakterisieren.
In den Tests die ich gesehen habe, steigt LunarLakes Performance/Watt in MT-Szenarien (wie Cinebench) bei niedrigeren Powerlimits, was völlig üblich ist, solange man das Limit nicht zu niedrig setzt. Das beste Resultat erreicht LunarLake hier im 12W Limit. Hier erreicht man in etwa Gleichstand bei Performance/Watt im Vergleich zum einem HX370 auf 33W (ja nach genauem Test, aber kommt so in etwa hin [bei CB R23 ist Lunarlake z.B. minimal zurück, bei R24 minmal vorne]). Dabei liefert der HX370 dann natürlich exakt entsprechend seines Mehrverbrauchs auch mehr Performance (33W/12W = Faktor ~2,7). Bei 17W Limit sinkt LunarLakes Performance/W (und sukzessive zu höheren TDPs natürlich weiter, trotz angestiegener Performance) und LunarLake liefert dann weniger als die Hälfte (bei etwa halber Leistungsaufnahme zum HX370 ab [Beispiel CB R24, LunarLake@17W 476Punkte, HX370@33W 1008 Punkte, mit R23 wäre der Unterschied noch etwas größer]). Und so wie LunarLakes Perf./W mit steigenden TDPs sinkt, steigt die Effizienz von Strixpoint aber zu niedrigeren TDPs (mindestens runter bis 15W). Interessant dabei ist auch, daß der Abstand entlang dieser Koordinate deutlich größer ist als der Unterschied der Kernanzahl (+50% für Strix, bzw. +-0 für P-Kerne und +100% für E/c-Kerne)*.
LunarLake hat also aus Effizienzsicht eigentlich seine Nische bei sehr niedrigen Leistungsaufnahmen (im Prinzip Teillast), hauptsächlich wegen des niedrigen Grundverbrauchs des restlichen SoCs. Im Bereich von z.B. 2-3GHz zieht LunarLake pro Kern offenbar deutlich mehr als Strix (was sich auch in sehr niedrigen Taktraten bei MT-Last und 12W oder 17W Limit wiederspiegelt). Praktisch ist Teillast das, was für sehr viele Anwender das hauptsächliche Anwendungsgebiet ist. Wie meinem Ursprungspost zu entnehmen, ging es mir aber mehr um die grundsätzlichen Eigenschaften der Kerne und auch den Auswirkungen auf dem Desktop.
*:
Man könnte also spitz formulieren, LunarLake (genauer, dessen Kerne) liefert keine hohe Effizienz (der Rest vom SoC schon), sondern es ist ein SoC für das Low-Performance-Bracket (was für Durchschnittsuser völlig akzeptabel ist, meiner Meinung nach).
Wenn du einen neutralen Vergleich wählen willst, vergleichst du die Chips bei verschiedenen Powerlimits Singlethread/Multithread zwischen 14 bis 51Watt und da sieht man, dass die 4+8 mit jeweils SMT dann bei niedrigeren Powerlimits nicht mehr so gut performen.Es reicht für Strix überall unter 30/33W um LunarLake bei allen TDP-Limits (bis hinter zu 12W) zu schlagen, nicht nur bei absoluter Performance, auch bei Performance/Watt (und selbst bei für Strix eher unsinnigen 51W sollte man noch besser sein als LunarLake bei 25+W). Ich vergleiche nicht nur an einem Punkt, ich schaue mir die aufgespannte "Fläche" im Perf/Watt-Diagramm an.
Prinzenrolle
2024-09-25, 16:15:45
Jede Architektur hat ja seinen eigenen optimalen Betriebspunkt.
Ich habe Werte gefunden.
https://www.notebookcheck.com/AMD-Zen-5-Strix-Point-CPU-Analyse-Ryzen-AI-9-HX-370-gegen-Intel-Core-Ultra-Apple-M3-und-Qualcomm-Snapdragon-X-Elite.866997.0.html
Bei 15 Watt drückt StrixPoint immer noch rund 600 Punkte Multithreaded raus, während Lunar Lake auf etwa 400 Punkte fällt.
Das sind also nach wie vor rund ~50% mehr MT Effizienz in so gut wie allen TDP Stufen.
Deiner These würde ich dennoch nicht folgen wollen, weil wie bereits gesagt, eine CPU mit deutlich mehr Kernen+SMT einfach eine bessere MT Effizienz ausweisen muss.
Man wird dann mit der 4+4 Variante im Frühling sehen ob AMD Lunar Lake schlagen kann. Aber rein grundsätzlich könntest du schon recht haben.
Warum ich dem widerspreche ist, weil ich anderes über Arrow Lake "gehört" habe.
robbitop
2024-09-25, 16:17:25
Naja gut, wenn es jetzt schon sehr sehr gut ist, wenn man mit wesentlich mehr Aufwand mit AMD halbwegs mithalten kann. Intel hatte mal andere Ansprüche.
Naja die Probleme die man jetzt viele Jahre mitgeschleppt hat hat man jetzt in einem Produkt offenbar gelöst. Es ist ja nicht nur der SoC der gut umgesetzt wurde sondern auch die IP:
- super durstige P Cores die kaum schneller - wenn überhaupt - waren als AMDs ~mid cores -> scheint jetzt gelöst zu sein... hier sollte man noch ARL abwarten - aber die Indikation ist schonmal da
- erstmals richtig kompetente GPU IP (seit... immer?)
Das sollte man alles nicht nur dem gut gemachten SoC zuschreiben. Aber ja die 3nm helfen und auch der on package RAM. Absolut.
IMO war es bei AMD mit Zen 5 und RDNA3/3.5 halt leider anders. Die IP hat nicht den erwarteten Sprung gemacht.
Hätten beide den gleichen Sprung wie ihre Vorgänger ggü deren Vorgänger wäre Strix wahrscheinlich noch vorn. Man kann hoffen, dass Zen 6 und RDNA4 wieder den erwarteten Sprung nach vorne machen in den üblichen Metriken.
MSABK
2024-09-25, 16:17:34
Gibt es auch test zur Performance im Akkubetrieb?
Lehdro
2024-09-25, 16:42:15
Man kann die Effizienz nur mit identischem Powerlimit vergleichen.
Keine Ahnung was du da machst und deine Überlegung ist, das ergibt für mich 0 Sinn.
Du kannst die Effizienz immer vergleichen wenn du auf Performance/Watt normierst oder wenn du dieselben Powerlimits anlegst. Beide Vorgehen sind durchaus valide, haben aber einen riesigen Pferdefuß: Unterschiedliche Betriebspunkte verschieben die Performance/Watt Kurve enorm, positiv oder negativ.
Man muss sich bei Performance/Watt und bei Powerlimit Vergleichen also im klaren sein, dass es durchaus unterschiedliche Effizienz-Sweetspots gibt. Wenn du bei verschiedenen CPUs die Effizienz im für sie absoluten Sweetspot ermittelst, kannst die du Perf/Watt DIREKT vergleichen, ohne eine Benachteiligung. Siehe Notebookcheck, das machen das mit Punkte/Watt literally schon immer so, wobei mir da manchmal die Wahl des Powerlimits arg eingeschränkt vorkommt.
Wenn Strix bei 12W aber tatsächlich viel effizienter als LL wäre, fände ich das schon ein starkes Stück.
Prinzenrolle
2024-09-25, 16:51:06
Wenn Strix bei 12W aber tatsächlich viel effizienter als LL wäre, fände ich das schon ein starkes Stück.
Wenn ich die Werte von Notebookcheck (https://www.notebookcheck.com/Intel-Lunar-Lake-CPU-Analyse-Der-Core-Ultra-7-258V-enttaeuscht-bei-Multi-Core-Leistung-punktet-aber-bei-der-Alltags-Effizienz.892511.0.html) nehme dann ist Strix Point auch bei 15Watt immer noch ein Stück effizienter.
Selbst wenn man aufgrund des Speichers bei Lunar Lake 20Watt PPT nimmt und bei Strix Point 15 Watt, sind es immer noch +30% Effizienz in MT.
Da regelt einfach SMT bzw. die 50% mehr Kerne. Intel kann wohl einfach "alles" außer einem Thread schön schlafen legen, während AMD Singlethreaded einiges mitschleppt, insofern ist Gipsels Überlegung schon zutreffend.
Für Arrow Lake sollte das aber wenig bedeuten, weil am Ende niemand weiß wie ein Lunar Lake 12 Kerner mit SMT performt hätte.
Hier sieht man es eh schön. 23% weniger Effizienz MT bei ~15Watt.
https://i.postimg.cc/fk4Ckhdz/Gaming.png
mczak
2024-09-25, 17:01:29
4 schnelle und 4 effiziente Kerne, beide ohne MT, ist halt schon ziemlich wenig, auch für den angepeilten Stromverbrauch. Ein zusätzlicher E-Cluster hätte da wohl die MT-Effizienz deutlich erhöht, auch noch bei 12W (so viel Fläche hätte das auch nicht gekostet).
Prinzenrolle
2024-09-25, 17:06:48
4 schnelle und 4 effiziente Kerne, beide ohne MT, ist halt schon ziemlich wenig, auch für den angepeilten Stromverbrauch. Ein zusätzlicher E-Cluster hätte da wohl die MT-Effizienz deutlich erhöht, auch noch bei 12W (so viel Fläche hätte das auch nicht gekostet).
Ja, das ist das was ich bei Lunar Lake nicht ganz verstehe. Ein Design mit 4+6 oder 4+8 Kernen wäre auch in der MT Effizienz entweder auf Augenhöhe oder gar vorne gewesen. Keine Ahnung warum Intel nur auf 4+4 gesetzt hatte.
Mit Panther Lake sollte sich das ändern.
Gipsel
2024-09-25, 17:08:42
Du kannst die Effizienz immer vergleichen wenn du auf Performance/Watt normierst oder wenn du dieselben Powerlimits anlegst. Beide Vorgehen sind durchaus valide, haben aber einen riesigen Pferdefuß: Unterschiedliche Betriebspunkte verschieben die Performance/Watt Kurve enorm, positiv oder negativ.
Man muss sich bei Performance/Watt und bei Powerlimit Vergleichen also im klaren sein, dass es durchaus unterschiedliche Effizienz-Sweetspots gibt. Wenn du bei verschiedenen CPUs die Effizienz im für sie absoluten Sweetspot ermittelst, kannst die du Perf/Watt DIREKT vergleichen, ohne eine Benachteiligung. Siehe Notebookcheck, das machen das mit Punkte/Watt literally schon immer so, wobei mir da manchmal die Wahl des Powerlimits arg eingeschränkt vorkommt.
Wenn Strix bei 12W aber tatsächlich viel effizienter als LL wäre, fände ich das schon ein starkes Stück.
Laut Notebookcheck liegt der HX370 bei 15W in CB24 rund 30% vor LunarLake. Ich finde gerade die CB R23-Werte nicht, die ich mal gesehen hatte, aber egal. LunarLake braucht wirklich Teillast oder unter 10W, um Strix in Sachen Energieeffizienz zu schlagen (trotz des deutlich höheren Grundverbrauchs von Strix).
Edit:
https://s20.directupload.net/images/240925/7n2imnkm.png
CB hat den kurzfristigen Boost auf 40W am Anfang des Runs immer mitgenommen. Deswegen gibt es 2 Plots für LunarLake. Die hellblaue Kurve ist quasi best case (Boost liefert etwas höhere Scores als wenn man das die ganze Zeit festgepinnt hätte) und die dunkelblaue Kurve ist mit dem Mittelwert des Verbrauchs während des Runs entstanden, was hier grob den worst case darstellt (der Boost verbessert den Score weniger, als es den durchschnittlichen Stromverbrauch hochtreibt). Irgendwo dazwischen sollte also der 288V Lunarlake liegen, wenn man den Konstant auf eine Wattzahl festpinnen würde.
Zu Strix liefert Notebookcheck in zwei Tests etwas unterschiedliche Werte. Die schwarze kommt aus dem Launchtest, die rote ist neuer und kommt aus deren LunarLake Test. Sollte die letztere repräsentativ sein, sieht das fast so aus, als wenn die bis runter zu 15W quasi parallel zu der von Lunarlake läuft, nur eben höher liegt.
Insgesamt bin ich aber unsicher, wie viel Verlaß auf diese Zahlen genau ist. CB geben ja immerhin an, wie sie getestet haben, was es ermöglicht, einen best/worst case aufgrund des Boostverhaltens abzuschätzen. Den Zahlen von Notebookcheck traue ich da ehrlich gesagt nicht so ganz über den Weg (auch wegen der vergleichsweise großen Abweichungen zwischen 2 Tests), aber es war das, worauf Prinzenrolle verwiesen hat.
Prinzenrolle
2024-09-25, 17:16:35
LunarLake braucht wirklich Teillast oder unter 10W, um Strix in Sachen Energieeffizienz zu schlagen (trotz des deutlich höheren Grundverbrauchs von Strix).
Aber in wie fern soll das mit nur 8 Threads gegen 24 irgendwas besonderes sein? Es liefert überhaupt keinen hinreichenden Beweis, dass Lunar Lake ein Problem mit MT haben soll. Es fehlen schlicht die Cores.
Damit kann man in MT nichts reißen, vielleicht dann unter 15W.
Gipsel
2024-09-25, 17:45:39
Aber in wie fern soll das mit nur 8 Threads gegen 24 irgendwas besonderes sein? Es liefert überhaupt keinen hinreichenden Beweis, dass Lunar Lake ein Problem mit MT haben soll. Es fehlen schlicht die Cores.Skaliere alle Lunarlake-Zahlen +50% (Kerne, Verbrauch, Leistung) und vielleicht erkennst Du dann meinen Punkt.
Fusion_Power
2024-09-25, 18:34:48
Schon beeindruckend was Inttel da abgeliefert hat, ich hatte Team Blau lange nicht mehr aufm Schirm. Offenbar hat sich auch bei der ARC Grafikeinheit so einiges getan, vermutlich auch treibertechnisch. Dann wäre Intel für mich wieder interessant. ich möchte ein gescheites Notebook mit iGPU haben, bisher war da eigentlich nur AMD von Bedeutung.
Hab mal auf Geizhals geschaut, es gibt aktuell schon so einige Lunar Lake Modelle. Bisher leider entweder nur 14 Zöller und/oder alle mit spiegelndem Touchscreen. Wer braucht sowas, ich nicht. OLED brauch ich auch nicht, hoffe da kommt in Zukunft noch mehr mit 16" und normalem Display. Nicht dass Intel die APU nur für kleine "Ultrabooks" freigegeben hat, wäre schade.
Undertaker
2024-09-25, 19:00:14
Skaliere alle Lunarlake-Zahlen +50% (Kerne, Verbrauch, Leistung) und vielleicht erkennst Du dann meinen Punkt.
Es sind 50% mehr Kerne, aber 200% mehr Threads. Im Desktop steht ein 16C/32T Zen5 einem 24C/24T ARL gegenüber; überträgt man das auf Lunar Lake / Strix Point, wäre in etwa ein hypothetischer ~5C / 10T Zen5 der passende Vergleich zu einem 8C/8T LL bzw. bezogen auf Strix Point 12C/24T ein hypothetischer Lunar Lake mit ~16 - 18C. Ergo: Skaliere LL mal etwa um 100 - 125%.
Dann nicht den integrierten RAM vergessen. Ohne den liegt ein 12W LL bei vielleicht noch 10W. Verdoppeln wir jetzt hypothetisch den Core Count auf 16C/16T und ebenso den CB R24 Score, landen wir bei ~770 Punkten. Strix Point liegt bei 20W knapp darunter, also roundabout gleiche Effizienz vergleichbar ausgelegter Chips bei vergleichbarem Betriebspunkt*.
*Ein paar Punkte, die wir hier vernachlässigen:
Zugunsten Lunar Lake:
- Der 12W Whisper Mode boostet für wohl für ca. 15s deutlich höher, bei konstant 12W wäre der Score etwas geringer.
- Eine Kernverdoppelung würde auch im Cinebench den Score nicht exakt verdoppeln.
Zungunsten Lunar Lake:
- Bei einer TDP-Verdoppelung bekommen die Kerne effektiv deutlich mehr als das doppelte Leistungsbudget, da andere Verbraucher des Chips konstant bleiben.
Sonstiges:
- Bzgl. Strix Point und des Zen5 Desktop-Vergleiches: Im Desktop haben wir keine Zen5C-Cores. mMn aber hier vernachlässigbar, da Zen5C bei niedrigen Taktraten in einem MT-Szenario keinen Perf/Watt-Nachteil ggf. Zen5 darstellt (ggf. sogar ganz im Gegenteil)
Und das sagt uns jetzt, IP mäßig sind sie nach wie vor führend nur haben die constraints in der Fertigung das in den vergangenen Jahren zunichte gemacht? Weil man designs kastrieren, backporten oder weit weg von vernünftigen Betriebspunkten betreiben musste. Na hoffentlich ist das ein Zeichen und 18A wird gut. Ich ersetze meinen Raptor erst wenn ich >25% mehr Singlethread-Leistung bekommen kann.
fondness
2024-09-25, 21:55:32
SPECint 2017 Rate-1
HX 370 P@5.1 GHz: 9.9
HX 370 E@3.3 GHz: 6.58
258V P@4.8 GHz: 9.46
258V LP-E@3.7 GHz: 6.38
https://x.com/9550pro/status/1838567804926415332?t=0sXs-kn3OlPhLokMEn2Sdw&s=19
Gipsel
2024-09-25, 23:34:25
Es sind 50% mehr Kerne, aber 200% mehr Threads.Na und? Das Fehlen von SMT wollte uns intel ursprünglich als Vorteil auch für die MT-Leistung verkaufen (und sagt selbst auf der neuesten Folie es seien nur -5% Perf/Watt, die das kostet). Insofern ist das kein wesentlicher Punkt.
überträgt man das auf Lunar Lake / Strix Point, wäre in etwa ein hypothetischer ~5C / 10T Zen5 der passende Vergleich zu einem 8C/8T LL bzw. bezogen auf Strix Point 12C/24T ein hypothetischer Lunar Lake mit ~16 - 18C. Ergo: Skaliere LL mal etwa um 100 - 125%.Wie kommst Du auf nur 5 AMD-Kerne als Konkurrenz zu den 8 von LL? 60% Zusatzleistung durch SMT?!?
In jedem Fall würde ein 5C- oder 6C-Zen5-Chip dann auch beträchtlich weiter nach unten skalieren als Strix (wäre ja quasi halbiert oder gar nur 40% der Kerne), genau wie ein verdoppelter LL (bei doppelter Rechenleistung) auch erheblich mehr schlucken würde. Ändert also nicht soo viel beim offenbar sehr geringen Uncore-Verbrauch von LL, außer natürlich daß man den Sweetspot skaliert.
Dann nicht den integrierten RAM vergessen. Ohne den liegt ein 12W LL bei vielleicht noch 10W.Nicht/kaum ausgelasteter (im Sinne von gelesen/geschrieben, nicht belegt) RAM säuft auch nicht viel (die Refreshes sind recht sparsam). Sieht man auch am idle/Niedrig-Last-Verbrauch von unter 1W.
Verdoppeln wir jetzt hypothetisch den Core Count auf 16C/16T und ebenso den CB R24 Score, landen wir bei ~770 Punkten. Strix Point liegt bei 20W knapp darunter, also roundabout gleiche Effizienz vergleichbar ausgelegter Chips bei vergleichbarem Betriebspunkt*.Also ich sehe beim Notebookcheck-Test von LunarLake 767 Punkte für den HX370 bei 20W. Und das dann mit 4 P-Cores weniger und gleicher Anzahl von E/c-Cores. Daß intel SMT wegläßt und so auch potentiell MT-Leistung liegen läßt, ist ja deren Problem.
[SIZE="1"]*Ein paar Punkte, die wir hier vernachlässigen:
Zugunsten Lunar Lake:
- Der 12W Whisper Mode boostet für wohl für ca. 15s deutlich höher, bei konstant 12W wäre der Score etwas geringer.Ist in meinem Diagramm mit den 2 Kurven für den 288V berücksichtigt. ;)
- Eine Kernverdoppelung würde auch im Cinebench den Score nicht exakt verdoppeln.Ist das das nicht zuungunsten von LunarLake, weil der jetzt mit geringerer Core-/Threadzahl antritt (und bei hypothetischer Kernverdopplung dann auch keine hypothetische 770 Punkte liefern würde)?
Zungunsten Lunar Lake:
- Bei einer TDP-Verdoppelung bekommen die Kerne effektiv deutlich mehr als das doppelte Leistungsbudget, da andere Verbraucher des Chips konstant bleiben.Stimmt, das dürfte beim geringeren SoC-Uncore-Verbrauch von LL weniger ins Gewicht fallen und vermutlich mit Deinem 2W Abzug schon erschlagen sein.
Der_Korken
2024-09-26, 00:30:43
SPECint 2017 Rate-1
HX 370 P@5.1 GHz: 9.9
HX 370 E@3.3 GHz: 6.58
258V P@4.8 GHz: 9.46
258V LP-E@3.7 GHz: 6.38
https://x.com/9550pro/status/1838567804926415332?t=0sXs-kn3OlPhLokMEn2Sdw&s=19
Warum ist Granite Ridge so viel schneller als Strix? 9950X mit +27% 1T bei nur +12% Takt.
iamthebear
2024-09-26, 00:46:12
Ja, das ist das was ich bei Lunar Lake nicht ganz verstehe. Ein Design mit 4+6 oder 4+8 Kernen wäre auch in der MT Effizienz entweder auf Augenhöhe oder gar vorne gewesen. Keine Ahnung warum Intel nur auf 4+4 gesetzt hatte.
Mit Panther Lake sollte sich das ändern.
Lunar Lake zielt auf den Markt der Premium Business Laptops an. Dort hast du es in der Regel mit Windows, Office, Browser und Teams Meetings zu tun. Da gibt es sehr selten Fälle wo mehr als 8 Threads gleichzeitig genutzt werden. Umgekehrt erhöht aber jeder zusätzliche Kern den Standby Verbrauch.
Für die fetteren Notebooks gibt es ja 6+8 Arrow Lake wo die E Cores alle am L3 hängen.
Laut Notebookcheck liegt der HX370 bei 15W in CB24 rund 30% vor LunarLake. Ich finde gerade die CB R23-Werte nicht, die ich mal gesehen hatte, aber egal. LunarLake braucht wirklich Teillast oder unter 10W, um Strix in Sachen Energieeffizienz zu schlagen (trotz des deutlich höheren Grundverbrauchs von Strix).
15W sind für Lunar Lake ist bei Lunar Lake halt immer noch deutlich über dem Sweet Spot. Damit landet man bei Volllast immer noch um die 3GHz.
Teste mal Lunar Lake mit 8W und verdopple die Punkte. Dann landest du in etwa bei 15W HX370.
SPECint 2017 Rate-1
HX 370 P@5.1 GHz: 9.9
HX 370 E@3.3 GHz: 6.58
258V P@4.8 GHz: 9.46
258V LP-E@3.7 GHz: 6.38
https://x.com/9550pro/status/1838567804926415332?t=0sXs-kn3OlPhLokMEn2Sdw&s=19
Hier ist die Originalquelle für die Daten (Übersetzer einschalten):
https://blog.hjc.im/lunar-lake-cpu-uarch-review.html
Der Artikel ist echt lesenswert.
Aber Achtung bei der Interpretation der Werte. spec in 2017 ist ein echt seltsamer Benchmark:
.) Einige Subtests sind sehr speicherintensiv. Dort muss Skymont echt Feder lassen da die 4MB L2 ohne L3 einfach zu wenig sind selbst bei ST. Lion Cove trifft mit 12MB L3 bei den MT Tests ein ähnliches Schicksal.
.) In den übrigen Tests ist Skymont von der IPC auf Lion Cove Niveau. Das hört sich brutal an aber es waren bereits Gracemont/Crestmont schon sehr knapp and Redwood Cove dran.
Ich hoffe dass Techpowerup wieder einen P vs. E Core Artikel über den gesamten Parkour macht sobald Arrow Lake am Markt ist.
Badesalz
2024-09-26, 08:29:02
Das Ding kann gleich gut oder Stück besser als die Pendants (welche eigentlich?) von AMD.
Die Maschinerie die da aber dafür angelaufen ist macht einem echt die Ausscheidungen locker :umassa: Wie sie jetzt alle rumhüpfen und Intel mit offenen Armen und Tränen in den Augen empfangen...
Und hej, wird Intel nun endlich "den x86 retten können"?! :uconf3:
Man kann diese Review-Industrie durch die Bank komplett entsorgen.
fondness
2024-09-26, 09:01:37
Warum ist Granite Ridge so viel schneller als Strix? 9950X mit +27% 1T bei nur +12% Takt.
Weil die Speicherlatenz natürlich eine völlig andere ist vermutlich. Das gilt aber für alle mobile Chips. Auch Lunar hat keine niedrigere Speicherlatenz was ich gesehen habe. Plus das ganze Power Management kostet natürlich auch etwas.
Gipsel
2024-09-26, 09:03:58
15W sind für Lunar Lake ist bei Lunar Lake halt immer noch deutlich über dem Sweet Spot. Damit landet man bei Volllast immer noch um die 3GHz.Nicht ganz. Laut CB etwa 2,5GHz bei 17W und ~2GHz bei 12W (https://www.computerbase.de/2024-09/intel-core-ultra-200-lunar-lake-test/#abschnitt_3_das_sind_die_taktraten_je_leistungsprofil) (irgendwo hatte ich sogar noch etwas niedrigere Zahlen gesehen, eventuell Unterschied zwischen P- und E-Cores; CB sagt, es wäre der Durchschnitt).
Teste mal Lunar Lake mit 8W und verdopple die Punkte. Dann landest du in etwa bei 15W HX370.Ich schrieb ja bereits, daß LunarLake unter 10W betrieben werden muß, um in der MT-Effizienz an Strix ranzukommen. Insofern sagst Du mir da nichts Neues. ;)
Undertaker
2024-09-26, 20:02:44
Na und? Das Fehlen von SMT wollte uns intel ursprünglich als Vorteil auch für die MT-Leistung verkaufen (und sagt selbst auf der neuesten Folie es seien nur -5% Perf/Watt, die das kostet). Insofern ist das kein wesentlicher Punkt.
Wie kommst Du auf nur 5 AMD-Kerne als Konkurrenz zu den 8 von LL? 60% Zusatzleistung durch SMT?!?
Du hast schlauerweise den entscheidenen Teil beim selektiven Zitieren genau weggelassen. :freak: Im Desktop, aber auch Mobile mit den folgenden ARL-Ablegern, wiegt Intel den Verzicht auf SMT mit entsprechend höheren Kernzahlen als bei den entsprechenden AMD-Pendants auf. Ein 16C/32T AMD-Topmodell wird einem 24C/24T Intel-Pendant gegenüberstehen, diese Relation skaliert sich in ähnlicher Weise in die Marktsegmente nach unten. Ich habe schon vor Wochen gesagt, das Strix Point nicht in der Liga von Lunar Lake angesiedelt ist, eben weil erster als deutlich fetterer Chip zwar vorteilhaft tiefe Taktraten bei MT ausspielen kann, dafür aber bei niedriger Last keine Chance in puncto Effizienz hat und damit keine konkurrenzfähigen Laufzeiten erreicht. Das haben die ersten LL-Tests ja auch deutlich gezeigt, hier kommt kein anderer X86-Chip an LL heran, Strix Point schon gar nicht.
In jedem Fall würde ein 5C- oder 6C-Zen5-Chip dann auch beträchtlich weiter nach unten skalieren als Strix (wäre ja quasi halbiert oder gar nur 40% der Kerne), genau wie ein verdoppelter LL (bei doppelter Rechenleistung) auch erheblich mehr schlucken würde.
Klar, absolut. Ein doppelter Lunar Lake oder ein halbierter Strix Point wären (inkl. entsprechender Anpassungen im I/O-Bereich) dann allerdings eben schon eher miteinander vergleichbar, ohne dass der eine bei MT oder der andere bei den Akkulaufzeiten massiv davonzieht.
Nicht/kaum ausgelasteter (im Sinne von gelesen/geschrieben, nicht belegt) RAM säuft auch nicht viel (die Refreshes sind recht sparsam). Sieht man auch am idle/Niedrig-Last-Verbrauch von unter 1W.
Wir sprechen nicht von idle, sondern MT-Volllast. Zwei Watt (die Angabe hat Intel selbst für den Speicher genannt) sind ja auch erst einmal nicht viel, prozentual aber im genannten Beispiel aber schon signifikant und darum in der Betrachtung nicht vernachlässigbar.
Also ich sehe beim Notebookcheck-Test von LunarLake 767 Punkte für den HX370 bei 20W.
Ja, passt ja zu meiner Aussage? Meinetwegen auch vergleichbares Niveau statt "knapp darunter", wenn wir die wenigen Punkte weniger je nach Benchmarkquelle mal in den Skat drücken wollen, kein Problem.
Und das dann mit 4 P-Cores weniger und gleicher Anzahl von E/c-Cores. Daß intel SMT wegläßt und so auch potentiell MT-Leistung liegen läßt, ist ja deren Problem.
Es ist nicht Intels Problem, dass entsprechende AMD-Pendants dafür weniger Kerne aufbieten, siehe dafür nochmals die gesamte Modellpalette mit 16C/32T vs. 24C/24T in der Spitze und ähnlichen Abstufungen nach unten über Ryzen/Core Ultra 7 und 5. Wenn man natürlich probiert, krude Quervergleiche zu starten, um damit einen massiven Core- und Thread-Überhang für AMD bei gleichzeitiger Vernachlässigung der unterlegenen Teillastverbräuche und Akkulaufzeiten zu konstruieren, kann man sich natürlich vieles hinbiegen. :)
Ist in meinem Diagramm mit den 2 Kurven für den 288V berücksichtigt. ;)
Ja? Du hast sicherlich berücksichtigt, nicht einfach stumpf den Verbrauchsdurchschnitt eines Modells mit PL1 != PL2 gegen einen manuell auf Konstantverbrauch getrimmten Gegner zu stellen, richtig? Das wäre nämlich ziemlicher Humbug, da (willkürliches Beispiel) 20W Konstantverbrauch natürlich immer deutlich effizienter sind, als das gleiche
Modell in einem Benchmark zu je 50% Zeitanteil mit 30W und anschließend 10W (= gleicher Durchschnittsverbrauch) laufen zu lassen.
Ist das das nicht zuungunsten von LunarLake, weil der jetzt mit geringerer Core-/Threadzahl antritt (und bei hypothetischer Kernverdopplung dann auch keine hypothetische 770 Punkte liefern würde)?
Zugunsten LL bei der Extrapolation der Leistungswerte auf ein hypothetisches 16C/16T-Modell.
Stimmt, das dürfte beim geringeren SoC-Uncore-Verbrauch von LL weniger ins Gewicht fallen und vermutlich mit Deinem 2W Abzug schon erschlagen sein.
Die 2W Abzug sind der Lastverbrauch für den Speicher gemäß Intel-eigener Verbrauchsindikation hierzu gewesen. Speichercontroller, I/O etc. sind hierbei explizit nicht enthalten gewesen, da Intel die 2W im Vergleich LL zu MTL genannt hat, wo die Uncore-Bestandteile gleichermaßen bereits in der TDP enthalten waren. Ist also ein separater Punkt in unserer theoretischen Skalierungsbetrachtung.
dildo4u
2024-09-27, 06:26:13
Asus hat wieder als erstes Geräte ab 1700€ :lol: für Ultra 7.
https://geizhals.de/asus-zenbook-s14-oled-ux5406sa-pv030w-90nb14f2-m00bp0-a3295031.html?v=l&hloc=de
MSABK
2024-09-27, 09:04:40
Die Asus Geräte sind allgemein zu teuer.
Mal sehen wann Lenovo Ideapads rauskommen, die gehen dann von Preis her. Das Yoga Aura sieht nicht schlecht aus.
Bin gespannt ob Microsoft auch im Surface LL verbauen wird, das ist ja der Chip auf den sie gewartet haben.
Mir gefallen alle 3 Chips, LL, X Elite und Strix Point. Endlich mal Bewegung im Markt.
G3cko
2024-09-27, 10:07:49
Na und? Das Fehlen von SMT wollte uns intel ursprünglich als Vorteil auch für die MT-Leistung verkaufen (und sagt selbst auf der neuesten Folie es seien nur -5% Perf/Watt, die das kostet).
Man muss immer ein paar Jahre weiterdenken. Das Desaster mit Bulldozer kam nicht zuletzt auch zum tragen, da mit besser Fertigung immer mehr Cores möglich waren. Der ursprüngliche Gedanke der Flächenersparnis war eben nicht mehr nötig und Bulldozer, selbst wenn das Konzept funktioniert hätte, ware eine Sackgasse.
Hyperthreading hatte seine Zeit. Besonders als es eben noch SingelCores gab und mit kaum mehr Fläche 2 Threads abgearbeitet werden konnten. Das war ein Meilenstein.
Schon heute kann man einen 16C/32T kaum auslasten.
Denk Mal 10 Jahre in die Zukunft.
100C/200T, welche Software kann sowas sinnvoll auslasten und überwiegt nicht der Overhead? Dazu kommen Softwareprobleme, was man bei threadripper sieht.
Mann kann es sich schlicht leisten auf MT-Leistung zu verzichten, da diese ohnehin selten das Problem ist. Bei einer 100C CPU ist eher die Frage wie man Singlethread-Leistung in gleichem Maße überhaupt steigern kann. Größere Caches sind eine Möglichkeit, und dann?
fondness
2024-09-27, 10:16:45
Man muss immer ein paar Jahre weiterdenken. Das Desaster mit Bulldozer kam nicht zuletzt auch zum tragen, da mit besser Fertigung immer mehr Cores möglich waren. Der ursprüngliche Gedanke der Flächenersparnis war eben nicht mehr nötig und Bulldozer, selbst wenn das Konzept funktioniert hätte, ware eine Sackgasse.
Hyperthreading hatte seine Zeit. Besonders als es eben noch SingelCores gab und mit kaum mehr Fläche 2 Threads abgearbeitet werden konnten. Das war ein Meilenstein.
Schon heute kann man einen 16C/32T kaum auslasten.
Denk Mal 10 Jahre in die Zukunft.
100C/200T, welche Software kann sowas sinnvoll auslasten und überwiegt nicht der Overhead? Dazu kommen Softwareprobleme, was man bei threadripper sieht.
Mann kann es sich schlicht leisten auf MT-Leistung zu verzichten, da diese ohnehin selten das Problem ist. Bei einer 100C CPU ist eher die Frage wie man Singlethread-Leistung in gleichem Maße überhaupt steigern kann. Größere Caches sind eine Möglichkeit, und dann?
Die Fertigungsprozesse werden immer teuer. Perf/mm2 ist nach wie vor eine extrem wichtige Metrik, niemand hat Siliziumfläche zu verschenken. Dazu kommt noch, dass SMT auch Perf/Watt bringt, eine zweite extrem wichtige Effizienzmetrik. Und was die Anzahl der Cores/Threads betrifft: Im Server-Bereich kann man davon gar nicht genug haben.
LNL hat nur 8 Threads, davon nur 4 mit Performance-Cores mit starker Single-Thread Leistung. Das ist absolut an der unteren Grenze und wird sicher auch bei manchen Games limitieren bzw. zu wenig sein. Da hätte SMT allemal geholfen.
dildo4u
2024-09-27, 10:27:02
Die CPU scheint ok für die GPU Klasse um 70fps in Spiderman was der PS5 / 3600X entspricht.
https://youtu.be/tPSCmo-hao4?si=8uX2QpaK-pon6w_v&t=572
robbitop
2024-09-27, 10:27:06
Naja LNL ist ein 17-28W SoC wo auch die IGP mit reinpassen muss. Ich vermute, da wird man fast immer GPU limitiert sein.
Das gilt aber auch grundsätzlich für APUs. Da landet man in Spielen sehr wahrscheinlich so gut wie nie im CPU Limit in normalen Settings.
fondness
2024-09-27, 10:31:02
Naja LNL ist ein 17-28W SoC wo auch die IGP mit reinpassen muss. Ich vermute, da wird man fast immer GPU limitiert sein.
Das gilt aber auch grundsätzlich für APUs. Da landet man in Spielen sehr wahrscheinlich so gut wie nie im CPU Limit in normalen Settings.
dGPU-Geräte wird es mit LNL gar nicht geben? Das wäre dann aber eine deutliche Einschränkung vs. Strix. Aber ja möglich. Nach den Aussagen von Geslinger sieht es ohnehin so aus, als wäre LNL ursprünglich als reiner Handheld-Chip designed worden und nur aufgrund der Nachfrage dann auch für Notebooks freigegeben worden. Und es sind bis zu 37W ;)
Aber klar wenn man nur die iGPU verwendet ist das in Games vermutlich kein Problem. Dann bleiben nur noch die Multithreaded-CPU-Apps die nicht so effizient/schnell ablaufen. Und das ist wohl vertretbar.
dildo4u
2024-09-27, 10:33:54
Das war immer als Snapdragon/Apple Konkurrent geplant daher der fest verbaute Ram.
Der Strix Gegner wird dem Hersteller der Notebooks offen lassen welche Menge verbaut wird.
Undertaker
2024-09-27, 10:34:47
Im Server sind die Schwerpunkte sicherlich anders gelagert als im Desktop, generell ist die Gesamtthematik aber natürlich eine Abwägung zwischen ST-Leistung, MT-Leistung, Flächenbedarf und Energieeffizienz. In dieser Gesamtbilanz scheint sich bei ARM inkl Apple und Qualcomm sowie nun auch bei Intel abzuzeichnen, dass man zumindest im Mobile-Segment und den jeweiligen Architekturen SMT für nicht (mehr) sinnvoll hält. Ich könnte mir darum gut vorstellen, dass diese Erkenntnis auch bei AMD irgendwann folgt, mal schauen.
Ansonsten limitieren in Anwendungen und speziell Games erst einmal nicht stumpfe Thread- oder Kernzahlen, sondern die gebotene kumulierte Performance. Und die liegt CPU-seitig Faktor 2-3 über einem Steam Deck oder grob in der Range eines Desktop 5600X (bei erheblich besserer pro-Thread Leistung!), mehr als genug um die IGP auf Lebenszeit auszureizen. Nicht vergessen, dass der Chip ohnehin keine DGPUs befeuern muss.
fondness
2024-09-27, 10:43:33
Im Server sind die Schwerpunkte sicherlich anders gelagert als im Desktop, generell ist die Gesamtthematik aber natürlich eine Abwägung zwischen ST-Leistung, MT-Leistung, Flächenbedarf und Energieeffizienz. In dieser Gesamtbilanz scheint sich bei ARM inkl Apple und Qualcomm sowie nun auch bei Intel abzuzeichnen, dass man zumindest im Mobile-Segment und den jeweiligen Architekturen SMT für nicht (mehr) sinnvoll hält. Ich könnte mir darum gut vorstellen, dass diese Erkenntnis auch bei AMD irgendwann folgt, mal schauen.
Das mit Intel würde ich erstmal abwarten, womöglich ist SMT schneller wieder da als manche glauben. ;)
Ansonsten limitieren in Anwendungen und speziell Games erst einmal nicht stumpfe Thread- oder Kernzahlen, sondern die gebotene kumulierte Performance. Und die liegt CPU-seitig Faktor 2-3 über einem Steam Deck oder grob in der Range eines Desktop 5600X (bei erheblich besserer pro-Thread Leistung!), mehr als genug um die IGP auf Lebenszeit auszureizen. Nicht vergessen, dass der Chip ohnehin keine DGPUs befeuern muss.
So einfach ist das nicht. Ein Kontext-Switch ist sehr teuer, wenn ich sehr viel mehr leistungshungrige Threads bearbeiten muss als ich reale Threads in HW zur Verfügung habe, wird das irgendwann extrem ineffizient. Nicht umsonst bricht heute alles <8 Threads in vielen Bereichen völlig weg. Aber gut wenn dGPU gar nicht möglich ist, ist das natürlich was anderes. Dann ist das halt ein sehr spezieller Chip, optimiert für einen speziellen Bereich.
mboeller
2024-09-27, 10:54:45
Das mit Intel würde ich erstmal abwarten, womöglich ist SMT schneller wieder da als manche glauben. ;)
sehe ich auch so.
SMT war für einen Großteil ihrer Sicherheitsprobleme verantwortlich.
SMT neu designen geht nicht so in 1-2 Jahren.
Also blieb nur übrig es abzuschalten.
Wenn sie ihre SMT-Hardware auch sicher bekommen haben sehen wir auch bei Intel SMT wieder. Also in 1-2 Generationen.
robbitop
2024-09-27, 10:56:23
dGPU-Geräte wird es mit LNL gar nicht geben? Das wäre dann aber eine deutliche Einschränkung vs. Strix. Aber ja möglich. Nach den Aussagen von Geslinger sieht es ohnehin so aus, als wäre LNL ursprünglich als reiner Handheld-Chip designed worden und nur aufgrund der Nachfrage dann auch für Notebooks freigegeben worden. Und es sind bis zu 37W ;)
Aber klar wenn man nur die iGPU verwendet ist das in Games vermutlich kein Problem. Dann bleiben nur noch die Multithreaded-CPU-Apps die nicht so effizient/schnell ablaufen. Und das ist wohl vertretbar.
Tja wer weiß was Notebookhersteller auskochen. Aber IMO würde die Kombination von LNL mit einer dGPU den ganzen Zweck von LNL irgendwie ad absurdum stellen. Das Ding ist ja eher für gute Leistung im kleinen TDP Bereich gemacht und damit ideal für besonders kleine/leichte Geräte mit hoher Akkulaufzeit. Eine extra GPU wiederum würde das nicht mehr erlauben.
IMO ist dafür dann Arrowlake mobile gedacht.
sehe ich auch so.
SMT war für einen Großteil ihrer Sicherheitsprobleme verantwortlich.
SMT neu designen geht nicht so in 1-2 Jahren.
Also blieb nur übrig es abzuschalten.
Wenn sie ihre SMT-Hardware auch sicher bekommen haben sehen wir auch bei Intel SMT wieder. Also in 1-2 Generationen.
Glaub ich nicht. Es ist ja ziemlich sicher, dass Lion Cove X wieder SMT bieten wird. MMn war Lion Cove einfach noch zu früh im Entwicklungsstadium und man hat versucht bei der Entwicklung Zeit zu sparen und hat sich alles gespart, was unnötig für das Produkt war, um ARL und LNL möglichst früh bringen zu können.
Cougar Cove ist zudem nur mobil, da ist kleiner wichtiger als SMT, von daher würde ich davon ausgehen, dass es bei dessen Entwicklung ebenfalls unwichtig war. Aber alles das danach kommt hat mMn wieder ganz normal SMT, Panther Cove X wird ja sogar mit 4 Threads pro Kern vermutet.
fondness
2024-09-27, 11:03:14
Tja wer weiß was Notebookhersteller auskochen. Aber IMO würde die Kombination von LNL mit einer dGPU den ganzen Zweck von LNL irgendwie ad absurdum stellen. Das Ding ist ja eher für gute Leistung im kleinen TDP Bereich gemacht und damit ideal für besonders kleine/leichte Geräte mit hoher Akkulaufzeit. Eine extra GPU wiederum würde das nicht mehr erlauben.
IMO ist dafür dann Arrowlake mobile gedacht.
Ist PCIe für eine dGPU überhaupt vorhanden bei LNL?
Aber gut dasselbe könnte man auch über Strix sagen, wo auch dGPUs möglich sind. Der einzige Unterschied zwischen LNL und Strix sind in Wahrheit die 4 zusätzlichen eCores.
dildo4u
2024-09-27, 11:06:31
Laut Intel 4 Lanes 4.0/5.0
https://www.notebookcheck.com/Intel-Lunar-Lake-CPU-Analyse-Der-Core-Ultra-7-258V-enttaeuscht-bei-Multi-Core-Leistung-punktet-aber-bei-der-Alltags-Effizienz.892511.0.html#11976348
Strix hat 16 4.0
https://www.techpowerup.com/cpu-specs/ryzen-ai-9-hx-370.c3655
fondness
2024-09-27, 11:07:15
Laut Intel 4 Lanes 4.0/5.0
https://www.notebookcheck.com/Intel-Lunar-Lake-CPU-Analyse-Der-Core-Ultra-7-258V-enttaeuscht-bei-Multi-Core-Leistung-punktet-aber-bei-der-Alltags-Effizienz.892511.0.html#11976348
Strix hat 16 4.0
https://www.techpowerup.com/cpu-specs/ryzen-ai-9-hx-370.c3655
Danke. Die 4 Lanes braucht man für die SSD. Also keine dGPU.
robbitop
2024-09-27, 11:10:32
Ist PCIe für eine dGPU überhaupt vorhanden bei LNL?
Aber gut dasselbe könnte man auch über Strix sagen, wo auch dGPUs möglich sind. Der einzige Unterschied zwischen LNL und Strix sind in Wahrheit die 4 zusätzlichen eCores.
Ja das sehe ich grundsätzlich auch so. Allerdings kann sich Strix noch ein wenig mehr strecken - skaliert noch bis etwas höhere TDPs und ist auch im Teillastbereich ein wenig durstiger. Und dank mehr Cores wäre der auch "kompetenter" als LNL um ihn mit einer dGPU zu kombinieren (mehr CPU Gesamtleistung, mehr I/O).
AMD wird ja mit Kraken dann ggf. eher ein Äquivalent zu LNL haben.
fondness
2024-09-27, 11:33:18
Ja das sehe ich grundsätzlich auch so. Allerdings kann sich Strix noch ein wenig mehr strecken - skaliert noch bis etwas höhere TDPs und ist auch im Teillastbereich ein wenig durstiger. Und dank mehr Cores wäre der auch "kompetenter" als LNL um ihn mit einer dGPU zu kombinieren (mehr CPU Gesamtleistung, mehr I/O).
AMD wird ja mit Kraken dann ggf. eher ein Äquivalent zu LNL haben.
Strix kann sich ein wenig mehr strecken wegen der 4 zusätzlichen eCores und SMT. Das mit dem Teillastbereich hätte ich gerne noch genauer analysiert, denn unter Vollast ist Strix teilweise sogar effizienter. Aktuell habe ich nur PCMark gesehen.
Kraken passt von den Cores zu LNL, hat aber nur eine halb so große GPU. LNL ist schon ein ganz spezieller Chip, offensichtlich extra designed für mobiles Gaming.
y33H@
2024-09-27, 11:54:20
LNL wurde nicht dediziert für Gaming designed, so ein Unfug.
fondness
2024-09-27, 12:29:05
LNL wurde nicht dediziert für Gaming designed, so ein Unfug.
Bitte nicht gleich so viele Argumente auf einmal. :)
robbitop
2024-09-27, 12:32:54
Allerdings wird Mark als Intel Mitarbeiter schon wissen was er sagt. Ob er es immer begründen darf? Keine Ahnung.
Ich würde aber auch vermuten, dass der mobile 17W Gaming Markt als Zielsetzung für einen ganzen SoC bei Intel zu klein ist um dafür designt zu sein.
Strix kann sich ein wenig mehr strecken wegen der 4 zusätzlichen eCores und SMT. Das mit dem Teillastbereich hätte ich gerne noch genauer analysiert, denn unter Vollast ist Strix teilweise sogar effizienter. Aktuell habe ich nur PCMark gesehen.
Kraken passt von den Cores zu LNL, hat aber nur eine halb so große GPU. LNL ist schon ein ganz spezieller Chip, offensichtlich extra designed für mobiles Gaming.
Ja wobei die GPU sich bei Strix auch mehr strecken kann. Die geht ja bis knapp 3 GHz (auch wenn ihr ab knapp der Hälfte die Bandbreite auszugehen scheint ^^).
Aktuell habe ich nur PCMark gesehen.
Das und Thephawx hat die Leistungsaufnahme bei Youtube gelogt. Der ganze SoC inkl RAM war da knapp unter 2W.
Was ist gegen PCMark einzuwenden für ein Teillastszenario? (ich kenne die Software nicht - ist also eine ernst gemeinte Frage)
fondness
2024-09-27, 12:39:52
Allerdings wird Mark als Intel Mitarbeiter schon wissen was er sagt. Ob er es immer begründen darf? Keine Ahnung.
Was genau soll daran so top secret sein für was LNL designed wurde lol. Intel ist ein riesen Konzern, nur weil ich dort arbeite habe ich noch lange keine insider Infos über strategische entscheidungen.
Ich würde aber auch vermuten, dass der mobile 17W Gaming Markt als Zielsetzung für einen ganzen SoC bei Intel zu klein ist um dafür designt zu sein.
Gelsinger, immerhin CEO bei Intel hat selbst gesagt, dass LNL eigentlich als low Volumen Produkt geplant war und man aufgrund der hohen Nachfrage deutlich nachbestellen musste bei tsmc. Das zusammen mit der sehr großen gpu in relation zur CPU und dem niedrigen TDP Bereich legt den Schluss imo schon nahe.
Ja wobei die GPU sich bei Strix auch mehr strecken kann. Die geht ja bis knapp 3 GHz (auch wenn ihr ab knapp der Hälfte die Bandbreite auszugehen scheint ^^).
Ja klar takt geht mehr. Wobei es mich da eher wundert, warum LNL da so bald abriegelt.
robbitop
2024-09-27, 12:48:00
Was genau soll daran so top secret sein für was LNL designed wurde lol. Intel ist ein riesen Konzern, nur weil ich dort arbeite habe ich noch lange keine insider Infos über strategische entscheidungen.
Kommt drauf an auf welchem Rank man arbeitet. Ich habe als Director Einsicht und Kenntnis (und auch Mitwirkung) in sämtliche Strategien in dem Unternehmen für das ich arbeite (15K Mitarbeiter, US Unternehmen). In US Unternehmen sind jährliche (oder öfter) retreats/senior leadership foren mit dem Senior Leadership total üblich und da präsentiert jeder VP was seine Organisation macht und welche Strategie vorliegt. Wenn man da mit dabei ist, hat man da schon Einsicht. Und man "mingelt" abseits der sessions mit vielen Leuten in der Breite. Bei uns ist man z.T ab Director Level dabei. Und dann gibt es ggf noch regelmäßige interne Calls zu wesentlichen Dingen die in der Pipeline sind.
Würde mich nicht wundern, wenn Mark nicht auch wenigstens Director Level ist. Ich würde mich nicht wundern, wenn zumindest potenziell mehr Einsicht besteht als bei outsidern in einem Forum.
Gelsinger, immerhin CEO bei Intel hat selbst gesagt, dass LNL eigentlich als low Volumen Produkt geplant war und man aufgrund der hohen Nachfrage deutlich nachbestellen musste bei tsmc. Das zusammen mit der sehr großen gpu in relation zur CPU und dem niedrigen TDP Bereich legt den Schluss imo schon nahe.
Die großen GPUs haben APUs auch - auch wenn das für die meisten Laptops sicherlich kaum genutzt wird. Kann mir gut vorstellen, dass Intel da nicht zurückstehen wollte. Und GPUs werden ja auch für Non Gaming Compute immer wichtiger.
IMO kann man da viel spekulieren - aber das sagt IMO nicht viel aus.
Ja klar takt geht mehr. Wobei es mich da eher wundert, warum LNL da so bald abriegelt.
Weil es wahrscheinlich in dem Umfeld (TDP, Bandbreite) keinen Sinn macht. (Speku)
fondness
2024-09-27, 13:16:17
Was ist gegen PCMark einzuwenden für ein Teillastszenario? (ich kenne die Software nicht - ist also eine ernst gemeinte Frage)
Keine Ahnung, ich kenne PCMark nicht. Aber das ist dasselbe wie wenn ich nur ein Spiel benche, ich habe dann eben nur eine sehr eingeschränkte Sicht auf die generelle Performance.
fondness
2024-09-27, 13:21:27
Kommt drauf an auf welchem Rank man arbeitet. Ich habe als Director Einsicht und Kenntnis (und auch Mitwirkung) in sämtliche Strategien in dem Unternehmen für das ich arbeite (15K Mitarbeiter, US Unternehmen). In US Unternehmen sind jährliche (oder öfter) retreats/senior leadership foren mit dem Senior Leadership total üblich und da präsentiert jeder VP was seine Organisation macht und welche Strategie vorliegt. Wenn man da mit dabei ist, hat man da schon Einsicht. Und man "mingelt" abseits der sessions mit vielen Leuten in der Breite. Bei uns ist man z.T ab Director Level dabei. Und dann gibt es ggf noch regelmäßige interne Calls zu wesentlichen Dingen die in der Pipeline sind.
Würde mich nicht wundern, wenn Mark nicht auch wenigstens Director Level ist. Ich würde mich nicht wundern, wenn zumindest potenziell mehr Einsicht besteht als bei outsidern in einem Forum.
Ja klar bekommt man da was mit, ich war auch eine Zeit lang Führungskraft bei Apple bevor ich von den Aktien leben konnte. Trotzdem erwarte ich mir da als Antwort mehr als "so ein Unfug".
Die großen GPUs haben APUs auch - auch wenn das für die meisten Laptops sicherlich kaum genutzt wird. Kann mir gut vorstellen, dass Intel da nicht zurückstehen wollte. Und GPUs werden ja auch für Non Gaming Compute immer wichtiger.
IMO kann man da viel spekulieren - aber das sagt IMO nicht viel aus.
Das Verhältnis CPU zu GPU ist jedenfalls ungewöhnlich. Und abseits von Gaming bringt die große GPU in der Praxis eher nichts. Also ganz abwegig ist das nicht. ;) Auch wenn es natürlich kein Beweis ist.
Weil es wahrscheinlich in dem Umfeld (TDP, Bandbreite) keinen Sinn macht. (Speku)
Auch die Bandbreitenlimitierung ist ja keine Konstante sondern hängt von der Anwendung ab. Aber klar kann schon sein.
robbitop
2024-09-27, 13:25:46
Trotzdem erwarte ich mir da als Antwort mehr als "so ein Unfug".
Ja ohne Frage.
Das Verhältnis CPU zu GPU ist jedenfalls ungewöhnlich. Und abseits von Gaming bringt die große GPU in der Praxis eher nichts. Also ganz abwegig ist das nicht. ;) Auch wenn es natürlich kein Beweis ist.
Naja beim Video und Photoedeting gibt es da sicherlich schon Vorteile oder? Irgendwie scheint eine große GPU in mobiles aber auch (unabhängig vom Nutzen) Trend zu sein. Man schaue sich die GPUs in der M, M pro, max und Ultra Serie an. Kein Schwein spielt mit dem Mac und dem iPad -- zumindest nicht in der Relation wie die GPUs gemacht sind. Mittlerweile sogar mit RT HW (im Mac und iPad) und ML upsampling inkl HW dafür.
Der Kram wird gebenchtmarkt und da will man sicherlich gewinnen. Und wenn Siliziumfläche kein Problem ist, sind breite (aber dafür langsam taktende) GPUs sogar aus Energieeffizienzsicht im Vorteil.
Auch die Bandbreitenlimitierung ist ja keine Konstante sondern hängt von der Anwendung ab. Aber klar kann schon sein.
Ja das stimmt - aber eine grobe Größenordnung wird man da schon ermitteln können und dann mit etwas Sicherheit oben abschneiden. Insbesondere wenn die TDP so niedrig ist.
Loeschzwerg
2024-09-27, 13:53:08
Irgendwie eine müßige Diskussion hinsichtlich CPU-/GPU-Verhältnis. Der CPU-Part ist völlig ausreichend und der große Sprung bei der GPU war schlichtweg wegen dem Konkurrenzdruck von Seiten AMD nötig. "offensichtlich extra designed für mobiles Gaming" ist für mich eher ein "endlich ein Allrounder für ein gewisses TDP-Spektrum".
Undertaker
2024-09-27, 18:23:06
"Vorbild" für Lunar Lake war, falls es denn ein solches gab, ziemlich eindeutig die M-Serie bei Apple – die gesamte Auslegung (TDP-Range bzw. -Sweetspot, I/O-Ausstattung, on-package Speicher, CPU-/GPU-Dimensionierung, ...) ist nahezu identisch. Einen derart ähnlich konzipierten SoC gibt es bei AMD aktuell nicht.
Auch die vergleichsweise starke GPU findet sich bei Apple wieder, ohne das dort Games vorrangig im Fokus stehen. Entsprechende Performancereserven hier lassen sich ja auch in diversen Produktivanwendungen gut nutzen und bringen dort oftmals mehr als noch umfangreichere CPU-Ressourcen.
Edit: robbitop hat ja bereits ähnliches geschrieben, kann ich voll unterschreiben.
Das mit Intel würde ich erstmal abwarten, womöglich ist SMT schneller wieder da als manche glauben. ;)
Glaube ich nicht, wenn AMD aktuell der einzige Player überhaupt mit SMT im Mobile-Bereich ist. Gerade das Apple, wo aktuell die wohl beste CPU-Architektur im Marktsegment beheimmatet ist, keinerlei Bestrebungen für eine SMT-Implementierung zeigt, ist mMn ein klarer Fingerzeig.
So einfach ist das nicht. Ein Kontext-Switch ist sehr teuer, wenn ich sehr viel mehr leistungshungrige Threads bearbeiten muss als ich reale Threads in HW zur Verfügung habe, wird das irgendwann extrem ineffizient. Nicht umsonst bricht heute alles <8 Threads in vielen Bereichen völlig weg.
Dazu kenne ich keine Belege, "wegbrechen" sehe ich nur CPUs, die schlicht in Summe zu wenig Performance bieten. Benchmarks mit SMT off vs. on auf Modellen mit vergleichsweise wenigen, aber recht aktuellen/starken Kernen (z.B. 7800X3D oder 14700K ohne E-Cores (https://www.youtube.com/watch?v=VfZvMWadgC0&ab_channel=TechYESCity)) zeigen oftmals sogar, dass die Aktivierung von SMT bei 8 Kernen ein bisschen Leistung kostet. Selbst ein 7600X kommt ohne SMT mit nur 6 Threads noch ziemlich gut kl (https://www.youtube.com/watch?v=QOzJBPgZbRQ&ab_channel=OdinHardware)ar und verliert nicht wirklich überproportional Performance. Ist sehe hier überhaupt kein Risiko, dass Lunar Lake hier jemals zu Lebzeiten ein Problem bekommt, ohne dass die GPU weit vorher ausgereizt ist.
Badesalz
2024-09-27, 20:51:51
@Undertaker
Sollen die Beispiele eine Gehirnroschade verursachen? SMT ist eben nicht zum Zocken gedacht. Und LNL ist nicht zum Zocken gedacht. Heißt...? :uponder:
Die Sinnhaftigkeit vom fehlenden SMT beim LNL anhand von fetten FPS-Benchen aufzeigen wollen ist schon eine gewisse Gehirnakkrobatik. Chapeau :wink:
Undertaker
2024-09-27, 21:17:40
Du solltest vielleicht den Thread lesen, fondness hat SMT für LL für Gaming gefordert: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13621405#post13621405
Und dem widerspreche ich, ja. :)
Badesalz
2024-09-27, 21:29:01
Und dem widerspreche ich, ja. :)Wenn du das so verstanden hast, dann hast du natürlich Recht.
Ich habs irgendwie nur so verstanden, daß 4 P-Cores bisschen knapp für Gaming ist ;)
Undertaker
2024-09-27, 21:37:19
Er schreibt "nur 8 Threads" und "SMT hätte geholfen". Die Unterscheidung zwischen P- und E-Cores kann man hier mMn fast weglassen, da die IPC nicht mehr so weit auseinander liegt und der Mindertakt der E-Cores im TDP-Limit bei Games kaum zum Tragen kommt.
Vermutlich würden selbst nur 6 Kerne LL in Games kaum schaden, 8 sind ein ausreichender Puffer für die Zukunft.
y33H@
2024-09-27, 21:43:19
LNL war immer ein Apple-Compete mit Fokus auf AI, GPU, Power ... das wurde so auch kommuniziert, LNL wurde von Intel nie spezifisch für (Handheld) Gaming beworben - und schon gar nicht entwickelt.
Badesalz
2024-09-27, 22:09:48
@y33h@
Ist ja auch ok. Es fehlt zwar der "Fokus" auf ... Leistung :tongue: aber das ist soweit, leider, verständlich :wink:
Der Fokus auf GPU zeigt leider das Prob, daß wir uns zu 80% im Mickeysoft-Universum bewegen. Wir uns also nicht einfach nur meilenweit entfernt von AppleSilicon befinden und bewegen, sondern einen Parsec von Metal-Ökosystem weg sind.
Es gäbe jetzt paar RAW-Entwickler (Photo), aber dafür haben diese Laptops nicht die Bildschirme. Und selbst dann bleibt es weitgehend nur an dieser Art von Software hängen. Und nur 4 P-Threads bleiben dabei ein Problem.
Wenn das also kaum genutzt, aber auch kaum vor sich blöd am Akku zieht, dann ist es wenigstens ein naice to have Gefühl. Der reale Nutzen muss sich aber noch zeigen.
Ich warte auf jenen seit ungefähr der X1800 :uclap:
bbott
2024-09-27, 23:08:08
Laut Intel 4 Lanes 4.0/5.0
https://www.notebookcheck.com/Intel-Lunar-Lake-CPU-Analyse-Der-Core-Ultra-7-258V-enttaeuscht-bei-Multi-Core-Leistung-punktet-aber-bei-der-Alltags-Effizienz.892511.0.html#11976348
Strix hat 16 4.0
https://www.techpowerup.com/cpu-specs/ryzen-ai-9-hx-370.c3655
Daran sieht man wie viel PCIe ausmacht. Lieber kein PCIe 5.0 und möglichst wenig Lanes.
Eines der großen Idle Bonis insbesondere bei ARM, auch USB etc. gibt es nicht zum nulltarif...
Der Test aus Asien ist nicht so schlecht mit den Skalierungswerten.
https://youtu.be/RAQJhqJ9fkc
https://s20.directupload.net/images/240928/mlgefmhw.png
https://s20.directupload.net/images/240928/ovu6ehkw.png
https://s20.directupload.net/images/240928/glxs3g7n.png
In Cyberpunk bricht auch Strix Point weg unterhalb von 20 Watt. Bei Lunar Lake wird nie der on package RAM mit berücksichtigt. 28W bei LNL sind nicht 28W bei MTL, sondern dann eher 30W.
Badesalz
2024-09-28, 07:28:10
Schöne Gegenüberstellung welchen Wert 3dmark Punkte haben :rolleyes:
Es scheint aber trotzdem, daß Raya wie bei CDNA (Instinct) geliefert hat :D
fondness
2024-09-28, 08:02:14
Daran sieht man wie viel PCIe ausmacht. Lieber kein PCIe 5.0 und möglichst wenig Lanes.
Eines der großen Idle Bonis insbesondere bei ARM, auch USB etc. gibt es nicht zum nulltarif...
Richtig, Kommunikation nach außen ist immer äußerst Stromhungrig. Das mehr an I/O von Strix kostet natürlich bzw. Das kaum vorhandene I/O von ARM hilft mit Sicherheit.
fondness
2024-09-28, 08:05:01
Der Test aus Asien ist nicht so schlecht mit den Skalierungswerten.
https://youtu.be/RAQJhqJ9fkc
https://s20.directupload.net/images/240928/mlgefmhw.png
https://s20.directupload.net/images/240928/ovu6ehkw.png
https://s20.directupload.net/images/240928/glxs3g7n.png
In Cyberpunk bricht auch Strix Point weg unterhalb von 20 Watt. Bei Lunar Lake wird nie der on package RAM mit berücksichtigt. 28W bei LNL sind nicht 28W bei MTL, sondern dann eher 30W.
Ich habe Videowiedergabe Werte von LNL gesehen wo 2W gemessen wurden, das mit den 2W für den RAM kann also nicht aufgehen. Intel hat auch keine Folie im reviewer guide die ich gesehen haben wo gesagt wird, dass man die 2W abziehen muss. Also ich denke Intel rechnet den RAM Verbrauch da gar nicht mit rein.
robbitop
2024-09-28, 08:18:03
Die Leistungsaufnahme vom RAM wird lastabhängig sein. Bei Video wohl wenig Last und der SLC soll auch explizit für Video de/encoding auch mitgedacht sein.
Was mich beim stromhungrigen IO wundert: warum kann das bei Nicht Benutzung nicht powergegatetet werden (oder wenn eine SKU das gar nicht bekommt per HW ausgeknipst werden)?
fondness
2024-09-28, 08:54:52
Die Leistungsaufnahme vom RAM wird lastabhängig sein. Bei Video wohl wenig Last und der SLC soll auch explizit für Video de/encoding auch mitgedacht sein.
Und wo sind die Aussagen und Messwerte von Intel, die das bestätigen? Sorry aber wenn nichtmal Intel sagt, dass man das abziehen muss... Zumindest im Folien Stack habe ich nichts davon gesehen. Aber man darf mich natürlich gerne korrigieren.
Was mich beim stromhungrigen IO wundert: warum kann das bei Nicht Benutzung nicht powergegatetet werden (oder wenn eine SKU das gar nicht bekommt per HW ausgeknipst werden)?
Wird es vermutlich eh. Aber erstens bedeutet Power gated auch nicht, dass gar kein Strom fließt und zweitens ist immer die Frage wie feingranular das geht. Vielleicht wird für irgendeinen Anschluss eine Lane PCIe benötigt dann kann es schon sein, dass alle aktiv sein müssen. Power gaten kostet natürlich auch gar nicht so wenig silizium Fläche.
robbitop
2024-09-28, 09:28:45
Und wo sind die Aussagen und Messwerte von Intel, die das bestätigen? Sorry aber wenn nichtmal Intel sagt, dass man das abziehen muss... Zumindest im Folien Stack habe ich nichts davon gesehen. Aber man darf mich natürlich gerne korrigieren.
Ich verstehe nicht, was du meinst. Die Bestätigung für was? Kannst du da bitte kurz ausführen? :)
Meinst du dass RAM Leistungsaufnahme Teil der Packagepower ist bei LNL und bei anderen SoCs nicht? Zumindest das wurde explizit in Intel LNL Videos gesagt. IIRC sogar mehrfach.
fondness
2024-09-28, 09:29:50
Die Bestätigung, dass der RAM Verbrauch in den Messwerten inkludiert ist.
robbitop
2024-09-28, 09:30:46
Intel hat in ihren Videos zu LNL HWInfo Laufen lassen und mehrfach gesagt dass bei „Package Power“ der RAM inkludiert ist.
fondness
2024-09-28, 09:33:21
Und das gilt auch noch für das finale Produkt? Warum sagt Intel dann nirgends im Reviewer Guide, dass das bei Tests berücksichtigt werden muss? Oder warum liefert Intel nicht einen Wert ohne RAM für die Vergleichbarkeit? Es wird überhaupt nirgends darauf eingegangen. Für mich ist das noch sehr undurchsichtig was und wieviel der RAM dann wirklich zieht und inwiefern das in der TDP berücksichtigt ist. Ein Graph der zeigt was der RAM genau zieht unter welchen Bedingungen wäre auch nett, ist immerhin in ihrem eigenen Interesse.
Undertaker
2024-09-28, 09:54:54
Die 2 Watt Speicherverbrauch unter Last hatte Intel bei den ersten LL-Teasern erwähnt, wo man gegen MTL verglich. Tatsächlich scheint LL aber noch sehr viel mehr als nur 2 Watt ggü. MTL und vor allem Strix bei gleicher TDP einzusparen, warum war der Systemverbrauch im Video bei Jarrod's Tech rund 15-20 Watt geringer? Das lässt sich nicht mit zwei Zoll Displaygröße oder einer anderen SSD erklären... Dürfte für LL auf jeden Fall bedeuten, dass man sogar deutlich höhere TDPs bei gleicher/besserer Laufzeit zur Konkurrenz ansetzen könnte.
dildo4u
2024-09-28, 09:57:25
Die Werte sind doch nicht erstaunlich für 3nm alles im erwarten Rahmen nicht vergessen Elite X ist immer noch 4nm und erreicht vergleichbare Laufzeiten.
fondness
2024-09-28, 09:58:17
Die 2 Watt Speicherverbrauch unter Last hatte Intel bei den ersten LL-Teasern erwähnt, wo man gegen MTL verglich.
Es gibt keine einzige offizielle Folie dazu (man möge mich korrigieren wenn jemand eine findet). Vielleicht hat das auch nur das vorserien Produkt betroffen?
Tatsächlich scheint LL aber noch sehr viel mehr als nur 2 Watt ggü. MTL und vor allem Strix bei gleicher TDP einzusparen, warum war der Systemverbrauch im Video bei Jarrod's Tech rund 15-20 Watt geringer? Das lässt sich nicht mit zwei Zoll Displaygröße oder einer anderen SSD erklären... Dürfte für LL auf jeden Fall bedeuten, dass man sogar deutlich höhere TDPs bei gleicher/besserer Laufzeit zur Konkurrenz ansetzen könnte.
Jetzt wirds dann schön langsam abenteuerlich :ugly:
lol das strix Gerät ist ein gaming Laptop mit dicker dgpu die sicher auch im Idle strom zieht plus die PCIe Kommunikation, das Display ist wesentlich größer etc. Da wundert es wenig, dass das amd Gerät mehr zieht.
Ganz davon abgesehen, dass das Gerät hinsichtlich Stromversorgung für einen ganz anderen Verbrauch ausgelegt ist und bei niedrigen Verbrauch mit Sicherheit auch ineffizient wird.
Undertaker
2024-09-28, 10:25:59
Müsste in den Videos gewesen sein, wo Intel auch von rund gleicher GPU-Performance zu MTL bei halbiert TDP gesprochen hat. Es haben genug Leute hier gesehen und gehört, warum sollte dir hier jemand etwas vorkauen. Passt übrigens auch sehr gut zu den 3-4 Watt, die man für ein DIMM-Modul ansetzt.
Und der Rest ist lustig, auf der einen Seite weist du auf den I/O-Overhead bei Strix hin und willst dann wieder die Nachteile im Systemverbrauch nicht glauben. Oh Mann...
fondness
2024-09-28, 10:39:24
Müsste in den Videos gewesen sein, wo Intel auch von rund gleicher GPU-Performance zu MTL bei halbiert TDP gesprochen hat. Es haben genug Leute hier gesehen und gehört, warum sollte dir hier jemand etwas vorkauen. Passt übrigens auch sehr gut zu den 3-4 Watt, die man für ein DIMM-Modul ansetzt.
Niemand muss mir etwas vorkauen, aber es ist schon bezeichnend, dass offenbar niemand mehr eine Quelle hat und sich alle Aussagen nur auf vorserien Geräte beziehen. Während Intel im offiziellen Reviewer guide nichts davon erwähnt.
Und der Rest ist lustig, auf der einen Seite weist du auf den I/O-Overhead bei Strix hin und willst dann wieder die Nachteile im Systemverbrauch nicht glauben. Oh Mann...
Das habe ich natürlich nirgends so gesagt, aber wenn man keine Argumente mehr hat muss man offensichtlich mit Unterstellungen arbeiten. ;-) Dein Vergleich mit einem AMD gaming Gerät mit dicker dGPU ist jedenfalls absurd, das sollte nicht so schwer zu verstehen sein.
mocad_tom
2024-09-28, 11:03:14
Chips and Cheese
https://chipsandcheese.com/2024/09/27/lion-cove-intels-p-core-roars/
Undertaker
2024-09-28, 11:09:55
Mein Gott, die Info hat es selbst bis auf die Wikipedia-Seite geschafft, wenn du zu faul zum Suchen bist ist das dein Problem. https://en.m.wikipedia.org/wiki/Lunar_Lake
Der bessere Systemverbrauch von Lunar Lake ist prinzipbedingt und ich habe schon vor Wochen darauf hingewiesen, dass die gesamte Auslegung des Chips mit keinem aktuellen AMD-Produkt vergleichbar ist. Aber du hast ja erst vor zwei Tagen verstanden, dass LL nicht einmal für DGPUs ausgelegt ist. :D
Zossel
2024-09-28, 11:34:09
Chips and Cheese
https://chipsandcheese.com/2024/09/27/lion-cove-intels-p-core-roars/
Uuppss
While DRAM latency with LPDDR5(x) will never match desktop DDR5, Lunar Lake’s DRAM latency is good for a mobile platform.
Warum feiert man diese neuen RAM sockel für LPDDRx so ab wenn die Latenzen so unterirdisch sind?
fondness
2024-09-28, 11:41:19
Mein Gott, die Info hat es selbst bis auf die Wikipedia-Seite geschafft, wenn du zu faul zum Suchen bist ist das dein Problem. https://en.m.wikipedia.org/wiki/Lunar_Lake
Wenn als einzige Quelle Wikipedia übrig bleibt, wo jeder alles rein schrieben kann.
Der bessere Systemverbrauch von Lunar Lake ist prinzipbedingt und ich habe schon vor Wochen darauf hingewiesen, dass die gesamte Auslegung des Chips mit keinem aktuellen AMD-Produkt vergleichbar ist. Aber du hast ja erst vor zwei Tagen verstanden, dass LL nicht einmal für DGPUs ausgelegt ist. :D
Richtig du hast im Vorhinein absurde Lobgesange auf LNL abgelassen, die sich zu großen Teilen als Luftblase herausgestellt haben.
y33H@
2024-09-28, 11:43:27
Als ehemaligem Apple-Angestellen müsste einem die Ausrichtung/Design von Lunar Lake eigentlich klar sein :freak:
robbitop
2024-09-28, 11:53:35
Gibt’s eigentlich gute Linux Treiber für Arc? Wäre ja sonst ggf. auch eine gute Option für Steam Fork. :)
fondness
2024-09-28, 12:10:20
Als ehemaligem Apple-Angestellen müsste einem die Ausrichtung/Design von Lunar Lake eigentlich klar sein :freak:
Oha der Intel angestellte trollt auch mal wieder herum :freak:
robbitop
2024-09-28, 12:29:42
Naja aber der Vergleich ist nicht so verkehrt. Von der Auslegung des SoCs her. Da sieht LNL schon so aus als hätte man sich vieles von der M Serie abgeschaut.
Was ich mich frage: wie gut funktioniert Linux als OS für Notebooks im Sinne der ganzen Energiesparmaßnahmen? Denn was bei Windows bis heute nicht so toll funktioniert ist der ziemlich hohe Verbrauch in Standby. Und mein Eindruck von meinen Dienstlaptops ist auch dass da öfters mal die Lüfter aufheulen und der Verbrauch hochgeht ohne dass ich aktiv was tue - das ist bei MacOS wohl nicht der Fall und ggf bei Linux auch nicht? Mich würden da mal Praxiserfahrungen interessieren. Ggf lohnt es sich (unabhängig vom SoC) ja auch mal Linux zum Arbeiten auszuprobieren. Ich komme selbst mit den Webanwendungen der Office365 suite aus (und Office soll Ende des Jahres für Linux als native Anwendung kommen… ja die Hölle ist zugefroren X-D)
fondness
2024-09-28, 12:41:07
Naja aber der Vergleich ist nicht so verkehrt. Von der Auslegung des SoCs her. Da sieht LNL schon so aus als hätte man sich vieles von der M Serie abgeschaut.
Bestreite ich ja nicht. Keine Ahnung warum die Intel Fans hier schnappatmung bekommen, nur weil ich vor x Seiten die These in den Raum gestellt habe, dass Intel handhelds als Einsatzgebiet gesehen hat. Dabei wieder spricht sich das nicht mal.
Müsste in den Videos gewesen sein, wo Intel auch von rund gleicher GPU-Performance zu MTL bei halbiert TDP gesprochen hat. Es haben genug Leute hier gesehen und gehört, warum sollte dir hier jemand etwas vorkauen. Passt übrigens auch sehr gut zu den 3-4 Watt, die man für ein DIMM-Modul ansetzt.
Du meinst das hier: https://youtu.be/4Nl3SF-m4JY?t=2119
Der Speicher befindet sich mit auf dem package und TDP PL1/PL2 ist package power bei Intel, kann man sogar im Datasheet nachlesen. Deswegen die für Intel krummen 17W und 30W statt 15W und 28W. Das wurde nicht nur einmal erwähnt. Im Idle oder wenig Last verbraucht der Speicher natürlich keine 2W, wäre ja schlimm. Wenns so wäre, müssten es mehr als 2W sein unter Last.
Badesalz
2024-09-28, 15:29:49
Das lässt sich nicht mit zwei Zoll Displaygröße oder einer anderen SSD erklären... Ich habs nicht gesehen, aber beim Display ist Größe sekundär. Primär ist ob IPS oder OLED...
Undertaker
2024-09-28, 15:33:24
Danke für den Link, genau. Das die Verbrauchsangabe von 2 Watt natürlich – wie eine TDP generell – auf den Lastzustand bezogen ist, sollte selbstverständlich sein, aber manchen muss man eben alles sehr kindgerecht erklären. ;)
Auf Systemebene betrachtet wären darüber hinaus noch weitere Synergien und Ersparnisse durch den on-package Speicher denkbar, die sich in diesem Wert mutmaßlich noch nicht wiederspiegeln – beispielsweise im Bereich der Stromversorgung/Spannungswandler, die nun nicht mehr separat für den externen Speicher wie bei anderen Plattformen benötigt werden. Ich habe gerade nicht ganz im Blick, welche Notebookmodelle mittlerweile alle angekündigt wurden, aber zum Thema Plattform-Leistungsaufnahme erwarte ich noch so einige spannende Ergebnisse, die sich dann auch nicht mehr auf andere Displays oder inaktive DGPUs schieben lassen. ;) Ich hatte ja im Vorfeld des Launches schon einmal die Prognose gewagt, dass ich Lunar Lake für die klar effizienteste diesjährige Handheld-/Ultramobile-Plattform halte, diese Wette halte ich weiterhin. :)
Ich habs nicht gesehen, aber beim Display ist Größe sekundär. Primär ist ob IPS oder OLED...
Müsste beides OLED gewesen sein meine ich. Aber generell: Bei moderater Helligkeit (und bei OLEDs vielleicht nicht gerade weißem Bildinhalt) reden wir über einen Gesamtverbrauch des Displays von 2-3 Watt. Das fällt in Relation zum Lastverbrauch kaum ins Gewicht bzw. geringe Differenzen zwischen einzelnen Modellen noch viel weniger. Idle ist das Display natürlich ein deutlich größerer Faktor, da sollte man mit Systemverbrauchsvergleichen etwas vorsichtiger sein.
MSABK
2024-09-28, 15:48:33
Bin mal gespannt ob Windows 11 mit LL genauso responsiv wie der E Elite ist. Hatte da mal im MediaMarkt rumgespielt und X Elite war irgendwie mega responsiv und W11 war auf einmal nicht mehr träge.
MSABK
2024-09-28, 15:54:06
Naja aber der Vergleich ist nicht so verkehrt. Von der Auslegung des SoCs her. Da sieht LNL schon so aus als hätte man sich vieles von der M Serie abgeschaut.
Was ich mich frage: wie gut funktioniert Linux als OS für Notebooks im Sinne der ganzen Energiesparmaßnahmen? Denn was bei Windows bis heute nicht so toll funktioniert ist der ziemlich hohe Verbrauch in Standby. Und mein Eindruck von meinen Dienstlaptops ist auch dass da öfters mal die Lüfter aufheulen und der Verbrauch hochgeht ohne dass ich aktiv was tue - das ist bei MacOS wohl nicht der Fall und ggf bei Linux auch nicht? Mich würden da mal Praxiserfahrungen interessieren. Ggf lohnt es sich (unabhängig vom SoC) ja auch mal Linux zum Arbeiten auszuprobieren. Ich komme selbst mit den Webanwendungen der Office365 suite aus (und Office soll Ende des Jahres für Linux als native Anwendung kommen… ja die Hölle ist zugefroren X-D)
Hast du da eine Quelle zu Office auf Linux?
robbitop
2024-09-28, 16:49:08
https://linuxnews.de/microsoft-office-2024-fuer-linux/
y33H@
2024-09-28, 17:48:27
Oha der Intel angestellte trollt auch mal wieder herum :freak:Für einen ehemaligen Apple-Anstellten empfinde ich die Aussage offensichtlich extra designed für mobiles Gaming.erst recht unverständlich - gerade wenn man laut eigener Aussage gar eine Führungskraft war und ergo eigentlich verstehen sollte, wann/warum/wie Designs entworfen werden ... außer freilich, man hatte keine technische Rolle :redface:
Badesalz
2024-09-28, 17:50:50
Müsste beides OLED gewesen sein meine ich. Aber generell: Bei moderater Helligkeit (und bei OLEDs vielleicht nicht gerade weißem Bildinhalt) reden wir über einen Gesamtverbrauch des Displays von 2-3 Watt.Wenn man grad Office/Web macht, entscheidet das über STUNDEN an Laufzeit. 3 Watt wäre dafür bisschen knapp =)
Das hatten wir kürzlich im Forum :wink:
Monsta
2024-09-28, 18:29:17
https://linuxnews.de/microsoft-office-2024-fuer-linux/
Die News ist vom 1.April und ein Aprilscherz.
Warum sollte Microsoft das machen?
robbitop
2024-09-28, 18:41:19
Oh hatte nicht aufs Datum geschaut. Mega culpa. Ich bin zu alt für diesen Scheiss X-D
Lawmachine79
2024-09-29, 09:58:13
Sehe ich es richtig, dass Intel zuerst seine Laptop CPUs gelauscht hat? Wann kommen die Desktops dazu? Wird das eine neue Architektur, die das Heizkraftwerkproblem ad acta legt? Bei den Mobiles sieht es insoweit ja ganz gut aus.
robbitop
2024-09-29, 10:11:09
Arrow Lake kommt für Desktop. Und ja die P Cores sehen auf den ersten Blick (gleiche wie LNL nur noch ein bisschen mehr L2 Cache) effizienter aus. Soll dieses Jahr noch kommen.
ENKORE
2024-09-29, 11:58:02
Was ich mich frage: wie gut funktioniert Linux als OS für Notebooks im Sinne der ganzen Energiesparmaßnahmen? Denn was bei Windows bis heute nicht so toll funktioniert ist der ziemlich hohe Verbrauch in Standby. Und mein Eindruck von meinen Dienstlaptops ist auch dass da öfters mal die Lüfter aufheulen und der Verbrauch hochgeht ohne dass ich aktiv was tue - das ist bei MacOS wohl nicht der Fall und ggf bei Linux auch nicht? Mich würden da mal Praxiserfahrungen interessieren. Ggf lohnt es sich (unabhängig vom SoC) ja auch mal Linux zum Arbeiten auszuprobieren. Ich komme selbst mit den Webanwendungen der Office365 suite aus (und Office soll Ende des Jahres für Linux als native Anwendung kommen… ja die Hölle ist zugefroren X-D)
Ich konnte bei meinen letzten paar Laptops (alle Intel) nie signifikante Abweichungen zu den berichteten Windows-Laufzeiten beobachten, es sei denn irgendwas ist "offensichtlich falsch" (Website zieht permanent 100% CPU z.B.).
Bei ADL-P, was jetzt ja beileibe keine Gaming-Plattform ist, hatte ich vor ein paar Jahren Probleme mit sehr schlechtem Framepacing. In den Detailinfos von turbostat sah das stark so aus, als ob sich iGPU und CPU nicht einig werden über die Verteilung vom Strombudget und es ständig hin und her wechselt und entsprechend entweder iGPU oder P-cores abgewürgt werden. Das war aber kurz nach Launch und in einem Laptop mit einer cTDP am unteren Rand, würde mich nicht wundern, wenn das gefixed wurde.
Badesalz
2024-09-29, 19:41:55
Sehe ich es richtig, dass Intel zuerst seine Laptop CPUs gelauscht hat?Gefällt mir :up: Intel lauscht CPUs. Aktuell zu meisten denen von AppleSilicon :tongue:
Undertaker
2024-09-29, 20:42:48
Wenn man grad Office/Web macht, entscheidet das über STUNDEN an Laufzeit. 3 Watt wäre dafür bisschen knapp =)
Das hatten wir kürzlich im Forum :wink:
Klar, beim Browsing ist das Display mit 2-3 Watt schon ein signifikanter Faktor bei einem einem Gesamtsystemverbrauch von vielleicht 5-7 Watt. Unter Volllast, und das war der Ausgangspunkt hier, sind vergleichbar eingestellte Displays aber kaum eine Erklärung für erhebliche Verbrauchsunterschiede.
dildo4u
2024-09-30, 09:14:16
Mehr Gameing Test die GPU bekommt vorrang läuft fast immer bei 1950mhz die CPU dropt schon mal unter 3GHz.
zEFDoA8J0n4
MSABK
2024-09-30, 09:28:49
Sehr gut soweit. Der perfekte Chip für Handhelds. Mal sehen wie amd da kontern wird.
dildo4u
2024-09-30, 09:37:02
Die Dinger sind eh Ram Limitiert der Ally X performt im selben Bereich der Nachfolger wird nicht schneller sein da die vermutlich auch mit LPDDR5X 7500 ausgeliefert werden.
28 Watt ist schon zu viel für Handhelds, bei 20 sind sie Vergleichbar
Lunar hat bessere Avg aber schlechtere Mins.
https://i.ibb.co/BBR01LW/Bildschirmfoto-vom-2024-09-30-09-37-42.png (https://ibb.co/pdpYm2V)
https://youtu.be/1g-rGkRvzlQ?si=OHDpsd9CcVu5Bbwi&t=1257
robbitop
2024-09-30, 10:06:22
Bei LNL kann man bei der TDP noch ~2W abziehen, da der RAM bei der TDP (weil on package) mitgezählt wird. Bei den APUs ist der extern. Ich denke mal dass thephawx das noch genauer analysieren wird, sobald es einen LNL und Strix Handheld gibt - da versucht er dann meistens den Gesamtverbrauch zu normieren und dann die Performance zu vergleichen.
Aber grob ist LNL 17W mit Strix 15W vergleichbar von den Profilen her (wenn da nicht irgendwelche shinanigons am Start sind).
dildo4u
2024-09-30, 10:18:52
Paar FPS hin oder her die Frage ist ob Intel deutlich besser wird was Day One Treiber angeht, das neue God of War läuft grottig auf ARC obwohl es allgemein geringe Anforderungen hat und spielbar wäre.
robbitop
2024-09-30, 10:23:37
Naja schau mal auf den obigen Screenshot 17W LNL (15W SoC+2W RAM) vs Z1E 15W (=15W SoC+2W RAM) -> immerhin grob fast 50% schneller. Bei niedrigen TDPs scheint LNL (sofern dem Treiber das Spiel schmeckt - was aber sehr sehr inkonsistent zu sein scheint!) ganz gut zu sein.
Leider für das Spiel kein Datenpunkt für Strix denn Z1E ist noch Phoenix. Und die Performance ist total inkonsistent bei LNL's Arc. Und in anderen Spielen lost der total ab.
Aber (Arc) je nach Spiel ist das sehr sehr unterschiedlich. Also noch ist da einiges an Potenzial zu ernten würde ich sagen bei Intel mit deren inkonsistenten Performance.
In den Spielen wo er Strix hat, hat er keine vergleichbaren TDP Datapoints und dort kackt LNL auch ziemlich ab. Wahrscheinlich ist die TDP Konfiguration von dem Laptop sehr eingeschränkt.
Interessant wird es wohl erst wenn er 2x Handhelds hat (Strix und LNL) und bei Battlemage die Treiber noch etwas nachgereift sind. Bisher sieht man eigentlich erstmal nur eines: Anzeichen von Potenzial in lowTDP Regionen das ab und zu mal durchblinzelt.
Twodee
2024-09-30, 10:27:36
https://i.ibb.co/dPcfy2M/1.png
Da helfen auch keine 2 Watt abziehen mehr....
robbitop
2024-09-30, 10:28:42
Jap hab ich ja schon geschrieben - die Performance ist je nach Spiel sehr inkonsistent. Mein Kommentar bezog sich nur auf den Datenpunkt mit CP77.
Badesalz
2024-09-30, 10:29:40
immerhin grob fast 50% schneller.
Ah? Tatsächlich??
PS:
Gibt es wirklich noch Leute die auch nur grob vom Fach sind, die auf max. oder avg. schauen?
robbitop
2024-09-30, 10:33:17
Average FPS. Die mins sind nicht viel besser da hast du Recht. Aber ich habe ja auch eindeutig geschrieben, dass die Performance inkonsistent ist und dass ich es eher als Potenzial sehe als als echte Führung.
Badesalz
2024-09-30, 10:43:07
Sackt auch spürbar stärker zwischen 1% und 0.1% ab. Klar geht es hier nur ein ganzes SoC + Treibersituation beurteilen können, aber ist das nicht genau die Stelle (720) wo es auf dem Desktop schon sehr oft so aussah, als wenn im sonstigen Limit stärkere CPUs grad da mehr FPS bzw. mit kleineren Differenzen generieren würden als schwächere?
Der Z1E ist ja noch Phoenix... Eine schon zugegeben ältere :usweet: aber anscheinend recht leistungsstabile Plattform. Ob das an den Treibern liegt, daß LNL stellenweise bisschen auf Wundertüte macht, das wird noch ne ganze Weile dauern bis sich diese Theorie ggf. bestätigen kann.
edit:
Für mich hat Intel jetzt etwas was sich wenigstens halbwegs vergleichen lässt. Was man beim NewAge-Intel :| auch ruhig für beachtens-wert halten kann. Kein Ding. Bisher sah ich aber noch nichts wo deswegen gleich solche (gewisse) Aufgeregtheit der Sache gerecht werden konnte.
robbitop
2024-09-30, 11:17:23
Naja Intel hatte bisher immer grottige GPU IP. Alchemist war ein Schritt nach vorn aber Battlemage scheint die erste brauchbare GPU IP zu sein, wo sich moderne RDNA3 APUs schon etwas strecken müssen. Daher die Aufgeregtheit. ^^
Die Einzelfälle wo das Ding mit niedrigen TDPs besonders gut funktioniert zeigt einiges an Potenzial. Aber ob das je mit BM IP geholt wird (also rein der Treiber das Ding zurückhält) oder es auch durch die uArch immer mal wieder aufgehalten wird -> wird man sehen müssen. :)
Mehr Wettbewerb -> das ist als Endkunde schon irgendwie schön und manchmal ja auch aufregend. X-D
w0mbat
2024-09-30, 11:30:27
Battlemage/Xe2 ist deutlich besser als Alchemist. Es laufen fast alle Spiele OOTB, die Auslastung ist viel höher, man ist zudem ein gutes Stück effizienter. Ein Riesenschritt für Intel.
Intel hat die Treiber für Alchemist/Xe über die letzten Jahre kontinuierlich verbessert, daher stehen die Chancen sehr gut, dass auch Xe2 hier noch zulegt. Nvidia und AMD sind schon relativ "ausoptimiert", bei Intel sehe ich da mehr Potential. Aber wie immer, Hardware nie auf der Basis von Versprechen kaufen.
Badesalz
2024-09-30, 11:36:25
Battlemage/Xe2 ist deutlich besser als Alchemist. Es laufen fast alle Spiele OOTB, Hammer Einschätzung :uup: Wenn man in einem Szenario effizienter ist in welchem die Effizienz ein Nutzungsszenario quasi ausschließt, dann nennt sich das entweder Laborversuch oder das Szenario ist eben falsch gewählt.
Was bedeutet aber OOTB im sinnvollen (?) Kontext? Laufen sie im Zimmer nebenan oder was genau?
@robbitop
:up:
robbitop
2024-09-30, 11:40:21
Eine (potenzial deutlich) höhere Prozentzahl an Spielen startet (und läuft sauber) ohne troubleshooting / Kompatibilitätsprobleme. Das war sicherlich gemeint.
Loeschzwerg
2024-09-30, 11:50:13
Gibt es ein paar Vergleiche zwischen Alchem. und Battlem. gerade bei UE4/5 Titeln? Das ist ja eine der größeren Schwächen von Alchemist.
fondness
2024-09-30, 11:51:21
Danke für den Link, genau. Das die Verbrauchsangabe von 2 Watt natürlich – wie eine TDP generell – auf den Lastzustand bezogen ist, sollte selbstverständlich sein, aber manchen muss man eben alles sehr kindgerecht erklären. ;)
Kindergarten ist es vor allem, wenn man so billig nachtreten muss. Wie alt bist du? 10? Gerade dir könnte ich gefühlt jede zweite Aussage der letzten Seiten vorhalten, aber weißt du was? Das ist mir zu blöd.
Und die 2 Watt sind im übrigen bestenfalls eine Schätzung. Eine "Verbrauchsangabe" von 2 Watt gibt es nicht.
Badesalz
2024-09-30, 11:51:44
@robbitop
Ok. Kann man so nennen :|
Gab es da große Probleme mit Alchemist, so daß man nun sagen kann, der Launch "ist deutlich besser"? Oder, gibt es da solche Probleme heute (noch) und man kann das deswegen gar allgemeiner auffassen?
Oder was meint er wieder damit?
@Loeschzwerg
Ist CP2077 nicht auf UE umgestiegen?
fondness
2024-09-30, 11:55:17
Für einen ehemaligen Apple-Anstellten empfinde ich die Aussage erst recht unverständlich - gerade wenn man laut eigener Aussage gar eine Führungskraft war und ergo eigentlich verstehen sollte, wann/warum/wie Designs entworfen werden ... außer freilich, man hatte keine technische Rolle :redface:
Du darfst ja gerne erklären warum du das unverständlich findest. Dann kann man auch ernsthaft diskutieren. :) Ich will mich hier nicht outen, aber mein Team war in der Firmware-Entwicklung tätig. Die Auslegung mit wenig CPU-Cores, verhältnismäßig starker GPU, sehr kleines Package mit RAM drauf, keinen dGPU-Support, etc. passt eben perfekt für Handhelds. Das kannst du seltsam finden, das ist für mich relativ naheliegend.
dildo4u
2024-09-30, 11:59:52
Gibt es ein paar Vergleiche zwischen Alchem. und Battlem. gerade bei UE4/5 Titeln? Das ist ja eine der größeren Schwächen von Alchemist.
Schätze aber das ist ohne Nanite das zieht die IGP deutlich runter.
https://i.ibb.co/bKjw83d/Bildschirmfoto-vom-2024-09-30-11-58-52.png (https://ibb.co/87nvSB8)
https://i.ibb.co/DrX7cjT/Bildschirmfoto-vom-2024-09-30-11-57-35.png (https://ibb.co/wcHKG2j)
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Intel-Lunar-Lake-und-Battlemage-im-Test-gegen-Xe-und-RDNA-3-5-1456286/
Loeschzwerg
2024-09-30, 12:05:51
Thx, das sieht nicht verkehrt aus :)
@Loeschzwerg
Ist CP2077 nicht auf UE umgestiegen?
Das ist noch die REDengine, erst kommende Titel von CDPR dann mit UE5.
robbitop
2024-09-30, 12:21:31
Gibt es ein paar Vergleiche zwischen Alchem. und Battlem. gerade bei UE4/5 Titeln? Das ist ja eine der größeren Schwächen von Alchemist.
Meteorlake hat so wie Lunar Lake 1024x MADs pro Takt. Die sind anders zusammengesetzt aber ich würde sagen das ist vergleichbar. Entsprechend könnte man die (taktnormiert) vergleichen.
Returnal soll auf UE4 basieren:
https://youtu.be/1g-rGkRvzlQ?si=npMlY-oYtelj_BUM&t=1178
Da ist LNL (Xe2) schon ein gutes Stück schneller als MTL (Xe). Wenn wir davon ausgehen, dass bei 25 respektive 28W beide GPUs mit 2 GHz (ish) laufen knappe 25% mehr average Framerate in dem Titel.
In dem MSI Claw update Video werden auch immer mal wieder GPU Taktraten gezeigt- die scheint auch bei ~2 GHz ish zu liegen.
https://www.youtube.com/watch?v=UNHz1xBXnXs
fondness
2024-09-30, 12:22:54
Mehr Gameing Test die GPU bekommt vorrang läuft fast immer bei 1950mhz die CPU dropt schon mal unter 3GHz.
https://youtu.be/zEFDoA8J0n4
Das ist bestenfalls extrem durchwachsen. Und das ist der 2 Jahre alte Phoenix als Konkurrent. Dabei wurde schon eine neue Ära im low TDP-Bereich angekündigt von manchen Intel Fans. Trotz schnelleren RAM, besserer Fertigung etc. Also genau das was ich vorher gesagt habe, reicht um halbwegs konkurrenzfähig zu sein, mehr aber auch nicht.
dildo4u
2024-09-30, 12:28:02
AMD schuld wenn sie nicht weiter puschen ich sehe nicht wo sich 8 RDNA 3.5 CU deutlich besser laufen als Hawkpoint.
Intel hat das gebaut was alle Wollte in SOC der mehr GPU als CPU verbaut..
robbitop
2024-09-30, 12:28:47
@robbitop
Ok. Kann man so nennen :|
Gab es da große Probleme mit Alchemist, so daß man nun sagen kann, der Launch "ist deutlich besser"? Oder, gibt es da solche Probleme heute (noch) und man kann das deswegen gar allgemeiner auffassen?
Also bei Alchemist liefen zum Launch viele Spiele gar nicht oder wie ein Sack Nüsse. Intel hat in der Zwischenzeit viel viel Treiberarbeit investiert und mittlerweile läuft Alchemist deutlich besser. Aber Battlemage scheint noch kompatibler zu laufen.
Raff von PCGH hat zum jeweiligen Stand bei Alchemist in den letzten 2 Jahren einiges Videos gemacht (PCGH Kanal auf youtube).
robbitop
2024-09-30, 12:30:20
AMD schuld wenn sie nicht weiter puschen ich sehe nicht wo sich 8 RDNA 3.5 CU deutlich besser laufen als Hawkpoint.
Intel hat das gebaut was alle Wollte in SOC der mehr GPU als CPU verbaut..
Meinst du Strix? Wenn ja dann sind es aber 16 CUs.
dildo4u
2024-09-30, 12:32:05
Nein ich meine das Modell was 8 CPU + 8 CU hat für die Handhelds.
robbitop
2024-09-30, 12:34:39
Ach Kraken. Ich bin da auch skeptisch. Mehr CUs bringen mehr Energieeffizienz (der GPU), weil man performancenormiert besser takten kann. Kann man auch sehen wenn man die 16 CU und die 12 CU RDNA3.5 SKU mit Phoenix/Hawk vergleicht in Bezug auf Performance bei kleinen TDPs. Der größte Sprung in Energieeffizienz kam IIRC von den 4 zusätzlichen CUs und dass man dadurch niedriger takten konnte.
Aaaber: ggf. ist Kraken auf der Seite des I/Os etwas leichtgewichtiger. Und ggf. auf der CPU Seite.
fondness
2024-09-30, 12:37:59
AMD schuld wenn sie nicht weiter puschen ich sehe nicht wo sich 8 RDNA 3.5 CU deutlich besser laufen als Hawkpoint.
Intel hat das gebaut was alle Wollte in SOC der mehr GPU als CPU verbaut..
Ich sehe nicht wo AMD ein Problem hat wenn Phoenix schon reicht. Noch dazu wo LNL ein extrem spezialisierter Chip ist im Vergleich zu Phoenix oder Strix, die einen wesentlich größeren Markt abdecken. Intel ist zumindest wieder halbwegs konkurrenzfähig ja, wenn auch nicht Architekturnormiert, sondern nur wegen spezialisierung, mehr Bandbreite und besserem Prozess. Aber ja ich finde es durchaus positiv, dass Intel endlich die Probleme angeht. Ich halte aktuell sogar Intel-Aktien im übrigen, weil ich doch auf einen gewissen Turnaround zumindest im Server-Bereich spekuliere.
Badesalz
2024-09-30, 12:39:23
Aaaber: ggf. ist Kraken auf der Seite des I/Os etwas leichtgewichtiger. Und ggf. auf der CPU Seite.Was nur logisch wäre. Man braucht auch keinen Threadreaper um mit einer 4090 im FPS-Limit zu sein Wer nach mehr CUs sucht, sucht nach mehr GFX-Leistung, bewegt sich also in anderen Limits als jemand mit 200MB großen Exceltabellen.
edit:
Jedenfalls, wenn er das Mehr an GFX nicht für 720p braucht :wink:
Glaub ich nicht. Es ist ja ziemlich sicher, dass Lion Cove X wieder SMT bieten wird. MMn war Lion Cove einfach noch zu früh im Entwicklungsstadium und man hat versucht bei der Entwicklung Zeit zu sparen und hat sich alles gespart, was unnötig für das Produkt war, um ARL und LNL möglichst früh bringen zu können.
Cougar Cove ist zudem nur mobil, da ist kleiner wichtiger als SMT, von daher würde ich davon ausgehen, dass es bei dessen Entwicklung ebenfalls unwichtig war. Aber alles das danach kommt hat mMn wieder ganz normal SMT, Panther Cove X wird ja sogar mit 4 Threads pro Kern vermutet.
Alles nach Redwood Cove hat kein SMT, wenn man gut informierten Leuten glauben darf. Inklusive Panther Cove/Diamond Rapids
Badesalz
2024-09-30, 16:47:11
(egal)
w0mbat
2024-09-30, 18:12:36
Alles nach Redwood Cove hat kein SMT, wenn man gut informierten Leuten glauben darf. Inklusive Panther Cove/Diamond Rapids
Da LNC SMT unterstützt und nach RWC kommt, kann diese Aussage schon mal nicht stimmen. Ob Intel langfristig von SMT weg will steht auf einer anderen Karte. Mit vielen, schnelle E-cores ist es für MT vielleicht wirklich nicht mehr so wichtig. Und da die SMT-threads immer zuletzt genutzt werden, kann man hier Transistoren, also Platz und Energie, sparen.
Bei den Server-CPUs sehe ich SMT aber noch länger. Bzw. ich hab keine genaueren Infos wie es hier bei Intel weitergeht. Lassen wir uns überraschen. :smile:
Da LNC SMT unterstützt und nach RWC kommt, kann diese Aussage schon mal nicht stimmen.
Von welchem Chip mit Lion Cove redest du?
w0mbat
2024-09-30, 20:28:42
Intel Xeon 7 (oder wie auch immer die server CPUs mit LNC heißen werden).
Edit: ich sehe gerade, dass die neuesten Gerüchte besagen, dass next-gen Xeon gleich "Panther Cove-X" wird. Ich bin davon ausgegangen, dass es LNC in Server schaffen wird. Dass LNC SMT unterstützt wurde explizit gesagt.
robbitop
2024-10-01, 06:54:03
Von welchem Chip mit Lion Cove redest du?
Intel hat offiziell gesagt, dass LNC SMT unterstützt und in Server CPUs das genutzt werden wird. In der Mobile/Desktop Version ist SMT aber entfernt worden.
Intel hat offiziell gesagt, dass LNC SMT unterstützt und in Server CPUs das genutzt werden wird. In der Mobile/Desktop Version ist SMT aber entfernt worden.
Ja und welche Server Chips sollen das sein? Der Nachfolger von Granite Rapids bekommt Panther Cove Kerne. Sieht nicht so aus, als wenn wir Lion Cove im Server sehen werden. Von daher ist das doch alles nur theoretisch.
w0mbat
2024-10-01, 17:43:28
Dass LNC SMT kann ist nicht theoretisch, dass GNR Panther Cove Kerne bekommt schon ;)
Meine Vermutung: ein möglicher LNC Server Chip war mit 20A geplant und kommt deshalb nicht. Ist aber wirklich nur geraten.
Und wo praktisch? Solange ist es theoretisch. Da wird wohl auch nichts kommen mit einem Server Lion Cove. Die Quelle ist gut.
mironicus
2024-10-02, 14:35:40
Hat das Lunar Lake Asus Zenbook S14 mit seinem 120 Hz Oled-Bildschirm eigentlich Freesync oder VRR?
davidzo
2024-10-02, 17:24:27
Ja und welche Server Chips sollen das sein? Der Nachfolger von Granite Rapids bekommt Panther Cove Kerne. Sieht nicht so aus, als wenn wir Lion Cove im Server sehen werden. Von daher ist das doch alles nur theoretisch.
Es gibt ja auch noch den xeon E3. Dass die aktuelle Version auf Basis von Raptorlake einen Nachfolger auf Arrowlake bekommt ist sehr wahrscheinlich. Bisher sind das P-Core only Raptorlake DIEs. Es könnte gut sein dass man auch bei Arrowlake basierten E3 Xeons die E-Cores wieder deaktiviert und stattdessen wieder SMT freischaltet.
Undertaker
2024-10-02, 17:39:21
Was war denn überhaupt die Quelle, dass Lion Cove in seiner tatsächlichen ARL-Implementierung SMT beherrscht? Klingt für mich erst einmal nicht wirklich logisch, denn dann wüsste ich nicht, woher die beispielsweise von Intel aufgeführte Flächenersparnis der SMT-Streichung kommen sollte.
Edit: OK, laut robbitop wohl offiziell von Intel... Passt für mich trotzdem irgendwie nicht richtig zusammen. Hat noch jemand die genaue Quelle/Aussage? Hier wäre noch etwas mehr Kontext zur Aussage interessant.
MSABK
2024-10-02, 18:11:56
Hat das Lunar Lake Asus Zenbook S14 mit seinem 120 Hz Oled-Bildschirm eigentlich Freesync oder VRR?
Hmm, steht irgendwie nirgends.
mocad_tom
2024-10-02, 21:18:16
großer Lunar Lake review
https://youtu.be/ymoiWv9BF7Q?feature=shared
untertitel auf englisch und speed auf 0.75 dann kommt man einigermaßen mit.
so gute reviews gibt es im englischen sprachraum mittlerweile nicht mehr.
Undertaker
2024-10-02, 22:04:54
Spannender Ansatz mit dem Plattformverbrauch... Wenn sich das in weiteren Tests bestätigt, kann man jetzt schon höchst optimistisch für das neue MSI Claw sein.
robbitop
2024-10-03, 00:43:35
Was war denn überhaupt die Quelle, dass Lion Cove in seiner tatsächlichen ARL-Implementierung SMT beherrscht? Klingt für mich erst einmal nicht wirklich logisch, denn dann wüsste ich nicht, woher die beispielsweise von Intel aufgeführte Flächenersparnis der SMT-Streichung kommen sollte.
Edit: OK, laut robbitop wohl offiziell von Intel... Passt für mich trotzdem irgendwie nicht richtig zusammen. Hat noch jemand die genaue Quelle/Aussage? Hier wäre noch etwas mehr Kontext zur Aussage interessant.
Aber nicht im Zusammenhang mit ARL sondern mit Server Cores kam das von Intel. Das war in einem der pre launch Videos im August meine ich.
Es gibt ja auch noch den xeon E3. Dass die aktuelle Version auf Basis von Raptorlake einen Nachfolger auf Arrowlake bekommt ist sehr wahrscheinlich. Bisher sind das P-Core only Raptorlake DIEs. Es könnte gut sein dass man auch bei Arrowlake basierten E3 Xeons die E-Cores wieder deaktiviert und stattdessen wieder SMT freischaltet.
Es gibt nichts freizuschalten, die müssten den Kern ändern.
fondness
2024-10-03, 09:15:17
Ja und welche Server Chips sollen das sein? Der Nachfolger von Granite Rapids bekommt Panther Cove Kerne. Sieht nicht so aus, als wenn wir Lion Cove im Server sehen werden. Von daher ist das doch alles nur theoretisch.
Würde meine Theorie von damals untermauern, dass es schlicht broken ist bzw. nicht rechtzeitig fertig wurde und deshalb nicht vorhanden ist. Die Gretchenfrage ist ob es dann auch die Panther Cove Kerne in den Dektop-Produkten wieder können oder nicht.
robbitop
2024-10-03, 09:38:12
Also Intel hat es IIRC so dargestellt dass LNC in LNL SMT gar nicht in HW hat und man deshalb den Kern kompakter bauen konnte. Also nicht broken und deaktiviert. Ob das so stimmt kA. Aber wenn das rauskommen würde obwohl man es anders in der Öffentlichkeit dargestellt hat würde es ggf Schwierigkeiten geben als Aktienunternehmen.
fondness
2024-10-03, 09:44:41
Also Intel hat es IIRC so dargestellt dass LNC in LNL SMT gar nicht in HW hat und man deshalb den Kern kompakter bauen konnte. Also nicht broken und deaktiviert. Ob das so stimmt kA. Aber wenn das rauskommen würde obwohl man es anders in der Öffentlichkeit dargestellt hat würde es ggf Schwierigkeiten geben als Aktienunternehmen.
Was genau soll den raus kommen? Keine Firma der Welt würde kommunizieren, dass ein Feature broken by Design ist. Das man es dann raus genommen hat kann schon sein. Und wenn LNC für Server gar nicht kommt wie ryan sagt, verstehe ich auch dass man dafür keine Ressourcen mehr investiert hat. Im Server-Bereich bleibt SMT allerdings weiterhin, das wurde von Intel bereits bestätigt, also wird die spannende Frage ob SMT dann auch für Desktop mit den Panther Cove Kerne wieder kommt oder nicht.
robbitop
2024-10-03, 09:58:26
In jedem Fall war es merkwürdig. Und es widersprach dem bis da hin immer gesagten. SMT kostet kaum Transistoren und bringt aber 20-30% mehr MT Performance. Also mehr PPA in MT.
Klar das Gegenargument wenn man (dank E Cores zB) genug Kerne hat und damit SMT nicht mehr braucht und man es damit dem Scheduler einfacher machen kann - das ist nicht soo verkehrt. Aber dennoch gibt es ja Anwendungsfälle wo es immernoch was bringen würde - gibt ja genug Anwendungen die bis 64…96 Cores noch skalieren. Und dazu lässt man Performance in Benchmarks liegen (was schon relevant für reviews und damit für Käufe) ist.
Entsprechend bin ich da auch etwas skeptisch.
mboeller
2024-10-03, 10:57:31
In jedem Fall war es merkwürdig.
Warum?
SMT war verbuggt ohne Ende. Schau mal wieder in den Thread mit den ganzen Sicherheitsproblemen bei Intel (also min. 90% Intel, max. 10% AMD). Sehr viel hatte mit SMT zu tun. Der hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585993
SMT neu machen und dann auch "sicher" geht nicht mal so eben in "einem Nachmittag". Das wird dauern. Intel scheint ja die SMT-Logik in den letzten 10 Jahren nicht groß geändert zu haben, zumindest ziehen sich die gleichen Fehler über viele Generationen durch.
Ergo erwarte ich jetzt 2-3 Generationen von Intel-CPU ohne SMT ... notgedrungen halt. Das Marketing verkauft das dann als "wow das Beste" ... ist halt Aufgabe des Marketings.
Würde meine Theorie von damals untermauern, dass es schlicht broken ist bzw. nicht rechtzeitig fertig wurde und deshalb nicht vorhanden ist. Die Gretchenfrage ist ob es dann auch die Panther Cove Kerne in den Dektop-Produkten wieder können oder nicht.
Es hat gewisse Dinge vereinfacht sagen wir mal so. Gewisse Quellen sind sich einig, dass es weder LNL Server gibt noch das SMT zurückkommt mit Panther Cove einschließlich Diamond Rapids. Exist50 und BookinCookie sind sich 100% sicher.
They're using the prior gen and/or a theoretical SMT LNC as a comparison point for why they did drop SMT with LNC. Regardless, doesn't change the fact that no SMT version of LNC exists. Not sure why this is even still a question given all the ARL leaks.
https://www.reddit.com/r/hardware/comments/1ebk51g/comment/leueig8/
Then Tom's is wrong. Not exactly surprising. There is no SMT version of LNC, nor is there any P-core only CPUs with it to begin with. LNC is only used is LNL and ARL. No server or anything else. Not sure why Intel's being so misleading about this, but nothing new from them either.
https://www.reddit.com/r/hardware/comments/1ebk51g/comment/leud7ez/
Let me put it this way. I'm stating this as a fact. SMT is dead, period. They said "hypothetical". You don't need a hypothetical for something that actually exists.
https://www.reddit.com/r/hardware/comments/1ebk51g/comment/levuwmz/
Which is basically a lie. Particularly for SMT, they stripped that out entirely. AVX512 should be easier to add back, but the hardware isn't there in LNL/ARL.
https://www.reddit.com/r/hardware/comments/1ebk51g/comment/letwh82/
Nah, there is no SMT version. That's just Intel marketing not knowing wtf they're talking about. There's also no LNC server chip at all.
https://www.reddit.com/r/hardware/comments/1enj5sg/comment/lh7z3um/
At one point early on, they did plan a variant of LNC with SMT, but they quickly realized they were in over their heads, so that was dropped entirely in the name of schedule. At this point, SMT is very thoroughly dead in LNC. At best, traces of legacy code remain, but to enable it now would be more accurately described as a reimplementation, rather than a simple config knob. I do know know if Intel marketing is just being their usual dumb selves, or whether this a deliberate ploy to not give away their direction with P-core in server, but I'd rank that statement somewhere between outright false and extremely misleading, leaning towards the former.
https://www.reddit.com/r/hardware/comments/1fs4yfq/comment/lpwdnqz/
That's not quite what they said, but wrong regardless. SMT is completely gone. They're just not ready to admit it yet.
https://www.reddit.com/r/hardware/comments/1fdaqre/comment/lmfzo8i/
Nah, no point to that. Besides, SMT is dead from Intel for the foreseeable future.
https://www.reddit.com/r/hardware/comments/1fdaqre/comment/lmerxb4/
There will be no more major Intel products with SMT after GNR.
https://www.reddit.com/r/hardware/comments/1ehhrys/comment/lg199j0/
Both P cores and E cores will lack SMT for the foreseeable future.
https://www.reddit.com/r/hardware/comments/1exnvwo/comment/ljg79bp/
After Granite Rapids Intel will be dropping SMT on server as well.
https://www.reddit.com/r/hardware/comments/1ez0f5n/comment/ljkv2ca/
Of course they have the “ability” to design an SMT version of a core if they really want to. But that doesn’t change the fact that DMR doesn’t have SMT. That’s what really matters here.
https://www.reddit.com/r/hardware/comments/1fdaqre/comment/lmh0fdy/
Intel has discontinued SMT seemingly indefinitely. At least Cougar Cove and Panther Cove don’t have it.
https://www.reddit.com/r/hardware/comments/1ez0f5n/comment/ljhesuh/
They were specifically talking about LNC, which doesn’t have a server variant, nor an SMT variant. Any talk about “retaining” SMT on LNC is either misinterpreted or BS.
https://www.reddit.com/r/hardware/comments/1fdaqre/comment/lmfwskx/
I’m not making bets here. No version of PNC supports SMT at all, and that includes DMR.
https://www.reddit.com/r/hardware/comments/1fmh2vw/comment/lodspyg/
fondness
2024-10-03, 11:04:02
Es hat gewisse Dinge vereinfacht sagen wir mal so. Gewisse Quellen sind sich einig, dass es weder LNL Server gibt noch das SMT zurückkommt mit Panther Cove einschließlich Diamond Rapids. Exist50 und BookinCookie sind sich 100% sicher.
https://www.reddit.com/r/hardware/comments/1ebk51g/comment/leueig8/
https://www.reddit.com/r/hardware/comments/1ebk51g/comment/leud7ez/
https://www.reddit.com/r/hardware/comments/1ebk51g/comment/levuwmz/
https://www.reddit.com/r/hardware/comments/1ebk51g/comment/letwh82/
https://www.reddit.com/r/hardware/comments/1enj5sg/comment/lh7z3um/
https://www.reddit.com/r/hardware/comments/1fs4yfq/comment/lpwdnqz/
https://www.reddit.com/r/hardware/comments/1fdaqre/comment/lmfzo8i/
https://www.reddit.com/r/hardware/comments/1fdaqre/comment/lmerxb4/
https://www.reddit.com/r/hardware/comments/1ehhrys/comment/lg199j0/
https://www.reddit.com/r/hardware/comments/1exnvwo/comment/ljg79bp/
https://www.reddit.com/r/hardware/comments/1ez0f5n/comment/ljkv2ca/
https://www.reddit.com/r/hardware/comments/1fdaqre/comment/lmh0fdy/
https://www.reddit.com/r/hardware/comments/1ez0f5n/comment/ljhesuh/
https://www.reddit.com/r/hardware/comments/1fdaqre/comment/lmfwskx/
https://www.reddit.com/r/hardware/comments/1fmh2vw/comment/lodspyg/
Okay, so wie sich das anhört kommt SMT ja auch bei Server nicht mehr. Würde allerdings bedeuten, dass das Intel Marketing Blödsinn verbreitet hat was ich erstmal nicht glauben will. Dafür wären dann die Intel-Folien zumindest plausibel, dass SMT sich nicht mehr rentiert, wenn man es wieder einführt hat man auf jeden Fall Erklärungsnot.
davidzo
2024-10-03, 11:09:29
Würde allerdings bedeuten, dass das Intel Marketing Blödsinn verbreitet hat was ich erstmal nicht glauben will. Dafür wären dann die Intel-Folien zumindest plausibel, dass SMT sich nicht mehr rentiert, wenn man es wieder einführt hat man auf jeden Fall Erklärungsnot.
Das wäre nicht das erste mal dass Leute im technical Marketing bei Intel keine Plan haben. Der Lapsus von Meteorlake für den Desktop ist ja sogar einer Top-Managerin passiert. Intel ist eine große, unübersichtliche Firma und sicherlich wurden alle Optionen mal diskutiert und nicht jeder ist auf dem aktuellsten Stand was davon tatsächlich noch umgesetzt wird uns was gestrichen wurde. Im marketing ist die retention rate auch sehr gering und ein Teil der jetzigen Leute kam vor gar nicht langer Zeit mit Hallock von AMD.
Okay, so wie sich das anhört kommt SMT ja auch bei Server nicht mehr. Würde allerdings bedeuten, dass das Intel Marketing Blödsinn verbreitet hat was ich erstmal nicht glauben will. Dafür wären dann die Intel-Folien zumindest plausibel, dass SMT sich nicht mehr rentiert, wenn man es wieder einführt hat man auf jeden Fall Erklärungsnot.
Dazu steht doch auch was :confused: Das ist genau der Grund, weshalb ich sowas selten verlinke. Die meisten können damit eh nichts anfangen.
Zossel
2024-10-03, 11:36:07
Okay, so wie sich das anhört kommt SMT ja auch bei Server nicht mehr. Würde allerdings bedeuten, dass das Intel Marketing Blödsinn verbreitet hat was ich erstmal nicht glauben will. Dafür wären dann die Intel-Folien zumindest plausibel, dass SMT sich nicht mehr rentiert, wenn man es wieder einführt hat man auf jeden Fall Erklärungsnot.
Intel hat ja auch noch nie Scheiße gelabert.
Ganz sicher, ganz bestimmt, daran kann ich mich überhaupt nicht erinnern.
Spannender ist dieser Drang sich das was Intel nicht auf die Kette kriegt schön zu saufen, ganz besonders übel ist der Fusel mit der Aussage drin das Apple das ja auch nicht hat.
MSABK
2024-10-04, 14:36:02
https://videocardz.com/newz/intel-core-ultra-200v-lunar-lake-wont-have-more-cores-and-does-not-have-a-direct-successor
Es gibt wohl keinen direkten Nachfolger zu LunarLake. Man wolle nur mit Apple konkurrieren, aber Apple wird ja nachlegen.
Das war alles schon bekannt, wir kennen ja die Daten zu PTL. Unbekannt war bisher nur Nova Lake. Aber sieht nicht so aus, als wenn es NVL-MX geben würde so wie sich das anhört. Ist aber auch nicht so schlimm bis auf für die Handheld Nische. Panther Lake übernimmt fast alles von Lunar Lake, was für die Akkulaufzeitsteigerung verantwortlich ist. Im Prinzip wird nur der LPDDR5x wieder ausgelagert.
fondness
2024-10-06, 11:32:26
Linux Benchmarks: AMD Ryzen AI 300 Series Dominates Intel Core Ultra 7 Lunar Lake Performance For Linux Developers & Creators
https://www.phoronix.com/review/core-ultra-7-lunar-lake-linux
dildo4u
2024-10-06, 11:45:38
Warum hat Intel eigentlich Ultra 7 gesampelt schätze Ultra 9 macht kein Unterschied?
bbott
2024-10-06, 16:50:41
Linux Benchmarks: AMD Ryzen AI 300 Series Dominates Intel Core Ultra 7 Lunar Lake Performance For Linux Developers & Creators
https://www.phoronix.com/review/core-ultra-7-lunar-lake-linux
Erschreckend wie der Core Ultra 7 256V auch gegenüber dem Core Ultra 7 155H, bzw. Core i7 1280P abschneidet :eek:
y33H@
2024-10-06, 16:56:11
Völlig anderes Chip-Layout ...
robbitop
2024-10-06, 17:34:41
ARL Mobile wird dafür besser ausgestattet sein. LNL ist eher für hohe Energieeffizienz bei 17W und kleiner gedacht.
y33H@
2024-10-06, 19:01:54
ARL-U und ARL-H folgen auf MTL-U und MTL-H, korrekt.
mironicus
2024-10-06, 22:06:33
Lunar Lake gegen ein M3 Macbook. Keine Chance, ein gewöhnlicher M3 ist schneller und effizienter selbst mit nur 8 GB RAM vs 32 GB RAM beim Intel.
Da3aavp7aOE
y33H@
2024-10-06, 23:30:04
Wo siehst du da die Effizienz? hättet gerne Office Benchmarks und Laufzeit vs Apple ...
MiamiNice
2024-10-07, 00:41:37
Beide haben an Ende des Test noch 68% Batterie übrig. Das Apple Gerät arbeitet teils deutlich schneller, schafft also mehr Arbeit pro Batterieladung. Das ist schon effizienter. Das Apple läge mir persönlich auch viel mehr, aber leider kein Bedarf für so ein Gerät.
Fusion_Power
2024-10-07, 00:51:41
Beide haben an Ende des Test noch 68% Batterie übrig. Das Apple Gerät arbeitet teils deutlich schneller, schafft also mehr Arbeit pro Batterieladung. Das ist schon effizienter. Das Apple läge mir persönlich auch viel mehr, aber leider kein Bedarf für so ein Gerät.
Aber nur auf dem Intel Gerät kann man auch halbwegs zocken. Sollte man immer im Hinterkopf behalten, auch wenn das beim Kauf eines Apple Gerätes natürlich keine Rolle spielt.
Bin sicher, diese stromsparenden Intel APUs deswegen der Hit werden können in Gaming Hanhdelds. Zumindest bis AMD auch da wieder vor legt.
davidzo
2024-10-07, 01:11:48
Lunar Lake gegen ein M3 Macbook. Keine Chance, ein gewöhnlicher M3 ist schneller und effizienter selbst mit nur 8 GB RAM vs 32 GB RAM beim Intel.
https://youtu.be/Da3aavp7aOE
Jo das ist brutal für Intel. Aber eigentlich müsste man für den Vergleich ein Air heranziehen, das liegt eher in der Preisklasse von windows labtops und wird dann wegen der Kühlung im MT federn lassen.
Aber der M3 ist ja eh schon ein chip aus dem letzten Jahr und der M4 legt da nochmal was drauf: https://wccftech.com/first-apple-m4-mac-spotted-in-geekbench-6/
Der M4 liefert in GB6 sowohl singlethreaded als auch multithreaded 40% mehr Leistung als Lunarlake. Das ist schon hart für etwas was Intel als expliziten Apple-counter gehyped hat und über das Gelsinger mal gesacht hat dass er hoffnungen hat "Apple zurück zu bekommen".
Gegenüber dem M1 oder M2 hätte diese Aussage bestand gehabt, aber das ist nun schon ein paar Jahre her. Wie der Reviewer richtig bemerkt hat Intel diesmal auch keinen Corecount Benefit wie sonst immer bei x86 vs Apple-M-series. Gegenüber dem M4 hat man nun sogar 2 Kerne weniger. Das zeigt imo nochmal dass man entweder früher damit auf dem markt sein wollte oder sich das management bei der Produktansetzung grob verkalkuliert hat. 6 oder 8 E-Kerne wären viel zeitgemäßer für diese Geräteklasse gewesen.
Und während die LL-GPU gegenüber AMD noch gut dasteht, ja geradezu "beefx" wirkt, macht sie gegenüber M3 und M4 keine gute Figur. Und wir reden hier vom Base-Modell das auch im ipad steckt. Es kommen ja noch die Pro- und Max-Versionen. Bei AMD ist immerhin noch mit Strix Halo zu rechnen, aber von LnL Halo haben wir lange nichts gehört?!
Zossel
2024-10-07, 07:37:38
Lunar Lake gegen ein M3 Macbook. Keine Chance, ein gewöhnlicher M3 ist schneller und effizienter selbst mit nur 8 GB RAM vs 32 GB RAM beim Intel.
https://youtu.be/Da3aavp7aOE
Mit nicht aufrüstbaren 8GB RAM kann man den Kram gleich in die Sondermülltonne werfen, oder besser gleich den Schredder am Ende des Fließbands installieren.
Und die Margen bei dem zusammengeklebten Teil von Intel dürften ziemlich unterirdisch sein.
davidzo
2024-10-07, 10:47:39
Mit nicht aufrüstbaren 8GB RAM kann man den Kram gleich in die Sondermülltonne werfen, oder besser gleich den Schredder am Ende des Fließbands installieren.
Und die Margen bei dem zusammengeklebten Teil von Intel dürften ziemlich unterirdisch sein.
Naja, LnL Notebooks sind auch nicht aufrüstbar und Strix auch meistens nicht weil aufgelöteter LPDDR verwendet wird.
Aber ja, der richtige Vergleich wäre ein Air mit 16GB gewesen. Das lässt dann Federn in MT Benchmarks weil die Passivkühlung limitiert, sollte aber die grundsätzliche Aussage nicht ändern. https://www.idealo.de/preisvergleich/OffersOfProduct/203966587_-macbook-air-13-2024-m3-mxcv3d-a-apple.html
Undertaker
2024-10-07, 19:07:19
16/512 GB sind immer noch nur halb so viel Speicher... Und da 8 GB bei Apple nicht 16 GB bei Windows entsprechen, macht auch ein 16 vs. 32 GB Vergleich wenig Sinn ;) Mit 24/1024 GB klettert ein Air schon Richtung 2k€: https://www.idealo.de/preisvergleich/OffersOfProduct/203966541_-macbook-air-13-2024-m3-apple.html
Noch ein ganz spannender Vergleich:
https://youtu.be/G9lRc217o1E
Qualcomm und Intel dominieren den Laufzeittest, Apple und AMD sind in den getesteten Geräten erstaunlich weit abgeschlagen. Wenn man nicht aus Leistungsgründen auf die noch kommenden ARL-H warten möchte oder mit den Einschränkungen der Snapdragon Plattform leben kann, ist Lunar Lake echt eine extrem feine Ultramobile-Plattform geworden. :) Hoffen wir mal, dass die Preise mit steigender Auswahl noch etwas fallen.
mocad_tom
2024-10-07, 20:26:30
Wenn man nicht aus Leistungsgründen auf die noch kommenden ARL-H warten möchte oder mit den Einschränkungen der Snapdragon Plattform leben kann, ist Lunar Lake echt eine extrem feine Ultramobile-Plattform geworden.
Lunar Lake mit 96GB und ich wäre sowas von dabei.
Jetzt muss ich auf ein Arrow Lake-H mit der großen igpu mit zwei SODIMM-Sockel warten.
davidzo
2024-10-07, 21:50:34
Mit 24/1024 GB klettert ein Air schon Richtung 2k€: https://www.idealo.de/preisvergleich/OffersOfProduct/203966541_-macbook-air-13-2024-m3-apple.html
Jo, Apple preist seit jeher die Kosten für Software und Nutzung über RAM und Storage ein. Wenn du mehr Ram hast kannst du mehr Programme gleichzeitg offen haben, als Poweruser nutzen. Daher sind die besseren Ausstattungen exponentiell teurer.
Aber das Apple teurer ist war ja schon immer so. Es ist eher seit Apple Silicon etwas neues dass die Basismodelle zu Konkurrenzfähigen preisen zu Wintel geräten zu haben sind und dadurch nicht selten die bessere Wahl. Damals zu Zeiten der Intelmacs waren selbst die niedrig ausgestatteten Airs und Macbook nonpros teurer als vergleichbare Win Geräte und das obwohl sie durch die TDP langsamer waren.
Qualcomm und Intel dominieren den Laufzeittest, Apple und AMD sind in den getesteten Geräten erstaunlich weit abgeschlagen.
Naja, wir hatten das ja schonmal das reine Video-playback-tests keine wirklichen CPUtests sind. Zumal die Geräte unterschiedliche Displayhelligkeiten und Akkukapazitäten haben und die Leistung im Batteriemodus zum Teil deutlich drosseln während andere gleichschnell bleiben. Die Effizienzvergleiche von Notebookcheck bei unterschiedlichen Workloads kommen zumindest bezogen auf den CPU-Teil zu einem gänzlich Anderen Ergebnis (+60% MT und +137% MT Effizenz für den M3). Der Videocodec scheint aber ausgesprochen wenig CPUhilfe zu brauchen, denn auch bei NBC glänzt das S14 mit 19 vs 17h(Air) Laufzeit bei 1080p. Im Webbrowsing Test hält das Air aber trotz nur 56Wh Akku vs 72WH beim S14 eine Stunde länger durch (15 vs 14h).
Lunarlake im Zenbook S 14 hat ordentliche Firmware und Powermanagement, drosselt erwartungsgemäß schön runter und kann auch fast mit Qualcomm mithalten. Der Idleverbrauch im Zenbook S14 ist noch unterhalb des Macbook Airs, wobei letzteres aber auch ein 20% helleres Display hat. Das ist ziemlich beeindruckend, vor allem im Vergleich zum direkten Vorgänger.
Der Standbyverbrauch ist beim S14 schon sehr gut, aber immer noch doppelt so hoch wie bei Apple. Das ist etwas was bei Windows Notebooks immer vernachlässigt wird. Wenn ich meinen Labtop zuklappe und vier Tage nicht benutze, dann möchte ich nicht dass der Akku nur noch bei 80% ist und ich ihn laden sollte bevor ich außer Haus gehe. Selbst 10% finde ich einfach zu viel fürs nichts tun.
Aber der Idle- und Standby-Verbrauch des SOCs sind eben auch nur Teilbereiche. Unter Last kann die Power auf das doppelte vom Air peaken (NBC hat 60Watt gemessen) und das trotz geringerer performance.
Im Gesamtpaket finde ich an LnL nichts dass mich zurück ins Wintel Camp ziehen würde. Aber umgekehrt sehe ich bei den anderen Socs auch nicht viel dass mich von Intel weg treiben würde.
- Marktanteile zu behalten ist doch schonmal ein Win für Intel in diesen schweren Zeiten.
Undertaker
2024-10-07, 22:27:03
Jo, Apple preist seit jeher die Kosten für Software und Nutzung über RAM und Storage ein. Wenn du mehr Ram hast kannst du mehr Programme gleichzeitg offen haben, als Poweruser nutzen. Daher sind die besseren Ausstattungen exponentiell teurer.
Aber das Apple teurer ist war ja schon immer so. Es ist eher seit Apple Silicon etwas neues dass die Basismodelle zu Konkurrenzfähigen preisen zu Wintel geräten zu haben sind und dadurch nicht selten die bessere Wahl. Damals zu Zeiten der Intelmacs waren selbst die niedrig ausgestatteten Airs und Macbook nonpros teurer als vergleichbare Win Geräte und das obwohl sie durch die TDP langsamer waren.
Die "günstigen" Apple Einstiegsmodelle sind doch ein gutes Stück weit nur Köder für die "zu kaufen ab"-Werbeflyer oder jene Kunden, die repräsentativ im Starbucks ihren Apfel zeigen wollen. Das man Power User sein muss, um heute nicht mehr mit 8 GB RAM leben zu können, die einem schon beim Multitasking im Officebetrieb ausgehen, würde ich so jedenfalls nicht unterschreiben. So oder so: Ein vergleichbares Apple-Gerät kostet mehrere hundert Euro mehr und hat trotzdem kein OLED oder 120 Hz. Versteh mich nicht falsch, es bleibt dennoch ein feines Stück HW und Apple hat auch weiterhin den insgesamt wohl besten SoC in dieser Klasse. Aber: Lunar Lake bietet erstmals vergleichbare praxisnahe Laufzeiten, wobei ich Qualcomm aufgrund der mäßigen x86 Kompatibilität hier ganz bewusst als für mich nicht akzeptabel ausklammere.
Naja, wir hatten das ja schonmal das reine Video-playback-tests keine wirklichen CPUtests sind. Zumal die Geräte unterschiedliche Displayhelligkeiten und Akkukapazitäten haben und die Leistung im Batteriemodus zum Teil deutlich drosseln während andere gleichschnell bleiben. Die Effizienzvergleiche von Notebookcheck bei unterschiedlichen Workloads kommen zumindest bezogen auf den CPU-Teil zu einem gänzlich Anderen Ergebnis (+60% MT und +137% MT Effizenz für den M3). Der Videocodec scheint aber ausgesprochen wenig CPUhilfe zu brauchen, denn auch bei NBC glänzt das S14 mit 19 vs 17h(Air) Laufzeit bei 1080p. Im Webbrowsing Test hält das Air aber trotz nur 56Wh Akku vs 72WH beim S14 eine Stunde länger durch (15 vs 14h).
Lunarlake im Zenbook S 14 hat ordentliche Firmware und Powermanagement, drosselt erwartungsgemäß schön runter und kann auch fast mit Qualcomm mithalten. Der Idleverbrauch im Zenbook S14 ist noch unterhalb des Macbook Airs, wobei letzteres aber auch ein 20% helleres Display hat. Das ist ziemlich beeindruckend, vor allem im Vergleich zum direkten Vorgänger.
Der Standbyverbrauch ist beim S14 schon sehr gut, aber immer noch doppelt so hoch wie bei Apple. Das ist etwas was bei Windows Notebooks immer vernachlässigt wird. Wenn ich meinen Labtop zuklappe und vier Tage nicht benutze, dann möchte ich nicht dass der Akku nur noch bei 80% ist und ich ihn laden sollte bevor ich außer Haus gehe. Selbst 10% finde ich einfach zu viel fürs nichts tun.
Aber der Idle- und Standby-Verbrauch des SOCs sind eben auch nur Teilbereiche. Unter Last kann die Power auf das doppelte vom Air peaken (NBC hat 60Watt gemessen) und das trotz geringerer performance.
Standbyverbrauch war bei obigem Video bei Apple wie LL 0% in 15h. Videoplayback halte ich nicht nur als Use-Case für praxisrelevant, sondern es ist ein Stück weit auch Indikator für andere Encodingtasks wie Teams. Aber: Auch der WLAN-Browsing Test bei NBC zeigt trotz hungrigerem OLED ähnliche Laufzeiten wie beim MB Air an, das hatten wir (mit OLED) bei noch keinem Gerät. Das das MacBook da trotz IPS und kleinerem Akku nicht davonzieht, ist schon erstaunlich.
Für MT-Volllasteffizienz sollte man sicher eher auf die breiteren ARL-H warten, wobei dieser Use Case im Ultramobile-Segment eher exotisch erscheint. Ganz im Gegenteil würde ich sogar auf einen kleineren LL mit 17W Sustained Konfiguration gehen, dem wichtigen Ansprechverhalten tut das jedenfalls keinen Abbruch.
Zossel
2024-10-08, 06:46:38
Jo, Apple preist seit jeher die Kosten für Software und Nutzung über RAM und Storage ein. Wenn du mehr Ram hast kannst du mehr Programme gleichzeitg offen haben, als Poweruser nutzen. Daher sind die besseren Ausstattungen exponentiell teurer.
Drecksladen, wer weiß was die sich für Schweinereien hätten einfallen lassen wenn es dieses Auto von denen gegeben hätte.
BTW: Du formulierst mit "Daher" was eine logische Schlussfolgerung impliziert, welche Logik ist dahinter?
mironicus
2024-10-08, 15:18:33
Ein Asus Zenbook S14 kostet 1699 Euro. Irgendwie ist das ein wenig teuer...? Ich meine, es ist nur ein SOC ohne diskrete Grafik. Mit einer RTX 4060 gepaart wäre es attraktiver.
MSABK
2024-10-08, 15:32:52
Die Geräte sind allgemein überteuert. Aktuell werden die RTX4060 Notebooks regelrecht verschleudert. Da kann kein Lunar Lake oder Strix Point preislich mithalten. Sind zwar andere Geräteklassen, aber dennoch wichtig.
fondness
2024-10-08, 15:38:01
Naja in einem NB gehts schon auch im Akkulaufzeit, Stromverbrauch, Baugröße, etc. Da kannst du mit einer dGPU brausen gehen.
dildo4u
2024-10-08, 15:42:22
Bei Intel einfach warte dort wird es Konkurrenz von allen OEM geben bei AMD Kein Plan möglich das die Hersteller auf die 8Core Modelle warten für sub 1000€.
mironicus
2024-10-08, 15:43:41
Die NPU in Lunar Lake/HX370 wurde zwar noch nicht getestet, aber Computerbase hat bei den Snapdragon-CPUs einen AI Benchmark laufen lassen, der immerhin 70% der Geschwindigkeit der Tensorkerne einer RTX 4070 erreicht, bei wahrscheinlich erheblich geringeren Stromverbrauch. Da liegt also eine Menge Rechenleistung ungenutzt herum bei den neuen CPUs.
Stellt euch mal vor man hat angepaßte Software, die die NPU und GPU gleichzeitig nutzen kann. Solche optimalen Softwareanpassungen findet man leider meistens nur bei Apple.
https://i.imgur.com/iFHIuHA.png
Fusion_Power
2024-10-08, 16:37:52
Die Geräte sind allgemein überteuert. Aktuell werden die RTX4060 Notebooks regelrecht verschleudert. Da kann kein Lunar Lake oder Strix Point preislich mithalten. Sind zwar andere Geräteklassen, aber dennoch wichtig.
Da blick ich auch nicht durch, ich sehe oft gute Angebote auf Notebookcheck, da kriegt man gescheite Gaming-Notebooks mit RTX 4060 schon für unter 1000€, einfache Laptops mit dedizierter Grafik sind oft um das vielfache teurer, sobald eine aktuelle APU verbaut ist. Kann mir kaum vorstellen dass der Preis dieser neuen Prozessoren den preis älterer plus aktueller Grafikkarte übersteigt.
Kann natürlich sein dass die Verarbeitung dieser billigen Gaming Laptops so schlecht ist, dass man den Rest der verbaut ist so billig anbieten kann, keine Ahnung. Sind meist halt laute Plastikbomber.
Angiesan
2024-10-09, 08:50:44
Da blick ich auch nicht durch, ich sehe oft gute Angebote auf Notebookcheck, da kriegt man gescheite Gaming-Notebooks mit RTX 4060 schon für unter 1000€, einfache Laptops mit dedizierter Grafik sind oft um das vielfache teurer, sobald eine aktuelle APU verbaut ist. Kann mir kaum vorstellen dass der Preis dieser neuen Prozessoren den preis älterer plus aktueller Grafikkarte übersteigt.
Kann natürlich sein dass die Verarbeitung dieser billigen Gaming Laptops so schlecht ist, dass man den Rest der verbaut ist so billig anbieten kann, keine Ahnung. Sind meist halt laute Plastikbomber.
Ne das kann ich nicht bestätigen, habe meinem Sohn ein Lenovo LOQ mit Ryzen 7435 und RTX 4060 für die Meisterschule gekauft und das ist klasse verarbeitet und nebenbei recht leise. Die brauchen da ein NB mit diskreter Grafikkarte, wird explizit gefordert. Hat vor kurzer Zeit 899 EUR gekostet und würde ich, wenn man nicht sehr lange Akkulaufzeiten braucht empfehlen. Der 7435 hat halt keine iGPU was der Laufzeit nicht so zuträglich ist ;-)
dildo4u
2024-10-09, 09:02:09
Da blick ich auch nicht durch, ich sehe oft gute Angebote auf Notebookcheck, da kriegt man gescheite Gaming-Notebooks mit RTX 4060 schon für unter 1000€, einfache Laptops mit dedizierter Grafik sind oft um das vielfache teurer, sobald eine aktuelle APU verbaut ist. Kann mir kaum vorstellen dass der Preis dieser neuen Prozessoren den preis älterer plus aktueller Grafikkarte übersteigt.
Kann natürlich sein dass die Verarbeitung dieser billigen Gaming Laptops so schlecht ist, dass man den Rest der verbaut ist so billig anbieten kann, keine Ahnung. Sind meist halt laute Plastikbomber.
Die billigen Dinger haben keine 120Hz OLED Displays und sie sind im Abverkauf weil sie im Januar mit Arrow Lake /Zen5 ersetzt werden.
MSABK
2024-10-13, 08:34:16
https://www.notebookcheck.com/Intel-Core-Ultra-7-256V-Performance-Debuet-Testbericht-zum-Lenovo-Yoga-Slim-7-15-Aura-Laptop.900591.0.html
Test der 16GB Version in Form vom Lenovo Aura. An sich nicht schlecht. Der Stromverbrauch ist jetzt nicht so außergewöhnlich niedrig. Dafür ist die Akkulaufzeit gut. Gaming ist ok, zen5 ist da besser.
fondness
2024-10-13, 10:14:55
https://www.notebookcheck.com/Intel-Core-Ultra-7-256V-Performance-Debuet-Testbericht-zum-Lenovo-Yoga-Slim-7-15-Aura-Laptop.900591.0.html
Test der 16GB Version in Form vom Lenovo Aura. An sich nicht schlecht. Der Stromverbrauch ist jetzt nicht so außergewöhnlich niedrig. Dafür ist die Akkulaufzeit gut. Gaming ist ok, zen5 ist da besser.
Das war auch nur primär Intel Marketing mit lustigen Video Tests. Das Ding ist mal mehr, mal weniger konkurrenzfähig, aber mehr auch nicht.
dildo4u
2024-10-23, 10:04:21
IGP Benchmarks vs 780/880/890M
https://www.pcworld.com/article/2491309/tested-intel-arc-140v-fails-to-dethrone-amds-radeon-890m.html
mocad_tom
2024-10-23, 10:59:25
Bei dem Test steht aber auch keine Graka-Treiber-Version.
Und auch nicht, wie sie Windows laufen lassen (VBS enabled?).
Ich gehe davon aus, dass sich Lunar Lake um 15% bis 20% von Meteor Lake absetzen kann.
Und wenn Lunar Lake das jetzt noch nicht zeigt, dann hängt es am Treiber/BIOS/Windows 11 24/H2.
Meteor Lake schaut heute im Vergleich zu 880M & 890M eigentlich recht gut aus - das war im Februar ganz mau.
Und diese Entwicklung wird auch Lunar Lake nehmen.
Komplett wertlos so ein Test ohne Power Angaben bei mobilen iGPUs. Und wenn sie nur ein 16GB Modell bei LNL verwenden, müssten sie das auch bei den Vergleichskandidaten. Die Seite kann nicht testen, die sind komplett unfähig.
Das ASUS ExpertBook P5 mit dem 226V gibt es tatsächlich für ca 1000€. Notebookcheck hat einen Test: https://www.notebookcheck.com/Asus-ExpertBook-P5-P5405-Laptop-im-Test-Intels-M1-Moment-im-Business-Laptop.907741.0.html
Und wen es interessiert noch ein paar Aussagen von Gelsinger. Zwar alles schon bekannt aber jetzt offiziell.
Intel confirmed that Lunar Lake is lower margin than normal - external foundry plus memory. We knew that.
But they're also saying that when they new AI PC would the road, they tripled orders for volume from TSMC and for the memory. More revenue, more units, at lower than margin.
Intel still has a strong mobile processor platform. They confirmed in-package memory is a one-off with Lunar - Panther and Nova will be more traditional, we could see more real estate to things like cores/graphics/NPU.
https://x.com/IanCutress/status/1852113826910515469
https://x.com/IanCutress/status/1852113092815315023
MSABK
2024-11-01, 13:13:26
Hmm ok. Wussten wir. Mal sehen wie der LL Nachfolger wird.
Beim Asus P5 haben sie wohl das Scharnier bissi verhauen, soll schwach sein.
Edit: Die Stromversorgung ist ja auch anders bei LL. Wird das beim Nachfolger auch so sein?
dildo4u
2024-11-05, 21:56:27
Asus Expertbook P5 für 900€ ohne OS.
https://www.computerbase.de/preisvergleich/asus-expertbook-p5-p5405csa-nz0101-90nx0861-m00ax0-a3340664.html
MSABK
2024-11-18, 16:10:24
Msi bringt ein Handheld mit Lunar Lake. Mega spannend, aber leider kein Oled.
Das MSI Claw 8 AI+ besitzt ein 8 Zoll Display im 16:10-Format, das eine Auflösung von 1.920 x 1.200 Pixel, eine Helligkeit von 500 Nits und eine variable Bildfrequenz bis 120 Hz erreicht.
Das Gerät ist mit einer PCIe 4.0 M.2-SSD und mit gleich zwei Thunderbolt 4-Anschlüssen (USB-C) ausgestattet, über die auch eine externe Grafikkarte angeschlossen werden kann. Wi-Fi 7, Bluetooth 5.4 und bis zu 32 GB LPDDR5-8.533-Arbeitsspeicher runden die Ausstattung ab. MSI hat noch keine Details zum Preis des Gaming-Handhelds der nächsten Generation bestätigt.
https://www.notebookcheck.com/MSI-Claw-8-AI-startet-zur-CES-soll-enorm-lange-Akkulaufzeit-durch-Lunar-Lake-und-82-Wh-Akku-erreichen.920389.0.html
dildo4u
2024-11-29, 13:34:02
Claw 7 und 8 ab Dezember Verfügbar. 799/899$
https://videocardz.com/newz/msi-claw-8-ai-revealed-up-to-core-ultra-7-258v-32gb-ram-899-price-and-late-december-launch
MSABK
2024-11-29, 13:47:52
Ohne Oled nur mäh.
dildo4u
2024-12-26, 11:08:20
Scheint diesmal Konkurrenzfähig
nZlhI-L_Egk
Einen richtigen Nachfolger könnte es erst mit Razor Lake-M geben.
BT_DEV(0xA876), /* LNL */
BT_DEV(0xE476), /* PTL-P */
BT_DEV(0xE376), /* PTL-H */
BT_DEV(0xD346), /* NVL-H */
BT_DEV(0x6E74), /* NVL-S */
BT_DEV(0x4D76), /* WCL */
BT_DEV(0xD246), /* RZL-H */
BT_DEV(0x6C46), /* RZL-M */
https://lore.kernel.org/all/20241231135726.5b0f846d3e13.Ia14ccac38ac3d48adf5f341b17c7e34ccc41c065@changeid/
dildo4u
2025-05-17, 08:10:33
Acer bringt Lunar Lake plus 5070 bin auf Benchmarks gespannt.
https://www.computerbase.de/news/notebooks/predator-triton-14-und-swift-x-14-acer-traut-sich-in-die-14-zoll-gaming-und-creator-nische.92656/
KarlKastor
2025-05-17, 08:24:42
Macht das so viel Sinn? So ineffizient ist Arrow Lake auch nicht und mit der GPU wirds eh kein extrem kleines Gehäuse.
GPU wird dann maximal mit PCIe 5.0 x4 angebunden sein. Dürfte OK sein.
basix
2025-05-17, 09:58:51
Da die 5070 Mobile nur 8GB VRAM hat, ist PCIe 5.0 x4 schon als sehr knapp zu sehen.
dildo4u
2025-05-17, 10:34:20
Die 5060 Ti 8Gb wurde doch mit X16 gebencht hilft auch nix man muss so oder so drauf achten im Vram zu bleiben.
KarlKastor
2025-05-20, 08:48:20
Die 5060Ti hat nur ein x8 interface. Aber Tests mit 4.0 zeigen, dass es deutlich schlechter wird.
Aber im Grunde hast du Recht. Geht der Speicher aus, läufts nur noch schlecht. Ein breites Interface lindert die Symptome, aber im Grunde muss man Details runterschrauben damit der Speicher nicht überläuft.
davidzo
2025-05-20, 15:45:23
Scheint diesmal Konkurrenzfähig
https://youtu.be/nZlhI-L_Egk
naja, Phoenix mit LPDDR5-7500 ist ja mehr oder weniger schon last gen.
Der Claw8 mit Z2 Extreme lässt noch auf sich warten, aber hat immerhin vergleichbaren LPDDR5.
So richtig distanzieren können vom Steamdeck tut sich noch keines der Geräte. Das hochauflösende Display kostet mehr GPUleistung und im bregrenzten TDP korsett tut sich valves Uralt-APU weiterhin sehr gut.
Es muss einen SOC mit mehr GPU Cache ode rbreiterem SI oder GDDR6 geben damit wir hier endlich mal eine andere Leistungsklasse sehen.
dildo4u
2025-05-20, 16:19:35
Hoffentlich billiger als die Intel Version die hat mher RAM.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.