Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Intels "Titan Lake" soll ab 2028 wieder einheitliche CPU-Kerne bringen
Leonidas
2025-07-16, 16:00:32
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-intels-titan-lake-soll-ab-2028-wieder-einheitliche-cpu-kerne-bringen
Kriegsgeier
2025-07-16, 16:09:58
Einfach genial die Entwicklung: zuerst wegen Apple auf P und E Cores umgestiegen und nun die Rückabwicklung in 2028 mit Unified Core?
Exxtreme
2025-07-16, 16:15:20
Diese Aufteilung in Effizienz- und Performance-Kerne macht massive Schwierigkeiten. Für einen Thread-Scheduler ist das schlicht nicht lösbar welchen Thread er auf welchen Kern legen soll für optimale Performance. AMD hat das leichter mit den CCDs aber auch da muss man ab und zu nachhelfen.
Neosix
2025-07-16, 17:53:49
Wie wird dass dann bei den Mobilen Geräten gelöst? Da gibts teilweise Bis zu 4 Unterschiedlich starke Kerne auf einem SOC. Da muss das OS doch auch halbwegs genau wissen, was zu tun ist?
Zossel
2025-07-16, 18:30:24
Einfach genial die Entwicklung: zuerst wegen Apple auf P und E Cores umgestiegen und nun die Rückabwicklung in 2028 mit Unified Core?
Was hat Apple damit zu tun?
Zossel
2025-07-16, 18:34:21
Diese Aufteilung in Effizienz- und Performance-Kerne macht massive Schwierigkeiten. Für einen Thread-Scheduler ist das schlicht nicht lösbar welchen Thread er auf welchen Kern legen soll für optimale Performance. AMD hat das leichter mit den CCDs aber auch da muss man ab und zu nachhelfen.
Wenn sich die Performance nicht so stark unterscheidet sind die Auswirkungen von "falschen" Entscheidungen nicht so massiv.
y33H@
2025-07-16, 19:41:20
Gerade bei Smartphone-SoCs klaffen da Welten.
PatkIllA
2025-07-16, 20:07:40
Wie wird dass dann bei den Mobilen Geräten gelöst? Da gibts teilweise Bis zu 4 Unterschiedlich starke Kerne auf einem SOC. Da muss das OS doch auch halbwegs genau wissen, was zu tun ist?
Ein Smartphone unterscheidet viel mehr nach Vorder und Hintergrundaktivität und loggt glaube ich auch auch mehr um dann nach einiger Zeit bessere Entscheidungen zu treffen.
Wobei das schon bei gleichen Kernen nicht 100%ig optimal zu lösen ist, da man ja nur die Ist-Situation und die Vergangenheit aber nicht die Zukunft kennt.
Zossel
2025-07-16, 20:48:50
Gerade bei Smartphone-SoCs klaffen da Welten.
Solange die Glotze aus ist oder der Benutzer n Zeiteinheiten nix begrabbelt hat kann man alles auf die Billo-Cores werfen -> 80% des Problems erschlagen.
Exxtreme
2025-07-16, 20:59:48
Wie wird dass dann bei den Mobilen Geräten gelöst? Da gibts teilweise Bis zu 4 Unterschiedlich starke Kerne auf einem SOC. Da muss das OS doch auch halbwegs genau wissen, was zu tun ist?
Du kannst als Entwickler eine Thread-Priorität angeben wenn du einen Thread erzeugst. Damit könnte man einem Betriebssystem helfen Threads zu markieren, die es auf passende Kerne schieben kann. Wenn das aber nicht gemacht wird dann können die Betriebssysteme auch nichts tun.
Platos
2025-07-16, 21:31:07
Wenn die Kerne trotzdem Unterschiedlich sind, dann ist das Problem mit dem Sheduling ja trotzdem da.
Endlich, im Datacenter Bereich und bei Server CPUs ist das echt ein graus, keine Ahnung was Intel da geritten hat! Wir haben extra auf EPYC Plattform gewechselt.
Exxtreme
2025-07-16, 21:49:03
Wenn die Kerne trotzdem Unterschiedlich sind, dann ist das Problem mit dem Sheduling ja trotzdem da.
Ja. Aber wenn du z.B, einen Thread mit einer niedrigen Prio startest dann weiss das OS, dass dieser Thread unwichtiger ist und kann den eventuell auf schwächere Kerne schieben.
y33H@
2025-07-16, 21:50:37
Endlich, im Datacenter Bereich und bei Server CPUs ist das echt ein graus, keine Ahnung was Intel da geritten hat! Wir haben extra auf EPYC Plattform gewechselt.Bei Xeon gibt's doch gar keine Hybrid-Designs und mit Xeon 6E auch nur eine Generation mit E-Cores bisher [wenn man von Zeug wie Snow Ridge für 5G Basestations absieht] ...
Badesalz
2025-07-16, 21:51:57
Strohmann wtf? :freak:
Bei Xeon gibt's doch gar keine Hybrid-Designs und mit Xeon 6E auch nur eine Generation mit E-Cores bisher [wenn man von Zeug wie Snow Ridge für 5G Basestations absieht] ...Ja okay, mein Fehler, habe das mit den Low- & High Priority Cores in einen Top geworfen. Ich müsste es jetzt raussuchen, aber unsere Konfig für die 2 Sockel Server hatte immer L und P-Cores, egal ob Gold oder Platinum für unser Thermal-Budget.
Platos
2025-07-16, 22:18:01
Ja. Aber wenn du z.B, einen Thread mit einer niedrigen Prio startest dann weiss das OS, dass dieser Thread unwichtiger ist und kann den eventuell auf schwächere Kerne schieben.
Ja, wenn. Wo passiert das? Die gleiche Logik kann man auch auf Big-little Kerne anwenden. Wo ist da jetzt der Unterschied?
rentable units
Genau, was auch immer das sein soll. Bulldozer quasi oder was? Inwiefern das das Problem löst, ist auch nicht erklärt.
bbott
2025-07-17, 01:01:20
Ich habe bei Intel weniger von den Problemen mitbekommen (von AVX512 abgesehen) . Zumal, mobile das doch (noch?) immer Gang und gebe ist. AMD ist mit C und c Cores hat auch schon unterschiedlich aufgestellt, dazu CCX und CCD, bald noch Cores im IOD...
Kriegsgeier
2025-07-17, 06:07:12
Was hat Apple damit zu tun?
Sehr viel! Intel hat es WEGEN Apple entwickelt, als es noch Apple mit Core Architektur beliefert hat.
Immortal
2025-07-17, 06:17:18
Wenn die Kerne trotzdem Unterschiedlich sind, dann ist das Problem mit dem Sheduling ja trotzdem da.
Sie werden dann aber wenigstens nur unterschiedlich performant sein. Momentan hat die Implementation von intel das Problem, dass die p- und e-Kerne aus unterschiedlichen Architekturen stammen und deswegen teilweise nicht die gleichen CPU-Features unterstützen.
Aber wäre ja lustig, wenn sich da die Geschichte "wiederholt" und intel als Rettung eine auf klein und leicht getrimmte Architektur verwendet... wie damals, als die intel Core nach dem Prescott-Fiasko die Architektur des Pentium M nutzten.
Badesalz
2025-07-17, 08:22:24
Da ich mich weigere zu glauben, nur ich krieg alles mit, frag ich mich worüber ihr redet :|
Als Keller die neue Architketur fertig hatte (und ging), erzählte Intel, sie werden keinen harten Umbruch machen, sondern die Ideen nach und nach einführen und irgendwann zusammenführen.
Was meint ihr warum die E-Cores gegenüber den ersten Ausführungen nun so schnell geworden sind?
Und der Unified-Core, ist das nicht die endgültige Integration, die "Überführung"? Was ist daran jetzt so überraschend? =)
2028... Erklärt jedenfalls warum AMD grad so Gas gibt. Titan Lake wird schon ok sein.
Exxtreme
2025-07-17, 10:24:34
Ja, wenn. Wo passiert das? Die gleiche Logik kann man auch auf Big-little Kerne anwenden. Wo ist da jetzt der Unterschied?
Ja, man kann diese Logik auch auf diese Kerne anwenden. Die Problematik ist halt, die Entwickler der Anwendungen machen es nicht, dass sie den Threads Prioritäten zuweisen. Wahrscheinlich weil sie selbst nicht genau wissen welcher Thread nicht so performant ausgeführt werden muss und deshalb auf einen kleineren Kern laufen könnte. Sowas findet man raus durch testen. Nur kostet testen Zeit und damit Geld. Und die Kunden sind nicht bereit für optimaler konfigurierte Threads zusätzliches Geld auszugeben. Also gibt es das nicht.
Auf dem Handy sieht das bissl anders aus. Die mobilen Anwendungen sind grundsätzlich beträchtlich simpler. Und da ist es eher ersichtlich welche Threads unwichtiger sind, ohne dass man Profiler laufen lassen muss. Und zweitens, wenn eine App dafür sorgt, dass der Akku schnell leergesaugt wird dann gibt es negative Bewertungen im Appstore und die Leute kaufen die App dann nicht. Sprich, hier sind die Leute sehr wohl bereiter Geld auf den Tisch zu legen für optimiertere Anwendungen.
Wie wird dass dann bei den Mobilen Geräten gelöst? Da gibts teilweise Bis zu 4 Unterschiedlich starke Kerne auf einem SOC. Da muss das OS doch auch halbwegs genau wissen, was zu tun ist?
Die Frage ist was ist das Ziel, bei mobilen Geräten ist es selten die maximale Performance, sondern die maximale Effizienz.
Die Idee ist ja, alles interaktive auf den schnellen Cores ausführen zu lassen, der Rest kann ruhig länger dauern so lange es damit effizienter wird.
Daredevil
2025-07-17, 12:41:33
Das ganze kann schon funktionieren, nur müsste es halt auch konsequenter umgesetzt werden. MacOS funzt da vermutlich besser, weil Hard- und Software aus einer Hand.
Ich will allerdings auch nicht 8P und 24E Cores, entweder will ich 4P und 48E Cores oder 16P und 2E Cores. Best of both Worlds ist weder Fisch noch Fleisch. Aktuell habe ich 8E und 20P Cores, das ist auch Banane im Desktop.
Entweder volle sparsame MT Leistung, oder eben maximale Peak Performance mit geringem Idle.
Zossel
2025-07-17, 13:39:01
MacOS funzt da vermutlich besser, weil Hard- und Software aus einer Hand.
Nö, weil die typischen Nutzungsszenarien eingeschränkt sind.
Lehdro
2025-07-17, 13:56:03
Der immer kleiner werdende IPC Unterschied zwischen E- und P-Core rechtfertigt doch spätestens seit ARL-S nicht mehr wirklich diese unterschiedlichen Architekturen. Vor allem wenn man mal schaut wie simpel und effektiv AMD das löst und was deren classic und dense Varianten für einen Platzbedarf haben (Cache exkludiert). Intel hat sich da massiv verrannt und scheint es jetzt einzusehen, wenn auch gezwungenermaßen, rein aus wirtschaftlichen Gründen. Solche Sachen wie LPE Cores bleiben natürlich trotzdem relevant, allerdings aus reinen Effizienzgründen.
Im Endeffekt sind Intels E-Cores ein deutlich jüngeres Design, rein von der Historie her, da deutlich später entstanden und radikaler modernisiert - klar dass diese mehr Potential aufbieten und weniger Altlasten mitschleppen.
Daredevil
2025-07-17, 15:02:18
Die Resultate sprechen aber schon für sich, das Intel hier offenbar schon etwas ganz richtig gemacht hat vom Standpunkt der Effizienz, welches schließlich das grundlegende Ziel bei Arrow Lake gewesen ist.
Nö, weil die typischen Nutzungsszenarien eingeschränkt sind.
Was meinst du mit "typische Nutzungsszenarien"?
Immerhin legen sich 28 Kerne, welche ein 2x14Core MultiChip Frankenstein sind, schon mal besser schlafen als 4 Kerne bei AMD oder Intel.
4K120 Screen, YouTube 4K Playback
https://s1.directupload.eu/images/250717/xxjhu6hg.png
Sowas kann Arrow Lake btw. auch ganz gut. Zwar nicht "so gut", im Idle und in Teillast ist man aber durchaus auf dem richtigen Weg.
Ich persönlich sehe hier kein scheitern, kann aber verstehen, wenn dies andere so sehen, weil eben auch nicht signifikant schneller geworden ist. Arrow Lake ist Konkurrenzfähig vom Kundestandpunkt aus, ob Intel damit genug Geld verdient ist natürlich eine andere Frage.
https://s1.directupload.eu/images/250717/5w3eb76x.png
Die eigentliche Frage zu Titan Lake ist jedoch, wie Intel die gewohnt hohe Singlethread-Performance aufbieten will, wenn jene einheitlichen CPU-Kerne letztlich eine Weiterentwicklung der aktuellen Effizienz-Kerne darstellen (und damit im Grunde von den früheren "Atom" CPU-Kernen abstammen).
Die Frage macht nicht viel Sinn irgendwie. Skymont ist jetzt schon auf 10% am P-core bei der IPC dran und auch die Taktfrequenzen haben sich immer weiter angenähert. Das Ganze bei einem Drittel der Kerngröße.
Die E-Kerne nach oben zu skalieren erscheint mir deutlich einfacher als die überfetten P-Kerne so weit zu entschlacken, das sie eine konkurrenzfähige Flächeneffizienz hinbekommen. Das P-Core Team in Isreal hat die ganzen Jahre über zu wenig auf die Reihe bekommen. Das jüngere und inovativere Team sitzt in Austin. Es ist höchste Zeit, die alten P-Kerne in Rente zu schicken.
Leonidas
2025-07-18, 04:33:38
Skymont ist jetzt schon auf 10% am P-core bei der IPC dran.
Hast Du hierzu irgendwelche Benchmarks? Wäre sehr interessant.
Hast Du hierzu irgendwelche Benchmarks? Wäre sehr interessant.
Lion Cove hat kaum 10% über Raptor Cove zugelegt, während Skymont die IPC von Raptor Cove erreicht hat. Das wurde doch in den Tests letztes Jahr bestätigt. Ich erzähle hier nichts Neues. Das kann man zum Beispiel im Cinebench MT gut sehen. Wenn ich 10% auf das 1+16 draufrechne, erreiche ich etwas mehr als die doppelte Leistung gegenüber 8 Lion Cove. Im Cinebench MT wären es 12-13%. Das ist für ein Kern mit der dreifachen Größe jämmerlich wenig.
https://www.computerbase.de/news/prozessoren/intel-core-ultra-200s-im-detail-ipc-analyse-der-p-und-e-cores-vs-raptor-lake-und-zen-5.90078/
BlacKi
2025-07-18, 09:57:58
sind die amd c prozessoren wirklich dichter gepackt? man hat doch eher nur den cache und den teil für das höhere takten eingepart. was durchaus sinn macht für die meisten anwendungen.
Leonidas
2025-07-18, 10:44:36
https://www.computerbase.de/news/prozessoren/intel-core-ultra-200s-im-detail-ipc-analyse-der-p-und-e-cores-vs-raptor-lake-und-zen-5.90078/
Ich sehe da keinerlei Vergleich der Singlethread-Performance. Es ist ein MT-Vergleich von 8P+0E gegen 1P+16E. Nur weil es auf einheitlicher Taktrate ausgeführt wurde, kommt da keine echte IPC-Wertung raus.
Zugegebenermaßen schwierig zu erreichen, wenn immer 1P aktiv sein muß.
Ich sehe da keinerlei Vergleich der Singlethread-Performance. Es ist ein MT-Vergleich von 8P+0E gegen 1P+16E. Nur weil es auf einheitlicher Taktrate ausgeführt wurde, kommt da keine echte IPC-Wertung raus.
Zugegebenermaßen schwierig zu erreichen, wenn immer 1P aktiv sein muß.
1P kannst du doch abziehen :confused: Du hast das 8P Ergebnis, das reicht. Einfach durch 8 teilen und dann 1P abziehen. Es sind 12-13% im MT im Cinebench. Im reinen ST würde ich schätzen, wäre das noch etwas weniger.
Aber was hast du denn erwartet? Was hast du denn gedacht, wie hoch der IPC Vorsprung von Lion Cove liegt? Das müsstest du mal erklären. Es gab genügend Tests zum launch. Dass ich mir die nicht alle notiere, ist klar.
Dein Text macht einfach wenig Sinn für mich. Das hört sich bei dir so an, als wenn die P-Kerne einen 50% Vorsprung oder so hätten. Die Zeiten sind längst vorbei. Die takten noch deutlich höher, das ja.
Leonidas
2025-07-19, 04:19:26
Also ich versuche sicherlich nicht, aus einem klaren MT-Benchmark auf die ST-Performance zu interpolieren. Gefragt war 1T-Performance, sprich ohne den Effekt eines Powerlimits.
Grundsätzlich dürftest Du Recht haben, taktnormiert kommen die E-Kerne recht weit auch bei ST. Nur fehlt mal ein wirklich solider Beweis dafür. Ist auch ziemlich unmöglich, wenn immer 1P aktiv sein muß.
Die Resultate sprechen aber schon für sich, das Intel hier offenbar schon etwas ganz richtig gemacht hat vom Standpunkt der Effizienz, welches schließlich das grundlegende Ziel bei Arrow Lake gewesen ist.
Was meinst du mit "typische Nutzungsszenarien"?
Immerhin legen sich 28 Kerne, welche ein 2x14Core MultiChip Frankenstein sind, schon mal besser schlafen als 4 Kerne bei AMD oder Intel.
4K120 Screen, YouTube 4K Playback
https://s1.directupload.eu/images/250717/xxjhu6hg.png
Sowas kann Arrow Lake btw. auch ganz gut. Zwar nicht "so gut", im Idle und in Teillast ist man aber durchaus auf dem richtigen Weg.
Ich persönlich sehe hier kein scheitern, kann aber verstehen, wenn dies andere so sehen, weil eben auch nicht signifikant schneller geworden ist. Arrow Lake ist Konkurrenzfähig vom Kundestandpunkt aus, ob Intel damit genug Geld verdient ist natürlich eine andere Frage.
https://s1.directupload.eu/images/250717/5w3eb76x.png
Am Strommesser sieht die Sache für AMD dann noch übler aus. Bekommt man selbst fette Arrow Lakes und DDR 7200 im Idle
mit Nvidia-dGPU auf ca.50 Watt Gesamtsystem, dümpelt ein AMD 9000er bei mindestens ca. 85 Watt rum.
Lustig wird es dann bei leichter Last, der Intel zuckt kaum, während AMD schon bei ner MP3 abspielen und vielleicht noch ein Fenster verschieben mal ca. gute 120 Watt konstant verballert. Die AMD-Monolithen zeigen genau das gleiche Verhalten, nur von einer niedrigeren Wattbasis kommend. Dafür ist dann auch die Spieleperformance stark eingeschränkt und meistens langsamer als ein kleiner Arrow Lake. AMD ist wirklich gerade für Firmen mit normaler Desktoparbeit nicht zu gebrauchen, teurer im Unterhalt als Intel. Tolles AMD ist wohl auf der Basis von Cool and Quiet aus der Jahrtausendwende stehengeblieben.
Platos
2025-07-19, 10:48:33
Ist hald eig. alles Server-"Abfall", was wir kriegen. Bei Servern funktioniert dieses Prinzip nämlich wunderbar. Da sind sie von der Hardware viel besser.
Ist hald eig. alles Server-"Abfall", was wir kriegen. Bei Servern funktioniert dieses Prinzip nämlich wunderbar. Da sind sie von der Hardware viel besser.
Da kann man froh sein, dass es noch Intel gibt, ansonsten wären die x86 das Ineffizienteste was es im Alltags-IT gibt. Man kann sich ja selbst mit dem Intel nur noch schämen, was Apple dazu im Vergleich über die Jahre auf die Beine gestellt hat.
Jetzt weiß man, warum AMD ein A als ersten Firmenbuchstaben gewählt haben.
Mehr AMD, mehr Atomkraftwerke von Nöten. ;)
Der_Korken
2025-07-19, 13:32:05
Hast Du hierzu irgendwelche Benchmarks? Wäre sehr interessant.
https://www.youtube.com/watch?v=TFu2iorqU_o#t=2m38s
Ist nur Spec, aber irgendwie muss man IPC halt messen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.