Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 16. Januar 2026
Leonidas
2026-01-17, 07:36:35
Link zur News:
https://www.3dcenter.org/news/news-des-16-januar-2026
Ich denke, NV hat einen Abnahmevertrag für Waffer für GPUs und als ein Unternehmen muss schauen das die kein riesen Bestand an GPUs ohne Speicher aufbauen. Da spielt glaube ich keine Rolle ob die andere Sparte Gewinne einfährt so das man es locker Auffangen dürfte. Der Verantwortliche für den Bereich muss trotzdem das Beste drausmachen sonst wird der von der Lederjacke entlassen.
Hochzeit2
2026-01-17, 15:23:24
Wo ist der Beweis?
Und wieso versagt der angeblich tolle 10P mit 20T so massiv beim MT Bench?
Der Wert ist ja gegenüber dem Raptor Lake 6P/8E einfach lächerlich.
Leonidas
2026-01-17, 16:39:01
Der hat nur 10C gegen 14C. Wo ist das ein "versagen"?
Der_Korken
2026-01-17, 17:10:46
Der hat nur 10C gegen 14C. Wo ist das ein "versagen"?
Die 6+8 Kerne des 14500 dürften von der Fläche nahe bei 8+0 liegen, d.h. die 10+0 belegen 20-25% mehr Silizium ohne irgendwas besser zu machen. Ich habe generell nie den Hype um reine P-Kern-Dies von Raptor Lake verstanden. Die Kerne sind so riesig und durstig, dass Perf/W und Perf/Area einfach grottig sein werden. Der 12+0 wird gegenüber dem 8+16er genauso viel in der Herstellung kosten aber quasi alles schlechter oder nur gleichgut machen.
Leonidas
2026-01-17, 17:17:30
Aber Gaming könnte besser sein, wenn man die benötigten Taktraten erreicht. Denn 8C kann da hier und da limitieren und die E-Kerne helfen faktisch gar nicht.
greeny
2026-01-17, 17:37:53
er Bitflip zum Root-Zugriff: Lücke in AMD-CPUs ermöglicht Einbruch in Cloud-VMs [Golem]
*"P" schenk* ;)
Denn 8C kann da hier und da limitieren und die E-Kerne helfen faktisch gar nicht.
Stimmt nicht wirklich, wenn mehr als 8 Kerne benötigt werden helfen die E-Kerne genauso.
All P-Core kann sowieso nur mit unlimited Power glänzen. Wenn man default Powerlimits verwendet und auf mehr als 8 Kernen eine signifikante Auslastung hat sind die P-Cores weit von ihren Maximaltaktraten entfernt. Dann sind die E-Cores effinzenter.
Sobald man Powerlimitiert ist bekommt man mit den E-Cores effektiv mehr Performance.
crnkoj
2026-01-17, 18:56:43
Aber Gaming könnte besser sein, wenn man die benötigten Taktraten erreicht. Denn 8C kann da hier und da limitieren und die E-Kerne helfen faktisch gar nicht.
Vermutlich ist die poante von Bartlett lake gerade im avx512, daher will man keine e cores und gleichzeitig belässt man die Taktraten "human" um den Verbrauch in Schach zu halten.
Ob der 10 oder 12 core raptor cove wirklich so viel besser als die 8+16 abschneiden würde, weiss man garnicht.
Wie schon oben erwähnt sind die e cores definitiv vom Silizium Verbrauch deutlich besser als die P cores und auch perf/w ist ab einer frequenz dann raptor cove auch nicht mehr besser als die e cores.
Was hingegen gerade in der aktuellen Situation massiv greifen würde, wäre tatsächlich diese 10 core und 12 core als gaming CPUs zu bringen und einen massiven ddr4 hype aufzubauen. Dafür braucht man halt die limitierten influencer, die eigentlich die x3d Modelle so beliebt gemacht haben, obwohl die proce/performance von denen komplett im Keller ist.
So könnte man eine deutlich billigere platform anbieten und gleichzeitig sollte die perf so beim 7800x3d sein, all core sogar beachtbar höher.
Es stellten sich folgende Fragen: Wie viel Arbeit wäre das so zu validieren können die 12 core died sich 5,8ghz oder wenigestens 5,6 in der Masse, reichen die Intel 7/10nm Kapazitäten dafür und passt es in Intels neue Struktur, damit man bereit wäre auch das Marketing zu tragen? Würden die Kunden es kaufen und die raptor lake Probleme vergessen? Ist ja neuss Silizium, sollte in Hardware behoben sein...
Der_Korken
2026-01-17, 19:45:25
Aber Gaming könnte besser sein, wenn man die benötigten Taktraten erreicht. Denn 8C kann da hier und da limitieren und die E-Kerne helfen faktisch gar nicht.
Warum sollten die E-Kerne da nicht helfen? Die einzige Situation, wo ein 12+0 schneller als 8+16 wäre ist, wenn ein Spiel
- exakt 9, 10, 11 oder 12 Threads spawnt und keinen einzigen mehr
- diese Threads dann auch noch jeweils exakt gleich viel Rechenlast tragen
- die Arbeit dieser Threads jeweils nicht weiter gesplittet oder auf andere Threads übertragen werden kann
Mit anderen Worten: Nie. Das ist ein pathologisch konstruierter Fall, so als würde ich einen MT-Benchmark wie Cinebench starten aber nur mit exakt 12 Threads (obwohl das Render-Problem auch mühelos auf mehr Threads gesplittet werden könnte), weil das für CPU A der Bestcase und für CPU B der Worstcase ist. Um mehr als 8 Kerne voll zu machen, braucht man schon irgendwelche skalierbaren Berechnungen wie z.B. haufenweise Physikberechnungen oder KI-Skripte. Und in der Regel sind die so gut parallelisierbar, dass ich die in deutlich kleinere Workitems verpacken können müsste wie der Mainthread eines Spiels. Der ST-Performance des 9., 10. oder 12. Kerns ist damit irrelevant. Das einzige Argument für Bartlett Lake wäre höchstens noch, dass man beim Scheduler weniger Fehler machen kann, wenn ich nämlich doch mal ein zu großes Workitem auf einen E-Core packe, obwohl noch ein P-Core frei gewesen wäre.
Leonidas
2026-01-18, 01:10:52
*"P" schenk* ;)
Dankend angenommen!
Warum sollten die E-Kerne da nicht helfen?
Die helfen sogar sehr wenn man Power-Constrained ist.
Bestes Beispiel Lunar Lake in Handhelds. Bei hohen Powerlimits sind die AMD SOCs schneller, je weiter das Powerlimit senkt umso mehr zieht Lunar Lake vorbei.
Und wenn man das Verhalten der SoCs ansieht sieht man auch warum, bei niedrigen Powerlimits werden fast nur mehr die E-Kerne verwendet, damit bleibt mehr Power-Budget für die GPU und damit effektiv mehr Performance. Da nützen AMD die all P-Cores auch nichts mehr, wen die aufgrund der Powerlimits kaum mehr über 1GHz Takten können, und trotzdem weniger Power für die GPU übrig lassen.
Das sieht man auch AMD-Intern schön, bei hohem Powerlimit unterscheiden sich Z1E und Z2E eigentlich nur durch den (üblicherweise) höheren Speichertakt der Z2E-Geräte. Geht man mit dem Powerlimit runter kann Z2E davonziehen, weil auf dem Betriebspunkt die Dense-Kerne effizienter sind.
Warum sollten die E-Kerne da nicht helfen?
Weil das die Benchmarks zeigen. Ob man die E-Cores aktiviert oder deaktiviert, an der Spieleperformance ändert sich nichts.
Weil das die Benchmarks zeigen. Ob man die E-Cores aktiviert oder deaktiviert, an der Spieleperformance ändert sich nichts.
Es ändert sich nichts, weil es mehr als genug P-Cores gibt. Mehr P-Cores helfen genauso wenig wie E-Cores.
Lehdro
2026-01-19, 15:32:16
Der Wunsch nach P-Core only für Gaming hat NICHTS mit Kernzahlen oder Powerlimit zu tun. Da geht es allein um Cache + Latenzen. Cache ist King und ein P-Core hat nun einmal viel mehr lokalen Cache und weniger Latenz als ein E-Core (L2 der E-Cores sind eher "sparsam" konzipiert, ~20 Cycles vs. 16 Cycles von den P-Cores (https://chipsandcheese.com/p/a-preview-of-raptor-lakes-improved-l2-caches)) - noch dazu deutlich flotter angebunden (ca. 30% mehr Bandbreite) und weniger segmentiert. Bei BTL wurde für jeden E-Core "Stop" im Ringbus einfach ein weiterer P-Core eingesetzt.
E-Cores hatten zudem eine notorische hohe Latenz zum L3, was auch der Grund war warum Intel den L2 der E-Cores mit RPL so stark gegenüber ADL aufgebohrt hat. Trotzdem haben die E-Cores eine im Schnitt um 20-30% höhere Latenz zum L3, bei ADL ging das im Extremfall weit über eine glatte Verdopplung.
In dem Beispiel die Cachekonfigurationen:
14900K = 8 P-Cores/16 E-Cores = 8x2 + 4x4 MiB shared L2 pro E-Core Cluster + 36 MiB (L3)
Bartlett Lake = 12 P-Cores = 12x2 MiB + 36 MiB (L2+L3)
Es ist anzunehmen dass dadurch die durchschnittlichen Latenzen sinken, da alle Kerne uniform angebunden sind (kein Ringbus->Cluster->E-Core, sondern nur Ringbus->P-Core) und schnelleren + größeren L2 Cache besitzen.
MiamiNice
2026-01-19, 16:40:49
Warum sollten die E Kerne da nicht helfen?
Weil Games im Kern auf genau zwei Dinge reagieren: Rechenleistung, also IPC mal Takt, und Latenz. Ist eines davon schlecht, ist die Performance schlecht. Bei E Kernen ist beides mies: geringe Rechenleistung und hohe Latenz. Zusätzlich steigt die Latenz allein schon durch die höhere Anzahl an Kernen und das Scheduling.
Deshalb sind Leute, die mit Threadrippern zocken wollen, komplett gaga in der Birne. Viele Kerne helfen da exakt gar nicht, sie schaden eher. Deswegen war bei meinem 13900K die E Kerne immer deaktiviert :) Also 16 von den 24 Kernen -> aus XD
Und genau deshalb ist AMD aktuell so schnell. 3D V Cache macht nichts anderes, als die Latenz massiv zu senken. Das war früher Intels Domäne über schnellen RAM und niedrige Speicherlatenzen. Im Gaming steht und fällt alles mit Latenzen.
Es ändert sich nichts, weil es mehr als genug P-Cores gibt. Mehr P-Cores helfen genauso wenig wie E-Cores.
Nein! Auch ein i5 mit 6 Performance-Kernen profitiert nicht von den E-Kernen. Steigt man aber auf ein Prozessor mit 8 Performance Kernen um, steigt die Performance. Die zwei zusätzlichen Performance-Kerne bringen also in der Tat Mehrperformance, die die E-Cores beim i5 nicht bringen.
Der_Korken
2026-01-19, 21:54:55
Nein! Auch ein i5 mit 6 Performance-Kernen profitiert nicht von den E-Kernen. Steigt man aber auf ein Prozessor mit 8 Performance Kernen um, steigt die Performance. Die zwei zusätzlichen Performance-Kerne bringen also in der Tat Mehrperformance, die die E-Cores beim i5 nicht bringen.
Ich hoffe du hast dabei den zusätzlichen L3-Cache mit einkalkuliert. Die kleineren Modelle haben bei Intel jeweils auch weniger L3, was imho fast die gesamte Performance-Differenz erklären dürfte. Vor ein paar Jahren hat HWUB das mal getestet: https://www.youtube.com/watch?v=Cbyl4q3QFYA
Ein 10900K mit 20MB war mit 10, 8 und 6 Kernen exakt gleich schnell, aber der 10600K mit 6 Kernen aber nur 12MB L3 war plötzlich deutlich langsamer als 6C+20MB. Seitdem mag der Kern-Hunger leicht angestiegen sein, allerdings sieht man bei AMDs Modellen regelmäßig, dass die Differenz zwischen 8- und 6-Kernen quasi dem Taktunterschied entspricht - selbst wenn ein 3D-Cache vorhanden ist.
Weil Games im Kern auf genau zwei Dinge reagieren: Rechenleistung, also IPC mal Takt, und Latenz. Ist eines davon schlecht, ist die Performance schlecht. Bei E Kernen ist beides mies: geringe Rechenleistung und hohe Latenz. Zusätzlich steigt die Latenz allein schon durch die höhere Anzahl an Kernen und das Scheduling.
Das ist mir alles klar und auch worauf du hinauswillst. Für den ersten, zweiten und meinetwegen auch vierten Thread gehe ich das auch locker mit. Ich ziehe aber in Zweifel in wieweit Latenzen oder ST-Performance dann für Threads Nr. 9 und 10 noch relevant sind. Für gute Frameraten muss jeder Frame in möglichst kurzer Zeit fertigberechnet werden. Der Flaschenhals ist der Thread mit dem meisten nicht-parallelisierbaren Code. Der muss auf dem schnellsten Kern mit dem meisten Cache laufen. Deswegen würde ich auch nie vorschlagen P-Kerne komplett wegzulassen oder den Cache zu verkleinern. Von diesen kritischen Threads hast du aber nur sehr wenige und der neunt-größte hat dann so wenig nicht-parallelisierbaren Code, dass er locker auf einem E-Core durchläuft bevor der größte Thread auf dem P-Core fertig ist. Ich würde es schon als Kunst bezeichnen, wenn man es schafft ein Programm zu schreiben, welches mehr als 8 Kerne sinnvoll auslasten kann, aber der neunte Thread dann immer noch mehr als halb so viel nicht-parallelisierbare Last über hat wie der erste.
tl;dr: 8 dicke Kerne reichen immer, alles nach ist Kleinkram für den ST+Latenz wurscht ist.
Nein! Auch ein i5 mit 6 Performance-Kernen profitiert nicht von den E-Kernen.
8Kern Desktop-CPUs haben immer mehr Cache als 6-Kern Prozessoren und fast immer mehr Takt.
Das ist für die Mehrperformance im Gaming verantwortlich, nicht die Kernanzahl.
Die FPS im Gaming hängen fast ausschließlich von den schnellsten 2 Kernen ab.
Lehdro
2026-01-20, 15:33:03
Die FPS im Gaming hängen fast ausschließlich von den schnellsten 2 Kernen ab.
*Aber nur solange genug Gesamtleistung vorhanden ist.
Und mittlerweile würde ich eher von 4 statt 2 Kernen ausgehen, gerade bei neueren Games die tatsächlich einiges an CPU Leistung fordern (RT) und auch dementsprechend auslasten. Könnte ein Fachmagazin oder ein geduldiger User gerne mal testen, einfach von 8 Kernen jeweils 2, 4 oder 6 niedriger Takten und den Rest so lassen.
Der_Korken
2026-01-20, 21:47:36
*Aber nur solange genug Gesamtleistung vorhanden ist.
Und mittlerweile würde ich eher von 4 statt 2 Kernen ausgehen, gerade bei neueren Games die tatsächlich einiges an CPU Leistung fordern (RT) und auch dementsprechend auslasten. Könnte ein Fachmagazin oder ein geduldiger User gerne mal testen, einfach von 8 Kernen jeweils 2, 4 oder 6 niedriger Takten und den Rest so lassen.
Oder mit 8+16 starten und nacheinander P-Kerne deaktivieren bis die Performance einbricht.
8Kern Desktop-CPUs haben immer mehr Cache als 6-Kern Prozessoren und fast immer mehr Takt.
Das ist für die Mehrperformance im Gaming verantwortlich, nicht die Kernanzahl.
Die FPS im Gaming hängen fast ausschließlich von den schnellsten 2 Kernen ab.
https://geizhals.de/?cmp=2871174&cmp=2801237&cmp=2801229&active=1
Ryzen 5 7600X taktet im Basistakt 200Mhz höher und im Turbo nur 100 Mhz niedriger als der Ryzen 7 7700X. Der Turbo läuft aber gar nicht mit Maximaltakt, wenn viele Kerne arbeiten. Der L3-Cache ist gleich groß. Am Ende hat der Ryzen 7 mit zwei zusätzlichen P-Kernen 6 Prozent mehr Leistung im Performancerating:
https://www.computerbase.de/artikel/prozessoren/intel-core-i9-13900k-i7-13700-i5-13600k-test.81936/seite-5#abschnitt_leistung_in_spielen_720p_rtx_3090_ti
Wie du siehst die zwei zusätzlichen P-Kerne bringen was, trotz gleich bleibendem Cache. Die zusätzlichen E-Kerne bringen bei Intel hingegen nichts, obwohl mit den zusätzlichen E-Kernen auch der L3-Cache steigt.
vBulletin®, Copyright ©2000-2026, Jelsoft Enterprises Ltd.