PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake (7 nm, big.LITTLE, 8C + 8c "Golden Cove"/"Gracemont" CPU-Kerne, Ende 2021)


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18

MiamiNice
2021-08-21, 19:51:49
Mich würde interessieren ob man die kleinen Cores abschalten und die komplette TDP für die Big Cores usen kann. Und wie es mit der Wärmeableitung ausschaut wenn man die kleinen Cores killt.

AL macht mich aber generell nicht an. Wichtiger Schritt - aber nur der Auftakt zu viel mehr Power (ST Power.) Raptor Lake wird imo das Maß der Dinge - bis dahin wird es auch schon dicken DDR5 OC Ram geben. Zum AL Release eher nicht.
Da uns der Ringbus zum Glück erhalten bleibt - hoffe ich auf hohe Taktraten beim Bus und IMC.

y33H@
2021-08-21, 20:16:16
Nach aktuellem Stand soll das per XTU gehen, ja ... von DDR5 würde ich eher weniger erwarten.

maximus_hertus
2021-08-21, 21:29:13
Mich würde interessieren ob man die kleinen Cores abschalten und die komplette TDP für die Big Cores usen kann.

Falls das möglich ist, würde ich mir davon so ungefähr 0 Gewinn erwarten. Was soll es auch bringen? Wenn die kleinen Cores nichts zu tun haben, schlafen die eh und verbrauchen quasi nichts. Die wenigen Watt werden keinen Unterschied machen.

Aber warten wir den Launch ab. Dann bracht man nicht spekulieren, sondern wird dann die Zahlen zum einen von der Presse bekommen und zum anderen wird es Userberichte geben.

Slipknot79
2021-08-21, 23:44:33
Da sich ungefähr alle 10 Posts über die Stromspar-Kerne aufgeregt wird: sollte man vielleicht im größeren Zusammenhang sehen. Die ganze Sache eröffnet nämlich Intel ganze andere Gedankenspiele. Wenn ich ein und denselben Kern einfach nur in einem x-beliebigen Vielfachen auf die CPU packe gehe ich als Designer nur Kompromisse ein. Wenn ich nur Acht richtig dicke Kerne mache und dies auch weiß, kann ich die doch viel performanter machen und muss nicht so auf Flächenverbrauch und Stromaufnahme achten als wenn ich die Kerne 32 mal drauf bringen muss. Also habe ich doch das beste aus beiden Welten- super SingleThread Kerne die ich relativ kompromisslos gestalten kann und dann noch viele kleine für die MT Performance die Intel nur ein Bruchteil der Großen kosten und die dafür reichlich vorhanden sein können.


Ich brauche aber nur eine 8 Dickkern CPU zum ballern, was soll ich mit weiteren 8 Stromspar-Kernen? Mit den Konsolen wird eh nix anderes supportet als max 8 Kerne.
Wenn Intel Kohle sparen will, dann soll der Laden die 8 Stromspar-Kerne rauswerfen und 8 dicke belassen, mehr brauchts nicht zum Ballern. (y)

Monsta
2021-08-22, 00:49:21
Die 8 zusätzlichen Cores können sich um den ganzen kleinkram kümmern der im Hintergrund läuft. Discord ect.

Dann hast Du Deine 8 Starken Cores für Deine Spiele oder für was auch immer Du die brauchst.

aufkrawall
2021-08-22, 01:23:15
Das braucht fast alles keine CPU-Zeit bzw. da dürfte in little-Core bei acht BIGs mit HTT schon Overkill sein. Die sind halt nur der Zusatz-Notnagel, weil die Intel BIGs vs. Zen 2/3 versoffener Schrott sind. Dann kann man so lange erzählen, dass little die Zukunft ist, bis man irgendwann Jahre später bei x86 mal Apple erreicht hat und dann festhalten kann, man hätte ja schon lange auf die littles geschworen...

BlacKi
2021-08-22, 02:05:16
Ist der gleiche Shice wie Start/Stop Systeme in Autos. Hauptsache man kann wieder nen Shice verkaufen der nix bringt. Zwangsbeglückung für die Umwelt, kein Glück für die Geldbörse. :rolleyes: :redface:


die frage sollte eher lauten, wofür die 8 big cores. gib mir cache und streiche mir die big cores. die stromsparkerne sind schon schneller als skylake, u.a. wegen des cache upgrades. und die 8 big cores performen nur wegen des großen l3 der little cores. die big cores alleine werden scheiße performen.

Platos
2021-08-22, 02:44:06
Das braucht fast alles keine CPU-Zeit bzw. da dürfte in little-Core bei acht BIGs mit HTT schon Overkill sein. Die sind halt nur der Zusatz-Notnagel, weil die Intel BIGs vs. Zen 2/3 versoffener Schrott sind. Dann kann man so lange erzählen, dass little die Zukunft ist, bis man irgendwann Jahre später bei x86 mal Apple erreicht hat und dann festhalten kann, man hätte ja schon lange auf die littles geschworen...

Die Big Cores werden vermutlich ein Grossteil der Zeit schlafen können im normalen Browsing/Office Alltag. Damit ist der PC bei den meisten Leuten zu 90% der Zeit extrem vieeeel effizienter. Die kleinen Kerne sind wirklich ziemlich effizient im Vergleich zu den grossen, wie es scheint.

Das Big.little Prinzip ist einfach unheimlich effizient. Ist klar, dass die Leute hier im Forum kein bisschen an niedrigerem Stromverbrauch interessiert sind. Ändert aber nichts an der Tatsache.

BTW. wird das gerade im Notebookbereich einen riesigen Boost in der Akkulaufzeit ermöglichen. Bei den meisten Leuten müssten vermutlich zu über 95% der Zeit nur die kleinen Kerne arbeiten. Auch hinsichtlich des Formfaktors und Lautstärke. Damit sollten auch passive Geräte deutlich häufiger auftreten können.

Wir brauchen bessere Effizienz und nicht jede Generation CPUs/GPUs, die immer mehr Strom ziehen.

robbitop
2021-08-22, 08:28:58
Das braucht fast alles keine CPU-Zeit bzw. da dürfte in little-Core bei acht BIGs mit HTT schon Overkill sein. Die sind halt nur der Zusatz-Notnagel, weil die Intel BIGs vs. Zen 2/3 versoffener Schrott sind. Dann kann man so lange erzählen, dass little die Zukunft ist, bis man irgendwann Jahre später bei x86 mal Apple erreicht hat und dann festhalten kann, man hätte ja schon lange auf die littles geschworen...
Und warum hat AMD dann mit Zen 5 das auch so (big/little) geplant?
Alle CPU Designer steuern in dieser Richtung.
Apple, ARM, Qualcomm, Intel, AMD (Zen 5).

Ggf sollte man ADL abwarten, bevor man ein Urteil fällt.

ChaosTM
2021-08-22, 08:32:22
Ich mag den "versoffenen" Schrott. Der trifft es sehr gut :D
Aber wir sollten wirklich abwarten.

HOT
2021-08-22, 08:53:56
Und warum hat AMD dann mit Zen 5 das auch so (big/little) geplant?
Alle CPU Designer steuern in dieser Richtung.
Apple, ARM, Qualcomm, Intel, AMD (Zen 5).

Ggf sollte man ADL abwarten, bevor man ein Urteil fällt.
AMDs big.LITTLE ist ganz anderes gelagert.
Offenbar wird Zen5 so fett, dass Zen4 als "little" gilt. Der ist aber kein .mont-Kerns sondern selbst sehr mächtig und hat SMT. Bei AMD scheinen es ja auch maximal 4 "kleine" Zen4D zu sein, nicht 32 wie bei ARL.

fondness
2021-08-22, 09:00:32
Und warum hat AMD dann mit Zen 5 das auch so (big/little) geplant?
Alle CPU Designer steuern in dieser Richtung.
Apple, ARM, Qualcomm, Intel, AMD (Zen 5).

Ggf sollte man ADL abwarten, bevor man ein Urteil fällt.

Wirklich? Ein tweet und das ist schon Fakt?

Apple verwendet im übrigen fast nur noch big cores. Was Zen 5 wird sollte man mal abwarten, wenn jedenfalls wirklich wie spekuliert zen4 als little core herhalten wird, dann ist das wohl kaum ein klassisches big.little Konzept wie es jetzt Intel notgedrungen verwenden muss um mutithreaded nicht völlig abgehängt zu werden.

Es scheint offensichtlich möglich zu sein, auch big cores mit sehr niedriger TDP zu entwickeln, siehe Apple oder AMD.

LadyWhirlwind
2021-08-22, 09:01:09
BigLittle ist vor allem als Stromspar-Mechanismus für Laptops interessant. In vielen Fällen laufen auf den Laptops nur Windows, ein Browser und die Office-Produkte, vielleicht nocj ein pdf reader und Spotify. Wenn man in solchen Scenarien lange Laufzeiten erreichen kann, ist das ein Gewinn.

Kombiniert mit einer schnellen SSD, wird man das vermutlich kaum merken.

Edit: wobei sich natürlich erst noch zeigen muss, was es wirklich bringt, wenn sowieso sehr gute Stromsparmechanismen in den CPUs vorhanden sind.

Freestaler
2021-08-22, 09:09:02
Woher sollen den diese enorme Ersparnisse kommen idle? Aktuelle, hochwertige 11er NB benötigen im Idle um 6-10W. Dabei ist aber auch bereits Display, Ram, SSD, GPU, Spannungswandler und Perpherie wie Keyboards usw. Der CPU macht kein 20% mehr aus. Und die CPU schläft bereits im Deepstate mehr als 99%.
Littlecore brauchte man Gedanklich vor 10 Jahren für "hybridstanby" also auch im "off" Zustand online mail zu holen (auch wenn das kein Sinn macht, da sauschbell erledigt). Die immer während volle Vernetzung mit Kühlschrank und Co war mMn. die Grundlage für die Idee der BigLittle. Und das brauchst einfach nicht im Desktop/Notebook.

fondness
2021-08-22, 09:13:57
Wollte ich gerade schreiben, mein 5800H mit 8C/16T, 512SPs Vega iGPU und I/O on-chip benötigt jetzt gerade während ich im Internet surfe ~2,5W, idle 1-1,5W.

dildo4u
2021-08-22, 09:18:18
AMD kommt doch jetzt schon an Grenzen in Notebooks, Mobile Zen 3 ist ordentlich beschnitten und Modelle mit RDNA2 brauchen noch mehr Fläche für die IGP.
Alder Lake wird dort schon im ersten Versuch AMD schlagen, da AMD dank der nötigen IGP nicht mehr von den fetten Kernen verbauen kann.

robbitop
2021-08-22, 09:52:55
AMDs big.LITTLE ist ganz anderes gelagert.
Offenbar wird Zen5 so fett, dass Zen4 als "little" gilt. Der ist aber kein .mont-Kerns sondern selbst sehr mächtig und hat SMT. Bei AMD scheinen es ja auch maximal 4 "kleine" Zen4D zu sein, nicht 32 wie bei ARL.

Abwarten. Zen 5 ist 2-3 Jahre entfernt. Die Monts erreichen jetzt wohl auch schon Skylake IPC. Vom ursprünglichen Little ist da auch nicht mehr viel übrig. Alles wandert halt eine Klasse hoch. Namen sind Schall und Rauch und es ist immer eine Frage der Relation. Wenn die Referenz 2020er Big Core sind: dann kann man es auch giant.big nennen.

Man muss aufhören in festen Mustern aus der Vergangenheit zu denken. Das ist alles skalierbar.
Im mobile macht eine andere Skalierung von groß und klein Sinn. Damit die Leute nicht verwirrt sind, sollte man es nicht mehr big little nennen. Es ist einfach nur Anpassung durch Skalierung.
Oder zur Not: im Mobilbereich big little und im Desktop: giant big.

oder big medium little oder oder oder.

Monsta
2021-08-22, 10:25:18
Ich sehe auch im Dekstop Potential für Little Big.

Ich finde Dektop PC verbrauchen im Leerlauf viel zu viel. Ich kann mit meinem Mac im einstelligen Watt bereich surfen. Da ist mein PC Faktor 10 von entfernt.

Davon abgesehen sind meine Macs always on. Updates zieht das Ding im Ruhestand bzw zugeklappt. Ohne irgendwelche Emissionen.

Die Big Cores am Pc verbauchen im Leerlauf nix, aber sobald man die etwas beschäftig geht doch ohne Kühler nix. Die ganze Platform fühlt sich für mich total rücktsändig an.

Badesalz
2021-08-22, 10:37:54
AMD kommt doch jetzt schon an Grenzen in Notebooks, Mobile Zen 3 ist ordentlich beschnitten und Modelle mit RDNA2 brauchen noch mehr Fläche für die IGP.
Alder Lake wird dort schon im ersten Versuch AMD schlagen, da AMD dank der nötigen IGP nicht mehr von den fetten Kernen verbauen kann.Im Laptop ist das dann aber wie der Vergleich zwischen einer 3080 und einer 6800, wenn man FHD spielt.

Andere Aspekte wie Gewicht und Maße hören mit einem M1 Air ebenfalls auf. Leichtes Gehäuse aus zu dünnen Zeug verbiegt sich und ein Notebook hat meist eben keinen festen Platz von dem es nicht bewegt wird. Da müsste man sich sonst schon darüber Gedanken machen, ob das Board nicht Haarrisse vom Hochheben bekommt, wenn das noch und nöcher flacher wird.

Davon ab, daß auch 13" Displays bei weitem nicht jedermanns Sache sind. Mit mehr Auflösung und PPI lässt sich zwar auch auf solchen sichtbar wunderbare Quali von Schriften und graphischen Elementen machen, aber nicht unbedingt mehr Inhalt darstellen.

Das macht nur noch Sinn bei AIOs wie dem iMac & Co. um hinter dem Panel eine Art topperf Notebookboards zu verbauen.
Für das Notebook aber ist es quasi egal, ob AlderLake die Leistung von AMD schlägt oder nicht.

Ich finde Dektop PC verbrauchen im Leerlauf viel zu viel. Ich kann mit meinem Mac im einstelligen Watt bereich surfen. Da ist mein PC Faktor 10 von entfernt.Ist dein PC und dein Mac auch vergleichbar aufgebaut? Welche Grafikkarte steckt in dem Mac?

robbitop
2021-08-22, 10:52:55
@Monsta
Es geht weniger un den Leerlaufverbrauch in Desktop. Dank power und clockgating sind inaktive Bereiche einer CPU da kein Problem mehr. Sie verbrauchen praktisch nichts mehr.

Es geht darum, dass man viele Workloads nicht unendlich parallelisieren kann. Also will man immer mehr Leistung pro Kern. Es macht aber ab einem gewissen Punkt für die meisten Anwendungen keinen Sinn mehr beliebig viele dieser Cores zu haben. Andererseits gibt es andere Anwendungen, die sehr gut parallelisierbar sind. Da kann man dann aber auch einfach über die Anzahl von effizienteren Kernen skalieren.
Entsprechend ist das die Version von „have your cake and eat it too“. Für erstere Art von Anwendungen hat man die Performance maximiert und für zweitere auch (da man ja mehr effizientere Kerne verbauen kann).

Jede uArch kann sinnvoll in einer Größenordnung ausgelegt werden. Mit der Kombination mehrerer uArch kann man die Perf/W Kurve viel breiter machen. Einem Getriebe in einem Auto in gewisser Weise nicht ganz unähnlich.

Man muss eben abwarten, ob das in der x86 Desktop Praxis auch so funktioniert. Im mobile Bereich funktioniert das schon eine Weile sehr gut. Bei Apple wird man mit ihren ersten ARM Desktop Prozessoren auch erstmal abwarten müssen.

Ich denke, dass Skepsis gut ist. Aber wenn die besten CPU Architekten der Welt unabhängig voneinander darauf hin arbeiten (die Zugriff auf Simulation und Erfahrungen haben, die allen von uns abgehen), nimmt zumindest bei mir die Skepsis sukzessive ab.

HOT
2021-08-22, 11:07:32
Abwarten. Zen 5 ist 2-3 Jahre entfernt. Die Monts erreichen jetzt wohl auch schon Skylake IPC. Vom ursprünglichen Little ist da auch nicht mehr viel übrig. Alles wandert halt eine Klasse hoch. Namen sind Schall und Rauch und es ist immer eine Frage der Relation. Wenn die Referenz 2020er Big Core sind: dann kann man es auch giant.big nennen.

Man muss aufhören in festen Mustern aus der Vergangenheit zu denken. Das ist alles skalierbar.
Im mobile macht eine andere Skalierung von groß und klein Sinn. Damit die Leute nicht verwirrt sind, sollte man es nicht mehr big little nennen. Es ist einfach nur Anpassung durch Skalierung.
Oder zur Not: im Mobilbereich big little und im Desktop: giant big.

oder big medium little oder oder oder.
Exakt, die Muster sind nicht fest, das meine ich eben. AMD ist anders als Intel. Ich finds immer richtig albern, wenn dann angenommen wird, dass AMD das dann auch so macht, das ist schlichtweg Unsinn.
Übrigens muss das auch bei Intel so nicht bleiben, das big.LITTLE-Gedöns kann auch bei Royal Core schon wieder vorbei sein (glaub ich aber nicht). Ich denke auch, dass sich das etablieren wird, aber in verschiedenen Ansätzen.

Platos
2021-08-22, 11:10:26
BigLittle ist vor allem als Stromspar-Mechanismus für Laptops interessant. In vielen Fällen laufen auf den Laptops nur Windows, ein Browser und die Office-Produkte, vielleicht nocj ein pdf reader und Spotify. Wenn man in solchen Scenarien lange Laufzeiten erreichen kann, ist das ein Gewinn.

Kombiniert mit einer schnellen SSD, wird man das vermutlich kaum merken.

Edit: wobei sich natürlich erst noch zeigen muss, was es wirklich bringt, wenn sowieso sehr gute Stromsparmechanismen in den CPUs vorhanden sind.

Es gibt keine guten Stromsparmechanismen in deinen genannten Szenarien. Die Stromsparmechanismen sind eher im Idle relevant. Aber sobald man nur schon in der Webseite scrollt, sind diese dahin.

Wenn die kleinen Kerne so gut sind, wie bei Intel angepriesen (siehe Folien), dann bräuchte es dan eher nur noch max. 2 grosse Kerne. Zumindest für Laptops, die für nur eben das gedacht sind.

Platos
2021-08-22, 11:12:07
Exakt, die Muster sind nicht fest, das meine ich eben. AMD ist anders als Intel. Ich finds immer richtig albern, wenn dann angenommen wird, dass AMD das dann auch so macht, das ist schlichtweg Unsinn.
Übrigens muss das auch bei Intel so nicht bleiben, das big.LITTLE-Gedöns kann auch bei Royal Core schon wieder vorbei sein (glaub ich aber nicht). Ich denke auch, dass sich das etablieren wird, aber in verschiedenen Ansätzen.

Was ist denn bei AMD besser ? Du sagst anders, aber viel wichtiger ist soch, was besser daran wäre?

Monsta
2021-08-22, 11:41:03
Ist dein PC und dein Mac auch vergleichbar aufgebaut? Welche Grafikkarte steckt in dem Mac?

Ja stimmt schon, sind nicht voll vergleichbar.

Ich werde den Pc mal nur mit M.2ssd ohne Vega 64 und 16Gb booten. Mal gucken was der dann säuft.
Dann ist es eher verlgeichbar, die Gpu im Mac ist dann zwar viel schneller, aber für so Desktopkram sollte das kaum einschlagen.

Platos
2021-08-22, 12:09:13
Ja stimmt schon, sind nicht voll vergleichbar.

Ich werde den Pc mal nur mit M.2ssd ohne Vega 64 und 16Gb booten. Mal gucken was der dann säuft.
Dann ist es eher verlgeichbar, die Gpu im Mac ist dann zwar viel schneller, aber für so Desktopkram sollte das kaum einschlagen.

Guter Vergleich (nicht). Vlt. mal eher sowas wie ne AMD Laptop CPU oder Tigerlake CPU nehmen? Dann dürfte dein Vorhaben genau so möglich sein...

Monsta
2021-08-22, 12:12:59
Guter Vergleich (nicht). Vlt. mal eher sowas wie ne AMD Laptop CPU oder Tigerlake CPU nehmen? Dann dürfte dein Vorhaben genau so möglich sein...

Ich hatte erwähnt das Desktop Pc zuviel verbrauchen, das Notebooks besser sind ist mir nicht entgangen.

Platos
2021-08-22, 12:46:42
Ich hatte erwähnt das Desktop Pc zuviel verbrauchen, das Notebooks besser sind ist mir nicht entgangen.

Das sehe ich auch so. Deswegen ist ja Alderlake ja auch was positives. Aber der Vergleich mit einer Vega64, die extrem viel Strom frisst, ist trotzdem schlecht :freak:

Badesalz
2021-08-22, 13:44:23
Ich hatte erwähnt das Desktop Pc zuviel verbrauchen, das Notebooks besser sind ist mir nicht entgangen.Alle die bei uns per se keine Workstation brauchen und auch nicht wirklich einen Laptop benötigen, bekamen schon vor Jahren nach und nach die Dell Optiplex Micro.
NULL Beschwerden und man konnte an den Messgeräten in den Verteilungen sehen welche Etage schon komplett und welche noch garnicht umgerüstet ist.

Desktop daheim ist meist eine Frage des Egos und nicht der Anforderungen. Ab einer bestimmten Grenze rutschen die Unterschiede beim Nicht-Zocker eh unter die Wahrnehmbarkeit. Der mit der HyperHW surft mit 1.4W, der mit dem Micro mit 4.5W. Der Monitor zieht 25W, die LED-Stehlampe in der Ecke 16W.

fondness
2021-08-22, 13:55:09
Ich sehe auch im Dekstop Potential für Little Big.

Ich finde Dektop PC verbrauchen im Leerlauf viel zu viel. Ich kann mit meinem Mac im einstelligen Watt bereich surfen. Da ist mein PC Faktor 10 von entfernt.

Davon abgesehen sind meine Macs always on. Updates zieht das Ding im Ruhestand bzw zugeklappt. Ohne irgendwelche Emissionen.

Die Big Cores am Pc verbauchen im Leerlauf nix, aber sobald man die etwas beschäftig geht doch ohne Kühler nix. Die ganze Platform fühlt sich für mich total rücktsändig an.

Das ist mit meinen Ideapad 5 PRO genauso möglich, das Ding läuft praktisch immer passiv und ist natürlich ebenfalls always on. Die Desktop-Chips sind eben für was anderes ausgelegt. Zumindest bei AMD ist das Server-Recycling. Einen MAC PRO wird man ja auch nicht so betreiben können.

Monsta
2021-08-22, 13:56:30
Alle die bei uns per se keine Workstation brauchen und auch nicht wirklich einen Laptop benötigen, bekamen schon vor Jahren nach und nach die Dell Optiplex Micro.
NULL Beschwerden und man konnte an den Messgeräten in den Verteilungen sehen welche Etage schon komplett und welche noch garnicht umgerüstet ist.

Desktop daheim ist meist eine Frage des Egos und nicht der Anforderungen. Ab einer bestimmten Grenze rutschen die Unterschiede beim Nicht-Zocker eh unter die Wahrnehmbarkeit. Der mit der HyperHW surft mit 1.4W, der mit dem Micro mit 4.5W. Der Monitor zieht 25W, die LED-Stehlampe in der Ecke 16W.

Genau wenn man fertige Geräte von einem renomierten Hersteller kauft gibt es möglichkeiten das es sehr sparsam ist.

Aber wenn ich Standard kram kaufe, Mainboard Cpu Ram Midrange Gpu und Netzteil. Dann sieht die Realität anders aus.
Mit defaults im Bios kann man ja froh sein wenn man unter 50Watt kommt.

Evtl ist das bei aktuellen Platformen besser, mein 8700k mit z390 ist ja auch nicht mehr ganz aktuell.

BlacKi
2021-08-22, 14:14:19
AMDs big.LITTLE ist ganz anderes gelagert.
Offenbar wird Zen5 so fett, dass Zen4 als "little" gilt. Der ist aber kein .mont-Kerns sondern selbst sehr mächtig und hat SMT. Bei AMD scheinen es ja auch maximal 4 "kleine" Zen4D zu sein, nicht 32 wie bei ARL.
es ist genau gleich gelagert, nur die ausgangsposition ist anders.



Offenbar wird goldencove so fett, dass gracemont als "little" gilt.

desweiteren gab es schon mont cores mit smt. theoretisch könnte der smt vorteil beider hersteller je nach preferenz hinugefügt, oder weggelassen werden. ich kann intel da nicht verstehen warum die kleinen kerne kein smt haben, aber es scheint einen grund zu geben den wir nur nicht kennen. und wenns nur kompatibiltät ist.

die aufteilung der big und der littlecores gerade mit raptorlake und danach ist der richtige weg. von den big cores eine große anzahl zu haben ist beim big little konzept schwachsinn. wenn man multithreading leistung benötigt, dann sind die littlecores massiv im vorteil.

die littlecores von alderlake sind es, die alderlake erfolgreich machen wird, nicht die bigcores alleine.

würden die beschnittenen modelle nicht L3 cache verlieren, dann würde ich glatt eine 4+8 kombi preferieren, des preises wegen und dem mangeldem vorteil ggü. 8+8.

Badesalz
2021-08-22, 20:38:46
ich kann intel da nicht verstehen warum die kleinen kerne kein smt haben, aber es scheint einen grund zu geben den wir nur nicht kennen.Hat der M1 der im Air frühere HEDT unter DaVinci pulverisiert, überhaupt irgendwo SMT?

CrazyIvan
2021-08-23, 06:46:46
@Badesalz
Nein, hat er nicht. Und ich habe dazu folgende These:
Intel/AMD nutzen SMT, weil sie Einheiten, die vom Hauptthread gar nicht ausgelastet werden, nicht so feingranular abgeschaltet bekommen. Das kann man IMHO sehr gut am direkten Vergleich in folgendem Post sehen: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12750096#post12750096

Möglicherweise kann Apple das beim M1 deutlich besser, weshalb der aus SMT keinen Vorteil ziehen würde. Möglichkeit 2 ist, dass der M1 sämtliche Einheiten auch mit nur einem Thread ausgelastet bekommt, aber das glaube ich trotz Riesen-ROB und Caches nicht so recht.

Badesalz
2021-08-23, 09:08:29
Das kann man IMHO sehr gut am direkten Vergleich in folgendem Post sehen: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12750096#post12750096Das klingt in der Tat erstmal recht plausibel.

Möglichkeit 2 ist, dass der M1 sämtliche Einheiten auch mit nur einem Thread ausgelastet bekommt, aber das glaube ich trotz Riesen-ROB und Caches nicht so recht.Was bleibt ist aber die Tatsache, daß dieses Teil bei dem Verbrauch eine... absurd brutale =) Leistung liefern kann.

Dazu hab ich aber die Meinung, daß Apple auch massiv Grips in den Compiler (Codequali) und den Kernel steckt. Was unter x86 auch 2021 noch weiterhin nicht der Fall ist.
Selbst mit Intels BISHER rein eigenem Zeug nicht:
https://software.intel.com/content/www/us/en/develop/blogs/adoption-of-llvm-complete-icx.html#SPECrate2017estimated
https://software.intel.com/content/www/us/en/develop/blogs/adoption-of-llvm-complete-icx.html

Tolle Neuigkeiten oder tolle Peinlichkeiten?

BlacKi
2021-08-23, 11:35:09
sie haben ein OS und das silicon aufeinander abgestimmt. vergleiche mit dem PC schließen sich eigentlich aus, im prinzip wie konsolen und pc. vermutlich wird windows und linux nie bzw. nie gut auf dem m1 laufen. weil zum teil inkompatibel. wie die konsolen zum teil.

Badesalz
2021-08-23, 12:17:43
sie haben ein OS und das silicon aufeinander abgestimmt. vergleiche mit dem PC schließen sich eigentlich aus, im prinzip wie konsolen und pc.Wenn Windows 2021 noch nicht auf x86 abgestimmt ist, dann fehlts bei mir. Sorry. Was ist das denn für ein Satz bitte? :ulol:

Muss man die CPU auch auf ein OS abstimmen? Nein, muss man nicht. Das OS kann man immer anpassen.

BlacKi
2021-08-23, 12:29:12
du kannst die cpu auf die needs des os und der programme abstimmen.

BTT: keine ahnug ob das schon gepostet wurde.

Intel Thread Director

h4ENatPLsro

Badesalz
2021-08-23, 12:36:04
du kannst die cpu auf die needs des os und der programme abstimmen.Ah? Nicht umgekehrt? Was ist das dann, spätestens, für ein Dreckscompiler? Geschweige von den grundverkehrten Codeschnippeln.

Bist du sicher, daß du dir so sicher sein solltest? Hier wird genau das Gegenteil bewiesen
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12769019#post12769019

HOT
2021-08-23, 12:40:28
Das sind glaube ich 2 verschiedene Paar Schuhe. M1 + MacOS + optimierter Code ist wie ne Konsole. Der PC ist immer noch ein PC, Windows muss auf etlichen verschiedenen CPU-Architekturen laufen, die an sich wahrscheinlich auch wesentlich unflexibler sind als der M1. Sieh dir doch an, was Intel für einen Hardwareaufwand treiben muss, damit Windows endlich mit little-Kernen klarkommen kann und diese Technologie gibts es jetzt schon ganz schön lange, das ist ja nix neues.
PC+Windows ist halt was anderes als ein komplettes aufeinander abgestimmtes Mac-System mit entsprechend angepasster Software.

es ist genau gleich gelagert, nur die ausgangsposition ist anders.

[...]

Du willst jetzt nicht ernsthaft nen Tremont mit nem Zen4-Core vergleichen oder? Das sind vollkommen andere Ansätze.

Tralalak
2021-08-23, 12:50:31
e5LEpkJbqeI



lBwYdoQp8B0

Der_Korken
2021-08-23, 13:02:53
Dazu hab ich aber die Meinung, daß Apple auch massiv Grips in den Compiler (Codequali) und den Kernel steckt. Was unter x86 auch 2021 noch weiterhin nicht der Fall ist.
Selbst mit Intels BISHER rein eigenem Zeug nicht:
https://software.intel.com/content/www/us/en/develop/blogs/adoption-of-llvm-complete-icx.html#SPECrate2017estimated
https://software.intel.com/content/www/us/en/develop/blogs/adoption-of-llvm-complete-icx.html

Ist schon krass, was man allein durch angepasste Compiler an Performance rausholen kann. Man kann sicher davon ausgehen, dass Apple massiv optimierte Compiler für ihre Systeme verwendet, was dann auch die hohe Leistung zumindest teilweise relativiert. Bei Windows stammt der Großteil der verwendeten Software nicht aus der Hand von Microsoft, d.h. die Binaries sind mit irgendeinem Compiler erstellt worden, auf den keine zentrale Instanz einen Einfluss hat. Für optimale Performance müsste man mehrere Binaries für unterschiedliche CPU-Architekturen bereitstellen, denn Intel und AMD werden sich intern so stark unterscheiden, dass man mit generischer Optimierung immer viel liegen lässt. An der Stelle bin ich aber gespalten, ob das der richtige Weg ist: Jeder Chip-Ersteller muss jetzt auch noch seinen eigenen Compiler mitliefern und dafür sorgen, dass Binaries damit verteilt werden, sonst verliert er 30% Performance gegenüber der Konkurrenz. Das könnte dann auch wieder zu Auswüchsen führen, wo Chiphersteller X Softwarehersteller Y Geld zahlt, damit er keine optimierten Binaries für die Konkurrenz erstellt (und den Quellcode natürlich auch nicht rausrückt). Hier ist Apple mit ihrer Plattform einfach im Vorteil.

CrazyIvan
2021-08-23, 13:28:11
@Der_Korken
Das was Du im letzten Absatz beschreibst ist bereits gelebte Realität. Intel hat Microsoft bereits in den 80ern bezahlt, damit die optimierte Kompilate (für DOS Excel) verwenden und AMD benachteiligen.

Trotzdem ist das mit der Software Optimierung ein Ammenmärchen für die meisten Workloads. Glaubt hier jemand ernsthaft, dass Cinebench mit "optimiertem" Code auf Wintel um 50% zulegen würde?

Badesalz
2021-08-23, 14:44:03
Das sind glaube ich 2 verschiedene Paar Schuhe. M1 + MacOS + optimierter Code ist wie ne Konsole. Der PC ist immer noch ein PC, Windows muss auf etlichen verschiedenen CPU-Architekturen laufenFür mich läuft Windows immer nur auf der x86 Architektur. Wie stellen wir eigentlich die IPC und sonstige Verbesserungen fest, wenn es nur generic Code gibt und das eben auf Skylake kaum besser geht als auf Sandy? Oder doch nicht? :freak:

Zweitens: Noch keiner hier was von codepaths gehört?
Sieh dir doch an, was Intel für einen Hardwareaufwand treiben muss, damit Windows endlich mit little-Kernen klarkommen kann und diese Technologie gibts es jetzt schon ganz schön lange, das ist ja nix neues.Unter Win10 passiert da auch quasi garnichts. Das ganze lebt erst mit Win11 auf -> Kernel-Anpassung.

Trotzdem ist das mit der Software Optimierung ein Ammenmärchen für die meisten Workloads. Glaubt hier jemand ernsthaft, dass Cinebench mit "optimiertem" Code auf Wintel um 50% zulegen würde?Ich poste einen Link nach Intel wo man nur mit einer Wahl des Compilers +30% bekommen kann, du postest diese Frage... :uclap:

DaVinci lief bereits nativ (!) und war erheblich schneller. Wir sprachen doch schon bereits davon wie DaVinci auf M1 abgeht. Jetzt hat man auf der neuen Platform nochmals noch und nöcher alle möglichen Nadelöhre getraced und ist nun gigantisch schneller. Das zum Thema Softwareoptimierung :usweet:

@Der_Korken
Für optimale Performance müsste man mehrere Binaries für unterschiedliche CPU-Architekturen bereitstellen, denn Intel und AMD werden sich intern so stark unterscheiden, dass man mit generischer Optimierung immer viel liegen lässt."Viel" sehe ich nicht. Was so manche gameengine(version) zeigt. Meist haben die Programmierer einfach nur keine Ahnung bzw. man gibt dafür kein Geld aus (das leidige Thema mit Lightroom z.B.)

aufkrawall
2021-08-23, 14:53:01
Kann mir nicht vorstellen, dass da so viel brach liegen soll. Gibt zwar Unterschiede zwischen MSVC, GCC und Clang/LLVM bei der Performance des generierten Codes, aber afaik liegen da selten Welten zwischen. Dann wären ja alle drei Projekte komplett auf dem Holzweg...

HOT
2021-08-23, 14:57:07
Hier gehts ja auch um Speicher und Caching usw. Das ist ja nicht einfach nur mit nem Compiler getan. Wieso reicht für viele Spiele ein Jaguar auf der Konsole und auf dem PC dann aber noch lange nicht? Das sind Äpfen und Birnen.

BlacKi
2021-08-23, 15:17:21
ja, im prinzip ist m1+ software eine geschlossene konsole.

HOT
2021-08-23, 15:21:29
Und es ist ja schon richtig, intern laufen AMD und Intel-CPUs grundverschieden - aber nicht nur da, vergleiche mal BD mit Zen oder Skylake mit .cove. Die ISA ist halt gleich und klar gibts auch Optimierungen, die auf allen CPUs was bringen. Aber im Grunde erschöpft sich das ja auch da auf dem PC. Auf der Konsole kann man eben deutlich mehr machen, da gibts halt nur den Jaguar. Auf Apple ist das ähnlich, da gibts halt nur den M1 (und dessen Nachfolger dann). Der Windows Scheduler ist halt so wie er ist, weil er mit allen CPUs läuft. Bei Linux ist das ja schon wieder ne andere Kiste z.B., aber für Windows gibts eben nur irgendwelche Minimalanpassung wie das Coreparking, die BD-Modul-Optimierung, SMT-Optimierung, CCX-Optimierung und jetzt eben die Optimierung für den ADL-Hardwarescheduler. Das kratzt doch nur an der Oberfläche.

Gipsel
2021-08-23, 15:59:38
Und ich habe dazu folgende These:
Intel/AMD nutzen SMT, weil sie Einheiten, die vom Hauptthread gar nicht ausgelastet werden, nicht so feingranular abgeschaltet bekommen. Das kann man IMHO sehr gut am direkten Vergleich in folgendem Post sehen: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12750096#post12750096Was soll man da woran sehen?
Ohne SMT wird doch auch (bei niedrigerer Performance) weniger verbraucht.
Ich sehe da, daß sowohl die absolute Performance als auch die Performance/Watt mit SMT steigt (außer bei extrem geringem PPT, wo auch die Frequenzskalierung steiler wird als die Änderung des erlaubten Verbrauchs).
Dies spricht für die altbekannte Weisheit, daß AMD und intel das verbauen, weil es eben genau das tut: (Multithread-)Performance (und Performance/Watt) zu steigern und das für relativ geringe Kosten im Silizium. Auch der M1 würde von SMT profitieren, wenn es denn verbaut wäre. Mit SMT amortisiert sich der nicht vermeidbare Overhead schlicht besser (über eine höhere Gesamtperformance, weswegen eben auch an üblichen Betriebspunkten [alle außer extrem restriktive Powerlimits] Performance/W steigt).

Tralalak
2021-08-23, 17:29:31
Hot Chips 2021
Intel Alder Lake P-Core & E-Core Detailed: Golden Cove Offers 50% Higher Single-Threaded & Hybrid Design Offers 50% Higher Multi-Threaded Performance
source: https://wccftech.com/intel-alder-lake-p-core-e-core-detailed-golden-cove-offers-50-higher-single-threaded-hybrid-design-offers-50-higher-multi-threaded-performance/

Badesalz
2021-08-23, 17:33:15
Kann mir nicht vorstellen, dass da so viel brach liegen soll.So wirklich adeln ("Intel classic compiler" neuerdings) tut das Intel ja nicht. Und die posten das trotzdem. Meinst du die faken sich was zusammen? Hmm.

MiamiNice
2021-08-23, 17:55:56
ich kann intel da nicht verstehen warum die kleinen kerne kein smt haben, aber es scheint einen grund zu geben den wir nur nicht kennen. und wenns nur kompatibiltät ist.

von den big cores eine große anzahl zu haben ist beim big little konzept schwachsinn.

Entweder habe ich das Konzept nicht richtig verstanden oder Du.

So wie ich das verstehe hat man 8 sehr schnelle vollständige Kerne für eine massive ST Leistung. Noch heute wird die am Desktop viel öfter abgefragt als MT Leistung. Quasi jedes Spiel verlangt danach und auch die meisten Office Programme.
Man bekommt 8 kleine Kerne dazu um die Hintergrund Threads dahin zu schieben, damit die großen frei bleiben. Wozu sollten dann die kleinen Cores SMT haben? Es sind mehr oder weniger im Desktop Betrieb "Parkplätze".

Wenn ich es recht in Erinnerung habe skalieren MT Anwendungen, die den CPU auslasten, z.b. Cinebench, dann auch noch kaum mit HT. Teilweise ist HT sogar ein Nachteil. Ist auch logisch da HT die Auslastung einer CPU erhöht wenn sie gerade irgendwo/irgendwie feststeckt. Dann kann auf einer zweiten Pipeline "weiter gemacht" werden - diese Situation hast Du bei den üblichen Verdächtigen wie Cinebench oder Blender nicht/kaum.

Deswegen ist es imo auch kein Unfug viele von den großen Kernen zu haben. Spiele skalieren aktuell nicht über 8 Kerne. Die 5 die das tun skalieren über 8 Kernen trotzdem mies. Die meisten Games heute kommen irwo mit 6 Kernen aus - und brauchen so viele weil der NV GPU Treiber sich gerne viele Kerne nimmt. Hat kaum was mit dem Spiel zu tun. Einige neue Games hängen sogar noch immer an der Performance eines Kerns (hier sogar über 90% der Games die ich spiele).

Mir macht Alder Lake den Anschein als würde man ihn für den Desktop Gamer bauen. 8 krasse Kerne die der Konkurrenz wegrennen und nen paar kleine dabei um die irrelevante Gesamtleistung der CPU zu pushen damit auch die ganzen CB Kids, in ihrem MT Benches, wieder einen blauen CPU sehen.
Dass das ganze, in erster Linie für Gamer, bzw. Intels Ruf gemacht wird - zeigt mir Raptor Lake - der speziell für Gamer ausgelegt wird. Denn hier wird die Meinung gebildet, die sich dann in der Masse potenziert (siehe AMD).
In Zukunft werden wir dann wohl immer so viele volle Kerne sehen, wie Spiele etwas damit anfangen können + immer mehr kleine Kerne für tolle synthetische Benches. Danke AMD.

Mir persönlich wären 8 P Cores mit einer TDP von ca. 350 Watt lieber - aber was weiß ich schon :freak:

basix
2021-08-23, 18:09:54
Cinebench und Blender sind schlechte Beispiele für schlechte SMT Skalierung. Das skaliert +25...40% mit SMT, je nach CPU-Architektur. Bei AMD etwas mehr als bei Intel. SMT bringt am deutlichsten Vorteile, wenn die Latenzen innerhalb des Tasks wenig kritisch ist.

Der_Korken
2021-08-23, 18:13:59
Wenn ich es recht in Erinnerung habe skalieren MT Anwendungen, die den CPU auslasten, z.b. Cinebench, dann auch noch kaum mit HT. Teilweise ist HT sogar ein Nachteil. Ist auch logisch da HT die Auslastung einer CPU erhöht wenn sie gerade irgendwo/irgendwie feststeckt. Dann kann auf einer zweiten Pipeline "weiter gemacht" werden - diese Situation hast Du bei den üblichen Verdächtigen wie Cinebench oder Blender nicht/kaum.

Dann starte mal Cinebench und lass den einmal mit allen Threads laufen und einmal nur mit einem pro Kern. Macht bei mir bescheidene 40% Unterschied.

Die Frage warum die Cove Mont-Kerne bei der Breite kein SMT haben ist durchaus berechtigt. Wenn, dann würde man das eher bei den großen Kernen weglassen, denn es bringt nur bei MT Vorteile und dafür hat man ja jetzt die kleinen Kerne, die das in jeder Lage effizienter erledigen als die Großen. Vielleicht kommt SMT für die Mont-Kerne bei der nächsten Iteration und Intel hat erstmal nur einen Schritt vor dem anderen gemacht.

Daredevil
2021-08-23, 18:14:20
Es verbraucht mit HT aber halt auch mehr Saft, HT ist auch nicht "umsonst". ( Saft, den wir sparen wollen mit einem "Stromsparkern" )
Es wird schon einen offensichtlich guten Grund haben, wieso Intel darauf verzichtet und wieso Apple trotz "4 Mini Kerne" neben den 4 schnellen sehr erfolgreich ist, nicht nur in ST, sondern auch im MT + Energieeffizienz.

BlacKi
2021-08-23, 18:50:08
Mir persönlich wären 8 P Cores mit einer TDP von ca. 350 Watt lieber - aber was weiß ich schon :freak:
ich glaube, die könnte es geben. es gab immer wieder von configs zu lesen, wo die smalls deaktiviert werden. aber die werden langsamer sein als die 8+8, weil ihnen cache fehlen wird und später auch cores.


gerade mit einer 125w tdp und darunter machen die kleinen kerne den unterschied.



mich interessieren echt mal gaming benches auf w11 mit einer 2+8 config, zur performance einordnung ohne tdp limit.

BlackBirdSR
2021-08-23, 19:51:50
Du willst ja noch Luft nach oben haben in Zukunft....
Wenig Aufwand für maximalen Gewinn


Es verbraucht mit HT aber halt auch mehr Saft, HT ist auch nicht "umsonst". ( Saft, den wir sparen wollen mit einem "Stromsparkern" )
Es wird schon einen offensichtlich guten Grund haben, wieso Intel darauf verzichtet und wieso Apple trotz "4 Mini Kerne" neben den 4 schnellen sehr erfolgreich ist, nicht nur in ST, sondern auch im MT + Energieeffizienz.

HOT
2021-08-23, 20:03:26
ich glaube, die könnte es geben. es gab immer wieder von configs zu lesen, wo die smalls deaktiviert werden. aber die werden langsamer sein als die 8+8, weil ihnen cache fehlen wird und später auch cores.


gerade mit einer 125w tdp und darunter machen die kleinen kerne den unterschied.



mich interessieren echt mal gaming benches auf w11 mit einer 2+8 config, zur performance einordnung ohne tdp limit.

Also bis Arrow Lake (2024er Architektur) wirds voraussichtlich bei 32 Threads für 32 Kleinkerne bleiben, die CPU hat 48Threads. MMn werden die kleinen Kerne den Unterschied bei massivem MT ohne Synchronisation (z.B. Cinebench) und bei 9-35W machen, ansonsten eher kaum. SMT halte ich bei der sowieso schon massiven Anzahl der Kleinkerne-Threads für vollkommen unsinnig.

LivingAudio
2021-08-23, 20:26:54
Es verbraucht mit HT aber halt auch mehr Saft, HT ist auch nicht "umsonst"...

Ist das so? Also braucht HT mehr Saft als es Leistung bringt? Oder hab ich dich da nur falsch gehört?

CrazyIvan
2021-08-23, 20:39:32
Ich poste einen Link nach Intel wo man nur mit einer Wahl des Compilers +30% bekommen kann, du postest diese Frage... :uclap:

DaVinci lief bereits nativ (!) und war erheblich schneller. Wir sprachen doch schon bereits davon wie DaVinci auf M1 abgeht. Jetzt hat man auf der neuen Platform nochmals noch und nöcher alle möglichen Nadelöhre getraced und ist nun gigantisch schneller. Das zum Thema Softwareoptimierung :usweet:

Der Compilervergleich erstaunt mich sehr. Ich wusste, dass das vor 20 Jahren so war, hatte aber angenommen, dass das mittlerweile weitestgehend konvergiert sei. Ich sollte vielleicht nicht auf Arbeit in der Pause posten, wenn ich keine Zeit zum Lesen von Quellen habe. Aber Danke für die Links.

Zu DaVinci:
Da war die vorherige Implementierung anscheinend auch extrem schlecht bzw. unvollständig. In den Changes steht, dass überhaupt erst jetzt die Media Engine des M1 verwendet wird. Und darauf werden sich sicher die "up to 3x" auch beziehen.

Badesalz
2021-08-23, 20:43:59
Also bis Arrow Lake (2024er Architektur) wirds voraussichtlich bei 32 Threads für 32 Kleinkerne bleiben, die CPU hat 48Threads. MMn werden die kleinen Kerne den Unterschied bei massivem MT ohne Synchronisation (z.B. Cinebench) und bei 9-35W machen, ansonsten eher kaum. SMT halte ich bei der sowieso schon massiven Anzahl der Kleinkerne-Threads für vollkommen unsinnig.Ja das erübrigt sich langsam, da es nun kein Drama mehr ist 16 "volle" Threads zu bauen.
Wir kriegen aber eben Serverabfall. Da sind mehr Threads weiterhin wichtig.

Der Compilervergleich erstaunt mich sehr.Ok ;)

Zu DaVinci:
Da war die vorherige Implementierung anscheinend auch extrem schlecht bzw. unvollständig.Eher weniger. Das war schon erheblich schneller, auf dem M1 Air, als auf einem mittleren MacPro. Sagte ich schon. Jetzt wird es noch um mind. 1 Größenordnung schneller als als davor auf dem M1.

In den Changes steht, dass überhaupt erst jetzt die Media Engine des M1 verwendet wird. Und darauf werden sich sicher die "up to 3x" auch beziehen.Eher weniger. Bei dem Coder ist die Rede von bis zu +65% und das wenn man eine leicht verminderte Quali - als sehr gut über CPU - hinnimmt. Da kommt man nicht auf 3x mit.

CrazyIvan
2021-08-23, 20:52:35
Was soll man da woran sehen?
Ohne SMT wird doch auch (bei niedrigerer Performance) weniger verbraucht.

Ähm, nein. Der Gesamtverbrauch ist mit SMT geringer, nur die mittlere Leistungsaufnahme ist höher, jedoch über einen deutlich kürzeren Zeitraum.


Dies spricht für die altbekannte Weisheit, daß AMD und intel das verbauen, weil es eben genau das tut: (Multithread-)Performance (und Performance/Watt) zu steigern und das für relativ geringe Kosten im Silizium. Auch der M1 würde von SMT profitieren, wenn es denn verbaut wäre. Mit SMT amortisiert sich der nicht vermeidbare Overhead schlicht besser (über eine höhere Gesamtperformance, weswegen eben auch an üblichen Betriebspunkten [alle außer extrem restriktive Powerlimits] Performance/W steigt).
Natürlich ist es eine altbekannte Weisheit. Die Frage ist doch aber, warum. SMT nützt, wenn die Auslastung der Rechenwerke schlecht ist. Darin sind wir uns doch einig? Wenn ungenutzte Rechenwerke jedoch sehr feingranular (räumlich UND zeitlich) komplett deaktiviert werden könnten, dann sinkt auch der Nutzen von SMT hinsichtlich Energieeffizenz. Du postuliert einen für alle gleichen Sockel von "nicht vermeidbarem Overhead". Vielleicht können M1 und auch Gracemont viel besser clock gaten (u.ä.), als Zen und .cove das können.

Naitsabes
2021-08-23, 22:14:05
Ich kann mir vorstellen, dass Intel aufgrund der unzähligen Side Channel Attacken in letzter Zeit gerne auf SMT verzichten möchte.

Persönliche Spekulation: Wir sind in den letzten Generationen von Intels Core Architektur.
Gracemont ist für die Größe (Die) verdammt fett.
Vielleicht sind die kleinen Kerne echt die Zukunft. Wenn Gracemont mit seinem riesigen Backend gut funktioniert, dann kann man die Architektur sicherlich noch sehr gut skalieren. Wohingegen die Core Architektur ziemlich ausgequetscht wirkt.
Neustart ohne SMT?

BlacKi
2021-08-23, 22:18:39
wenn es so wäre, dann würden wir schon alderlake komplett ohne smt sehen. ich glaube man braucht aber smt für die big cores, weil man die schlechter auslasten kann. dort ist der vorteil durch smt größer als bei den kleinen.

Naitsabes
2021-08-23, 22:22:41
Ja, aber wenn Grace sein Backend ohne SMT auslasten kann, Golden Cove jedoch nicht, spricht das ja noch viel mehr dafür das Core einfach langsam ans Ende kommt.

BlacKi
2021-08-23, 22:28:20
die nachfrage an den big cores bleibt aber bestehen, deshalb auch die not für smt. mich würde ja auch mal die performance von einer reinen 16 smallcore cpu interessieren aber mit derselben menge an cache. dürfte ziemlich klein sein, aber trotzdem schneller als alles sein was man heute im desktop von intel bekommt. multi wie single threaded.

ach wird das ein schönes rumgeteste, wenn ich an der hw selbst rumschrauben kann^^

HOT
2021-08-23, 22:30:08
Naitsabes
Royal Core dürfte genau dem Rechnung tragen mMn. Der Vergleich mit P4 vs. Core ist mMn relativ treffend gewählt. Man löst eine in die Jahre gekommene Philosophie durch eine neue moderne ab.

Gipsel
2021-08-23, 22:36:31
Was soll man da woran sehen?
Ohne SMT wird doch auch (bei niedrigerer Performance) weniger verbraucht. Ich sehe da, daß sowohl die absolute Performance als auch die Performance/Watt mit SMT steigt (außer bei extrem geringem PPT, wo auch die Frequenzskalierung steiler wird als die Änderung des erlaubten Verbrauchs).
Ähm, nein. Der Gesamtverbrauch ist mit SMT geringer, nur die mittlere Leistungsaufnahme ist höher, jedoch über einen deutlich kürzeren Zeitraum.Ich meinte schon den instantanen Verbrauch, nicht den integrierten. Die Sache mit der Performance/Watt sollte das klar machen.
Wir sind uns also einig, was man da sieht. Die Frage bleibt, was soll das Deiner Meinung nach zeigen?

Dies spricht für die altbekannte Weisheit, daß AMD und intel das verbauen, weil es eben genau das tut: (Multithread-)Performance (und Performance/Watt) zu steigern und das für relativ geringe Kosten im Silizium. Auch der M1 würde von SMT profitieren, wenn es denn verbaut wäre. Mit SMT amortisiert sich der nicht vermeidbare Overhead schlicht besser (über eine höhere Gesamtperformance, weswegen eben auch an üblichen Betriebspunkten [alle außer extrem restriktive Powerlimits] Performance/W steigt).
Natürlich ist es eine altbekannte Weisheit. Die Frage ist doch aber, warum. SMT nützt, wenn die Auslastung der Rechenwerke schlecht ist. Darin sind wir uns doch einig?Die ist statistisch gesprochen fast immer schlecht, völlig unabhängig von der konkreten CPU. ;)
Wenn ungenutzte Rechenwerke jedoch sehr feingranular (räumlich UND zeitlich) komplett deaktiviert werden könnten, dann sinkt auch der Nutzen von SMT hinsichtlich Energieeffizenz. Du postuliert einen für alle gleichen Sockel von "nicht vermeidbarem Overhead". Vielleicht können M1 und auch Gracemont viel besser clock gaten (u.ä.), als Zen und .cove das können.Selbst wenn sie es besser könnten, bleibt immer noch was übrig. Auch mit Clockgating verbraucht vorhandene Logik immer noch was (die Spannung wird ja nicht abgesenkt sondern es fehlt nur das Taktsignal).
Selbst falls die gegatete Logik wirklich Null verbrauchen würde, ließe sich mit SMT in Multithread-Szenarien immer noch Performance/Watt gewinnen. Du fragst wie? Angenommen SMT bringt 20% Mehrperformance (recht konservativ geschätzt) für 20% Mehrverbrauch (realerweise fällt sie Mehrperformance höher als der Mehrverbrauch aus). Was passiert dann im Powerlimit? Damit das nicht gerissen wird, taktet die CPU 6% niedriger und senkt die Spannung sagen wir mal ebenfalls um 6% (da taktet man dann schon im recht effizienten Bereich, am obersten Ende der Frequenz-Spannungskurve könnte man mehr Spannung für einen geringeren Taktverlust erreichen). Ergebnis: Die CPU verbraucht genau so viel wie vorher (1,2*0,94³ = 1), leistet aber 12,8% mehr (1,2*0,94). Ergo steigt die Energieeffizienz in Multithreadszenarien um knapp 13%.
Jetzt überzeugt?

Naitsabes
2021-08-23, 22:58:27
Aber SMT bringt eben nur Multithread etwas.
Single Thread könnte es die Leistung sogar begrenzen (Cache Trashing, "blockierte" Ausführungseinheiten etc.).
Konsequent big.LITTLE gedacht, würde ein ST-Performance Kern ohne SMT praktischer sein. big-Kerne für ST, LITTLE für Multi.

Gratzner
2021-08-23, 23:00:10
Selbst wenn sie es besser könnten, bleibt immer noch was übrig. Auch mit Clockgating verbraucht vorhandene Logik immer noch was (die Spannung wird ja nicht abgesenkt sondern es fehlt nur das Taktsignal).
Jetzt überzeugt?
Ich sehe das aber anders. CMOS-Gatter verbrauchen nur Strom, wenn sie schalten und das tuen sie nur, wenn sich die Pegel an den Eingänge verändern.

Wenn ich das Taktsignal wegnehme, ändern die Flipflops ihre Ausgänge nicht mehr und damit die direkt anliegenden Gattern an den FF und im nächsten Schritt die daran anliegende Gattern und immer so weiter. Ein zweiter Faktor, welcher die Gatter noch schalten lassen könnte, wären Inputs von Außerhalb, die man sicherlich auch still legt.

In der Theorie der sequentiellen Logik gibt es somit keine Gatter, welcher
durch das abschalten der Flipflops und der Inputs, noch schalten könnten nachdem das letzte Signal vollständig durch ist.

Ich habe ganz blaß in Erinnerung, dass man digitale Schaltkreise normalerweise (mit Ausnahmen von SRAM, DRAM, etc) immer nach Methoden konstruiert, welche die sequentielle Logik als Grundtheorie haben. (Eine große Ausnahme könnte hier noch digitale Schaltungen der DGLs von LTI-Systemen sein. Wobei, wenn man deren Inputs ebenfalls auf ein festen Pegel setzt, schalten die auch nichtmehr, nachdem das letzte Signal durch ist)

Vllt. kennt sich Skysnake mit sowas aus

Naitsabes
2021-08-23, 23:07:45
Ich sehe das aber anders. CMOS-Gatter verbrauchen nur Strom, wenn sie schalten und das tuen sie nur, wenn sich die Pegel an den Eingänge verändern.




Das ist schon seit vielen Jahren überholt (war es eigentlich schon immer. Aber die Vereinfachung passte einige Zeit lang noch recht gut).
In modernen Fertigungsprozessen ist die static Leakage vergleichbar oder mit Pech gar größer als die dynamic leakage.

Gratzner
2021-08-23, 23:21:42
Die Statische Leackage ist sicherlich nicht in der Größenordnung von dynamic leakage (was soll das sein? Ich denke Du meinst Schaltungsverluste). Sonst hätte eine CPU im Idle ebenfalls die Größenordnung des halben Stromverbrauch unter Last. Davon ab, hat man immer diese Leckströme, egal on SMT oder Little-Cores, whatever

maximus_hertus
2021-08-23, 23:24:45
Gibts eigentlich schon Preis (Spekulationen)? Wenn Intel wieder die Krone übernimmt, werden sie wohl wenig zimperlich sein?

Naitsabes
2021-08-23, 23:26:17
Mit dynamic leakage meinte ich nichts anderes als die Leistung beim Schalten. Unglücklich formuliert.

Gipsel
2021-08-23, 23:30:48
Aber SMT bringt eben nur Multithread etwas.
Single Thread könnte es die Leistung sogar begrenzen (Cache Trashing, "blockierte" Ausführungseinheiten etc.).Was soll da blockieren, wenn es keinen weiteren Thread gibt, der gerade ausgeführt werden soll?
Man muß nur sicherstellen, daß möglichst alle Ressourcen auch einem Einzelthread zur Verfügung stehen können, wenn es nur einen gibt (was bis auf kleinere Ausnahmen normerweise der Fall ist, ist ja kein CMT wie Bulldozer ;)).
Konsequent big.LITTLE gedacht, würde ein ST-Performance Kern ohne SMT praktischer sein. big-Kerne für ST, LITTLE für Multi.Mit SMT kann man Designentscheidungen rechtfertigen, die Singlethread nur Prozentbruchteile von Mehrleistung bringen und die Energieeffizienz tendentiell verringern (wo es aber meist nicht so entscheidend ist), weil man das Multithread per SMT wieder kompensieren kann (dort sieht die Rechnung eventuell anders aus). Also indirekt kann SMT also auch für Single Thread einen (kleinen) Vorteil bringen.

==================

Ich sehe das aber anders.
1. Leakage
2. Alles was oben hinter "Selbst falls die gegatete Logik wirklich Null verbrauchen würde" steht, ist unabhängig davon.

Edit:
Die Statische Leackage ist sicherlich nicht in der GrößenordnungSie existiert und ist größer Null. Das reicht.

Sonst hätte eine CPU im Idle ebenfalls die Größenordnung des halben Stromverbrauch unter Last.Im idle sinkt auch die Spannung mit dem Takt (zusätzlich zum Clockgating). Außerdem gibt es in einigen CPUs auch noch sowas wie ganze Funktionsblöcke von der Versorgungspannung zu trennen (also nicht nur clock gating sondern zusätzlich auch power gating). Beides verringert oder verhindert gar Leakage (Leakage skaliert meist stärker als dynamic power mit der Spannung). AMD hat sogar prinzipiell ziemlich ineffiziente Linearregler on-Die verbaut, um die Versorgungsspannung feingranular regeln zu können, weil das in der Gesamtbetrachtung die Effizienz erhöht (jetzt nicht spezifisch für idle, aber es geht in die gleiche Richtung, daß die Spannung in der Betrachtung sehr wichtig ist).

aufkrawall
2021-08-23, 23:54:16
Es sei noch angemerkt: HT erhöht auch nicht nur die Auslastung bei MT, sondern vermeidet auch Context Switches bei Spielen, die zu viele Threads für die Anzahl der vorhandenen logischen Kerne spawnen. Dann ist ohne HT nicht nur der Balken kürzer, sondern es stallt irgendwann auch widerwärtig. Kein HT ist im offenen PC-Ökosystem für Spiele quasi geplante Obsoleszenz.

MiamiNice
2021-08-24, 02:39:37
Gibts eigentlich schon Preis (Spekulationen)? Wenn Intel wieder die Krone übernimmt, werden sie wohl wenig zimperlich sein?

So sehr wie sich Intel die letzten Monate gestreckt hat, könnte ich mir gar eine aggressive Preisgestaltung vorstellen.

dildo4u
2021-08-24, 04:37:17
Intel hat eh keine Kontrolle über DDR5 Preise für optimale Performance macht das Ding vermutlich kein Sinn was Preis/Leistung angeht, aber zur Zeit wird eh fast alles gekauft was aus Silizium besteht.

Badesalz
2021-08-24, 11:21:58
Alles gut, aber man sollte vielleicht auch nicht ganz vergessen, daß die Kleinen ebenfalls rechnen können und das nicht nur für Word und Internet was taugt. Oder sie bei hoher Last abgeschaltet werden müssen...

WedgeAntilles
2021-08-24, 12:11:41
Gibts eigentlich schon Preis (Spekulationen)? Wenn Intel wieder die Krone übernimmt, werden sie wohl wenig zimperlich sein?
Das Flaggschiff wird sicherlich teuer sein. Das war ja bei Intel immer so.
Aber ich denke es wird auch wieder CPUs geben die preislich sehr attraktiv sind.
Etwas langsamer als die Top-Modelle, dafür deutlich preiswerter.
Das war ja bei Intel eigentlich auch meistens so.
Wenn es nicht das schnellste Modell sein musste, hat man bei Intel meistens ein gutes Preis-Leistungs-Verhältnis bekommen.

Ich hoffe nicht, dass sich das bei Alderlake ändert.

dildo4u
2021-08-24, 12:18:20
Ich dachte laut Igor kommt erstmal nur der High-End Chipsatz, da machen i5 vieleicht erstmal kein Sinn wenn alle Boards 200€+ kosten.

WedgeAntilles
2021-08-24, 12:22:01
Ich dachte laut Igor kommt erstmal nur der High-End Chipsatz, da machen i5 vieleicht erstmal kein Sinn wenn alle Boards 200€+ kosten.
Hieß es nicht, dass 2021 nur die K Modelle kommen und dann Anfang 2022 der Rest?

Ich bezog mich nicht auf den direkten Launch 2021 sondern auf Anfang 22, wenn das Portfolio weitgehend veröffentlich ist.

dildo4u
2021-08-24, 12:26:30
Ich würde so oder so warten und gucken wie sich Zen 3D macht, wenn das eh alles gleichzeitig kommt.
Mit dem i9 hat man im Herbst nicht das ganze Bild.

davidzo
2021-08-24, 12:43:29
Ich bin da sehr skeptisch dass das die nächste top Gaming CPU wird.
Spiele reagieren hauptsächlich auf Hitrate, Latenzen und auf FPU Verbesserungen. Zen3 hat beides gebracht, +50% Issue width in der FPU samt breiteren FP-registern, sowie gigantischer L3 cache.

Ich glaube Intel ja, dass sie mit dem breiteren Frontend, großem ROB und 12 execution ports die Performance in Cinebench, Geekbench oder gar Basemark und Octane hoch bekommen. Da halte ich für +50% IPC über Skylake schon für möglich. Allerdings auch bei höherem Verbrauch pro Core und ohne gesteigertem Takt.
Aber was soll das in Games bringen?

Und die E-cores, thread director, etc. das Klingt doch alles eher nach Problemen als nach FPS.

Ich kann mir eher vorstellen dass Zen3D da als reinrassige Spiele CPU die Krone übernimmt.
Dann wird es einige Browserbenches, Scientific Workloads etc. geben wo Alderlake klar führt. In anderen reinen MT Szenarien und bei vergleichbarem Energiebudget wird der 5950x allerdings weiterhin King sein. Es sind halt nur 8x E-cores und +50% an Effizienz gegenüber Skylake reißt es halt nicht in MT. Skylake bräuchte schon eher +200% an Effizienz um mit 16C Vermeer an Effizienz mit zu halten. Es ist noch nicht mal klar ob die E-cores überhaupt Zen3 Effizienzlevel erreichen.
Es wird sicher wieder boards geben die dauerhaft die 228W PL2 anlegen und damit wird der Prozessor mit dem 5950x konkurrenzfähiger, aber das ist eben ein Äpfel-Birnen Vergleich.

WedgeAntilles
2021-08-24, 12:50:48
Wird spannend.

Wann konnte man das zuletzt von einer Intel CPU behaupten?
Ich bin aber optimistisch, dass man auch mit Alder Lake eine gute Gaming CPU Variante bekommt.
Also ein möglichst gutes FPS / Euro Verhältnis.

So toll Zen 3 ja ist - wenn es ums Gaming geht ist ein 10400F aktuell schlicht die beste Preis-Leistungs-Wahl.

Das ist mir persönlich weit wichtiger als für wenige Prozentpunkte mehr Frames massig Aufpreis zu zahlen.

Aber hieß es nicht auch mal vor nem halben Jahr oder so, dass Alderlake fürs Gaming nicht der große Wurf wird und dann Raptor Lake einige Gaming-Verbesserungen bekommen soll?

Der_Korken
2021-08-24, 13:16:43
Ich bin da sehr skeptisch dass das die nächste top Gaming CPU wird.
Spiele reagieren hauptsächlich auf Hitrate, Latenzen und auf FPU Verbesserungen. Zen3 hat beides gebracht, +50% Issue width in der FPU samt breiteren FP-registern, sowie gigantischer L3 cache.


Alder Lake bringt ebenfalls verdoppelte L3-Größe (30MB vs 16MB) und zusätzlich sogar noch mehr als verdoppelte L2-Größe. Ich glaube schon, dass das Ding in Games gut abgeht, sofern der Thread Director keinen Mist baut. Gerade Games könnten hier als heterogene und echtzeitkritische Workloads der Härtetest werden.

Was die Effizienz angeht, würde ich erwarten, dass Cezanne geschlagen wird. Tiger Lake sah durch 10nm SF schon sehr gut aus, kein Vergleich zu den Skylake- und Ice Lake-Schluckspechten. Die E-Cores werden nochmal ne ganze Ecke Effizienz draufpacken. Es kommt auch drauf an, was man vergleicht. Cezanne könnte so im 25-35W-Bereich ungeschlagen bleiben, aber bei 15W reißen es die E-Cores vielleicht, weil sie kaum runtertakten müssen und >45W hätte Intel mit einem 4+8- oder 6+8-Modell die "Kernhoheit" in heavy workloads.

ChaosTM
2021-08-24, 13:42:37
Alder wird mit Auch und Krach die schnellste Spiele CPU werden und das wars dann auch schon wieder Bei Performance/Watt sehe ich da kein Land, da liegt man einfach viel zu weit zurück.

mboeller
2021-08-24, 13:43:30
Da halte ich für +50% IPC über Skylake schon für möglich. Allerdings auch bei höherem Verbrauch pro Core und ohne gesteigertem Takt.


laut den hotchips33 Folien sind es aber "nur" +50% ST-Performance gegenüber den kleineren "E-Cores". Die sind zwar auf Skylake IPC nach allem was man so liest, aber die +50% sind incl. Frequenz. Also wie ein Skylake auf 6GHz (wenn die E-Cores wirklich 4GHz machen sollten)

https://images.anandtech.com/doci/16901/406228156.jpg

die IPC-Gains gegenüber den "E-Cores" (=Skylake) sind ein wenig niedriger:
https://images.anandtech.com/doci/16901/406530671.jpg

die "emerging Applications" mal außen vor, was immer sich das Intel-Marketing da auch ausgedacht hat. Der Durchschnitt bei den Mainstream-Applications liegt wohl eher bei 22-25% (nach Augenmaß ;))

aufkrawall
2021-08-24, 14:14:28
Alles gut, aber man sollte vielleicht auch nicht ganz vergessen, daß die Kleinen ebenfalls rechnen können und das nicht nur für Word und Internet was taugt. Oder sie bei hoher Last abgeschaltet werden müssen...
Das wird spannend. Falls die kleinen dafür unnütz sind, wird das natürlich durch die 16T BIG, die wohl ziemlich gute Spiele-Performace vs. einen 5800X haben werden, erstmal nicht/kaum auffallen (siehe auch die Grafik von BF2042 ;D ). Tests, die vier bis sechs BIGs abschalten, wären extrem interessant.

robbitop
2021-08-24, 14:47:35
Ich bin da sehr skeptisch dass das die nächste top Gaming CPU wird.
Spiele reagieren hauptsächlich auf Hitrate, Latenzen und auf FPU Verbesserungen. Zen3 hat beides gebracht, +50% Issue width in der FPU samt breiteren FP-registern, sowie gigantischer L3 cache.
Wobei ich bei den bisherigen 5700G Tests sehe, dass dieser takt und latenznormiert in Spielen eher auf Zen 2 level liegt. Das impliziert, dass dass der Großteil des Speedups am Cache hängt, oder?

MiamiNice
2021-08-24, 14:53:28
Das die Gaming Power von Zen 3 fast rein aus den Caches kommt, ist doch kein Geheimnis. Da werden massiv Cache Misses abfedert um dem lahmen IF und Ram zu kaschieren.
Deswegen hat Raptor Lake auch gute Chancen das Maß der Dinge in Sachen Gaming zu werden. Stichwort "Gaming Cache" und natürlich der generelle IPC Gewinn.

Der_Korken
2021-08-24, 14:57:21
Wobei ich bei den bisherigen 5700G Tests sehe, dass dieser takt und latenznormiert in Spielen eher auf Zen 2 level liegt. Das impliziert, dass dass der Großteil des Speedups am Cache hängt, oder?

Wenn man noch die ca. 6-7ns bessere RAM-Latenz von Zen 3 abzieht, bleibt wirklich nicht mehr viel übrig.

Das die Gaming Power von Zen 3 fast rein aus den Caches kommt, ist doch kein Geheimnis. Da werden massiv Cache Misses abfedert um dem lahmen IF und Ram zu kaschieren.

Im Umkehrschluss würde Alder Lake dann aber von dem großen Cache weniger profitieren als AMD, weil sie bereits deutlich kleinere RAM-Latenzen haben.

MiamiNice
2021-08-24, 15:15:23
So wie ich das sehe ist der Cache auf der CPU trotzdem wesentlich! schneller als ein 5000Mhz Ringbus/IMC + 5000er Rams. Da sollte schon noch gut was gehen, siehe Broadwell. Die Latenzen sollten deutlich geringer ausfallen.

davidzo
2021-08-24, 15:23:17
Was die Effizienz angeht, würde ich erwarten, dass Cezanne geschlagen wird.

Mein Vergleich war zu Vermeer, 5950x. Cezanne ist einfach zu schlagen, aber der richtige Konkurrent wird wohl Rembrandt, (Q1-Q2'22) wenn man beim jährlichen Releasezyklus von mobile cpus bleibt.

Tiger Lake sah durch 10nm SF schon sehr gut aus, kein Vergleich zu den Skylake- und Ice Lake-Schluckspechten.
Ja aber genau deswegen hat Intel sich ja nicht mit Tigerlake verglichen. Die IPC steigt 19% gegenüber Cypress Cove, also dem backported desktop Design. Gegenüber Tigerlake sind es wohl nur 10-15%.


Die E-Cores werden nochmal ne ganze Ecke Effizienz draufpacken. Es kommt auch drauf an, was man vergleicht. Cezanne könnte so im 25-35W-Bereich ungeschlagen bleiben, aber bei 15W reißen es die E-Cores vielleicht, weil sie kaum runtertakten müssen und >45W hätte Intel mit einem 4+8- oder 6+8-Modell die "Kernhoheit" in heavy workloads.

Ich kann den tatsächliche Power/Effizienzunterschied zwischen den P-cores und E-cores schwer einschätzen. Intel hat sich mit Skylake in 14nm natürlich auch einen super einfachen Gegner ausgesucht.
-40% Power draw der E-cores gegenüber Skylake 14nm bei gleicher 1T performance. Das ist jetzt nicht besonders viel und würde ich Tigerlake oder einem simplen 10SF Dieshrink von Skylake auch zutrauen. Wenn man in den Performance Efficiency Score guckt reichen +40% Effizienz auf Skylake/wiskeylake nichtmal um mit Renoir an Effizienz mit zuhalten.

Intels MT Zahlen sind überhaupt nicht belastbar, da Intel die Effizienz eines niedriger getakteten 4-Core Clusters mit der einer hochtaktenden 2C4T Skylake 14nm CPU vergleicht. Da gewinnt man um 80% an Energieffizienz, ganz toll!
- Das ist aber wenig beeindruckend weil es sich um Quad vs Dualcore handelt.

Der Effizienzsprung von einem 3500U Quadcore Zen1+ auf einen 4700U octacore Zen2 sieht ganz ähnlich aus (564pt auf 2656pt im PES). Das ist halt in Äpfel-Birnen Vergleich, da der ganze uncore, IGP etc. das Ergebnis verfälschen und ein quad zu quad vergleich viel knapper ausfällt.

Wobei ich bei den bisherigen 5700G Tests sehe, dass dieser takt und latenznormiert in Spielen eher auf Zen 2 level liegt. Das impliziert, dass dass der Großteil des Speedups am Cache hängt, oder?
Ein bisschen unterschied ist da schon. Der 5700G liegt rein in Spielen immerhin 8% vor dem 3700x bzw. 6% vor dem 3800xt (und der hat sogar 100mhz mehr Turbotakt) und zwischen 5600G und 3600xt liegen 5% (ebenfalls +100mhz Turbo).

Und während Matisse immerhin 2x16mb hat, müssen sich bei Renoir alle 8 cores 1x16mb teilen. Identische Grundvorraussetzungen sind also anders.
Also von 19% IPC increase geht nur die gute Hälfte auf den Cache, der Rest ist anderswo zu suchen. Ich tippe da bei den Games auf die zusätzlichen load+stores der FPU und registerbreite.

fondness
2021-08-24, 16:15:28
Wobei ich bei den bisherigen 5700G Tests sehe, dass dieser takt und latenznormiert in Spielen eher auf Zen 2 level liegt. Das impliziert, dass dass der Großteil des Speedups am Cache hängt, oder?

Bei Anwendungen liegt man dafür voll auf Zen3 Niveau und vor allem was Intel zu bieten hat (auch Single Threaded wie zB SpecInt). Also so einfach ist es dann auch wieder nicht. Im übrigen ist der Vergleich unfair, da Zen 2 doppelt so viel Cache hat pro Core.

ryan
2021-08-24, 16:31:03
laut den hotchips33 Folien sind es aber "nur" +50% ST-Performance gegenüber den kleineren "E-Cores". Die sind zwar auf Skylake IPC nach allem was man so liest, aber die +50% sind incl. Frequenz. Also wie ein Skylake auf 6GHz (wenn die E-Cores wirklich 4GHz machen sollten)

https://images.anandtech.com/doci/16901/406228156.jpg

die IPC-Gains gegenüber den "E-Cores" (=Skylake) sind ein wenig niedriger:
https://images.anandtech.com/doci/16901/406530671.jpg

die "emerging Applications" mal außen vor, was immer sich das Intel-Marketing da auch ausgedacht hat. Der Durchschnitt bei den Mainstream-Applications liegt wohl eher bei 22-25% (nach Augenmaß ;))


Nicht nur gelesen, das hat Intel ja auch explizit gesagt bei der Präsentation. Genau genommen wurde gesagt, dass Gracemont eine bessere IPC als Skylake hat. Hier (https://youtu.be/agUwkj1qTCs?t=27) und hier (https://youtu.be/agUwkj1qTCs?t=202)



Ja aber genau deswegen hat Intel sich ja nicht mit Tigerlake verglichen. Die IPC steigt 19% gegenüber Cypress Cove, also dem backported desktop Design. Gegenüber Tigerlake sind es wohl nur 10-15%.



Seit wann hat Willow Cove eine 5-10% bessere IPC als als Cypress Cove? Die IPC zwischen den beiden liegt bei +-0 und es gibt auch keinen Unterschied zwischen Cypress Cove und Sunny Cove, oder wie sollte sonst Cypress Cove im Computerbase Test auf +18% IPC über Skylake gekommen sein?

Anandtech (https://www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen/8) hat sogar ein leichtes Defizit ermittelt bei Willow Cove:


As a geometric mean across all the SPEC workloads and normalised for frequency, Tiger Lake showed 97% of the performance per clock of Ice Lake.


Dass sie mit Cypress Cove vergleichen, liegt an fehlenden Willow Cove Desktop Modellen, der Vergleich mit Cypress Cove (11900K) ist der sinnvollste. Es sind ja auch die Desktop Modelle, die zuerst kommen. ADL-P kommt mit maximal 6C+8C und nicht 8C+8C. Der Fokus lag ganz klar auf Desktop. Zum ADL-P launch wird man sicherlich ein paar mobile Vergleiche sehen.

robbitop
2021-08-24, 16:45:14
Ein bisschen unterschied ist da schon. Der 5700G liegt rein in Spielen immerhin 8% vor dem 3700x bzw. 6% vor dem 3800xt (und der hat sogar 100mhz mehr Turbotakt) und zwischen 5600G und 3600xt liegen 5% (ebenfalls +100mhz Turbo).

Und während Matisse immerhin 2x16mb hat, müssen sich bei Renoir alle 8 cores 1x16mb teilen. Identische Grundvorraussetzungen sind also anders.
Also von 19% IPC increase geht nur die gute Hälfte auf den Cache, der Rest ist anderswo zu suchen. Ich tippe da bei den Games auf die zusätzlichen load+stores der FPU und registerbreite.
Also zumindest liegt der 5800X mit nur 100 MHz in der Mehrzahl der Spiele deutlich!!! weiter vor dem 5700G als der 5700G vor dem 3800X.

Und der Punkt ist ja gerade, welcher Einfluss der Cache hat (sofern die 2x 16 MiB wirklich helfen - was hier im Forum aber auch schon oft genug angezweifelt wurde und die Vereinigung in einem CCX in Zen 3 zeigt, dass es zumindest stark eingeschränkt war für viele Anwendungen). Und der scheint bei Spielen eben enorm zu sein.

Als AMD vor ein paar Monaten den V-Cache vorgestellt hat, waren das ja nochmal gute 15% on top. Cache scheint zumindest bei der jetzigen Konfiguration den größten Einfluss auf Spiele zu haben. Das kann sich natürlich auch mal verschieben.

Kleiner Korrekturvorschlag: Du meinst Cezanne, nicht Renoir, oder?

robbitop
2021-08-24, 16:49:20
Bei Anwendungen liegt man dafür voll auf Zen3 Niveau und vor allem was Intel zu bieten hat (auch Single Threaded wie zB SpecInt). Also so einfach ist es dann auch wieder nicht. Im übrigen ist der Vergleich unfair, da Zen 2 doppelt so viel Cache hat pro Core.

Offenbar nicht ganz:
https://www.computerbase.de/2021-08/amd-ryzen-5600g-5700g-test/2/#abschnitt_tests_in_mehrkernanwendungen

Sind trotz +100 MHz immernoch +11% im 5800X vs 5700G in CB. Aber ja man ist bei Anwendungen näher dran, weil die meisten Anwendungen weniger Cache limitiert zu sein scheinen.

Das ist bei RKL vs CML übrigens auch der Fall wenn man 8c vs 8c vergleicht:
https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/4/#abschnitt_multicoreszenarien

In Spielen ist der Unterschied dort auch weniger proniert.

HOT
2021-08-24, 16:52:03
Da braucht man sich nur den Broadwell 5775C anschauen, was das heute noch bringt. Für Spiele ist Cache ultimativ, das ja auch kein Wunder ist, da Spiele ja total viele Daten managen.

Zen2 hat aben wie Cezanne nur 16MB, 32MB sind einfach besser. 96MB ohne höhere Latenzen schlagen eben ordentlich durch.

robbitop
2021-08-24, 16:55:02
Mit dem VCache ist man ja wirklich nah dran an der Menge des für einen Core zugreifbaren Caches mit 96 MiB vs 128 MiB. :)
Damit es vergleichbar ist müsste man den L3 vom 5775C noch dazu rechnen. Also 136 MiB.

Ich hoffe, dass man den VCache (bzw das Konzept der hohen Cachehitrate bei guter Zugriffszeit) beibehalten wird für die kommenden Zen Iterationen.

HOT
2021-08-24, 16:57:27
Da würd ich mal stark von ausgehen, sonst würde AMD ja in Situationen geraten, in denen Zen3-Varianten Zen4-nachfolge-Varianten schlagen, das passiert sicherlich nicht. Wenn die neuen X3D jetzt 6800, 69x0 werden, dann werden sicherlich auch 7800 und 79x0 mit extra Cache kommen. Wenn man das einmal anfängt kommt man da nicht mehr raus.

Gipsel
2021-08-24, 17:36:48
Offenbar nicht ganz:
https://www.computerbase.de/2021-08/amd-ryzen-5600g-5700g-test/2/#abschnitt_tests_in_mehrkernanwendungen

Sind trotz +100 MHz immernoch +11% im 5800X vs 5700G in CB. Aber ja man ist bei Anwendungen näher dran, weil die meisten Anwendungen weniger Cache limitiert zu sein scheinen.CB20 Single Core sind es nur 2% zum 5600X (der hat die gleiche offizielle Boosttaktrate). Im Multithread (laut dem von Dir verlinkten Test +9% in CB20) ist der Vergleich zwischen 5700G und 5800X etwas durch die unterschiedliche TDP verzerrt. Der 5800X hält typischerweise einfach etwas höhere Taktraten unter Last (auch wenn die offizielle Baseclock identisch ist).
Wenn man diesen Post aus dem Forum (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12495786#post12495786) heranzieht, beträgt der Unterschied von 5800X@65W zu 5800X@105W bei CB20 +7,8%. Der extra IO-Die mag das etwas verzerren, aber ich würde sagen wollen, daß der Vorsprung des 5800X bei normiertem Takt in CB20 vermutlich etwas geringer als 9% ausfällt. In dem von Dir verlinkten Artikel gibt es leider nur Diagramme mit der Taktrate in Spielen (wo die Leistungsausnahme meist etwas geringer als unter CB ausfällt, man also potentiell etwas weniger durch das 65W Powerlimit eingeschränkt wäre). Und auch dort hält der 5800X die höheren Taktraten im Vergleich zum 5700G.

robbitop
2021-08-24, 17:50:28
Danke für die Klarstellung. :up:

Super nervig, dass kaum Takt- und latenznormiert getestet wird (zumindest als Bonus zum out of the box). Und oft steht nicht einmal die Taktrate dabei. :|

davidzo
2021-08-24, 17:56:30
Nicht nur gelesen, das hat Intel ja auch explizit gesagt bei der Präsentation. Genau genommen wurde gesagt, dass Gracemont eine bessere IPC als Skylake hat. Hier (https://youtu.be/agUwkj1qTCs?t=27) und hier (https://youtu.be/agUwkj1qTCs?t=202)


Man muss die Einschränkungen mitlesen.
- 1T vs 1T bei gleichem Clock. Skylake hat aber nicht nur mehr Takt, sondern auch einen zweiten Thread, wird also pro Core trotzdem schneller bleiben.
- Sie beschränken sich aber auch spezifisch auf Integer Workloads. Sobald irgendwas FPlastig wird liegt Skylake wohl wieder vorne.



Seit wann hat Willow Cove eine 5-10% bessere IPC als als Cypress Cove?



Cypress Cove ist nicht Sunny Cove. Und ja, das backported design ist etwas schlechter als das Vorbild. Wenn du schon anandtech zitierst solltest du nicht verschweigen dass Andrei gerade beim L2 große regressionen festgestellt haben (46ns statt 33ns).



Ich hoffe, dass man den VCache (bzw das Konzept der hohen Cachehitrate bei guter Zugriffszeit) beibehalten wird für die kommenden Zen Iterationen.
Das ist nur etwas für highend CPUs, im mainstream wird sich das so bald nicht durchsetzen. Ist einfach zu teuer für bread and butter CPUs. Man sieht ja schon bei den mainstream APUs dass AMD sogar am internen Cache spart.

TheAntitheist
2021-08-24, 18:16:27
Ich würde so oder so warten und gucken wie sich Zen 3D macht, wenn das eh alles gleichzeitig kommt.
Mit dem i9 hat man im Herbst nicht das ganze Bild.
bei den Mengen die AMD produziert, wirst du nicht vor Q2 eine CPU bekommen, oder die meisten nicht. Dazu noch die massiven Preiserhöhungen bei Zen3 + dem neuen Cache. Das wird ein teurer Spaß, vllt werden wir die ersten consumer CPUs sehen die an den 999€ kratzen.
UVP des 5950x war 799€? ist schon harte Abzocke für die winzige CPU.

WedgeAntilles
2021-08-24, 19:06:37
Der 5950X finde ich fair bepreist.
Es ist das absolute Spitzenmodell und bietet auch Spitzenleistung.
Top Gaming-Performance (natürlich kaum schneller als der 5600X, aber er schwächelt halt dort auch nicht), top Anwendungsperformance, die meisten Kerne und damit mit Abstand die beste Multicore-Performance.

Da darf man sehr gerne viel Geld dafür verlangen. Wer das Non-Plus-Ultra will soll dafür zahlen.

Absolut unverschämt hingegen sind die Preise für die "normalen" CPUs.
5600X + 5800X.
Preisaufschlag von 50%.
Damit sogar weniger Frames / Leistung pro Euro als bei Zen 2.

Aber das wurde hier im Forum ja sogar abgefeiert...

Intel darf bei den Top-Alderlakes gerne 800 Euro aufwärts aufrufen, juckt mich gar nicht.
Solange Intel an die normalen User denkt und weiterhin preislich attraktive Produkte in der Alder-Lake Reihe hat ist alles ok.

Badesalz
2021-08-24, 20:50:35
Das die Gaming Power von Zen 3 fast rein aus den Caches kommt, ist doch kein Geheimnis. Da werden massiv Cache Misses abfedert um dem lahmen IF und Ram zu kaschieren.
Deswegen hat Raptor Lake auch gute Chancen das Maß der Dinge in Sachen Gaming zu werden. Stichwort "Gaming Cache" und natürlich der generelle IPC Gewinn.Spielst du immernoch in FHD? Oder wo klemmts denn bisher?

Blediator16
2021-08-24, 21:45:24
Spielst du immernoch in FHD? Oder wo klemmts denn bisher?

Der ist einfach nur Butthurt mehr nicht.

ryan
2021-08-24, 21:53:03
Cypress Cove ist nicht Sunny Cove. Und ja, das backported design ist etwas schlechter als das Vorbild.



Dann die Quelle bitte mit ganz konkreten Fakten. Ich habe noch nichts dergleichen gesehen. Fakt ist nur, dass Cypress Cove Sunny Cove in 14nm ist.

Es gab weit vorm RKL-S launch Gerüchte, wonach Cypress Cove weniger IPC haben sollte, die sich letztendlich nicht bestätigt haben in den Tests. Wie sollte Cypress Cove sonst auf +18% IPC im Computerbase kommen?

Selbst in der Intel Folie zu Sunny Cove gab es durchschnittlich 18% über Skylake: https://images.anandtech.com/doci/14514/Blueprint%20Series_May%2016-2019_COMBINED%20FINAL_AnandTech%20%282%29-page-029.jpg

Auch zum angeblichen 5-10% IPC Defizit zu Willow Cove. In Cinebench 1T und Geekbench ST sehe ich 0,0 Unterschied.



Wenn du schon anandtech zitierst solltest du nicht verschweigen dass Andrei gerade beim L2 große regressionen festgestellt haben (46ns statt 33ns).


Das ist ja das Problem von Willow Cove gewesen (mehr als den Cache Umbau gab es nicht). In ausgewählten Sachen kann der größere L2 Vorteile bringen, das wird keiner bestreiten, aber er bringt auch Nachteile mit. Am Kern hat sich selber nichts geändert, in der Summe kommt man auf +-0 IPC Gewinn/Verlust - genau das zeigt der Anandtech Test. Deswegen gab es zu Willow Cove nie eine IPC Folie von Intel.

iamthebear
2021-08-25, 01:02:53
Ich habe einmal alle gefallenen Performanceaussagen bzw. Leaks gesammelt von versucht das unter einen Hut zu bringen.

Dabei gelten folgende Annahmen:
.) Die GHz Angaben beziehen sich auf den Maximaltakt der CPU bei SC Turbo.
.) Es wird davon ausgegangen, dass alle Powerlimits deaktiviert wurden und alle CPUs im MT Betrieb bei 95% des SC Turbos laufen (der Prozentsatz neutralisiert sich im Ergebnis wieder)
.) Es wird davon ausgegangen, dass die verwendete Software linear mit der Kernanzahl skaliert
.) Es wird davon ausgegangen, dass der L3 Cache bei den Tests von Intel anteilsmäßig mit deaktiviert wurde (d.h. wenn von 4 Big Cores spricht, dann sind das 4*2,5 = 10MB L3 Cache und nicht die 30MB eines 12900K.
.) Alle CPUs mit SMT bekommen dadurch denselben Performanceboost von 33% (die 33% ergeben sich direkt aus den Alder Lake Big vs. Little Vergleichen von Intel)

Die IPC (instructions per cycle) Angaben wurden von mir so gut wie möglich hingebastelt, damit sich alle Aussagen möglichst gut erklären lassen.
Verwertet habe ich logischerweise nur die Vergleiche, bei denen die CPUs am jeweiligen Taktmaximum vergleichen wurden und nicht Performance/Watt

Ich komme bei taktbereinige auf folgende IPC (bezogen auf Skylake):
Rocket Lake: 112%
Alder Lake Big Cores: 133% (19% besser als Rocket Lake)
Alder Lake Little Cores: 120% (7% besser als Rocket Lake bzw. 20% besser als Skylake/Coffee Lake/Comet Lake auf deutlich geringerer Fläche, dafür aber kein SMT und eben eine Architektur, die sich bei weitem nicht so hoch takten lässt)

https://i.imgur.com/o3VrnuU.png

Ich muss sagen die IPC der Little Cores liegt deutlich über dem, was ich erwartet hätte (mein Kenntnisstand war selbe IPC wie Skylake)

Zu den Quellen:
11900K (ohne AB) vs. 10700K: 116%
https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/4/#abschnitt_multicoreszenarien

Intel ArchDay:
https://pics.computerbase.de/1/0/0/0/5/4-30a6a00edfcdd112/12-1080.d35a4a43.png

https://pics.computerbase.de/1/0/0/0/5/4-30a6a00edfcdd112/11-1080.d973fdf1.png

https://pics.computerbase.de/1/0/0/0/5/4-30a6a00edfcdd112/24-1080.65ccaff4.png

Hot Chips:
https://pics.computerbase.de/1/0/0/1/4/4-60ae88a97ab688d0/8-1080.6d3168ff.jpg

Cinebench R20 Leak:
https://www.3dcenter.org/news/geruechtekueche-herausragende-cinebench-werte-eines-alder-lake-core-i9-12900k-aufgetaucht

Hier liege ich mit meiner Prognose beim ST Wert um 6% und beim MT Wert um 9% unter dem Leak. Ich vermute einmal, dass Cinebench etwas überdurchschnittlich auf die Verbesserungen von ADL reagiert und dass der 12900K dank Wasserkühlung und wahrscheinlich nur einmaligem Durchlauf etwas weniger TDP limitiert war als der Test von Computerbase mit vermutlich mehreren Durchläufen in einer Schleife.

Die Vergleiche ohne SOLL Werte bzw. Quellen sich reine Rechenspiele von mir.

iamthebear
2021-08-25, 01:36:25
Zum Energiebedarf ist die Linke Hälfte der folgenden Grafik sehr interessant:
https://pics.computerbase.de/1/0/0/1/4/4-60ae88a97ab688d0/8-1080.6d3168ff.jpg

Dies zeigt, dass die Little Cores bezogen auf Performance/Die space bei Multi Core Lasten um ca. den Faktor 2 effizienter sind.
4 Little Cores sind so performant wie 2 Big Cores, die mit SMT auch 4 Threads bedienen können (ob das ein Zufall ist???). Sie schaffen das jedoch auf der halben Fläche.

Bezogen auf die Energieeffizienz im SC Vergleich (leichte Hintergrundlast) sieht es jedoch so aus, dass zumindest in Desktop üblichen Taktregionen die Little Cores nicht effizienter sind. Es scheint hier sinnvoller einen Big Core auf gemütlichere 3,6GHz Basistakt runter zu takten als einen Little Core auf für ihn hohe 3,9GHz laufen zu lassen, bei der er schon hohe Spannungen braucht.

Ich habe den Eindruck, dass es Intel hier gar nie um Performance/Watt gegangen ist, sondern ausschließlich um MT Performance/Fläche während mit mit den Big Cores auch die SC Performance maximiert.
Die Energieeffizienz wird dadurch erreicht, dass man im MT Betrieb einfach mehr Kerne zur Verfügung hat, die man auf niedrigerem Takt arbeiten lassen kann als wenn man weniger Kerne komplett auf Anschlag prügelt.

Ca. 1 Jahr später soll Intel mit Raptor Lake und 16 Little Cores ja noch einmal heftig nachlegen.

Meine Performanceprognose für Gaming:
Hier ist Alder Lake beim Topmodell ziemlich gut unterwegs, da den Spielen sicher gut gefällt, dass sie den L3 Cache der Little Cores mitverwenden können (der ist ja in den 19% mehr IPC ja noch gar nicht enthalten). Nicht nur AMD profitiert sehr vom L3 Cache. Das ist auch bei Intel ein Thema (siehe HWU Benchmarks vor ein paar Tagen).

Was die kleineren Modelle angeht, so weiß ich nicht, ob die sich langfristig so gut in Spielen halten werden. Ich gehe in 2 Jahren von durchgehender Nutzung von 8 Kernen aus. Ich denke, dass 8 Medium Kerne von AMD dann besser sind als 6 Big Cores oder 4Big + 8 Little von denen 4 schlafen.

MiamiNice
2021-08-25, 10:50:29
Spielst du immernoch in FHD? Oder wo klemmts denn bisher?

Es klemmt daran das in Masse meine Games eher mit ST Leistung skalieren. VR Games, Spiele wie SOLO, Anno, EFT, SC - um ein paar BeiSpiele XD zu nennen. Ich kann mit den content losen Grafikblendern für das junge gaming Volk leider nichts anfangen.
Ich spiele in UWQHD.

//differentRob
2021-08-25, 11:09:17
Ich würde eher von 16 Threads ausgehen. Denke das wird im Gaming die nächsten paar Jahre Satzbestimmend sein. Ob dann 8 medium + SMT oder 6 big + 8 little besser performt wird eine tolle retrospektive sein.

Ich jedenfalls freue mich auf den Umbruch... mir gefällt die Idee.

Badesalz
2021-08-25, 11:48:33
Ich würde eher von 16 Threads ausgehen. Denke das wird im Gaming die nächsten paar Jahre Satzbestimmend sein.Ja. In den nächsten 15 Jahren ;)

Es klemmt daran das in Masse meine Games eher mit ST Leistung skalieren. VR Games, Spiele wie SOLO, Anno, EFT, SC - um ein paar BeiSpiele XD zu nennen. Ich kann mit den content losen Grafikblendern für das junge gaming Volk leider nichts anfangen.
Ich spiele in UWQHD.Dann hast du ja Glück bzw. kannst da anlegen, weil andererseits brauchst du dafür halt keine fette GPU bezahlen oder?

davidzo
2021-08-25, 13:39:25
Ich muss sagen die IPC der Little Cores liegt deutlich über dem, was ich erwartet hätte (mein Kenntnisstand war selbe IPC wie Skylake)


Das ist eine sehr optimistische Auslegung imo.
Wenn die IPC 120% von Skylake wäre, dann hätte man das auch direkt so gesagt, weil es am besten klingt/aussieht. Dass man das nicht direkt sagt, sondern sich auf effizienzgrafen ohne Einheitenangabe stützt, bedeutet dass man da zumindest noch ein paar edgecases zu verbergen hat.
- Zum einen muss man auch hören was der Engineer zu den Folien gesagt hat bei der Präsentation. Und da hat er das ganz klar auf Integer workloads bezogen. Zur floatingpoint IPC wissen wir also noch nichts und das ist fast die halbe Miete vor allem in Spielen.
- Wer sagt denn dass in der 80% Grafik der Graph mit den little Cores bei 3,9Ghz endet? Das ist ja eine Architektur-Betrachtung und das Ende der Linie könnten genau so gut 4,4Ghz sein, weshalb man in den finalen SKUs dann eben den sweetspot bei 3,9Ghz wählt. Und schon ist die IPC nicht mehr 1.2.

y33H@
2021-08-25, 14:20:19
Ich freue mich, Gracemont in ein paar Wochen ausmessen zu können - Haswell/Skylake bei 4 GHz dürften die schon packen je nach Workload (1C/1T).

robbitop
2021-08-25, 15:31:15
Das klingt erstmal beeindruckend. Aber andererseits darf man nicht vergessen, wie alt die Cores schon sind. Haswell: 2013 Skylake: 2015

Also 8 / 6 Jahre. Ein Glück ist der lange Stillstand der uArchs nun vorbei.

Badesalz
2021-08-25, 15:34:05
Solche Messungen an sinnigen Beispielen (hier happerts meistens wegen den... Vorgaben?) sind immer interessant und willkommen, um die nächste Charge der Fantasiewerte des Herstellers zu korrigieren.
Wird halt nur leider kaum gemacht.

@robbitop
Kann daran liegen, daß sowas bis auf mögliche Reduzierung der Kühlungsaufwands und Gehäuseumfangs, nicht wirklich viele interessiert. Leistung gibt es satt an jeder Ecke und die Nerd-Gamer haben die Auflösungen weiter erhöht, womit sie im GPU-Limit hängen. Sonst ging man in die Breite, weil die Servermarkt nach weniger mechanischen Aufwand für mehr threads verlangte und das haben sie bekommen. Und wir dann was davon vom Gabentisch fiel.

Aus der praktischen Sich ist es (leider?) völlig uninteressant geworden, im Vergleich mit der Zeit wo ich vor Freude geschwitzt habe, als das Mäuseklavier für den Athlon550 kam. Oder das erste Mal ins Bios ging als der 2500k eingebaut war.

davidzo
2021-08-25, 15:41:29
Ich freue mich, Gracemont in ein paar Wochen ausmessen zu können - Haswell/Skylake bei 4 GHz dürften die schon packen je nach Workload (1C/1T).

Da freuen wir uns auch drauf! :smile:

btw, Ich schätze die Genauigkeit der Messungen und die Diagramme bei Golem, aber ansonsten sind die Artikel immer reichlich kurz. Gerne mehr Bilder, auch vom Testaufbau/kühlung/PCB (z.B. bei dem 6Watt Jasperlake neulich), Handyshots reichen. Das gibt dann einfach den runderen Artikel. Und gegen etwas mehr Text zur Interpretation der Ergebnisse ist auch absolut nichts einzuwenden! Bisher sind ja alle Diagramme in einer Galerie zusammengefasst und es wird nicht auf jedes eingegangen. Wenn das vom Aufwand noch vertretbar ist würde ich den Mehrtext auf jeden Fall gerne lesen!

y33H@
2021-08-25, 16:04:16
Und ich war der Ansicht, alle Werte einzeln durch zu kauen, ist tendenziell weniger interessant ^^

Das mit den Fotos ist ein Argument - im Falle des Jasper Lake lag's daran, dass ich nach Dublin musste und schlicht keine Zeit mehr war den PN41 zu zerlegen (parallel Win365 weil Kollege im Urlaub hat mir den Schedule zerschossen) ... danke für das Feedback!

maximus_hertus
2021-08-25, 16:39:22
Da freuen wir uns auch drauf! :smile:

btw, Ich schätze die Genauigkeit der Messungen und die Diagramme bei Golem, aber ansonsten sind die Artikel immer reichlich kurz. Gerne mehr Bilder, auch vom Testaufbau/kühlung/PCB (z.B. bei dem 6Watt Jasperlake neulich), Handyshots reichen. Das gibt dann einfach den runderen Artikel. Und gegen etwas mehr Text zur Interpretation der Ergebnisse ist auch absolut nichts einzuwenden! Bisher sind ja alle Diagramme in einer Galerie zusammengefasst und es wird nicht auf jedes eingegangen. Wenn das vom Aufwand noch vertretbar ist würde ich den Mehrtext auf jeden Fall gerne lesen!

Genau dem kann ich nur zustimmen.

Falls der Zeitaufwand zu groß wird, nehme ich natürlich lieber mehr Daten als viel Text :) Aber beides wäre natürlich "Premium" :)

fondness
2021-08-25, 17:11:31
Das klingt erstmal beeindruckend. Aber andererseits darf man nicht vergessen, wie alt die Cores schon sind. Haswell: 2013 Skylake: 2015

Also 8 / 6 Jahre. Ein Glück ist der lange Stillstand der uArchs nun vorbei.

Ob es beeindruckend ist oder nicht, hängt einzig und alleine davon ab, welche PPA Parameter diese Cores erreichen. Den wie du schon sagst, die Cores sind alt und bei einem Takt von <=4Ghz relativiert sich natürlich die IPC auch ein bisschen.

BlacKi
2021-08-25, 17:13:22
ja, aber den faktor verbrauch muss man dabei mit in den vergleich schicken.

aufkrawall
2021-08-25, 17:13:32
Damit es beeindruckend wäre, müsste die Effizienz von Zen 3-Cores deutlich übertroffen werden. Gleichstand reicht nicht, denn schließlich sind die Zens auch ST- und Gaming-Monster. Und ob die littles für Gaming überhaupt taugen, ist ja immer noch unklar.

BlacKi
2021-08-25, 17:16:36
in cinebench scheint das der fall zu sein ;)

Platos
2021-08-25, 18:38:09
Ich frage mich ja immer noch, inwiefern dann Spiele bzw. Windows mit kleinen und grossen Kernen umgehen... unter Win 10.

Oder was will Intel? Schaut her, unsere Prozessoren arbeiten wunderbar mit Spielen...aber nur mit Win 11;D

iamthebear
2021-08-25, 19:31:04
Beim Alder Lake Release ist Windows 11 sowieso schon auf dem Markt und alle neuen PCs werden sowieso mit Windows 11 ausgeliefert.
Ein zwingenden Grund für ein Betriebssystem Downgrade sehe ich im Gegensatz zum Release von Windows Vista. 8 und 10 nicht wirklich. Die einzige Ausnahme ist wenn man Software hat, die auf 64 Bit Betriebssystemen nicht läuft und sich nicht virtualisieren lässt.

Ich würde nicht davon ausgehen, dass für Windows 10 überhaupt noch Treiber angeboten werden.

BlacKi
2021-08-25, 19:36:14
mhh, da win11 eigentlich nur ein update für win 10 ist, sehe ich da weniger probleme.

ich werde sowieso auf win11 wechseln. auf meinem gaming pc kann ruhig das beste windows laufen. für alles andere hab ich linux.

Platos
2021-08-25, 20:22:06
Naja bestes Windows...

ryan
2021-08-25, 21:27:05
Damit es beeindruckend wäre, müsste die Effizienz von Zen 3-Cores deutlich übertroffen werden. Gleichstand reicht nicht, denn schließlich sind die Zens auch ST- und Gaming-Monster. Und ob die littles für Gaming überhaupt taugen, ist ja immer noch unklar.


Das würde mich überraschen im 1C/1T Vergleich, der große Trumpf ist performance/mm² und Durchsatz über mehrere Kerne. Darin sieht Intel selber den größten Vorteil.

Außer es geht auf ganz niedrige Watt Bereiche. Bei moderater Takfrequenz soll ja auch Golden Cove eine bessere Effizienz erreichen, wenn ich die Folie (https://images.anandtech.com/doci/16901/406228156.jpg) richtig deute. Nur boosten die big cores von Intel in der Praxis sehr hoch und verlieren dann sehr viel an Effizienz.

iamthebear
2021-08-25, 21:47:33
Das ist eine sehr optimistische Auslegung imo.
Wenn die IPC 120% von Skylake wäre, dann hätte man das auch direkt so gesagt, weil es am besten klingt/aussieht. Dass man das nicht direkt sagt, sondern sich auf effizienzgrafen ohne Einheitenangabe stützt, bedeutet dass man da zumindest noch ein paar edgecases zu verbergen hat.

Würde Intel die Aussage tätigen "die Little Cores haben 20% mehr IPC als die Big Cores" und gleichzeitig die Aussage "die Big Cores haben 20% mehr IPC als Rocket Lake", so würde das wie ein massives Argument gegen Big/Little sein, da sich jeder fragt "wenn die Little Cores fast so gut sind wie die Big Cores, wieso braucht man dann Big Cores".

Einmal abgesehen davon würde Intel dann zu Recht stark dafür kritisiert werden, dass sie die IPC herauspicken und dabei den architekturbedingt niedrigeren Takt verschweigen.

- Zum einen muss man auch hören was der Engineer zu den Folien gesagt hat bei der Präsentation. Und da hat er das ganz klar auf Integer workloads bezogen. Zur floatingpoint IPC wissen wir also noch nichts und das ist fast die halbe Miete vor allem in Spielen.

Über die Performance von Spielen können wir nur spekulieren. Da haben wir noch absolut gar keine Anhaltspunkte außer dass sich wahrscheinlich der größere Cache positiv auswirkt.
Da Spiele jedoch in der Regel sowieso keine 24 Threads unterstützen, sondern derzeit nur 6 ist diese Diskussion relativ sinnlos, da diese im Normalfall sowieso nur auf den Big Cores laufen werden.

Wer sagt denn dass in der 80% Grafik der Graph mit den little Cores bei 3,9Ghz endet? Das ist ja eine Architektur-Betrachtung und das Ende der Linie könnten genau so gut 4,4Ghz sein, weshalb man in den finalen SKUs dann eben den sweetspot bei 3,9Ghz wählt. Und schon ist die IPC nicht mehr 1.2.

Darüber habe ich mir auch schon den Kopf zerbrochen. Rechnerisch würde ein Maximaltakt von 4,4GHz eine IPC von nur 1,06 bedeuten.

Daraus würde sich jedoch ableiten, dass der maximale Multi Core Takt (der ja durch PL4 begrenzt ist) an folgenden Positionen wäre:
.) Big Cores: 5/5,3GHz = 94%
.) Little Cores: 3,7/4,4GHz = 84%

Das wäre ziemlich ineffizient, da man sich bei den Big Cores hier 1% mehr Performance schon um ca. 10% mehr Verlustleistung erkauft, während man bei den Little Cores mit 10% mehr Verlustleistung wesentlich mehr Performance zu holen wäre.

Die meiste Performance bei gegebener TDP erreicht man wenn beide Kerne ca. mit demselben relativen Takt laufen lässt (z.B. beide bei 90%).

Falls deine Theorie mit den 4,4GHz (oder vielleicht noch mehr) stimmt, so muss es eine Erklärung dafür geben warum Intel diese nur mit 3,7GHz betreiben will während man die Big Cores nahe am Maximum schmoren lässt.

Thunder99
2021-08-25, 21:58:23
Wegen dem HW Scheduler?

Lehdro
2021-08-25, 23:02:21
Würde Intel die Aussage tätigen "die Little Cores haben 20% mehr IPC als die Big Cores" und gleichzeitig die Aussage "die Big Cores haben 20% mehr IPC als Rocket Lake", so würde das wie ein massives Argument gegen Big/Little sein, da sich jeder fragt "wenn die Little Cores fast so gut sind wie die Big Cores, wieso braucht man dann Big Cores".

Und schon wissen wir warum Jim Keller wollte dass die Intel Big Cores sterben :wink:

Schön wäre bei den ganzen Vergleichen dann auch mal eine performance/mm² Vergleich mit Skylake, Rocketlake, GC, Gracemont und Zen 3.

HOT
2021-08-25, 23:14:11
Mit einer CPU mit nur little-Cores würde Intel keinen Blumentopf gewinnen. Die brauchen halt ne neue Architektur -> Royal Core. Leider erst 26. Die brauchen halt die .cove um zu überleben, aber eigentlich ist das mMn ne richtige Fail-Architektur. Viel zu fett und zu wenig Effekt, man muss die über jegliche Effizienz auf am besten 5,5GHz prügeln, damit sie konkurrenzfähig bleiben. AMD hingegen nimmt das bisherige und baut einfach schon vorher durchdachten 3D-Cache ein -> bäm Gewinner. Dann schmeißt man bei Zen4 das I/O-Provisorium Bixby weg, räumt die übriggebliebenen Zen-Schwachstellen aus und macht was Ordentliches für I/O -> wieder dick mehr Leistung und gleichzeitig hat man ne perfekte Little-Architektur für N3 geschaffen. Es läuft einfach für die. Ich will aber nicht, dass es bei nur einem läuft, denn das wird vor allem eines bedeuten: teure CPUs.

Wenn man mal ehrlich ist, ist bei Intel eigentlich überhaupt nichts passiert als massenhaft PR-Gelaber. Man nennt 10nm-weniger-schrottig jetzt einfach 7 und malt Scheisse mit Goldfarbe an, der völlig verspätete 7nm ist immer noch völlig verspätet, aber eben außen mit ner 4 vergoldet und alles, was denen einfällt, ist immer noch mehr little-Cores dranzuflanschen, die alleine nicht konkurrenzfähig wären. Also für mich sieht das ganze Ding nach einem Provisorium aus, biss man 26 völlig verspätet endlich einen 5nm-Prozess, der jetzt 20A heißt, völlig verspätet mit einem guten neuen Core anbieten kann, hoffentlich. Und damit die Servergemeinde wenigstens halbwegs bei der Stange gehalten werden kann, gibts halt auch Server-CPUs in N3, damit wenigstens etwas halbwegs konkurrenzfähig bleibt.

Rant beendet.

maximus_hertus
2021-08-26, 00:21:37
aber eigentlich ist das mMn ne richtige Fail-Architektur.

Am Ende ist nur eines interessant: was kommt hinten raus => Performance, Stromverbrauch, Kühlung, Preis.

3D Cache bei AMD ist ja nett, aber zumindest bis auf weiteres für die übergroße Mehrheit quasi komplett irrelevant.

Wenn ich es richtig sehe, wird AMD den Sub 500 USD/Euro Bereich bis ins 2. Halbjahr 2022 mit nichts neuem bedienen. Ergo 5600X und 5800X müssen quasi 2 Jahre durchhalten. Ein XT Refresh wie bei den 3000er mit 3-5% Mehrperformance würde da auch nicht viel ändern. Ich sehe schlicht nicht, dass Alderlake sogar hinter Rocketlake raus kommt. Und damit wird man imo auch vor Zen3 in den Benchmarks stehen (im Schnitt). Klar, zen 3D als Halo Produkt könnte die Gaming-Krone für AMD bringen. Aber wie teuer wird Zen 3D? Ab 600 USD/Euro? Noch teurer?

Ich lasse mich gerne überraschen und will jetzt nichts schwarz malen, aber irgendwie sehe ich nicht, wie AMD verhindern will, dass Intel den Sub 500 USD/Euro Bereich komplett übernimmt? Und zwar teilweise deutlich. Dazu erhält man mit dem 1700er Sockel eine relative Zukunftstauglichkeit.

Bei AMD ist man am Ende von AM4 angekommen, ergo für einen Neukauf kein wirklich tolles Argument.


Warten wir den Launch und die Benchmarks ab. Bis dahin sehe ich noch keinen Fail bei Intel. Völlig egal was die "Theorie" da sagt.

HOT
2021-08-26, 01:25:44
Das ist doch egal, wen interessiert denn was in den unteren Bereichen kommt? Hier hat Intel gar keine little Kerne sondern den gleichen Kram wie jetzt und bei AMD ist dann alles Zen3. Das passt problemlos. Und der Cache ist ultimativ für Spiele, das wirkt besser als ne neue Architektur. In cinebench und Konsorten ist man doch eh besser, weil man 12 oder 16 echte Kerne hat. Bleibt noch mobil, hier ist Cézanne schon echt gut. Wir soll das erst mit Rembrandt werden? Wenn ich die ganzen Leaks sehe ist das schon ziemlich enttäuschend bisher. Ich erinnere an den RKL Launch, da hieß es 2 mon vorher auch "ach so kommt noch Leistung" aber nö.

Du rechnest offenbar wirklich mit 20%. Davon ist aber nichts zu sehen und Intel verbiegt sich beim Marketing ganz schön um das irgendwie schmackhaft zu machen.

Badesalz
2021-08-26, 01:37:58
Das würde mich überraschen im 1C/1T Vergleich, der große Trumpf ist performance/mm² und Durchsatz über mehrere Kerne. Darin sieht Intel selber den größten Vorteil.Das mit dem Durchsatz ist grad auch das Hauptthema bei Supercomputern. Auch AMD wird also die Übung die schom mit dem gemoddeten Zen3 für Frontier lief, beim Zen4, für alle verfügbar, erweitern.

Alle haben jetzt das Nadelohr wohl gefunden :freak: und das sind nicht die ALUs :tongue:

Schnäppchenjäger
2021-08-26, 04:31:38
Dumme Frage aber gehört Alder Lake zur selben Familie wie Sandy/Ivy Bridge, Haswell, Skylake, Rocket Lake und Konsorten? Also reine Desktopprozessoren? Mit K-Multiplier halt?

TheAntitheist
2021-08-26, 05:47:52
Dumme Frage aber gehört Alder Lake zur selben Familie wie Sandy/Ivy Bridge, Haswell, Skylake, Rocket Lake und Konsorten? Also reine Desktopprozessoren? Mit K-Multiplier halt?
nicht nur desktop, auch mobile ;D in den Servern werden die P-Cores landen, nennt sich dann aber sapphire rapids

dildo4u
2021-08-26, 05:48:46
Es deckt alles ab die Low TDP Modelle haben weniger Big Cores.

https://i.ibb.co/MRmXtBb/47-1260-d2e8afb1.png (https://ibb.co/cNjmZYP)

Yk-6Fe0nkvs


https://i.ibb.co/YyGCMyV/12900k.png (https://ibb.co/xfQk0fr)

https://videocardz.com/newz/intel-core-i9-12900k-is-12-faster-than-ryzen-9-5950x-in-leaked-single-core-geekbench-5-benchmark

CrazyIvan
2021-08-26, 08:16:19
Hallo Gipsel,
sorry für die späte Antwort.

Ich meinte schon den instantanen Verbrauch, nicht den integrierten. Die Sache mit der Performance/Watt sollte das klar machen.
Wir sind uns also einig, was man da sieht. Die Frage bleibt, was soll das Deiner Meinung nach zeigen?

Erst einmal frage ich mich, welche Relevanz der Instantanverbrauch für Dich hat, wenn er nicht im Kontext der zu verrichtenden Arbeit und der dabei erzeugten Leistung (i.S.v. Arbeit pro Zeiteinheit) betrachtet wird. Für mich abgesehen von Details wie der Auslegung der Kühlung nämlich gar keine.
Darüber hinaus wollte ich zeigen, was den meisten sicher tendenziell klar ist, jedoch womöglich nicht in konkreten Zahlen ausgedrückt.

SMT kostet im konkreten Beispiel 15% mehr Instantanverbrauch
bringt jedoch 22% mehr Performance
verringert den Gesamtverbrauch bei der Abarbeitung der Aufgabe um 10%
und erhöht dadurch die Leistungseffizienz um knapp 50%

Und auch hier das offensichtliche: Bei AMD und Intel ist SMT bei derzeitigen Architekturen ein No-Brainer. Da stimme ich auch Deinem restlichen Beitrag vollkommen zu.

Das bringt uns nun aber zu der spannenden Frage, warum Apple beim M1 (und Intel bei Gracemont) trotzdem darauf verzichten. Schließt man aus, dass Apple irrational handelt oder keine Ahnung von CPU Design hat, bleiben eigentlich nur folgende Optionen übrig:

Time to market
Glaube ich jedoch nicht, da M1 im Grunde nur eine iterative Optimierung der A-Serie darstellt. Apple hatte genug Zeit und Know-How.
Apple lastet Firestorm bereits mit nur einem Thread derart gut aus, dass SMT im PPA-C Zielsystem keinen Sinn macht.
Auch das kann ich bei einer derart breiten Architektur nur schwer glauben - trotz aller Klimmzüge bei Frontend und Caches.
Apple gelingt es deutlich besser, nicht verwendete Teile des Kerns (ALUs und Co.) sauber abzuklemmen, sodass aus diesem Grund SMT in der PPA-C Betrachtung keinen Sinn macht.
Ich bin deutlich eher geneigt, das zu glauben.

Beweisen kann ich das natürlich nicht, da ich weder PES auf einem M1 laufen lassen kann, noch einen hypothetischen M1 mit SMT zur Hand habe. Aber das macht für gerade den Spaß des Speku-Forums aus.

Macht es so für Dich Sinn? Und sorry, wenn Dich die Debatte langweilt, aber dann bin ich halt gern Dein "Captain Obvious" ;)

BTW
Ich finde es gut, dass AMD in der Kommunikation PPA um das "-C" erweitert hat. Galt früher sinngemäß, dass A=C, so hat sich das seit Zen2 aufgrund der vielfältigen Möglichkeiten des Packagings doch stark verändert.

MiamiNice
2021-08-26, 08:42:32
Mit einer CPU mit nur little-Cores würde Intel keinen Blumentopf gewinnen. Die brauchen halt ne neue Architektur -> Royal Core. Leider erst 26. Die brauchen halt die .cove um zu überleben, aber eigentlich ist das mMn ne richtige Fail-Architektur. Viel zu fett und zu wenig Effekt, man muss die über jegliche Effizienz auf am besten 5,5GHz prügeln, damit sie konkurrenzfähig bleiben. AMD hingegen nimmt das bisherige und baut einfach schon vorher durchdachten 3D-Cache ein -> bäm Gewinner. Dann schmeißt man bei Zen4 das I/O-Provisorium Bixby weg, räumt die übriggebliebenen Zen-Schwachstellen aus und macht was Ordentliches für I/O -> wieder dick mehr Leistung und gleichzeitig hat man ne perfekte Little-Architektur für N3 geschaffen. Es läuft einfach für die. Ich will aber nicht, dass es bei nur einem läuft, denn das wird vor allem eines bedeuten: teure CPUs.

Wenn man mal ehrlich ist, ist bei Intel eigentlich überhaupt nichts passiert als massenhaft PR-Gelaber. Man nennt 10nm-weniger-schrottig jetzt einfach 7 und malt Scheisse mit Goldfarbe an, der völlig verspätete 7nm ist immer noch völlig verspätet, aber eben außen mit ner 4 vergoldet und alles, was denen einfällt, ist immer noch mehr little-Cores dranzuflanschen, die alleine nicht konkurrenzfähig wären. Also für mich sieht das ganze Ding nach einem Provisorium aus, biss man 26 völlig verspätet endlich einen 5nm-Prozess, der jetzt 20A heißt, völlig verspätet mit einem guten neuen Core anbieten kann, hoffentlich. Und damit die Servergemeinde wenigstens halbwegs bei der Stange gehalten werden kann, gibts halt auch Server-CPUs in N3, damit wenigstens etwas halbwegs konkurrenzfähig bleibt.

Rant beendet.

Da realisiert wohl jemand langsam, dass bald wieder alles beim alten ist :wink:
Aber mach Dir nichts draus, schau Dir die Firmengeschichte an. Geschichte ändert sich leider nie so wirklich.
Ich habe mich gedanklich schon auf die nächste Dekade des Intel Aktien vergoldens eingestellt. Einfach Intel Aktien kaufen XD

Cubitus
2021-08-26, 08:58:41
Da realisiert wohl jemand langsam, dass bald wieder alles beim alten ist :wink:
Aber mach Dir nichts draus, schau Dir die Firmengeschichte an. Geschichte ändert sich leider nie so wirklich.
Ich habe mich gedanklich schon auf die nächste Dekade des Intel Aktien vergoldens eingestellt. Einfach Intel Aktien kaufen XD

;D

Same hab auch vor ein paar Tagen Intel Aktien erworben.
Alder Lake könnte, sofern man bisher liest, gut genug werden um AMD wieder in die Schranken zu weisen.

Werde ein paar (eventuelle) kommende Kinderkrankheiten aussitzen und dann auf die neue Plattform wechseln.. :)

CrazyIvan
2021-08-26, 09:24:21
Hehe, me2. Habe vor einigen Wochen den AMD-Teil meines Portfolios komplett gegen Intel eingetauscht - soviel zu Bias ;)

HOT
2021-08-26, 09:25:31
[...]


https://videocardz.com/newz/intel-core-i9-12900k-is-12-faster-than-ryzen-9-5950x-in-leaked-single-core-geekbench-5-benchmark

Das ist natürlich ein lustiger Effekt, so ganz ohne Limits läuft halt alles auf vollem Takt, wärend der 5950X ist TDP-Limit rennt. Man sehe sich den 5800X an.

dildo4u
2021-08-26, 10:06:00
Klar AMD rüstet deswegen ja nach AM5 soll bis 170 TDP gehen.

WedgeAntilles
2021-08-26, 10:32:59
Oder was will Intel? Schaut her, unsere Prozessoren arbeiten wunderbar mit Spielen...aber nur mit Win 11;D

Ich verstehe das Problem nicht.
Aktuell reichen sogar 6 Kerne fürs Gaming.
Nimm meinetwegen noch 2 Kerne hinzu für die 1 Prozent der Spiele wo das einen nutzen hat.
8 Kerne reichen dir fürs Gaming noch ewig.

Von Gaming-Seite her kannste also - wenn du unbedingt willst - auch auf Win 10 bleiben.
Aber wieso sollte man beim Kauf eines neuen PCs nicht sowieso auf Win 11 wechseln?
Das werden 99,9% aller User selbstverständlich machen.

Das Intel sich an diese Gruppe richtet und nicht ein paar Geeks aus Foren die aus bestimmten Gründen Win 11 meiden - wer kann es Intel vorwerfen?

Und noch mal, selbst diese Gruppe hat auf zig Jahre hinaus mit 8 Kernen genug zum zocken.



Hot: Wenn AMD ja ach so überlegen ist, soooo eine viel bessere Fertigung und alles hat: Warum zum Teufel bietet INTEL mir dann attraktivere Produkte an?
Ja klar, die 1 Promille aller User die 12 Kerne aufwärts brauchen sind mit AMD besser bedient.
Wenn man aber einfach nur normal am PC arbeitet und zockt bietet Intel mir das bessere PL Verhältnis.
Was habe ich als Endkunde von der geilen Fertigung von AMD? Setzt man die CPU auf den Schreibtisch, macht die Hose auf und holt sich einen drauf runter oder was?
Technik und Co ist toll. Aber wenn ich unterm Strich weniger Frames pro Euro bekomme bringt mir ein tolles Fertigungsverfahren exakt gar nichts.
Bisher war Fortschritt im Computer Bereich dadurch definiert, dass ich für den gleichen Betrag mehr Leistung bekomme. Teilweise sogar für weniger mehr Leistung.
AMD definiert das jetzt um. Bei AMD bekomme ich für den gleichen Betrag inzwischen WENIGER Leistung wie früher.
Wird mit dem 3D Cache vermutlich ähnlich laufen. +10% Performance, +20% Preis.
Jupp, wirklich eine traumhafte Entwicklung für mich als Kunden.

Zum Glück gibt es ja aktuell noch Intel, bei dem man gute Leistung für gutes Geld bekommt.
Wenn ich unbegrenzt Geld zur Verfügung habe und das absolute Non-Plus-Ultra will, bin ich mit AMD aktuell natürlich besser aufgestellt.
Nur: Wieviel Prozent der Konsumenten haben dieses Profil?


Hoffen wir mal, dass Intel mit Alder Lake nicht AMD kopiert.
Bisher bin ich optimistisch, dass das nicht passieren wird.

ChaosTM
2021-08-26, 10:36:16
Wichtig für uns ist nur, dass beide Firmen ca. gleichauf liegen. Den Performance/Watt Vorteil von AMD wird man mit einer Generation nicht aufholen können, aber bei Spielen erwarte ich eine quasi Gleichstand mit leichten Vorteilen für Intel, bis der nächste ZEN aufschlägt.

Mein hoffentlich bald kommender Laptop ist übrigens Intel 11th Gen. Ich wollte PCI 4.0 und Thunderbolt :)

maximus_hertus
2021-08-26, 10:57:02
Das ist doch egal, wen interessiert denn was in den unteren Bereichen kommt? Hier hat Intel gar keine little Kerne sondern den gleichen Kram wie jetzt und bei AMD ist dann alles Zen3. Das passt problemlos. Und der Cache ist ultimativ für Spiele, das wirkt besser als ne neue Architektur. In cinebench und Konsorten ist man doch eh besser, weil man 12 oder 16 echte Kerne hat. Bleibt noch mobil, hier ist Cézanne schon echt gut. Wir soll das erst mit Rembrandt werden? Wenn ich die ganzen Leaks sehe ist das schon ziemlich enttäuschend bisher. Ich erinnere an den RKL Launch, da hieß es 2 mon vorher auch "ach so kommt noch Leistung" aber nö.

Du rechnest offenbar wirklich mit 20%. Davon ist aber nichts zu sehen und Intel verbiegt sich beim Marketing ganz schön um das irgendwie schmackhaft zu machen.

Ich gehe mal davon aus, dass die Big Cores nicht schlechter sein werden als die Rocketlakes. Ergo selbst ein i5-12600k sollte einen 11600k schlagen und zwar mit mindestens 10+%. Und damit wäre man auf oder über Zen3.

Wenn das nicht so passiert wäre das echt übel (für Intel) und ich wäre nicht unglücklich. Aber aktuell gehe ich (noch) davon aus, das Alderlake den Bereich bis 500 USD/Euro "übernehmen" wird als Preis/Leistungs-"Champ".
Das heißt nicht, dass AMD dann komplett unattraktiv wäre., Auch Begriffe wie "Killer" halte ich immer für komplett "bescheuert".

Ich bin nur irritiert, dass es wohl nur die Zen 3Ds für deutlich über 500 USD/Euro geben wird und frage mich, ob AMD in den nächsten 12-15 Monaten irgendwas im Portfolio anpasst (also im 250 - 500 Euro Segment)?

ChaosTM
2021-08-26, 11:02:30
Ein 5700er zb. ist sehr wahrscheinlich und auch schon überfällig, um Intel kontern zu können.

w0mbat
2021-08-26, 11:10:15
Klar AMD rüstet deswegen ja nach AM5 soll bis 170 TDP gehen.
Ist das nicht einfach der passende Wert zu der 120W TDP?

Mein 3600 hat ne 65W TDP, kann aber bis zu 88W ziehen. Mit 105W TDP sind das 142W oder so und mit 120W TDP werden das die 170W sein. Also nicht 170W TDP, sondern 120W.

maximus_hertus
2021-08-26, 11:16:31
Ist das nicht einfach der passende Wert zu der 120W TDP?

Mein 3600 hat ne 65W TDP, kann aber bis zu 88W ziehen. Mit 105W TDP sind das 142W oder so und mit 120W TDP werden das die 170W sein. Also nicht 170W TDP, sondern 120W.

Nein, soweit ich das mitbekommen habe, bleibt es bei der "TDP" Angabe wie bisher. Also ein Boost, der kurzfristig mehr ziehen darf.

ICh gehe aber eher nicht davon aus, dass 6 oder 8 Kerner dafür kommen werden. Das ist wohl für den potentiellen 24er und ggf. um den 16er ausfahren zu können, je nachdem, was Intel halt hinbekommt.

Oder die 170er sind nur Theorie und werden gar nicht benötigt :) Sie sind halt wohl eher eine "Versicherung", dass man was machen könnte, so man es als sinnvoll erachtet.

fondness
2021-08-26, 11:47:09
Die AMD Desktop-Chips sind in der Fertigung derart absurd billig, dass AMD da preislich natürlich extrem viel Spielraum hat. Ergo die müssen und werden wohl auch nicht so teuer bleiben. Gegen Threadripper hat Intel ohnehin nichts und die Chips mit 3D-Cache werden wohl kaum bei >500 EUR bleiben, außer Intel tut ihnen den Gefallen und setzt die Preise entsprechend hoch an.

Badesalz
2021-08-26, 11:50:37
Zum Glück gibt es ja aktuell noch Intel, bei dem man gute Leistung für gutes Geld bekommt.
Wenn ich unbegrenzt Geld zur Verfügung habe und das absolute Non-Plus-Ultra will, bin ich mit AMD aktuell natürlich besser aufgestellt.
Nur: Wieviel Prozent der Konsumenten haben dieses Profil?Bisschen wirsch. In dem Szenario taucht ein x86 PC doch garnicht auf (??)

WedgeAntilles
2021-08-26, 11:51:45
Die AMD Desktop-Chips sind in der Fertigung derart absurd billig, dass AMD da preislich natürlich extrem viel Spielraum hat. Ergo die müssen und werden wohl auch nicht so teuer bleiben.

Sorry, das predigt das Forum hier doch inzwischen seit fast einem Jahr.
Wenn man sich über die überteuerten Preise von 5600X und 5800X beschwert, kommt IMMER das Argument: Bald kommt die günstigere Variante.

Und was ist passiert? Intel bietet konstant das bessere Preis-Leistungs-Verhältnis.

Badesalz
2021-08-26, 11:55:29
Macht AMD die Preise nicht grad noch so hoch, daß die Dinger sich verkaufen? Oder ziehen sie die Preise solange hoch bis sie sich nicht mehr verkaufen?

:uclap:

WedgeAntilles
2021-08-26, 11:59:24
Macht AMD die Preise nicht grad noch so hoch, daß die Dinger sich verkaufen? Oder ziehen sie die Preise solange hoch bis sie sich nicht mehr verkaufen?

:uclap:

Bedeutung dieser Aussage?

Weswegen ich als Konsument einen hohen Preis zahle ist mir doch egal.
Sei es, weil der Produktionsprozess so teuer ist.
Sei es, weil AMD nix liefern kann und daher die wenigen Chips zu Apothekenpreisen verkaufen kann.

Ist doch völlig schnuppe für den Konsumenten.
Für den Aktionär sind die Apothekenpreise natürlich geil.

Badesalz
2021-08-26, 12:52:04
Bedeutung dieser Aussage?Die Preise sind erst zu hoch, wenn die Ware sich nicht ausreichend verkauft?

Plötzliche Amnesie deinerseits, bezüglich früher wo es umgekehrt war? Obwohl Intel das eigentlich nie so derbst wie damals nötig hatte?
AMD ist ja glasklar, daß die Blauen wieder kommen. Bis dahin will sich AMD in dieser kurzen Phase finanziell bestmöglich erholen, weil es auch klar ist, daß es bald wieder nicht mehr geht.

Wenn man in der Zeit diese furchtbar teure AMD-Ware kaufte, hat man in anschliessend preiswertere Intel-Ware investiert. AMD stärker gemacht zu haben, heißt für die Zeit eine Konkurrenzsituation aufzubauen, wo Intel wieder stark ist. Das wird es schon bald sein. Nun stehen die Chancen gut, daß sich der Spies nicht gleich wieder komplett dreht.

Kannst du echt nur bis zum Tellerrand sehen? Sei doch jedem zu tiefst dankbar der sich bisher Zen3 kaufte, damit du bald deine 8+8 Intels nicht wieder in der Apotheke holen musst. Kommst du klar damit?

Windi
2021-08-26, 12:56:14
Wenn bei AMD nur die 12 und 16 Kerner den 3D-Cache bekommen, dann sind das absolute Premiumprodukte, die deutlich über 500€ bleiben werden. Das ist halt etwas ganz neues, was sich AMD und TSMC vergolden lassen wollen.

Und dann hat Alderlake im normalen Preisbereich gute Chancen vorbei zu ziehen.

Aber AMD kann natürlich über den Preis noch nachjustieren. Die Anzahl der Prozessoren mit 3D-Cache werden sie aber wohl nicht so einfach steigern können. Da wird man das bekommen, was man bei TSMC bestellt hat.

Gipsel
2021-08-26, 13:44:52
Erst einmal frage ich mich, welche Relevanz der Instantanverbrauch für Dich hat, wenn er nicht im Kontext der zu verrichtenden Arbeit und der dabei erzeugten Leistung (i.S.v. Arbeit pro Zeiteinheit) betrachtet wird. Für mich abgesehen von Details wie der Auslegung der Kühlung nämlich gar keine.Deine These bezog sich darauf, daß die x86er-Kerne eventuell die Einheiten nicht vernünftig gaten könnten (im Vergleich zu M1) und deswegen der M1 ohne SMT keine Effizienz verliert. Oder so ähnlich. Auf diese Deine Aussage bezog sich die Frage, was Du konkret meinst und wie Du das aus den dort angegebenen Zahlen ablesen willst.
Mein Gegenargument war hier, daß die x86er-Kerne ohne SMT auch deutlich weniger verbrauchen (Leistungsaufnahme geht zurück, allerdings etwas unterproportional zur Leistung bei MT-Lasten, was aber zu erwarten ist), schlechtes Gating also vermutlich nicht das Entscheidende sei. Viel wichtiger ist das, was ich danach angeführt habe.
Darüber hinaus wollte ich zeigen, was den meisten sicher tendenziell klar ist, jedoch womöglich nicht in konkreten Zahlen ausgedrückt.

SMT kostet im konkreten Beispiel 15% mehr Instantanverbrauch
bringt jedoch 22% mehr Performance
verringert den Gesamtverbrauch bei der Abarbeitung der Aufgabe um 10%Das bezweifelt auch überhaupt keiner, daß SMT die Energieeffizienz erhöht. Der Kern meines Arguments ist ja sogar, daß es das praktisch (bis auf sehr wenige Ausnahmen in edge cases) immer tut. ;)
und erhöht dadurch die Leistungseffizienz um knapp 50%Diese "Leistungseffizienz" bzw. PES-Score wichtet die Performance quadratisch. Das Ding ist in meinen Augen ziemlich willkürlich und solche Prozentzahlen sind nicht sehr aussagekräftig.
Das bringt uns nun aber zu der spannenden Frage, warum Apple beim M1 (und Intel bei Gracemont) trotzdem darauf verzichten. Schließt man aus, dass Apple irrational handelt oder keine Ahnung von CPU Design hat, bleiben eigentlich nur folgende Optionen übrig:

Time to market
Glaube ich jedoch nicht, da M1 im Grunde nur eine iterative Optimierung der A-Serie darstellt. Apple hatte genug Zeit und Know-How.
Apple lastet Firestorm bereits mit nur einem Thread derart gut aus, dass SMT im PPA-C Zielsystem keinen Sinn macht.
Auch das kann ich bei einer derart breiten Architektur nur schwer glauben - trotz aller Klimmzüge bei Frontend und Caches.
Apple gelingt es deutlich besser, nicht verwendete Teile des Kerns (ALUs und Co.) sauber abzuklemmen, sodass aus diesem Grund SMT in der PPA-C Betrachtung keinen Sinn macht.
Ich bin deutlich eher geneigt, das zu glauben.
Punkt 2 und 3 kann man eigentlich ausschließen. Den zweiten findest Du selber unglaubwürdig, und die Gründe für das Nichtzutreffen des Dritten habe ich angeführt. Selbst bei perfektem Gating (was praktisch unmöglich ist) steigt die Performance/Watt (Effizienz) mit SMT in Multithreadanwendungen (die Flächeneffizienz übrigens auch), solange SMT zu einer Performanceerhöhung führt (was Du in Deinem Statement zum zweiten Punkt ja selber für wahrscheinlich hältst). Und wegen dieser Sache mit der Spanungs-/Frequenzskalierung ist das auch immer so (an den üblichen Betriebspunkten einer CPU, mein Beispiel war hier am Ende des Posts (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12771370#post12771370)).
Es bleibt also nur der Entwicklungsaufwand (einfach ein paar mehr Kerne draufklatschen ist deutlich einfacher entwickelt und bringt auch einen größeren Sprung als mit SMT vielleicht 20% bei gleicher Kernzahl rauszuquetschen) und eventuell auch die Furcht vor zusätzlichen side channel Attacken (Apple hat ja schon jetzt offenbar nicht den besten Ruf bei der Robustheit ihrer CPUs sowas gegenüber und schau Dir an, wie intel kämpft, die mit SMT verbundenen Lücken unter Kontrolle zu bekommen).
Der Ausgang der Kosten-Nutzen-Risiko-Abwägung ist am Ende meiner Meinung nach der bei Weitem wahrscheinlichste Grund für eine Entscheidung in die eine oder andere Richtung.

maximus_hertus
2021-08-26, 14:39:18
Evtl. sowas?

XT = 3D Cache

5950XT => 799 USD
5900XT => 599 USD
5900X => 499 USD
5900 = minimal abgespeckter X (über TDP) => 449 USD
5800X => 379 USD
5800 = minimal abgespeckter X (über TDP) => 329 USD
5600X => 269 USD
5600 = minimal abgespeckter X (über TDP) => 219 USD

Allerdings wissen wir nicht, ob AMD überhaupt genug Chips hat, oder ob man weiterhin nur Hochpreis CPUs braucht, da man eh nicht genug Stückzahlen generieren kann.

Falls man nicht auf benötigte Stückzahlen kommen kann, tut es auch kaum bis gar nicht weh, wenn Intel im Mittelpreissegment "dominiert".

davidzo
2021-08-26, 17:21:49
Punkt 2 und 3 kann man eigentlich ausschließen. Den zweiten findest Du selber unglaubwürdig, und die Gründe für das Nichtzutreffen des Dritten habe ich angeführt. Selbst bei perfektem Gating (was praktisch unmöglich ist) steigt die Performance/Watt (Effizienz) mit SMT in Multithreadanwendungen (die Flächeneffizienz übrigens auch), solange SMT zu einer Performanceerhöhung führt (was Du in Deinem Statement zum zweiten Punkt ja selber für wahrscheinlich hältst). Und wegen dieser Sache mit der Spanungs-/Frequenzskalierung ist das auch immer so (an den üblichen Betriebspunkten einer CPU, mein Beispiel war hier am Ende des Posts (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12771370#post12771370)).

Das ist doch der falsche Vergleich. Man muss den SMT Thread von der Effizienz nicht mit dem ST Thread auf einem Firestorm/P-Core vergleichen, sondern mit einem Thread auf dem Icstorm/E-Core.
Es ist zwar richtig dass ein SMT performance Core wahrscheinlich effizienter in MT Loads ist als ein reiner performance Core ohne SMT wie der Firestorm. Das heißt aber noch lange nicht dass er auch effizienter in MT loads ist als ein Cluster aus small Cores, also bei Apple eben die Icestorms.
Wenn man aber gut skalierende MT Anwendungen hat, was ist dann effizienter? - 22% mehr MT Leistung für 15% mehr Energieverbrauch oder das Ganze lieber gleich auf Cores auszuführen die nur 25% des powerbudgets für 50% der performance pro Core benötigen?

SMT ist eh nur für Workloads geeignet die gut MT skalieren geeignet, da der zweite Thread nur ein Bruchteil der Ressourcen bekommt wie der erste. Für alle Anwendungen die starke per Thread performance brauchen eignen sich weder SMT Threads noch small Cores.
Der Effizenzvergleich von SMT ist also immer zu einem Cluster aus E-Cores zu ziehen, nicht zur single threaded Leistung von P-Cores. Und da hat SMT plötzlich keinen Effizienzvorteil mehr, sondern nur noch DIE-Area.

aufkrawall
2021-08-26, 17:36:23
Wenn man aber gut skalierende MT Anwendungen hat, was ist dann effizienter? - 22% mehr MT Leistung
Kannst 35% für Spiele ansetzen:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11452811&postcount=630

smalM
2021-08-26, 18:33:27
Epyc 7763
SPECint2017 +16%
SPECfp2017 -1%
SMT ist kein Allheilmittel.

Gipsel
2021-08-26, 20:09:04
Das ist doch der falsche Vergleich. Man muss den SMT Thread von der Effizienz nicht mit dem ST Thread auf einem Firestorm/P-Core vergleichen, sondern mit einem Thread auf dem Icstorm/E-Core.1. Schau Dir den Satz an, der direkt auf das von Dir abgeschnittene Zitat folgt! Da schrieb ich, daß mehr Kerne weniger Entwicklungsaufwand fordern und dazu mehr Resultat bringen als SMT (nur die Flächeneffizienz leidet eventuell etwas, was bei Apples Preisen vermutlich nicht ganz so entscheidend ist).
2. Die Argumentation funktioniert allgemein, völlig unabhängig von konkreten Produkten (die man aber natürlich als Beispiel anführen kann).

Die diskutierte Frage war, warum nicht alle big cores (z.B. bei Apple) SMT haben. Denn man kann natürlich auch bei big.little Konfigurationen fragen, ob bei MT-Loads dann SMT nicht noch zusätzlich was bringen würde (spoiler: ja, würde es; auch beim M1, wenn es das dort geben würde). Alderlake kombiniert große Kerne mit SMT und kleine ohne. Und bei MT-Vollast wird SMT da auch die Effizienz erhöhen gegenüber deaktiviertem SMT.

MiamiNice
2021-08-27, 02:10:16
Für meinen Geschmack wird hier der Effizienz und dem Vergleich zu mobilen Chips zu viel Aufmerksamkeit geschenkt. AL wird in erster Linie ein Desktop Prozessor und scheinbar ist Intel gewillt die Keule auszupacken. Zumindest für die nächsten Jahre, sonst gäbe es wohl die PCores so nicht.

basix
2021-08-27, 08:13:48
Auch für dich als absoluten "Keule Auspack Jünger" gilt: Mehr Effizienz = Mehr maximale Performance. Das hat erstmal nichts mit Gewichtung auf Energieeffizienz zu tun. Ist einfach Physik ;)

Und für den Rest der Welt: Leichter zu kühlen bei mehr Performance. Sinnvollere Performance vs. Verbrauch Kennlinie in den meisten Anwendungsszenarien. Gehäuse und Zimmer heizen sich weniger stark auf. Weniger Strom- und Ressourcenverbrauch sowie Kosten. Alles in allem einfach "sorgenfreier" ;)

MiamiNice
2021-08-27, 08:32:11
Das hört sich viel zu vernünftig an. Vernünftige Dinge machen keinen Spaß ;)

basix
2021-08-27, 08:40:33
Doppelte Performance als sonst bei 1000W hören sich vernünftig an? :D ;)

y33H@
2021-08-27, 10:19:03
Für meinen Geschmack wird hier der Effizienz und dem Vergleich zu mobilen Chips zu viel Aufmerksamkeit geschenkt. AL wird in erster Linie ein Desktop Prozessor und scheinbar ist Intel gewillt die Keule auszupacken. Zumindest für die nächsten Jahre, sonst gäbe es wohl die PCores so nicht.ADL ist wie alle 115x/1200-CPUs in erster Linie ein Mobile-Design, das auch im Desktop-Segment verkauft wird.

WedgeAntilles
2021-08-27, 10:32:28
Die Preise sind erst zu hoch, wenn die Ware sich nicht ausreichend verkauft?

Plötzliche Amnesie deinerseits, bezüglich früher wo es umgekehrt war? Obwohl Intel das eigentlich nie so derbst wie damals nötig hatte?
AMD ist ja glasklar, daß die Blauen wieder kommen. Bis dahin will sich AMD in dieser kurzen Phase finanziell bestmöglich erholen, weil es auch klar ist, daß es bald wieder nicht mehr geht.

Wenn man in der Zeit diese furchtbar teure AMD-Ware kaufte, hat man in anschliessend preiswertere Intel-Ware investiert. AMD stärker gemacht zu haben, heißt für die Zeit eine Konkurrenzsituation aufzubauen, wo Intel wieder stark ist. Das wird es schon bald sein. Nun stehen die Chancen gut, daß sich der Spies nicht gleich wieder komplett dreht.

Kannst du echt nur bis zum Tellerrand sehen? Sei doch jedem zu tiefst dankbar der sich bisher Zen3 kaufte, damit du bald deine 8+8 Intels nicht wieder in der Apotheke holen musst. Kommst du klar damit?

Du scheinst Wahrnehmungsstörungen zu haben.
Intel hatte Apothekenpreise - im Highend Segment.
Wenn man es schaffte nicht das Topmodell zu kaufen gab es eigentlich immer ordentliche bis sehr gute Angebote.
Wenn du z.B. aufs Übertakten verzichtet hast gab es die Xeon-Reihe. Viel Leistung zum absoluten Budgetpreis.
Ok, du musstest halt aufs übertakten verzichten.

Mit dem Ryzen 3600 + 3700X hatte AMD kurzfristig einmal ein besseres Preis-Leistungs-Verhältnis.
Für wie lange? 6 Monate? 9?


Ob es gut ist, dass AMD das überteuerte Zeug verkauft ist übrigens fraglich.
Ja, das AMD technisch aufgeholt hat ist toll - Intel hat ja die letzten Jahre als es keine Konkurrenz gab nix auf die Reihe bekommen.

Falls ApothkeMD aber dafür sorgt, dass das gesamte Preissegment stark nach oben verschoben wird ist es halt ein zweischneidiges Schwert.

Bei den GraKas sieht man ja, wie hier der Miningboom vor ein paar Jahren dafür gesorgt hat, dass die Preise dauerhaft massiv hoch gegangen sind. 300-330 Euro wie bei der 970 werden wir nie wieder sehen.

Aber egal, es ist OT und ich will dich nicht länger davon abhalten an deinem AMD Schrein zu beten :)

OgrEGT
2021-08-27, 11:13:51
Immer diese Grabenkämpfe... am Ende geht es um wenige Prozentpunkte Unterschied... vor allem für normale User bei denen es nicht um jede Minute Rechenzeit gehen sollte... AMDs Karten liegen mit Zen3 auf dem Tisch... Intel muss abseits der ganzen Vetsprechungen erst mal liefern was aufgrund des komplexen Scheduling welches zudem ein ganz neues Windows voraussetzt nicht leicht werden dürfte...

Da wird es mMn viel Licht und viel Schatten geben... die große Unbekannte wird zudem sein wie die Effizienz wirklich aussieht in den Fällen wo es auch höhere Leistung gibt...

Auch wird man sehen müssen wie Leistung und Effizienz bei den P/L Modellen aussehen wird die hier schon hoch gelobt werden...

dildo4u
2021-08-27, 11:18:13
Lieferbarkeit spielt immer noch eine Rolle, der tolle 11400 war eine Test Rakete die nicht mher vernüftig lieferbar ist, das hat er scheinbar vergessen.
Wird interresant ob sie wesentlich komplexere CPUs überhaupt für die Preise verkaufen können/wollen.


Aktuell 230€ war 170 zum Launch, AMD hat hingegen Preise gesetzt die sie halten konnten.

https://geizhals.de/intel-core-i5-11400f-bx8070811400f-a2492594.html?v=l&hloc=at&hloc=de

basix
2021-08-27, 11:20:04
Aber egal, es ist OT und ich will dich nicht länger davon abhalten an deinem AMD Schrein zu beten :)


AMDs "Problem" ist folgendes: Es wird einfach alles gekauft. Und mehr können sie bei TSMC gar nicht herstellen. Höhere Preise sind ein Mittel, um die Nachfrage zu dämpfen. Oder man bringt eben nur die hochpreisigen SKUs. Es bringt nichts, die Dinger günstig anzupreisen.

Siehe Nvidias 3060. Mit einem MSRP von 329$ wäre das Ding ziemlich attraktiv. Nur was bringt das dem Kunden heute? Genau gar nichts. Auf dem Papier zwar schön, in Realität eher so 500 Euro. Momentan ist jegliche Produkt- und Marktpolitik faktisch ausgehebelt, da einfach alles weggekauft wird.

Jede Firma, auch AMD, will Geld verdienen. Und genau so wie jezt können sie ihren Gewinn maximieren. Sie würden vermutlich gerne mehr CPUs/GPUs zu günstigeren Preisen anbeiten, da bin ich mir sicher. AMD will Marktanteile und Mindshare. Das holt man nicht mit sehr teuren und spärlich gesäten Produkten. Aufgrund begrenzten Stückzahlen geht das momentan aber nicht so wie gewollt. AMD wir hier das sicher mit einen lachenden und weinenden Auge ansehen, verdienen tun sie momentan ja gut.

Ja, ich bin tendenziell pro AMD. Aber ich bin primär pro für gute Produkte. Technologisch wie auch preislich. Da gab es in den letzten 5 Jahren eigentlich nur mit Zen 1/2 wirklich P/L Sieger par Excellence. Pascal, Turing, Ampere, RDNA1, RDNA2, Coffee Lake-R, Comet Lake-S, Zen 3. Alle sind in der Tendenz zu teuer für das Gebotene. AMD ist hier aber wesentlich weniger aggressiv als z.B. Nvidia. Pascal war mMn der eigentliche Price Hike der GPUs, nicht Turing. Turing hat einfach den Vogel abgeschossen, bot technisch aber eine Menge und ist auch heute noch modern (zumindest TU106 aufwärts sind gut gealtert). UVP einer GTX 1080 FE lag bei sagenhaften 789 Euro. Das mit einem 314mm2 Chip. Eine 6700 XT mit +50% Speicher sowie 335mm2 in einem wesentlich teureren Prozess kostet 479$. Ja es liegen fast 5 Jahre zwischen den zwei Chips. Ändert aber nichts an der Tatsache, dass N22 teurer herzustellen ist als GP104 und der Speicher eher nicht günstiger ist. Eine 1060 6GB FE hatte eine UVP von 319 Euro. Bei 200mm2 und normalem GDDR5. Heute läge da eine 3060 mit doppeltem Speicher und fast doppelt so grossem Chip. Deswegen: Eine 3060 zur UVP wäre attraktiv. Gibt es momentan aber halt einfach nicht.

Aber eigentlich geht es ja hier um CPUs und Alder Lake scheint die gleichen Preis-Slots für i5/i7 usw. einzunehmen. Deswegen sollte Preis-Leistung eigentlich ziemlich OK sein. AMD wird dann auch die Preise senken, das haben sie mittlerweile eigentlich schon so langsam begonnen zu machen.

OgrEGT
2021-08-27, 11:21:16
Lieferbarkeit spielt immer noch eine Rolle, der tolle 11400 war eine Test Rakete die nicht mher vernüftig lieferbar ist, das hat er scheinbar vergessen.
Wird interresant ob sie wesentlich komplexere CPUs überhaupt für die Preise verkaufen können/wollen.

Wird man wohl müssen wenn man Marktanteile zurück gewinnen will...

dildo4u
2021-08-27, 11:34:35
Ich vermute das sie die begrenzte Stückzahl an Chips Richtung Mobile schieben, hat man doch grad erst gesehen Mobile hat exzellente 8 Core 10nm Modelle bekommen und Desktop ein unsäglichen 14nm Frankenstein.
So lange wir 500€ + für RTX 3060 zahlen müssen sind teure Gameing Notebooks so attraktiv wie nie.

amdfanuwe
2021-08-27, 13:01:05
Wird man wohl müssen wenn man Marktanteile zurück gewinnen will...
Marktanteile interessieren nicht bei zu knappen Produktionskapazitäten. Da geht es nur darum wie man den größten Gewinn aus den verfügbaren Kapazitäten holen kann.

YfOrU
2021-08-27, 13:20:10
Wird interresant ob sie wesentlich komplexere CPUs überhaupt für die Preise verkaufen können/wollen.


Das hat eher eine andere Ursache. Die Nachfrage ist so hoch das voll funktionsfähige CPUs in geringerem Umfang als teildeaktivierte SKUs (zu niedrigerem VK) konfiguriert werden. RKL mit 8C/16T gibts mit dreistelligem Lagerbestand und Großteils etwas unterhalb der UVP. Ist einfach logische Gewinnmaximierung. Das Produktionsvolumen wird primär auf SKUs mit höherer Marge verteilt.

Hinzu kommt das ja nicht nur CPUs knapp sind. Intels NUC ist inzwischen beispielsweise nahezu vom Markt verschwunden und an CPUs scheiterts da bestimmt nicht (denn die übliche Marge der OEMs geht hier zusätzlich an Intel). Neben allgemein höheren Preisen wird die Produktion allgemein mehr in Produktsegmente mit höheren Margen verschoben.

MiamiNice
2021-08-27, 13:21:25
ADL ist wie alle 115x/1200-CPUs in erster Linie ein Mobile-Design, das auch im Desktop-Segment verkauft wird.

Woran machst Du das bei AL fest? Auf mich wirken AL und auch RL als wären sie speziell für den Desktop - sogar speziell auf Gamer ausgelegt. Mobile kommt dann abgespeckt mit einem P und vielen kleinen Cores.
Gezielt machen die nächsten Intel Produkte auf mich den Eindruck als sollten sie die "Massenmeinung" wieder zurecht biegen. Und die Meinungsmache fängt bei Menschen wie uns - und gerade unter Gamern an. So irrelevant der DIY Markt auch sein mag.

Lehdro
2021-08-27, 13:54:39
RKL ist definitiv ein Desktopding, allerdings eher eine Verlegenheitslösung aus der Not geboren.

ADL hingegen ist definitiv Mobile - das sagt auch Intel genau so. Die stellen die Effizienz viel mehr in den Vordergrund, als die eigentliche Leistung. Wenn Dekstop der eigentliche Fokus wäre, gäbe es definitiv mehr als 8 Big Cores, siehe SKL oder HEDT.
Mobile kommt dann abgespeckt mit einem P und vielen kleinen Cores.
Du SKU Liste hast du dir schon angesehen? (https://www.notebookcheck.net/Alder-Lake-mobile-SKU-stack-to-feature-new-U28-and-H55-offerings-in-addition-to-four-other-TDP-segments-Alder-Lake-S-will-also-be-offered-as-a-BGA-package-at-55-W.550663.0.html)
Topmodell im Mobile ist exakt dasselbe wie auf dem Desktop. 1-2 P Cores maximal gibt es gerade mal bei ULV, also sub 15W.

basix
2021-08-27, 14:05:30
Gut erhöhte ST Performance und verdoppelte MT Performance ist also ein "Mobile Ding"? Wattagen gehen immer höher? Und Performance soll nicht im Vordergrund stehen? Hört ihr euch überhaupt zu?

Ich sagte bereits: Effizienz ist Trumpf. Nur so wird diese Performance überhaupt erst erreicht.

Thunder99
2021-08-27, 14:23:22
Nochmal zum GB5 MT Bench vom 1200K. Anscheinend limitiert beim R9 5950X seine 105W TDP, die Intel dagegen extrem überfährt mit den 125W TD2 etc. GB5 mal wieder Paradebeispiel wenn die Leistungsaufnahme "unlimitiert" ist :freak:

Real kann doch bei der starken Zen 3 Architektur im MT ein 5950X nicht geschlagen werden wenn der Workload entsprechend lange ist (24T vs 32T :wink:)

reaperrr
2021-08-27, 14:57:55
Gut erhöhte ST Performance und verdoppelte MT Performance ist also ein "Mobile Ding"? Wattagen gehen immer höher? Und Performance soll nicht im Vordergrund stehen? Hört ihr euch überhaupt zu?

Ich sagte bereits: Effizienz ist Trumpf. Nur so wird diese Performance überhaupt erst erreicht.
So sieht's aus.

Intel ist überhaupt nur in der Lage, die MT-Perf so zu erhöhen, weil die 8 E-Cores nur so viel (oder noch weniger) verbrauchen wie 2 P-Cores.

So schleppend, wie die Node-Fortschritte (und bezogen auf IPC je mm²/Mrd. Transistoren auch uArch-Fortschritte der Core-Architektur) bei Intel aktuell sind, wären sie mit P-Cores allein vielleicht in 2 Jahren bei 12C und einer MT-Leistung von ~= 5950X angekommen. In 250W PL2.

Lehdro
2021-08-27, 15:13:16
Gut erhöhte ST Performance und verdoppelte MT Performance ist also ein "Mobile Ding"?
Bei der ST Performance: ICL und TGL lassen grüßen.
Und verdoppelte MT Performance gab es dort auch, zumindest wenn man davon ausgeht das SKL mit max. 4 Cores im Mobile geplant war und nur zwangsläufig CFL und co. rüber portiert wurden. ICL auf TGL sind nun auch mal eben so eine Verdoppelung der MT Performance. Oder sind die plötzlich Desktop Chips?

Wattagen gehen immer höher? Und Performance soll nicht im Vordergrund stehen? Hört ihr euch überhaupt zu?
Welche Wattagen gehen denn hoch gegenüber RKL? ADL wird zum ersten Mal seit langem die MT Performance von Intel massiv erhöhen, OHNE die Wattagen höher zu ziehen, so siehts nämlich aus.

Ich sagte bereits: Effizienz ist Trumpf. Nur so wird diese Performance überhaupt erst erreicht.
Und wo ist Effizienz der Trumpf schlechthin auch abseits der absoluten Performance? Ahja, da schließt sich der Kreis.

basix
2021-08-27, 16:36:29
Bei der ST Performance: ICL und TGL lassen grüßen.
Und verdoppelte MT Performance gab es dort auch, zumindest wenn man davon ausgeht das SKL mit max. 4 Cores im Mobile geplant war und nur zwangsläufig CFL und co. rüber portiert wurden. ICL auf TGL sind nun auch mal eben so eine Verdoppelung der MT Performance. Oder sind die plötzlich Desktop Chips?


Es ging in diesem Kontext um Desktop und dass ADL eben auch für Desktop zugschnitten ist und nicht ein Mobile Chip. Oder hast du ICL und TGL im Desktop gesehen?


Welche Wattagen gehen denn hoch gegenüber RKL? ADL wird zum ersten Mal seit langem die MT Performance von Intel massiv erhöhen, OHNE die Wattagen höher zu ziehen, so siehts nämlich aus.
Laut Leaks gehen die Peak Ströme hoch. Die TDPs nicht, das stimmt. Die TDP sagt aber schon lange nicht mehr viel über den Realverbrauch aus. Sieh dir RKL an: Der Realverbrauch ist enorm. ADL wird also auch bei identischem Verbrauch kein Kostverächter sein. Wiederum nicht wirklich Mobile-like.


Und wo ist Effizienz der Trumpf schlechthin auch abseits der absoluten Performance? Ahja, da schließt sich der Kreis.
Effizienz ist die Grundvoraussetzung für hohe Performance. Egal ob Mobile oder Desktop. Ist das so schwer zu verstehen? Reaperrr hats kapiert.

Platos
2021-08-27, 17:31:26
Irgendwann (in den nächsten 10-20 Jahren) wird man (im Consumerbereich) immer weiter weg von P-Cores gehen, weil die E-Cores dann einfach schon so Leistungsfähig sind, dass man keine P-Cores mehr benötigt. Vlt. gibt es dann eine neue E-Architektur, die noch effizienter ist und die alte E-Architektur wird zur P-Architektur umbenannt (und die alte P-Architektur könnte ganz verschwinden im Consumerbereich).

Gerde in Zeiten, in denen simple Shrinks nicht mehr sooo einfach sind, wird man (zusätzlich) andere wege finden müssen. Ich will nicht wissen, wie schwer es in 10-20 Jahren ist, noch zu shrinken. Reine Strukturverkleinerungen sind auf jeden Fall nicht ewigs möglich (logischerweise). Ich denke, in 20-30 Jahren wird da langsam Schluss sein. Womit man sicher noch viel rausholen kann, sind andere Materialien (komplett andere). Da ist es natürlich noch lange nicht absehbar, wann Schluss ist.

Thunder99
2021-08-27, 18:02:52
Das wird eher nicht kommen, da man sich sonst nicht mehr weiterentwickelt was die absolute Performance anbelangt. Es wird eher noch mehr zwischen Mobil und Client/Server unterschieden.

BlacKi
2021-08-27, 18:26:47
Lieferbarkeit spielt immer noch eine Rolle, der tolle 11400 war eine Test Rakete die nicht mher vernüftig lieferbar ist, das hat er scheinbar vergessen.
Wird interresant ob sie wesentlich komplexere CPUs überhaupt für die Preise verkaufen können/wollen.


Aktuell 230€ war 170 zum Launch, AMD hat hingegen Preise gesetzt die sie halten konnten.

https://geizhals.de/intel-core-i5-11400f-bx8070811400f-a2492594.html?v=l&hloc=at&hloc=de


schau doch mal in die preis historie. wenn man will, dann kireigt man den auch noch sub 170€ und die non f liegen auch nicht bei 200+

y33H@
2021-08-27, 18:48:38
Woran machst Du das bei AL fest?Weil es im Desktop weder P-Cores noch Xe 96EU braucht, das Design aber ist auf PPA optimiert - eben mit Fokus auf Mobile. Selbst die 8+8+32 Variante wurde primär für den Sweet Spot von 45W ausgelegt, denn das Ding braucht Unmengen an Energie für volle 5,3 GHz / 3,9 GHz.

Badesalz
2021-08-27, 19:12:38
Falls ApothkeMD aber dafür sorgt, dass das gesamte Preissegment stark nach oben verschoben wird ist es halt ein zweischneidiges Schwert.Für dich würde die Welt jedenfalls flexibler werden, weil dann könnte das blaue Götzenbild endlich vom Altar.

Irgendwann (in den nächsten 10-20 Jahren) wird man (im Consumerbereich) immer weiter weg von P-Cores gehen, weil die E-Cores dann einfach schon so Leistungsfähig sind, dass man keine P-Cores mehr benötigt.Dann sind sie auch keine E-cores mehr, sondern PE-cores :usweet:

Lehdro
2021-08-27, 19:18:42
Es ging in diesem Kontext um Desktop und dass ADL eben auch für Desktop zugschnitten ist und nicht ein Mobile Chip.
"eben auch" - Miami hat "speziell für Desktop" geschrieben. Goalpost verschieben, nett.

Oder hast du ICL und TGL im Desktop gesehen?
Bitte was? Du drehst mein Argument um? Hä? Rate doch mal WARUM sie nicht im Desktop waren und trotzdem ST Maßstäbe gesetzt haben.


Laut Leaks gehen die Peak Ströme hoch. Die TDPs nicht, das stimmt. Die TDP sagt aber schon lange nicht mehr viel über den Realverbrauch aus. Sieh dir RKL an: Der Realverbrauch ist enorm. ADL wird also auch bei identischem Verbrauch kein Kostverächter sein. Wiederum nicht wirklich Mobile-like.
Realverbrauch bei offener TDP, jop. Nicht der Normalzustand.

Effizienz ist die Grundvoraussetzung für hohe Performance. Egal ob Mobile oder Desktop. Ist das so schwer zu verstehen? Reaperrr hats kapiert.
Oh man. Ich kann die Performancekrone auch mit 250W holen, interessiert im DT halt niemand, versteh das doch mal.
Im Mobile eben schon, siehe auch die Ausrichtung der Designs, hat y33H@ schön zusammengefasst.
Deswegen pumpt Intel und auch AMD ein von Grund auf auf niedrige TDPs optimiertes Design im Desktop einfach auf, anstatt für Mobile DT Designs runterzuskalieren.

Platos
2021-08-27, 19:22:50
Dann sind sie auch keine E-cores mehr, sondern PE-cores :usweet:

Bin mir nicht sicher, ob du verstehst, was ich meine. Die E-Cores werden immer die E-Cores bleiben (ohne Umbenennung bzw. relative Änderung - also eine noch effizientere Architekturen).

Natürlich werden sich die Architekturen in 10-20 Jahren sowieso so stark Verändern, dass man sie kaum noch mit heute vergleichen können wird. Aber man wird die heutige Architektur irgendwann komplett fallen lassen für Consumer. Die E-Cores von Intel sind ja meilenweit besser, wie die P-Cores. Das sind nicht einfach niedriger getaktete Kerne.

Edit: Bei ~15W Mobile-CPUs könnte ich mir vorstellen, dass man in den nächsten 5-10 Jahren nur noch E-Kerne verbaut. Also das, was heute z.B ein i5 11xxGx ist.

Der_Korken
2021-08-27, 20:05:35
Ich glaube, dass sich eine Hand voll P-Kerne für die "Schwuppdizität" noch sehr lange lohnen werden. Du wirst immer Aufgaben haben, wie z.B. Programme öffnen, die nicht gut parallelisiert sind und wo sich das System einfach sehr viel mächtiger anfühlt, wenn ein Programm in 2 Sekunden auf ist statt in 4 Sekunden.

Platos
2021-08-27, 20:16:02
Die E-Kerne sind nicht halb so schnell bei gleichem Energiebedarf. Und bei Laptops hat man ein bestimmtes Powertarget.

MiamiNice
2021-08-28, 01:34:43
ApothkeMD

Sorry aber ;D

Thunder99
2021-08-28, 08:10:50
Ich kann mich noch gut erinnern, wie einige gesagt haben, zu Bulldozer Zeiten:
Lieber 4 schnelle echte Kerne als 8 Langsame "Halb-Kerne" aka 4+4.

Das kann man hier wiederholen. Bei wirklich MT Bedarf >8Kerne lieber 16 Performance Kerne als 8+8... . Bin da auf Tests gespannt, welche wirklich massiv über Kerne skalieren und deren Ergebnisse

dildo4u
2021-08-28, 08:24:40
Wenn die Plattform die 16 Kerne nich voll ausfahren kann bringt es auch nicht maximale Skalierung, AM5 soll deswegen ja deutlich mher TDP ermöglichen.

Badesalz
2021-08-28, 09:19:27
Natürlich werden sich die Architekturen in 10-20 Jahren sowieso so stark Verändern, dass man sie kaum noch mit heute vergleichen können wird.Ja? Kann man die heutigen kaum noch mit denen von vor 15 Jahren vergleichen?

Der_Korken
2021-08-28, 11:07:11
Die E-Kerne sind nicht halb so schnell bei gleichem Energiebedarf. Und bei Laptops hat man ein bestimmtes Powertarget.

Dafür gibt es doch Konfigurationen wie 2+8. Für bursty workloads nimmt man die P-Kerne und sobald man im Powerlimit ist, schaltet man die P-Kerne halt ab, wenn sie die Gesamtperformance runterziehen.

OgrEGT
2021-08-28, 11:14:31
Wie muss man sich den Thread Director vorstellen? Ist das ein Tool welches vom User konfigurierbar ist oder ist das Teil des Intel Treibers und gelockt?

dildo4u
2021-08-28, 11:28:35
Es ist Hardware im Chip die angeblich ideal mit dem neuen Scheduler in Win11 arbeitet.

https://www.computerbase.de/2021-08/hot-chips-33-intel-alder-lake-steht-und-faellt-mit-dem-thread-director/

Der_Korken
2021-08-28, 11:35:16
Der Thread Director ist definitiv in Hardware vorhanden und sollte somit auch betriebssystemunabhängig funktionieren, auch wenn diese natürlich erstmal Support dafür einbauen müssen. So wie ich das bisher verstanden habe, verwaltet Intel auf dem Chip diverse Performance-Counter, aus denen man ableitet auf welcher Kern-Art ein Prozess idealerweise laufen sollte. Das ganze natürlich in Kombination mit der vorhandenen Kern-Zahl, d.h. wenn man 4 P-Kerne hat, aber 6 Prozesse gerne drauf laufen würden, muss der Thread Director zwei aussortieren. Das Betriebssystem "kann" sowas natürlich auch alleine, aber es kann die Entscheidung nicht so feingranular treffen wie eine Hardware-Lösung (bzw. eine Software-Lösung für den Thread Director würde möglicherweise so viel Ressourcen ziehen, dass er in Summe mehr Performance kostet als er bringt).

WedgeAntilles
2021-08-28, 12:06:44
https://www.youtube.com/watch?v=Yk-6Fe0nkvs

Bin kein Freund von Moore's Law, aber mich hat das Video interessiert da es eine CPU im Fokus hat, die sonst häufig weniger beachtet werden.
Meist geht es um die TopDogs - aber weniger um die in meinen Augen viel wichtigeren und attraktiveren Mittelklasse CPUs.
(Auch Intel geht ja im Marketingbereich meist nur auf die allerbesten Modelle ein.)

Ein 10600k mit 6 großen und 4 kleinen Kernen könnte zum zocken ideal sein (was das Preis-Leistungs-Verhältnis angeht).

Klar sind 8 + 8 "geiler", aber nüchtern betrachtet wird es den Aufpreis wohl nicht wert sein (zum Gamen).

Von daher fand ich das Video ganz interessant.

=Floi=
2021-08-28, 12:53:06
ich halte im PC bereich noch immer nichts davon und sehe für intel nur eine cost reduktion

Platos
2021-08-28, 12:58:04
https://www.youtube.com/watch?v=Yk-6Fe0nkvs

Bin kein Freund von Moore's Law, aber mich hat das Video interessiert da es eine CPU im Fokus hat, die sonst häufig weniger beachtet werden.
Meist geht es um die TopDogs - aber weniger um die in meinen Augen viel wichtigeren und attraktiveren Mittelklasse CPUs.
(Auch Intel geht ja im Marketingbereich meist nur auf die allerbesten Modelle ein.)

Ein 10600k mit 6 großen und 4 kleinen Kernen könnte zum zocken ideal sein (was das Preis-Leistungs-Verhältnis angeht).

Klar sind 8 + 8 "geiler", aber nüchtern betrachtet wird es den Aufpreis wohl nicht wert sein (zum Gamen).

Von daher fand ich das Video ganz interessant.


Du meinst ein 12600K?

Und ja, könnte sein. Aber das kommt darauf an, was Intel für Preise aufwirft. Wenn sie ja so gut sind, wie behauptet, dann könnten sie mit Alderlake auch die Preise an AMD anpassen und somit ebenso wie AMD die CPUs teurer machen. Dann ist das P/L Wunder schnell gestorben.

Man kann nur hoffen, dass das nicht passiert. 2019- Mitte 2020 Hatten wir bezahlbare 8-Kerner von beiden Seiten, die auch gut waren im Gaming. Könnte sich bald ändern und dann sind nur noch die 6-Kerner bezahlbar. 8-Kerner ist dann Enthusiasten-Ware.

Zuerst eine Klassen nach oben, dann wieder eine nach unten. Ich erinnere immer wieder gerne, dass es schon vor 7 Jahren mit Haswell-E einen 6-Kerner für 389$ gab. Also da frage ich mich doch, wo genau wir jetzt so viel billiger sind? 6-Kerner kosten 300Dollar bei AMD...Dass die Hardware an sich besser wird, ist selbstverständlich. Das war noch nie ein Argument für höhere Preise.

Hoffen wir mal, dass Intel die Preise nicht so wie AMD erhöht.

WedgeAntilles
2021-08-28, 13:03:39
Du meinst ein 12600K?

Und ja, könnte sein. Aber das kommt darauf an, was Intel für Preise aufwirft. Wenn sie ja so gut sind, wie behauptet, dann könnten sie mit Alderlake auch die Preise an AMD anpassen und somit ebenso wie AMD die CPUs teurer machen. Dann ist das P/L Wunder schnell gestorben.

Man kann nur hoffen, dass das nicht passiert. 2019- Mitte 2020 Hatten wir bezahlbare 8-Kerner von beiden Seiten, die auch gut waren im Gaming. Könnte sich bald ändern und dann sind nur noch die 6-Kerner bezahlbar. 8-Kerner ist dann Enthusiasten-Ware.

Zuerst eine Klassen nach oben, dann wieder eine nach unten. Ich erinnere immer wieder gerne, dass es schon vor 7 Jahren mit Haswell-E einen 6-Kerner für 389$ gab. Also da frage ich mich doch, wo genau wir jetzt so viel billiger sind? 6-Kerner kosten 300Dollar bei AMD...Dass die Hardware an sich besser wird, ist selbstverständlich. Das war noch nie ein Argument für höhere Preise.

Hoffen wir mal, dass Intel die Preise nicht so wie AMD erhöht.

Ja, sorry, meinte den 12600K - kann meinen Post leider nicht mehr editieren.

Ich hatte vor 6 Jahren für einen 4-Kerner 250 Euro bezahlt - damals waren 4 Kerne aber im oberen Leistungsbereich. Es gab noch 6 Kerne, aber das wars.

Platos
2021-08-28, 13:19:42
Genau, das war der obere Leistungsbereich. Heute ist ein 6-Kerner oberer Leistungsbereich und nicht mehr wie vor einem Jahr noch der 8-Kerner (zumindest bei AMD, bei Intel hoffe ich mal, dass es sich nicht ändert mit Alderlake - ich bezweifle es aber).

Der 6-Kerner von Haswell-E war natürlich ne teurere Plattform. Die Plattformen sind heute aber auch noch teurer geworden. Mainboards werden auch immer teurer. Das, was früher 150 gekostet hat, kostet heute schon 200-250.

Eigentlich muss man ja eine CPU immer als Kombination mit dem Mainboard sehen (und evtl. noch gleich RAM oben drauf).

Badesalz
2021-08-28, 14:25:40
Es ist Hardware im Chip die angeblich ideal mit dem neuen Scheduler in Win11 arbeitet.

https://www.computerbase.de/2021-08/hot-chips-33-intel-alder-lake-steht-und-faellt-mit-dem-thread-director/Nein. Umgekehrt. Der neue Scheduler arbeitet gut damit. Und der ist eben da neu wo es kappieren soll, ob er grad was auf einen P- oder einen E-core wirft.

Das kann jeder OS-Kernel so, wenn die Coder das schnallen. big.little macht sonst keinen Sinn, wenn die Kernel keine Ahnung von der Existenz der beiden haben.

-/\-CruNcher-/\-
2021-08-28, 15:13:11
Und wieder zeigt jemand wie man durch effiziente Architecture changes Effizienz generiert anstelle nur vom Shrinking aus, verwunderlich das es diesmal Intel ist haben sie doch versucht eine ganze Zeit Lang AMD mit ihrem Schrinking Vorteil zu degradieren und sind massivst bei ihrem Tablet/Phone Atom SOC damit gescheitert, wie schnell sich das Blatt doch wenden kann ;)
Allerdings ist das meiste auch so nur von ARM abgekupfert und wird hier dem Zuschauer als neuen x86 Aufguss verkauft.
Man merkt eindeutig wie viel Druck ARM und Apple aufgebaut haben ;)

aufkrawall
2021-08-28, 15:43:58
Was wendet sich denn hier? Zen 3 ist dann ein Jahr alt, ggf. auch bei MT immer noch effizienter und spottbillig zu produzieren. AMD muss im Grunde gar nichts machen, außer auf etwas von der unerhört hohen Marge zu verzichten.
Für Notebooks ist ADL natürlich trotzdem interessant, aber auch da wird AMD wohl kaum auf den Chips sitzen bleiben.

-/\-CruNcher-/\-
2021-08-28, 15:53:40
Naja ich meinte die Antwort auf AMD ist eindeutig zu langsam erfolgt eigentlich war es ja auch die Antwort eher auf ARM und Apple AMD spielt eigentlich eine weniger wichtige Rolle in Intels momentanen Entscheidungen.

Badesalz
2021-08-28, 16:17:36
Naja ich meinte die Antwort auf AMD ist eindeutig zu langsam erfolgt eigentlich war es ja auch die Antwort eher auf ARM und Apple AMD spielt eigentlich eine weniger wichtige Rolle in Intels momentanen Entscheidungen.Das ist richtig. Da wo AMD wirklich stark ist kann Intel sie bisher auch mit nichts angreifen.

@aufkrawall
Das ist schn bisschen Gejammer... AMD hing lange genug am Hungertuch. Paar wenige Entscheidungen bei Intel und der Crash mit den Prozessen brachte jetzt die Chance die Kasse soweit zu füllen, daß man sich mit den Entwicklungen gut übers Wasser halten können wird, auch wenn Intel wieder wuchtig zurückkommen sollte.

Das ist kein Geld was umgehend in eigenen Yachten und Shareholders transferiert wird.

//differentRob
2021-08-28, 16:17:58
AMD mag zwar eine hohe Marge haben, nur haben sie auch die Kapazitäten bei TSMC gebucht um einer entsprechenden Nachfrage bei preiswerteren Chips zu liefern?

Gleiches Problem könnte dann mit dem V-Cache sein. Bisher sind ja die 12 & 16 Kerner dafür vorgesehen. Bleibt AMD dabei, kann es sehr gut sein, dass Intel einen sinnvollen und preiswerten sweetspot für Gamer anbieten könnte.

fondness
2021-08-28, 16:21:21
Warum glaubt eigentlich jeder zu wissen, dass es den 3D Cache nur bei den 12 & 16 kernern gibt?

Daredevil
2021-08-28, 16:32:28
Weil AMD sich bislang auch künstlich diversifiziert hat durch Taktraten.
Ein 5600x könnte genauso schnell sein wie ein 5950x im SC Speed, AMD haut da aber eine künstliche Begrenzung ein durch die Auswahl des Chips.

Ein 5600x mit schnellerem Cache würde also schneller sein als ein 5950x in 90% der Games, das will AMD vielleicht nicht im Benchmark stehen haben, weil sich die Besitzer des 5950x dann betrogen fühlen.
Deswegen würde ich auch einschätzen, dass der Cache ausschließlich ein "Premium Produkt" wird, den AMD sich fürstlich bezahlen lässt.

Wenn dem nicht so ist, würde ich mich aber auch freuen. Maximaler SC Speeeed!

Windi
2021-08-28, 16:50:05
Auch weil das Stapeln der Chips anscheinend recht schwierig ist. Laut Gerüchten sollten es den 3D Cache schon bei Zen 2 geben, auf den Markt kommt er jetzt aber erst Jahre später.

Da gehe ich einfach nicht davon aus, dass man ihn nun schnellstmöglich über das gesamte Produktportfolio ausrollt. Sondern erst einmal bei den Premiumprodukten anfängt.
Auch gehe ich davon aus, das TSMC dafür spezielle Maschinen benötigt und diese Kapazitäten erst aufgebaut werden müssen.
Auch glaube ich nicht, dass TSMC diese Technologie seinen besten Kunden verheimlicht hat und diese nun auch Stapeln wollen. Vielleicht bringt Apple schon nächstes Jahr ähnliche Produkte.

aufkrawall
2021-08-28, 17:01:16
Das ist kein Geld was umgehend in eigenen Yachten und Shareholders transferiert wird.
Wayne? Geld kann man als Konzern gut leihen und sie konnten offenbar auch kurz vorm Abgrund hochklassige ASIC-Designer halten/gewinnen.
Aber ja, die sollen damit mal schön den Personal-Stack für bessere QA (USB AGESA...) ausbauen und sich Spitzenleute für Deep Learning etc. einkaufen.

Lehdro
2021-08-28, 18:04:55
Ein 5600x mit schnellerem Cache würde also schneller sein als ein 5950x in 90% der Games, das will AMD vielleicht nicht im Benchmark stehen haben, weil sich die Besitzer des 5950x dann betrogen fühlen.
Deswegen würde ich auch einschätzen, dass der Cache ausschließlich ein "Premium Produkt" wird, den AMD sich fürstlich bezahlen lässt.
So ein Quatsch³

Es fühlt sich doch auch kein 1800X Besitzer betrogen dass der 2600X schneller war. Oder ein 2700X Besitzer das ein 3600 ihn an die Wand klatscht und noch ein Salto macht. Oder ein 3950X Besitzer das der 5600X Überrundungsweltmeister wird. Das liegt in der Natur der Sache, ein Refresh ist halt schneller. Umso besser wenn man die Stack von Produkten von unten nach oben komplett refreshed - dann kann eh jeder neu kaufen, so wie bei jeder Generation zuvor auch...

Wenn ein 5600X mit V$ nicht kommen sollte, so liegt das sicher nicht am Produktportfoliobedenken seitens AMD, sondern eher an Supply und Preis.

Platos
2021-08-28, 18:14:07
Naja, nen 1800X war ja nun auch nicht gerade das Gelbe vom Ei :freak: Wer da als Gamer zugeschlagen hat, ist wohl definitiv ein Fan.

Daredevil
2021-08-28, 19:13:30
So ein Quatsch³

Es fühlt sich doch auch kein 1800X Besitzer betrogen dass der 2600X schneller war. Oder ein 2700X Besitzer das ein 3600 ihn an die Wand klatscht und noch ein Salto macht. Oder ein 3950X Besitzer das der 5600X Überrundungsweltmeister wird. Das liegt in der Natur der Sache, ein Refresh ist halt schneller. Umso besser wenn man die Stack von Produkten von unten nach oben komplett refreshed - dann kann eh jeder neu kaufen, so wie bei jeder Generation zuvor auch...

1. Der 1800x war lahm im Gegensatz zum 7700k, hier hat Intel die 8 Kerne immer wieder schagen können in Games.
2. Es ist ein Unterschied, ob man "Next Gen" HexaCore mit "Last Gen" Octa Core Vergleich, oder 16 Kerne, die von 6 Kernen geschlagen werden.
3. AMD will Geld verdienen, falls du es nicht gemerkt hast.

Mangel76
2021-08-28, 19:30:53
1. Der 1800x war lahm im Gegensatz zum 7700k, hier hat Intel die 8 Kerne immer wieder schagen können in Games.
2. Es ist ein Unterschied, ob man "Next Gen" HexaCore mit "Last Gen" Octa Core Vergleich, oder 16 Kerne, die von 6 Kernen geschlagen werden.
3. AMD will Geld verdienen, falls du es nicht gemerkt hast.
Das ist doch auch Quatsch. Wer den 16-Kerner rein zum Spielen gekauft hat, also einen riesigen Aufpreis zum 5800X bei ähnlicher Leistung bezahlt hat, der braucht sich jetzt auch nicht zu beschweren. Der kauft einfach den neuen 16-Kerner mit V$. Bei Anwendungen wird der alte aber sicher nicht geschlagen.

Lehdro
2021-08-28, 20:00:41
Das ist doch auch Quatsch. Wer den 16-Kerner rein zum Spielen gekauft hat, also einen riesigen Aufpreis zum 5800X bei ähnlicher Leistung bezahlt hat, der braucht sich jetzt auch nicht zu beschweren. Der kauft einfach den neuen 16-Kerner mit V$. Bei Anwendungen wird der alte aber sicher nicht geschlagen.
This.
1. Der 1800x war lahm im Gegensatz zum 7700k, hier hat Intel die 8 Kerne immer wieder schagen können in Games.
2. Es ist ein Unterschied, ob man "Next Gen" HexaCore mit "Last Gen" Octa Core Vergleich, oder 16 Kerne, die von 6 Kernen geschlagen werden.
3. AMD will Geld verdienen, falls du es nicht gemerkt hast.
1. Wo kommt da der Intel Vergleich plötzlich her? Ich dachte das Argument ging explizit um 5600X(T) und 5950X? Bitte beim Thema bleiben.
2. Nein, es macht keinen Unterschied. Neues Produkt schlägt altes Produkt. Kannst von mir aus gerne den 1950X vs 2600X / 2950X vs 3600 / 3990X vs 5600X nehmen, kommt genau dasselbe bei raus.
3. Genau das habe ich gesagt, also macht es Sinn die KOMPLETTE Produktreihe mit V$ auszustatten, danke für die Wiederholung ;)

BlacKi
2021-08-28, 22:07:04
Weil AMD sich bislang auch künstlich diversifiziert hat durch Taktraten.
Ein 5600x könnte genauso schnell sein wie ein 5950x im SC Speed, AMD haut da aber eine künstliche Begrenzung ein durch die Auswahl des Chips.

Ein 5600x mit schnellerem Cache würde also schneller sein als ein 5950x in 90% der Games, das will AMD vielleicht nicht im Benchmark stehen haben, weil sich die Besitzer des 5950x dann betrogen fühlen.
Deswegen würde ich auch einschätzen, dass der Cache ausschließlich ein "Premium Produkt" wird, den AMD sich fürstlich bezahlen lässt.

Wenn dem nicht so ist, würde ich mich aber auch freuen. Maximaler SC Speeeed!

das ist natürlich nicht gewollt. das unterstelle ich natürlich auch intel, die den cache begrenzen, obwohl physikalisch vorhanden.

dieser scheizz kapitalismus sorgt dafür das ich mir jeweils das top produkt kaufen muss^^

dasselbe bei porsche. mittelmotor ist dem heckmotor natürlich überlegen, aber transaxle und mittelmotorkonzept darf natürlich nie den heckmotor schlagen.

BlacKi
2021-08-28, 22:25:51
deshalb braucht intel die e cores. miami würde das auch notfalls mit 1000rpm wakü wegkühlen XD

https://cdn.videocardz.com/1/2021/08/Intel-Alder-Lake-Power.png

https://cdn.videocardz.com/1/2021/08/Intel-Alder-Lake-Power.jpg

https://videocardz.com/newz/intel-alder-lake-support-added-to-extreme-tuning-utility-xtu-first-stability-test-leaks

DeadMeat
2021-08-28, 22:43:53
Der 1. cinebench leak sprach ja auch schon von 280w.
Hohe Leistung und hoher Verbrauch, gemessen am Vorgänger natürlich extreme Verbesserung. Zeigt aber auch warum es keine 16P Cores gibt.
Kann man vermutlich wieder davon ausgehen das alle Z boards PL2(+) zum standard Limit machen.

MiamiNice
2021-08-28, 23:29:51
deshalb braucht intel die e cores. miami würde das auch notfalls mit 1000rpm wakü wegkühlen XD

https://cdn.videocardz.com/1/2021/08/Intel-Alder-Lake-Power.png

https://cdn.videocardz.com/1/2021/08/Intel-Alder-Lake-Power.jpg

https://videocardz.com/newz/intel-alder-lake-support-added-to-extreme-tuning-utility-xtu-first-stability-test-leaks

Da bist Du schief gewickelt. In der Höhe säuft mein aktueller CPU auch - nur kommt viel weniger dabei rum. 300 Watt sind nun wirklich nichts, da drehen nicht mal die Lüfter hoch. Gerade in Zeiten in denen die GPU schon das doppelte saugt.
Da kann man hoffentlich noch mehr rausholen. Aber das muss jemand anderes testen - ich schlage erst beim Raptoren zu.

=Floi=
2021-08-29, 04:11:47
Weil AMD sich bislang auch künstlich diversifiziert hat durch Taktraten.
Ein 5600x könnte genauso schnell sein wie ein 5950x im SC Speed, AMD haut da aber eine künstliche Begrenzung ein durch die Auswahl des Chips.

Ein 5600x mit schnellerem Cache würde also schneller sein als ein 5950x in 90% der Games, das will AMD vielleicht nicht im Benchmark stehen haben, weil sich die Besitzer des 5950x dann betrogen fühlen.
Deswegen würde ich auch einschätzen, dass der Cache ausschließlich ein "Premium Produkt" wird, den AMD sich fürstlich bezahlen lässt.

Wenn dem nicht so ist, würde ich mich aber auch freuen. Maximaler SC Speeeed!

So ein schmarrn. Das was amd hier umsetzt ist einfach minimalst. Bei 16 cores hat man auch mehr möglichkeiten und schau mal zu intel, was die machen. :rolleyes:

y33H@
2021-08-29, 06:40:44
Da bist Du schief gewickelt. In der Höhe säuft mein aktueller CPU auch - nur kommt viel weniger dabei rum. 300 Watt sind nun wirklich nichts, da drehen nicht mal die Lüfter hoch. Gerade in Zeiten in denen die GPU schon das doppelte saugt.
Da kann man hoffentlich noch mehr rausholen. Aber das muss jemand anderes testen - ich schlage erst beim Raptoren zu. Triple Radi nur für die CPU?

fondness
2021-08-29, 10:26:31
Okay, das relativiert natürlich auch die Multi-Threading-Performance ziemlich. Ein 5950X mit >300W liegt natürlich auch ganz wo anders. Man darf nicht vergessen, dass der Chip mit 105W TDP läuft wie der 8 Kerner.

Platos
2021-08-29, 11:01:16
Du glaubst doch nicht ernsthaft, dass der 5950x 105W zieht bei Cinebench?

Edit: Hier nochmals genau. AMD ist zwar weiiiiiit sparsamer unter Vollast, aber trotzdem keine Märchen erzählen:

https://www.3dcenter.org/artikel/launch-analyse-amd-ryzen-5000/launch-analyse-amd-ryzen-5000-seite-2

fondness
2021-08-29, 11:11:36
Hab ich das irgendwo behauptet? Der 5950X wird jedenfalls bei 142W hart abgeriegelt, mehr wird er auch bei Cinebench mit Sicherheit nicht benötigen.

BlacKi
2021-08-29, 11:13:21
ich glaub nicht dass das pl2 war. das war schon oc. der cinebench wurde mit pl2 gemacht, der etwas niedriger lag. pl2 ist innerhalb dieser sekunden kein wirkliches oc.

davon abgesehen, war der 5950x auch nicht der gegner. naja, ich hoffe mal nicht, das der 8+8 800+ euro kostet^^

Platos
2021-08-29, 11:14:34
Ja, du hast es sehr deutlich angedeutet. Oder warum sonst vergleichst du den Cinebench-Stromverbrauch von der Alderlake CPU mit 105W TDP?

Aber ja, ich sage ja, AMD ist nun mal deutlich Stromsparender bei Volllast.

Aber @Topic: Laut Intel ist doch Intels "7" gleich auf mit TSMCs 7nm :D Ist dann einfach die Architektur so beschissen, im Vergleich zu AMD oder warum sehen wir jetzt nicht einen deutlichen Rückgang im Stromverbrauch, wenn "Intel 7" so gut ist ? (Achtung, Ironie)

:D

BlacKi
2021-08-29, 11:24:34
Aber ja, ich sage ja, AMD ist nun mal deutlich Stromsparender bei Volllast.


wieso sagst du sowas?
5950x mit 239w peak
https://youtu.be/LU-LLCg7Fk8?t=60

vs
12900k pl2 228w
https://videocardz.com/newz/intel-core-i9-12900ks-qs-allegedly-outperforms-ryzen-9-5950x-in-cinebench-r20-test

intel schlägt den gerüchten nach den großen amd in performance und verbrauch.

ich hoffe ja, das intel die cpu nur nicht zu teuer macht.

fondness
2021-08-29, 11:24:35
Ja, du hast es sehr deutlich angedeutet. Oder warum sonst vergleichst du den Cinebench-Stromverbrauch von der Alderlake CPU mit 105W TDP?

Aber ja, ich sage ja, AMD ist nun mal deutlich Stromsparender bei Volllast.

Aber @Topic: Laut Intel ist doch Intels "7" gleich auf mit TSMCs 7nm :D Ist dann einfach die Architektur so beschissen, im Vergleich zu AMD oder warum sehen wir jetzt nicht einen deutlichen Rückgang im Stromverbrauch, wenn "Intel 7" so gut ist ? (Achtung, Ironie)

:D

Ich dachte es sei offensichtlich, dass TDP ungleich maximaler Verbrauch ist^^.

Intel sagt das Intel 7 sogar besser sein soll als TSMC 7nm. Der Schluss liegt eh auf der Hand, das Design ist unterlegen in punkto Perf/Watt.

Platos
2021-08-29, 11:28:26
Ja, wobei das schwierig zu sagen ist. Vlt. ist die Architektur auch einfach nur bis zu einem gewissen Punkt effizient und darüber nicht mehr (wo Intel aber hingeht aufgrund der Konkurrenz).

Ich finde ja, man sollte von jetzt an mit unzähligen Powerlimits eine CPU mit dem PES austesten von CrazyIvan. Dann sieht man wirklich, wie eine Architektur so performt.

Linmoum
2021-08-29, 11:29:18
wieso sagst du sowas?
5950x mit 239w peak
https://youtu.be/LU-LLCg7Fk8?t=60

vs
12900k pl2 228w
https://videocardz.com/newz/intel-core-i9-12900ks-qs-allegedly-outperforms-ryzen-9-5950x-in-cinebench-r20-test

intel schlägt den gerüchten nach den großen amd in performance und verbrauch.

ich hoffe ja, das intel die cpu nur nicht zu teuer macht.Der 5950X riegelt bei 142W PPT ab ohne manuelles tweaken, das ist einfach so. Genauso wie der 5800X oder 5900X. Da ist nichts mit über 200W.

PL2 mit 250W ist was völlig anderes mit seinen für bis zu 56sek.

BlacKi
2021-08-29, 11:32:20
Der 5950X riegelt bei 142W PPT ab ohne manuelles tweaken, das ist einfach so. Genauso wie der 5800X oder 5900X. Da ist nichts mit über 200W.

PL2 mit 250W ist was völlig anderes mit seinen für bis zu 56sek.
das stimmt, aber notfalls kann man das ja selbst im bios configurieren. vermutlich ist man bei 142w bei intel immernoch zumindest konkurenzfähig, wenn man zumindest mit vollast in cb20 amd in punkto speed und verbrauch schlagen kann.

ps. pl2 soll bei 228w liegen und nicht bei 250w.

dildo4u
2021-08-29, 11:33:07
Ich dachte es sei offensichtlich, dass TDP ungleich maximaler Verbrauch ist^^.

Intel sagt das Intel 7 sogar besser sein soll als TSMC 7nm. Der Schluss liegt eh auf der Hand, das Design ist unterlegen in punkto Perf/Watt.
Das ist im Desktop nicht positiv für AMD, die müssen teuren Cache verbauen da die Plattform keine 250 Watt verträgt.
Tiger Lake hat schon gezeigt das die neuen Intel Kerne gut nach oben skalieren.

https://youtu.be/ot9z0N2z67I?t=870

Platos
2021-08-29, 11:34:25
wieso sagst du sowas?
5950x mit 239w peak
https://youtu.be/LU-LLCg7Fk8?t=60

vs
12900k pl2 228w
https://videocardz.com/newz/intel-core-i9-12900ks-qs-allegedly-outperforms-ryzen-9-5950x-in-cinebench-r20-test

intel schlägt den gerüchten nach den großen amd in performance und verbrauch.

ich hoffe ja, das intel die cpu nur nicht zu teuer macht.

Da hat man dann aber irgend ein Limit ausgehebelt?

Wobei ich ja im anderen Post sage, dass es auch einfach sein könnte, dass Intel ihre CPUs einfach am Limit betreibt. Wäre ja interessant, wie es aussieht, wenn beide bei 142W abriegeln. Ich denke, Intel wird da nicht deutlich an Perfomance verlieren, aber eifnach so, dass sie nicht mehr in Führung sind. Aber die Effizienz wäre da sicherlich deutlich besser.

Wie gesagt: Man sollte CPUs (in diesem Bereich) mit 10W Schritten jeweils durch CrazyIvans PES laufen lassen. Das wäre Gold wert.

BlacKi
2021-08-29, 11:38:57
Da hat man dann aber irgend ein Limit ausgehebelt?

Wobei ich ja im anderen Post sage, dass es auch einfach sein könnte, dass Intel ihre CPUs einfach am Limit betreibt. Wäre ja interessant, wie es aussieht, wenn beide bei 142W abriegeln. Ich denke, Intel wird da nicht deutlich an Perfomance verlieren, aber eifnach so, dass sie nicht mehr in Führung sind. Aber die Effizienz wäre da sicherlich deutlich besser.

Wie gesagt: Man sollte CPUs (in diesem Bereich) mit 10W Schritten jeweils durch CrazyIvans PES laufen lassen. Das wäre Gold wert.
natürlich. beide am limit.

wer das will, kann ja gerne zu amd greifen. nur wenn ich das mit einer 600€ intel cpu hinbekomme, warum 800+ ausgeben? vermutlich liegt man im idle wieder meilenweit vor amd.

naja, wenn die gerüchte stimmen... aber allzulange dürfte es nichtmehr dauern, dann wissen wir mehr.

Platos
2021-08-29, 11:47:19
Ja, ich sage ja schon lange: Bitte umfängliche Leistungstests machen (also wörtlich: Leistung...Watt und so)

Aber leider interessiert das ja keinen. Eine CPU zu haben, die bei bedarf ziemlich viel Leistung hat und bei Nichtbedarf eine schlummernde Grosskatze ist, will nur ich haben anscheinend:freak:

OgrEGT
2021-08-29, 11:50:19
wieso sagst du sowas?
5950x mit 239w peak
https://youtu.be/LU-LLCg7Fk8?t=60

vs
12900k pl2 228w
https://videocardz.com/newz/intel-core-i9-12900ks-qs-allegedly-outperforms-ryzen-9-5950x-in-cinebench-r20-test

intel schlägt den gerüchten nach den großen amd in performance und verbrauch.

ich hoffe ja, das intel die cpu nur nicht zu teuer macht.

Bei HWLuxx verbraucht der 5950x 147W...

https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/54555-generations-nachzuegler-amd-ryzen-9-5950x-und-ryzen-7-5800x-im-test.html?start=10

Entweder war der 5950x im yt Video OCed oder es wurde das Gesamtsystem gemessen..

BlacKi
2021-08-29, 11:54:05
warum klickt ihr nicht auf das video, dann müsst ihr nicht spekulieren... nicht umsonst gebe ich es als quelle an.

OgrEGT
2021-08-29, 12:00:18
warum klickt ihr nicht auf das video, dann müsst ihr nicht spekulieren... nicht umsonst gebe ich es als quelle an.

Weil ich bspw nur das Handy gerade hab und in der Sonne sitze (Urlaub)... Deshalb wäre es nett wenn Du die beiden Quellen in den Kontext setzen könntest...

y33H@
2021-08-29, 12:11:09
Ohne manuellen Eingriff sind 142W das Limit bei allen Vermeer.

robbitop
2021-08-29, 12:35:11
Wobei die Skalierung der Performance ab einem gewissen Punkt stark abnimmt mit zunehmender Leistungsaufnahme. Kommt da nach 142W potenziell noch viel beim 5950X?

HOT
2021-08-29, 13:41:38
Bei massiv-MT schon.

r3ptil3
2021-08-29, 13:56:17
Limits auf "Mainboard" und die CPU läuft frei.

Mein 5900X zieht auch knapp 210W mit offenen Limits.

Jedoch halte ich davon nicht mehr viel. Auf default ziehen die Ryzen 9 Modelle, wie gesagt, nicht mehr als 142Watt und das ist auch richtig so, denn die fast 100W mehr Verbrauch, bringen im Verhältnis viel zu wenig Mehrleistung.

Korrekt sehe ich hier also auch: 142 vs 228w (Intel).

Limitiert mal einen Intel auf 142W, würde dann nochmals ganz anders aussehen.

BlacKi
2021-08-29, 14:05:04
Limitiert mal einen Intel auf 142W, würde dann nochmals ganz anders aussehen.
du meinst, es verschiebt sich weiter für intel? ich denke, das der scheduller zuerst die pcores einbremst falls das powerlimit limitiert. d.h. die last verschiebt sich richtung e cores. und mit den e cores schlägt intel amd auf jedenfall.

Weil ich bspw nur das Handy gerade hab und in der Sonne sitze (Urlaub)... Deshalb wäre es nett wenn Du die beiden Quellen in den Kontext setzen könntest...
ich hab doch zitiert. vollast bedeutet für mich ohne limits. was ist denn das für eine unart, das 3dc im nicht voll funktionierendem mobilen modus zu nutzen? und mir dann die schuld zu geben, das ich nicht für die mobilen rücksicht nehme XD

Bei massiv-MT schon.
und cinebench ist was?

fondness
2021-08-29, 14:09:43
Wobei die Skalierung der Performance ab einem gewissen Punkt stark abnimmt mit zunehmender Leistungsaufnahme. Kommt da nach 142W potenziell noch viel beim 5950X?

Das gilt sicher für den 5800X, aber der 16 Kerner hat die selben TDP, da geht also schon noch was, wenn auch natürlich die Effizienz abnimmt. Man braucht sich ja nur einem 8 Kerner mit etwas über 50W tdp ansehen. Oder MT score 5800X vs. 5950X - letzterer ist eben nicht doppelt so schnell.