PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMDs "Renoir"-APU der Ryzen 4000 U/H/G-Serien bringt wohl gleich 8 ...


Leonidas
2019-12-22, 09:22:40
Link zur News:
https://www.3dcenter.org/news/amds-renoir-apu-der-ryzen-4000-uhg-serien-bringt-wohl-gleich-8-cpu-kerne-mit

dildo4u
2019-12-22, 10:01:05
Ich vermute selbst der Foto Test taugt nix,unter langer/Voll Last sollte sich der 6 Core vom Ice Lake absetzen.

https://live.staticflickr.com/65535/49257453246_13ff8e9e37_b.jpg (https://flic.kr/p/2i3HjKh)19 (https://flic.kr/p/2i3HjKh) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.techspot.com/review/1944-intel-core-i7-1065g7/

seba86
2019-12-22, 10:22:00
Nur 15W bei 8 Cores + Grafik...das kann nur schief gehen. APU mit eingebauter Handbremse (viel zu wenig Wattage).

Gutes Beispiel
Ich habe einen 3500U (4/8er mit Vega 8): Entweder taktet die CPU hoch oder die Grafik... beides zusammen geht nicht.

Bestes Beispiel ist Elex, was ich habe laufen lassen (winziges Tal ohne Gegner im Kreis gegangen):

Meist um die 21-22 fps, sehr selten 35 fps (das was also normalerwesie konstant drin sein sollte von den Specs mindestens) und nach den 35fps sekundenlange Drops auf 7-8 fps...
Man verzichtet also auf ein 1/3 der theoretisch möglichen Leistung, nur um 15 Watt draufstehen zu haben :(

Das wird beim 8er noch schlimmer sein.

Corny
2019-12-22, 11:08:20
Selbst wenn man Grafi, IO, Speicherkontroller usw. mal weglässt, sind 8C bei 15 Watt unter 2W je Core. Das dauert noch ein paar Jahre bis das länger unter Volllast bei hohem Takt läuft.

Und zu Leos Satz in den News, ob 8C in Notebooks sein müssen: Smartphones gibt es seit Jahren mit 8 - 10C, größere Zahlen verkaufen sich halt einfach besser!

Adam D.
2019-12-22, 11:38:03
Nur 15W bei 8 Cores + Grafik...das kann nur schief gehen. APU mit eingebauter Handbremse (viel zu wenig Wattage).

Gutes Beispiel
Ich habe einen 3500U (4/8er mit Vega 8): Entweder taktet die CPU hoch oder die Grafik... beides zusammen geht nicht.

Bestes Beispiel ist Elex, was ich habe laufen lassen (winziges Tal ohne Gegner im Kreis gegangen):

Meist um die 21-22 fps, sehr selten 35 fps (das was also normalerwesie konstant drin sein sollte von den Specs mindestens) und nach den 35fps sekundenlange Drops auf 7-8 fps...
Man verzichtet also auf ein 1/3 der theoretisch möglichen Leistung, nur um 15 Watt draufstehen zu haben :(

Das wird beim 8er noch schlimmer sein.
Ultrabooks sind ja bekanntlich dafür gebaut, gleichzeitig hohe CPU- und GPU-Last ohne Abstriche zu meistern :freak:

Wex
2019-12-22, 12:12:03
Kann jemand eine Aussage zu der iGPU Performance treffen anhand der Benchmarks ?

Gast
2019-12-22, 12:23:40
Und zu Leos Satz in den News, ob 8C in Notebooks sein müssen: Smartphones gibt es seit Jahren mit 8 - 10C, größere Zahlen verkaufen sich halt einfach besser!

Das schont die Batterie. Eine 4-Core-CPU müsste für die gleiche Performance viel höher takten, würde mehr verbrauchen und wäre schwerer zu kühlen. (Dazu kommen noch Dutzende dedizierte Prozessoren auf dem SoC aus dem gleichen Grund.)
Bei Servern verhält es sich genauso und in Laptops ist es ebenfalls sinnvoll, um Strom/Wärme einzusparen.

Benutzername
2019-12-22, 13:39:14
Selbst wenn man Grafi, IO, Speicherkontroller usw. mal weglässt, sind 8C bei 15 Watt unter 2W je Core. Das dauert noch ein paar Jahre bis das länger unter Volllast bei hohem Takt läuft.

Und zu Leos Satz in den News, ob 8C in Notebooks sein müssen: Smartphones gibt es seit Jahren mit 8 - 10C, größere Zahlen verkaufen sich halt einfach besser!

Jein. Abseits von ein paar Chinaböllern sind das normalerweise ARM BIG.little SoCs. Das ist dann doch bisschen etwas anderes als acht Zen2 Kerne. Zen2 scheint sein Optimum aus Stromverbrauch und REchenleistung sowieso bei niedrigeren Gigahetz zu haben, also von daher könnte ds richtig gut gehen bei den 4000Her APUs. Die Epyc takten ja auch nciht so hoch und man verteilt die Arbeit auf mehr Kerne um Strom udn damit Abwärme zu sparen.


Was mich mehr stört ist, daß die Bennung langsam unübersichtlich wird. Ryzen (desktop) und Threadripper mit Zen2 heißen 3000 und die APUs 4000.

Gast
2019-12-22, 15:50:19
Bislang war zu AMDs Renoir-APU Gerüchte-weise bekannt, das AMD hiermit nächstes Jahr Sechskern-Prozessoren ins Mobile-Segment bringen will – das es nun gleich bis zu 8 CPU-Kerne sein sollen, überrascht da etwas.

Nicht wirklich.

Nachdem Intel sogar mit 14nm 8 Kerne zusammenbringt und 8 Kerne bei Zen2 dermaßen klein sind, wären alles was weniger als 8 Kerne sind eine extreme Überraschung.

Interessant wird eher ob es weitere Abspeckungen gibt, und was die CPUs im Desktop können dürfen. Weil je nachdem was da kommt könnte AMD damit im Desktop alle Single-Chip Zen2 Prozessoren obsolet machen.

amdfanuwe
2019-12-22, 17:47:19
Was mich mehr stört ist, daß die Bennung langsam unübersichtlich wird. Ryzen (desktop) und Threadripper mit Zen2 heißen 3000 und die APUs 4000.
Find ich gar nicht.
2000 -> 2018er Produkt
3000 -> 2019er Produkt
4000 -> 2020er Produkt
hat halt nichts mit den verbauten Interna zu tun.

Thomas555
2019-12-22, 18:56:43
Und zu Leos Satz in den News, ob 8C in Notebooks sein müssen: Smartphones gibt es seit Jahren mit 8 - 10C, größere Zahlen verkaufen sich halt einfach besser!

Du hast da einen kleinen Denkfehler.
Bei smartphones hast du 4 stärkere und 4 schwächere Kerne, die jedoch nicht gleichzeitig genutzt werden.
Somit ist es ein Quad.

Gast
2019-12-22, 21:19:33
Du hast da einen kleinen Denkfehler.
Bei smartphones hast du 4 stärkere und 4 schwächere Kerne, die jedoch nicht gleichzeitig genutzt werden.

Bei praktisch allen Smartphone Prozessoren können und werden alle Kerne gleichzeitig genutzt, die großen und die kleinen.

Der letzte SoC der mir einfällt der das nicht kann ist der Tegra X1 in der Switch, da können werden tatsächlich immer nur entweder die großen oder kleinen genutzt.

Ansonsten ist HMP gang und gäbe, schon seit Jahren.

Rabiata
2019-12-22, 21:26:02
Nachdem Intel sogar mit 14nm 8 Kerne zusammenbringt und 8 Kerne bei Zen2 dermaßen klein sind, wären alles was weniger als 8 Kerne sind eine extreme Überraschung.

Interessant wird eher ob es weitere Abspeckungen gibt, und was die CPUs im Desktop können dürfen. Weil je nachdem was da kommt könnte AMD damit im Desktop alle Single-Chip Zen2 Prozessoren obsolet machen.
Der Flaschenhals bei den APUs ist bekanntlich die Speicherbandbreite. Da hat es schon seinen Sinn, daß die leistungsfähigeren GPUs einen eigenen GDDR5 oder GDDR6 Speicher haben und auf einer eigenen Grafikkarte sitzen. Auf allen Desktop-Prozessoren zusätzlich die Chipfläche für eine GPU zu spendieren, wäre Verschwendung.

Gast
2019-12-22, 22:57:01
Bislang war zu AMDs Renoir-APU Gerüchte-weise bekannt, das AMD hiermit nächstes Jahr Sechskern-Prozessoren ins Mobile-Segment bringen will – das es nun gleich bis zu 8 CPU-Kerne sein sollen, überrascht da etwas.

Ein Sechs-Kern-Chip wäre bei gegebenem Zen2-Aufbau vollkommen abwegig.

Gast
2019-12-23, 01:08:50
Der Flaschenhals bei den APUs ist bekanntlich die Speicherbandbreite. Da hat es schon seinen Sinn, daß die leistungsfähigeren GPUs einen eigenen GDDR5 oder GDDR6 Speicher haben und auf einer eigenen Grafikkarte sitzen. Auf allen Desktop-Prozessoren zusätzlich die Chipfläche für eine GPU zu spendieren, wäre Verschwendung.

Die Frage ist nicht ob eine grafiklose CPU Sinn macht, dass tut sie auf jeden Fall.

Die Frage ist allerdings ob die zukünftigen APUs von AMD nicht Ryzen 3xxx mit <= 8 Kernen obsolet macht.

Wenn wir davon ausgehen, dass die APU eben kein Chiplet-Design ist, und es möglich ist diese mit entsprechenden TDPs um die 100W zu betreiben sollten diese sollten diese auch rein von der CPU deutlich besser sein, zumindest sofern diese nicht zu viel abgespeckt (z.B. beim Cache) werden.

Thomas555
2019-12-23, 02:21:01
Bei praktisch allen Smartphone Prozessoren können und werden alle Kerne gleichzeitig genutzt, die großen und die kleinen.


Ich hatte es noch woanders gelesen:
https://www.lte-anbieter.info/ratgeber/smartphone/prozessoren-ueberblick.php

Zitat:
"Wird vom Smartphone maximale Performance benötigt, arbeitet der A15, bei weniger intensiven Anwendungen wird dagegen der akkuschonende A7 eingesetzt."


Wenn sich das in der Zwischenzeit geändert hat, dann prima.
Mein 2 Jahre altes Smartphone kann es laut Test nicht.
Und das ist die Oberklasse.

Leonidas
2019-12-23, 03:14:19
Ein Sechs-Kern-Chip wäre bei gegebenem Zen2-Aufbau vollkommen abwegig.


Vielleicht. Vielleicht aber auch nicht - monolitisch kann man sicherlich so einiges bauen, was nicht dem Standard entspricht.

basix
2019-12-23, 10:48:25
Nur 15W bei 8 Cores + Grafik...das kann nur schief gehen. APU mit eingebauter Handbremse (viel zu wenig Wattage).

Ehm, nö. Für eine Gaming Maschine ist eine 15W APU eh nicht geeignet. Für Spiele mit geringen Anforderungen grundsätzlich aber schon. z.B. Browser Games, alte Schinken oder eine kurze Session Fortnite mit reduzierten Settings. Die Zen 2 APU sollte verglichen mit RR/Picasso eigentlich ein verbessertes Energiemanagement besitzen.

Aber was ist meiner Meinung nach die Haupt-Zielgruppe? Mobile Workstations. z.B. die Lenovo Yoga Thinkpads mit 8C anstatt 4C helfen auch den Excel-Rittern.

Rabiata
2019-12-23, 11:39:01
[QUOTE=Gast;12174814
Die Frage ist allerdings ob die zukünftigen APUs von AMD nicht Ryzen 3xxx mit <= 8 Kernen obsolet macht.

Wenn wir davon ausgehen, dass die APU eben kein Chiplet-Design ist, und es möglich ist diese mit entsprechenden TDPs um die 100W zu betreiben sollten diese sollten diese auch rein von der CPU deutlich besser sein, zumindest sofern diese nicht zu viel abgespeckt (z.B. beim Cache) werden.[/QUOTE]
Von der TDP her denke ich, daß hier ein Ersatz für die 65W CPUs denkbar wäre, der Grafikteil schluckt ja auch noch was. Damit sollte die 95W Klasse zu halten sein.

Aber die Zielgruppe werden eher Office-PCs mit kleinem Budget sein. Für ein monolithisches, separate APU-Design könnten es auch 6 Kerne mit 4 Kernen Salvage Version sein. Falls sich das ins CCX-Konzept pressen läßt.

Edit: Widerspräche natürlich dem Artikel. Aber noch können wir spekulieren, es könnte ja eine Falschmeldung sein :)

Gast
2019-12-23, 17:05:44
Zitat:
"Wird vom Smartphone maximale Performance benötigt, arbeitet der A15, bei weniger intensiven Anwendungen wird dagegen der akkuschonende A7 eingesetzt."



A15/A7 sind jetzt aber auch uralte Kombinationen, damals war Clustered Switching oder maximal CPU migration tatsächlich noch Standard.

Heute ist bei praktisch allen halbwegs aktuellen Systemen global Task scheduling Standard, es können also prinzipiell alle Kerne gleichzeitig aktiv sein.

Was natürlich nichts daran ändert, dass die Leistungsfähigkeit der "kleinen" Kerne nur einen Bruchteil der "großen" beträgt, und man selbst mit dem gleichzeitigen Einsatz aller Kerne maximal in etwa die Performance eines weiteren "großen" Kerns dazubekommt.

Gast
2019-12-23, 17:19:54
Aber die Zielgruppe werden eher Office-PCs mit kleinem Budget sein.



Wenn AMD aber weiter den Weg geht keine künstlichen Fesseln anzulegen und damit auf allen CPUs freies Übertakten zu erlauben, und die maximalen Power/Current Limits vom Mainboard bestimmen lässt ist das ziemlich egal.

Wenn weiters wie bei den bisherigen Zen2 Prozessoren die physischen Limits des Siliziums ziemlich konstant sind könnte dann plötzlich eine 8 Kern APU nur in der CPU-Leistung mit einem 3800X mithalten oder diesen sogar schlagen, außer natürlich es gibt irgendwelche Hardwareabspeckungen, welche die Kerne der APUs langsamer werden lässt als die bisherigen Zen-Kerne.

Denkbar wäre beispielsweise, nur den halben L3-Cache pro Kern zu verbauen, wobei selbst dann zu überprüfen wäre ob das Endprodukt wirklich langsamer ist, denn mit den besseren Speicherlatenzen durch das monolithische Design könnte im Endeffekt trotzdem die APU pro Takt schneller sein.

Und sollte man sogar das CCX-Design anpassen, und alle 8 Kerne in einem CCX sein, wäre die Halbierung vom L3 eh praktisch kein Nachteil mehr.

Die Frage ist noch, welche Produkte AMD releasen wird, weil wenn man nur mit All-Core OC arbeiten kann handelt man sich natürlich einige Nachteile ein.

Wenn aber schon die maximalen Stock-Boost-Frequenzen hoch genug sind, sollte es reichen das Powerlimit zu lösen, und evtl. noch die +200MHz Auto-OC anzuwenden um im Endeffekt das bessere Produkt zu haben.

Technisch dürfte in jedem Fall eine 8-Kern-APU einem reinen 8-Kern Prozessor vorzuziehen sein, die Frage ist ob AMDs Produktpolitik dieser auch tatsächlich erlaubt besser zu sein.

Rabiata
2019-12-23, 20:11:44
Technisch dürfte in jedem Fall eine 8-Kern-APU einem reinen 8-Kern Prozessor vorzuziehen sein, die Frage ist ob AMDs Produktpolitik dieser auch tatsächlich erlaubt besser zu sein.
Der technische Knackpunkt ist die hohe Speicherbandbreite, die eine schnelle APU benötigt. Bei Polaris war es ein Thema, ob die "nur" 224 GByte/s des GDDR5-Speichers nicht die Performance ausbremsen. 2-Kanal DDR4 hat weit weniger Bandbreite zu bieten. 4-Kanal DDR4 dürfte für Consumer-CPUs zu teuer werden.

Ich habe mal einen älteren Artikel (https://www.techspot.com/news/62129-ddr3-vs-ddr4-raw-bandwidth-numbers.html) (in Englisch) ausgegraben. Der gibt als realen Lesedurchsatz bei Skylake, mit 2-Kanal DDR4 und bei 3000 MHz Speichertakt etwa 40 GByte/s an.

Solange da nichts entscheidend schnelleres kommt, sehe ich 8-Kern-APUs mit der bisherigen Speicherarchitektur nicht als erfolgversprechend an. Es sei denn, sie haben bewußt einen kleineren Grafikteil, der nicht so viel Bandbreite belegt. So im Stil einer Intel HD 530 Grafik.

Gast
2019-12-23, 20:37:54
Der technische Knackpunkt ist die hohe Speicherbandbreite, die eine schnelle APU benötigt. Bei Polaris war es ein Thema, ob die "nur" 224 GByte/s des GDDR5-Speichers nicht die Performance ausbremsen. 2-Kanal DDR4 hat weit weniger Bandbreite zu bieten. 4-Kanal DDR4 dürfte für Consumer-CPUs zu teuer werden.

Mir geht es nicht um den IGP, die Grafik ist mir völlig schnuppe. Die APU wird eine bessere CPU sein, als alles was Zen bisher gezeigt hat, wenn sie denn darf.

Ben Carter
2019-12-23, 20:58:27
Irgendwie will ich nicht so recht glauben, dass die CPU-Dies anders sein werden. Das Konzept scheint sehr gut zu funktionieren und skaliert entsprechend. Einzig der IO-Die müsste überarbeitet werden für die GPU. Und vielleicht wird dieser auch in 7nm hergestellt oder man beschneidet ihn etwas, dann sollte der auch im Verbrauch deutlich sinken.

Gast
2019-12-23, 23:44:19
Irgendwie will ich nicht so recht glauben, dass die CPU-Dies anders sein werden. Das Konzept scheint sehr gut zu funktionieren und skaliert entsprechend.

Es wird ganz sicher ein einzelner DIE, AMD selbst hat es zwar nicht direkt bestätigt, aber durchblicken lassen, dass zumindest aktuell, ein Multi-Die-Konzept für APUs noch nicht angedacht ist.

Der Vorteil von den Chiplets ist nicht bei den kleinen CPUs vorhanden, vermutlich wäre ein nativer 8-Kerner in den Gesamtkosten, aus DIEs Packaging etc. nicht mal teurer in der Herstellung, wahrscheinlich sogar günstiger als das jetzige Chiplet Design.

Der einzig große Vorteil des Chiplet-Designs ist es, dass man kostengünstig, sowohl in der Herstellung also auch im Design, sehr einfach das Ganze hochskalieren kann.

APUs wird es aber nicht mit bis zu 64 Kernen geben, daher macht es auch wirtschaftlich keinen Sinn auf Chiplets zu setzen, und die Wirtschaftlichkeit ist der einzige Grund überhaupt auf Chiplets zu setzen, weil sowohl von der Performance als auch von der Energieeffizienz sind Chiplets naturgemäß immer schlechter.

Leonidas
2019-12-24, 04:51:02
Denkbar wäre beispielsweise, nur den halben L3-Cache pro Kern zu verbauen,


Davon gehen ich aus. Den großen L3 bei Zen 2 braucht AMD aus Server- und Wärmeverteilungsgründen. Für Server ist die APU nicht da und die Wärmeverteilung übernimmt dann teilweise die iGPU-Fläche.

Gast
2019-12-24, 06:19:27
Vielleicht. Vielleicht aber auch nicht - monolitisch kann man sicherlich so einiges bauen, was nicht dem Standard entspricht.

Schauen wir auf die Möglichkeiten die AMD zu haben scheint, um die Märkte embedded, network, storage, iot, notebook, desktop, hedt, workstation, datacenter und server abzudecken:

AMD veröffentliche (Produkte auf Basis von)
2017: 1 neuen CPU Design (summit ridge etc) und 1 neues APU Design (raven ridge etc)
2018: 1 CPU Design refresh (pinnacle ridge etc)
2019: 1 APU Design refresh (picasso etc) und 2 neues CPU Design (matisse etc, banded kestrel)

Die Möglichkeiten sind gewissermaßen beschränkt. In Anbetracht der Dauer von Entwicklungszyklen werden kurzfristige Marktveränderungen auch keinen Einfluss auf die Entwicklung von Renoir gehabt haben. Entsprechend der bisherigen Praxis ist es wahrscheinlich, dass sich das CCX-Konzept auch in Renoir wiederfindet. Erst mit banded kestrel halbiert AMD den CCX.

Leonidas
2019-12-24, 09:15:43
Richtig. Wir müssen hier die langen Vorlaufzeiten beim Produktdesign beachten - womit die Hersteller niemals wissen können, in welcher Marktsituation sie dann beim Produktrelease überhaupt stehen. Und gleichzeitig sind AMDs limitierte Ressourcen immer mit einzurechnen -es gilt dort immer, aus wenig viel zu machen.

Gast
2019-12-24, 13:11:23
APUs wird es aber nicht mit bis zu 64 Kernen geben, daher macht es auch wirtschaftlich keinen Sinn auf Chiplets zu setzen, und die Wirtschaftlichkeit ist der einzige Grund überhaupt auf Chiplets zu setzen, weil sowohl von der Performance als auch von der Energieeffizienz sind Chiplets naturgemäß immer schlechter.

Das hängt von der Anzahl der Kerne ab. Man kann Chiplets viel besser binnen als riesige monolithische Chips, bei denen die Taktrate vom schlechtesten Kern abhängt. Mit Chiplets hingegen kann man die besten 1% für Server- oder HEDT-CPUs reservieren und höhere Taktraten erreichen.
https://hardzone.es/app/uploads-hardzone.es/2018/11/Chiplets-05.jpg

Leonidas
2019-12-24, 14:15:11
Stimmt @ Gast.

Aber: Der Effekt reduziert sich mit steigender Kern-Anzahl. Wenn der ganze Chip schlecht taktet, ist es natürlich Essig. Aber wenn es nur einzelne Kerne sind, spielt das in AMDs Boost-Verfahren keine Rolle - dann bekommen die eben die einfachsten Aufgabe. Mit AMDs Boost-Verfahren ist eher der durchschnittlich erreichte Takt aller Kerne interessant. Wenn es da große Differenzen gibt, dann eignet sich das für Takt-unterschiedliche SKUs.

Gast
2019-12-25, 13:44:02
Das hängt von der Anzahl der Kerne ab. Man kann Chiplets viel besser binnen als riesige monolithische Chips, bei denen die Taktrate vom schlechtesten Kern abhängt. Mit Chiplets hingegen kann man die besten 1% für Server- oder HEDT-CPUs reservieren und höhere Taktraten erreichen.
https://hardzone.es/app/uploads-hardzone.es/2018/11/Chiplets-05.jpg

Das ist für APUs aber vollkommen egal, die werden nicht in die Richtung extreme Kernzahlen skaliert.

Und selbst für die CPUs ist das ein ziemlich nebensächlicher Punkt.

Bei einer großen Anzahl an Kernen braucht man keinen hohen Takt und generell müssen alle Kerne immer nur die Base-Taktrate erreichen, die niedrig genug ist, dass sie praktisch jeder Kern erreicht.

Bei AMDs Turbo-Definition wird ja keine Allcore Taktrate angegeben, selbst wenn ein einzelner Kern zu irgendeinem Zeitpunkt den max. Turbotakt erreicht, selbst wenn dies für eine so kurze Zeit ist, dass dieser keinen nennenswerten Einfluss auf die Performance hat reicht das schon.

Mit den Chiplets könnte AMD sogar das genaue Gegenteil machen, und nur ein "gutes" Chiplet verbauen, welches irgendwann den max. Turbo schaffen kann, und den Rest "schlechte" Chiplets verbauen die gerade den Basetakt schaffen.

Gast2
2019-12-25, 18:31:07
Das ist für APUs aber vollkommen egal, die werden nicht in die Richtung extreme Kernzahlen skaliert.


Du hast geschrieben: "sowohl von der Performance als auch von der Energieeffizienz sind Chiplets naturgemäß immer schlechter."

Und ich habe geschrieben: "Das hängt von der Anzahl der Kerne ab."


Und selbst für die CPUs ist das ein ziemlich nebensächlicher Punkt.


Die Taktrate ist nicht nebensächlich. Sowohl beim Basetakt als auch beim Maximaltakt, der nicht nur auf bestimmten Kernen läuft, spielt das eine Rolle.
Je größer die Anzahl der Kerne, desto wichtiger ist es, nur die besten Chiplets zu verwenden - so wie bei AMD. Sonst wäre der Vorteil der vielen Kerne nivelliert und man hätte unnötig Silizium-Fläche verschwendet. Dort "schlechte" Chiplets zu verbauen, wäre kontraproduktiv. Die sind aus gutem Grund den Mainstream-CPUs vorbehalten.

Gast
2019-12-26, 00:40:19
Du hast geschrieben: "sowohl von der Performance als auch von der Energieeffizienz sind Chiplets naturgemäß immer schlechter."

Und ich habe geschrieben: "Das hängt von der Anzahl der Kerne ab."


Tut es aber nicht.

Ein hypothetischer monolitischer DIE wird einem Chiplet-Design der gleichen Kerne immer bei Performance und Effizienz überlegen sein, anders lässt es die Physik nicht zu.

Je größer die Kernanzahl ist, desto größer wird natürlich der Vorteil bei den Herstellungskosten.

Gast3-i guess
2019-12-26, 10:15:28
Gast schau: Ein konkreter monolithischer Die könnte herstellungsbedingt eine Leistung X pro Kern im Durchschnitt benötigen, um eine Frequenz Y zu erreichen. Ein Chiplet-Design könnte, zufällig, die Leistung 0.75*X pro Kern im Durchschnitt benötigen. Die Effizienz wäre also in diesem konkreten Falle im Chiplet-Design besser, womit deine Aussage durch Gegenbeispiel widerlegt wäre.

Das Leistungsverhalten der Kerne sei zufällig normalverteilt. Betrachtet man einen einzigen Kern heißt dies: 50% der hergestellten Kerne sind schlechter als der Durchschnitt, 50% sind besser. Bringt man zwei Kerne auf einen Die, nimmt diese als unabhängig an, sind noch 25% der Dies besser als der Durchschnitt der einzelnen Kerne. Dieses Verhalten setzt sich mit zunehmender Anzahl Kerne pro Die fort.

Einen 64-Kern-Chip monolithisch herzustellen, der effizienter als ein Chiplet-Design ist, ist natürlich möglich. Baut man durchschnittlich zwei dies für ein (immer bezüglich des einen Kerns) überdurchschnittliches single core die, benötigt man vier dies für ein überdurchschnittliches two core die und 16 dies für ein überdurchschnittliches quad core die und beschauliche 18 Trillionen für ein überdurchschnittliches 64 core die. Nicht praxisrelevant.

Gast
2019-12-26, 12:06:31
Gast schau: Ein konkreter monolithischer Die könnte herstellungsbedingt eine Leistung X pro Kern im Durchschnitt benötigen, um eine Frequenz Y zu erreichen. Ein Chiplet-Design könnte, zufällig, die Leistung 0.75*X pro Kern im Durchschnitt benötigen. Die Effizienz wäre also in diesem konkreten Falle im Chiplet-Design besser, womit deine Aussage durch Gegenbeispiel widerlegt wäre.


Ähm nein das ist kein konkretes Gegenbeispiel, dass ist eine Aussage der Richtung 1 > 0.

Dermaßen große Schwankungsbreiten sind komplett ziemlich unrealistisch, aber selbst wenn das der Fall wäre, wäre das Chipletdesign als Gesamtsystem immer noch weniger effizient. Die isolierte Betrachtung eines Kernes kann dieser natürlich in einem Chiplet effizienter sein. Bei den Chiplets musst du aber die Daten zwischen den verschiedenen DIEs hin- und herschieben, und das kostet wesentlich mehr Energie, als jegliche realistische Annahme die ein möglicherweise effizienterer Kern wieder reinholen könnte.



Das Leistungsverhalten der Kerne sei zufällig normalverteilt. Betrachtet man einen einzigen Kern heißt dies: 50% der hergestellten Kerne sind schlechter als der Durchschnitt, 50% sind besser. Bringt man zwei Kerne auf einen Die, nimmt diese als unabhängig an, sind noch 25% der Dies besser als der Durchschnitt der einzelnen Kerne. Dieses Verhalten setzt sich mit zunehmender Anzahl Kerne pro Die fort.

Es ist relativ egal, dass 50% der Kerne besser als der Durchschnitt sind und 50% schlechter.

Viel wichtiger ist die Varianz zwischen den Kernen und die ist sehr gering. Bei Zen2 unterscheiden sich die "guten" von den "schlechten" Kernen um vielleicht 100-200MHz und das am Maximum.

CPUs mit hohen Kernanzahlen betreibt man aber nicht am Maximum, zumindest nicht wenn auch alle Kerne ausgelastet sind, sondern viel näher am Sweetspot, da wird der Unterschied zwischen den guten und schlechten Kernen nochmals geringer.


Und zuguterletzt, selbst wenn deine Fertigung dermaßen scheiße läuft, dass deine unrealistischen Annahmen hinkommen würden, wird trotzdem rein technisch der monolithische Ansatz effizienter sein, der Ausschuss wird nur entsprechend größer, und dein hypothetischer monolithischer DIE mit nur 0,75 Effizienz landet auf der Halde, bzw. wird, falls es nur einzelne Kerne betrifft, teildeaktiviert verkauft. Und damit sind wir wieder bei dem Punkt den ich die ganze Zeit sage, Chiplets sind günstiger in der Herstellung, und ja je größer die DIE-Größen werden desto höher werden die Kostenvorteile

Gast2
2019-12-26, 23:53:05
@Gast
Deine Mutmaßungen sind durch die Praxis längst widerlegt. Du ignorierst die Schwankungen in der Siliziumqualität. Selbst mit seinem ausgereiften Prozess kann Intel die Physik nicht austricksen und kommt mit monolithischer Architektur nicht weiter und muss "zusammen kleben", um wenigstens auf 48 Cores zu kommen.

Gast
2019-12-27, 15:30:57
@Gast
Deine Mutmaßungen sind durch die Praxis längst widerlegt. Du ignorierst die Schwankungen in der Siliziumqualität. Selbst mit seinem ausgereiften Prozess kann Intel die Physik nicht austricksen und kommt mit monolithischer Architektur nicht weiter und muss "zusammen kleben", um wenigstens auf 48 Cores zu kommen.

Wie oft denn noch?

Ja es ist günstiger mehrere DIEs zusammenzukleben, und es gibt auch ein maximum an herstellbarer Die-Size, wenn man darüber gehen will bleibt einem eh nichts anderes übrig.

In einer Welt in der Geld keine Rolle spielt, wäre aber monolithisch immer besser, und ja ich ignoriere Schwankungen in der Siliziumqualität, weil diese ein reines Yield-Problem und damit ein ökonomisches Problem sind.

Ich vergleiche sicher nicht eine zufällig möglichst schlechte Version mit einer zufällig möglichst guten Version eines Chiplet-Designs.

Auch wenn man vielleicht mit der Chiplet-Version statistisch mehr "gute" CPUs bauen kann ist und bleibt das ein rein ökonomisches Problem.

Ja monolithisch ist teurer, und bei großen DIEs sehr viel teurer, technisch bleibt es trotztdem besser.

Gast2
2019-12-27, 19:51:10
@gast
Du hast geschrieben: "sowohl von der Performance als auch von der Energieeffizienz sind Chiplets naturgemäß immer schlechter."

Du ignorierst noch immer die Tatsache, dass die Siliziumqualität auch die Taktrate bestimmt und damit auch Performance und Energieeffizienz.
https://hardzone.es/app/uploads-hardzone.es/2018/11/Chiplets-05.jpg

In deinem realitätsfremden Szenario spielt nicht nur Geld sondern auch die Physik keine Rolle.

Leonidas
2019-12-28, 04:16:13
Ihr habt ja beide Recht. Es kommt am Ende auf die Gewichtung an: Welcher Effekt dominiert - und welcher ändert nur marginal etwas.