PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42 43 44 45 46 47 48

SKYNET
2019-08-10, 01:27:09
IPC ist "Average Instructions per Clock" und nix anderes. Da ist Intel nach wie vor vorne, das ist ueberhaupt nicht diskussionswuerdig.


Instructions Per Cycle = leistung pro takt, und da ist intel nicht mehr vorne, bei gleichem takt bügelt zen2 auf desktop und server, derzeit alles was intel aufbieten kann.

w0mbat
2019-08-10, 01:55:18
IPC ist "Average Instructions per Clock" und nix anderes. Da ist Intel nach wie vor vorne, das ist ueberhaupt nicht diskussionswuerdig.
Sorry, aber beide Aussagen sind nachweislich falsch. IPC ist "instructions per cycle" und nicht "Average Instructions per Clock" (hast du dir das gerade ausgedacht?) und Zen2 hat eine höhere IPC als CFL-R.

Ich verstehe nicht wieso du hier wegen sowas banalem flunkerst :rolleyes:

Vor allem hier im Zen2 thread sieht mir das nach einfachem getrolle aus.

Unicous
2019-08-10, 02:05:32
Keine Ahnung was das schon wieder soll. Mit Zen 2 hat AMD im Großen und Ganzen IPC-Parität erreicht. Verstehe nicht warum man da jetzt drüber wieder diskutieren muss?:confused:

https://i.imgur.com/FatnfvR.png
(Alle Chips @3,8GHz

https://www.overclock.net/forum/10-amd-cpus/1728758-strictly-technical-matisse-not-really.html

Intel hat weiterhin einen Vorteil bei den Taktraten, weil sie 14nm bis zum letzten melken und man sieht ja wie sich das in der Leistungsaufnahme niederschlägt.

Wir werden sehen, wie sie sich mit 10nm schlagen und wie AMD mit Zen3@7nm EUV kontert.

SKYNET
2019-08-10, 02:21:34
Keine Ahnung was das schon wieder soll. Mit Zen 2 hat AMD im Großen und Ganzen IPC-Parität erreicht. Verstehe nicht warum man da jetzt drüber wieder diskutieren muss?:confused:

https://i.imgur.com/FatnfvR.png
(Alle Chips @3,8GHz

https://www.overclock.net/forum/10-amd-cpus/1728758-strictly-technical-matisse-not-really.html

Intel hat weiterhin einen Vorteil bei den Taktraten, weil sie 14nm bis zum letzten melken und man sieht ja wie sich das in der Leistungsaufnahme niederschlägt.

Wir werden sehen, wie sie sich mit 10nm schlagen und wie AMD mit Zen3@7nm EUV kontert.


und die ryzen künstlich ausgebremst mit 2666er speicher... IPC test = stock settings mit fixem CPU-takt, und dazu gehört der speichertakt mit dem die CPU default rennt, punkt aus.

gravitationsfeld
2019-08-10, 02:24:06
Sorry, aber beide Aussagen sind nachweislich falsch. IPC ist "instructions per cycle" und nicht "Average Instructions per Clock" (hast du dir das gerade ausgedacht?) und Zen2 hat eine höhere IPC als CFL-R.
Natuerlich ist es ein Average, die instructions pro clock variieren je nach Programmcode andauernd. Nur weil du was nicht verstehst, hab ich mir es noch lange nicht ausgedacht.

Lehdro
2019-08-10, 02:24:35
IPC ist "Average Instructions per Clock" und nix anderes. Da ist Intel nach wie vor vorne, das ist ueberhaupt nicht diskussionswuerdig.
Jup, definitiv nicht diskussionswürdig:
In Single-Core-Tests zählen keine Kerne, sondern Takt und Leistung pro Takt. Die Ergebnisse offenbaren, dass AMDs Zen-2-Architektur eine höhere IPC als Intels Skylake-Generation (inklusive Kaby Lake, Coffee Lake) bietet, nur der extrem hohe Takt von 5,0 GHz der schnellsten Intel-CPU Core i9-9900K rettet den Marktführer noch an die Spitze: Die CPU von Intel bietet mit 5,0 zu 4,6 GHz maximalem Ein-Kern-Turbo-Takt zwar neun Prozent mehr Takt, liegt im Schnitt aber nur vier Prozent in Front.
Quelle (https://www.computerbase.de/2019-07/amd-ryzen-3000-test/3/#abschnitt_benchmarks_in_singlecoreapps)

Against the Ryzen 3000 series, the Intel line-up will seemingly no longer have an IPC lead. AMD hasn’t been in such a situation since the Athlon 64 days well over 15 years ago, which is a remarkable turn of events. [...]
Even without an IPC advantage anymore, Intel's high clockspeeds and supporting elements such as the core ringbus still give them the best performance in the kind of lightly-threaded and tightly-threaded scenarios that games often follow.
Quelle (https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar)
On average, based on the results of 32 individual workloads Zen 2 even manages to provide slightly higher average IPC than Coffee Lake-S Refresh.
Quelle (https://www.overclock.net/forum/10-amd-cpus/1728758-strictly-technical-matisse-not-really.html)
Although AMD is still trailing when it comes to frequency, they appear to have closed in and possibly exceeded Intel’s IPC performance with this last update.
Quelle (https://www.techspot.com/article/1876-4ghz-ryzen-3rd-gen-vs-core-i9/)
Wie mittels des Performance-Durchschnitts gut zu sehen, erfüllt AMD seine Mission bei Zen 2 in der Frage der Anwendungs-Performance einwandfrei: Schon der kleinere Achtkerner Ryzen 7 3700X reicht im Schnitt der Messungen faktisch aus, um Intels derzeitiges Consumer-Topmodell Core i9-9900K, welches zudem nominell mit klar höherem Takt antritt, um eine geringe Differenz in die Schranken zu weisen.
Quelle (https://www.3dcenter.org/artikel/launch-analyse-amd-ryzen-3000/launch-analyse-amd-ryzen-3000-seite-2)

TheAntitheist
2019-08-10, 02:34:09
Natuerlich ist es ein Average, die instructions pro clock variieren je nach Programmcode andauernd. Nur weil du was nicht verstehst, hab ich mir es noch lange nicht ausgedacht.
u got owned

gravitationsfeld
2019-08-10, 02:41:04
Was? Seid ihr bisschen schwer von Begriff? IPC ist average. Du kannst ohne weiteres Code schreiben, der serielle Abhaenigkeiten hat und unter 1 instruction pro cycle haengt. Egal welche Architektur. "Clock" und "Cycle" ist das selbe. Vergleiche machen nur Sinn wenn man irgend wie einen Mittelwert bildet.

Dir ist schon klar, was ich beruflich mache, ja? Kindergarten hier.

x-force
2019-08-10, 02:50:52
Vergleiche machen nur Sinn wenn man irgend wie einen Mittelwert bildet.

aus welcher schnittmenge an programmcode wird denn das average ermittelt?
ist das irgendwie genormt?

wenn das nicht genormt ist, kann ja jeder sein average bilden wie er will.

aussagefähig ist am ende eh nur, wie das teil in den anwendungen abschneidet, die man auch nutzt ;)
theoretisch vergleichen könnte man dann höchstens die maximalen instrucions per clock, weil das eben nicht von der bildung irgendeines schnittes abhängt.

gravitationsfeld
2019-08-10, 02:53:16
Korrekt erkannt, es gibt keinen absolut korrekten IPC-Wert, weil es von den Programmen abhaengt die man laufen laesste. Normalerweise schaut man halt sowas wie SPEC an.

In den Benchmarks die ich gesehen habe war Intel vorne, aber anscheinend ist das doch kontroverser als ich gedacht habe.

Locuza
2019-08-10, 03:03:18
Wenn man wie Anandtech etwas ungenau normalisiert, dann schlägt Zen2 in SPEC2017 Skylake pro Takt, um ~7% (5% bei INT, ~8% bei FP).
https://images.anandtech.com/graphs/graph14605/111165.png

https://www.anandtech.com/show/14605/the-and-ryzen-3700x-3900x-review-raising-the-bar/6

Unicous
2019-08-10, 03:04:14
Ich habe die review von The Stilt verlinkt, verstehe nicht warum du zu faul bist, mal auf den Link zu klicken.

Er hat 30+ Programme getestet und daraus ein average gebildet. Und da sind viele wissenschaftliche und daher auch etwas obskurere Applikationen dabei, die meist nicht von den einschlägigen Seiten genutzt werden.

Hier ist die imgur Galerie mit den Ergebnissen:

https://imgur.com/a/AonND9l

Oben findet sich das average. Wie du darauf kommst, dass AMD 10% zurückliegt solltest du dann mal mit Quellen unterfüttern anstatt hier rumzupöbeln.:rolleyes:

(del)
2019-08-10, 03:04:15
Dir ist schon klar, was ich beruflich mache, ja? Kindergarten hier.
Nein, aber man merkt das du dich definitiv nicht genau informiert hast.
Schau dir doch einfach ein paar Single Thread Benchmarks an.
Manche Reviewer haben auch Intel/AMD bei gleichem Takt getestet um die IPC genau vergleichen zu können.
AMD liegt was die IPC betrifft jetzt halt vor Intel, da kannst du 1000 mal behaupten das es nicht so ist.
Schau dir doch mal Benchmarks an wo Render Engines getestet werden da sieht man das teils sehr gut in den Single Core Resultaten.
SPEC? Auch da sieht es für Intel teils nicht gut aus.

Linmoum
2019-08-10, 03:36:37
In den Benchmarks die ich gesehen habe war Intel vorne, aber anscheinend ist das doch kontroverser als ich gedacht habe.
Dann verlinke sie doch einfach?

Stattdessen dieses "guckt halt selbst nach wenn ihr wissen wollt ob ich Recht hab" ist doch einfach nur überflüssig und bringt für eine zielführende Diskussion null.

Aber mittlerweile waren ja immerhin andere so nett und haben entsprechende Benchmarks gepostet. Wobei mich immer noch interessieren würde, auf welchen Benchmarks deine Aussagen basieren.

Zossel
2019-08-10, 07:26:06
Die Ausbaupläne sind bei TSMC ja mehrjährig geplant, da hängen Reinraumverfügbarkeit, Personalplanung, Lieferverträge mit ASML etc. dran. Man kann nicht mal eben zwei-drei Scanner mehr kaufen und sich hinstellen, so funktioniert der Markt für Litographie Scanner nicht. Die werden alle einzeln handmontiert und mehrere Jahre im vorraus bei ASML reserviert.

Dann müsste Apple ja auf einer großen Menge SOCs sitzen, weil sich die Telefone von Apple seit ~2 Jahren ja nicht mehr so gut verkaufen wie geplant.

Zossel
2019-08-10, 07:33:32
Etwas schade ist es da schon dass bei AMD die APUs offensichtlich nicht gerade prioritär behandelt werden. Aber gut, um die GPU in Ice Lake zu schlagen (auch wenn der schnelleren Speicher nutzen kann) wird das locker reichen.

Der Hyperscaler- und HPC-Markt scheint ja nicht so konservativ wie die Schlepptop-OEMs zu sein.

Zossel
2019-08-10, 07:37:24
Ich kann nichts dafuer, dass ihr Benchmarks nicht interpretieren koennt.

Bzgl. IPC lässt rein gar nichts interpretieren, weil IPC sowieso ein undefinierter Wackelpudding ist.

Um etwas interpretieren zu können braucht es vernünftig definierte Maßeinheiten.

dildo4u
2019-08-10, 07:42:51
Korrekt erkannt, es gibt keinen absolut korrekten IPC-Wert, weil es von den Programmen abhaengt die man laufen laesste. Normalerweise schaut man halt sowas wie SPEC an.

In den Benchmarks die ich gesehen habe war Intel vorne, aber anscheinend ist das doch kontroverser als ich gedacht habe.

Seit wann Taktet der 3800x höher als der 9900k?

https://www.computerbase.de/2019-07/amd-ryzen-3600x-3800x-test/2/#abschnitt_benchmarks_in_anwendungen


Ich lese in Foren eher das Gegenteil nämlich wie enttäuschend die Boosttaktraten sind.

rentex
2019-08-10, 08:08:17
The Stilt war nicht sehr glücklich, was den Launch angeht...

robbitop
2019-08-10, 08:14:35
Nochmal: Single thread workloads. Das hat null mit dem "Ringbus" zu tun. Es wird ein Core benutzt.
.

Einspruch :)
Der IMC und der Core kommunizieren über die jeweilige Fabric. Diese hat einen nicht unwesentlichen Einfluss auf die Memorylatency. Das sind bei Mesh/IF schnell mal >20 ns ...25 ns mehr als beim Ringbus. Gerade in Spielen macht das enorme Unterschiede. Z.B GTA 5 Benchmark im CPU Limit habe ich bei meinem Haswell durch OC/Timingtuning die Latenz von 60ns auf 45 ns senken können. Das schlug dort sogar fast 1:1 in die avg fps durch.

Oder man vergleiche SKL-X mit CFL bei gleichem Takt. ;)

gmb
2019-08-10, 09:26:03
Wenn man wie Anandtech etwas ungenau normalisiert


Ja Anandtech testet mit unterschiedlichen Taktfrequenzen inklusive Turbo, die skalieren das nur hoch rechnerisch, die haben das nicht getestet. Der Typ bei Anandtech versteht nicht, dass man eine 1:1 Performance Skalierung über den CPU Takt nicht gewährleisten kann und der Turbo IPC Tests verfälschen kann. Und dann testen die wirklich nur SPEC und sonst nichts. Stilt hat viel mehr workloads getestet bei wirklich gleicher Taktfrequenz.

danarcho
2019-08-10, 09:39:45
Oh man hab ich hier eine schöne Diskussion verpass :tongue:
wenn das nicht genormt ist, kann ja jeder sein average bilden wie er will.
No shit, sherlock :freak:
Einspruch :)
Der IMC und der Core kommunizieren über die jeweilige Fabric. Diese hat einen nicht unwesentlichen Einfluss auf die Memorylatency. Das sind bei Mesh/IF schnell mal >20 ns ...25 ns mehr als beim Ringbus.
Ich stell mal die steile These auf, dass Mesh und IF zwei völlig orthogonale Dinge sind, und während ich dir bei deiner Aussage zustimme, wenns um IF geht (da bin ich mal auf Renoir gespannt, was die IPC angeht, wenn die nicht den Cache kastrieren), dürfte ein Mesh allein single-threaded genauso schnell sein wie ein Ringbus. Oh, und voila, Skylake-X liegt mit Mesh vor Coffee-Lake mit Ringbus.

JVC
2019-08-10, 09:54:58
-hier stand alter mist-

M.f.G. JVC

Armaq
2019-08-10, 10:06:49
Was? Seid ihr bisschen schwer von Begriff? IPC ist average. Du kannst ohne weiteres Code schreiben, der serielle Abhaenigkeiten hat und unter 1 instruction pro cycle haengt. Egal welche Architektur. "Clock" und "Cycle" ist das selbe. Vergleiche machen nur Sinn wenn man irgend wie einen Mittelwert bildet.

Dir ist schon klar, was ich beruflich mache, ja? Kindergarten hier.
Ich behaupte mal, dass ich auch mit schlauen Köpfen arbeite und die Haltung bringt niemanden auch nur einen Schritt vorwärts. Wenn du es "besser kannst", aber wie ein kleines Kind aufstampfst und bockig bist, dann nimmt dich auch keiner ernst.

robbitop
2019-08-10, 11:01:23
Oh man hab ich hier eine schöne Diskussion verpass :tongue:

No shit, sherlock :freak:

Ich stell mal die steile These auf, dass Mesh und IF zwei völlig orthogonale Dinge sind, und während ich dir bei deiner Aussage zustimme, wenns um IF geht (da bin ich mal auf Renoir gespannt, was die IPC angeht, wenn die nicht den Cache kastrieren), dürfte ein Mesh allein single-threaded genauso schnell sein wie ein Ringbus. Oh, und voila, Skylake-X liegt mit Mesh vor Coffee-Lake mit Ringbus.
Aber die Memorylatency bei SKL-X ist ähnlich schlecht. Ggf ist das für die getesteten Anwendungen einfach kaum relevant (Datenlokalität/Hitrate dort entsprechend hoch).

w0mbat
2019-08-10, 11:03:29
Natuerlich ist es ein Average, die instructions pro clock variieren je nach Programmcode andauernd. Nur weil du was nicht verstehst, hab ich mir es noch lange nicht ausgedacht.
Nochmal für dich: IPC steht für "instructions per cycle" und nicht für "average instructions per clock". Du liegt nachweißlich falsch, willst es aber nicht wahrhaben :freak:

Lern erstmal die korrekten Begriffe und dann können wir weiter reden :smile:

Zossel
2019-08-10, 11:15:50
Lern erstmal die korrekten Begriffe und dann können wir weiter reden :smile:

Heißt es "Wackelpudding" oder "Wackelpeter"? Sind mehr Wackelpeter besser oder weniger Wackpudding?

Jedenfalls hat Zen im Moment mehr Bumms pro Schrank, das ist wesentlich relevanter.

Screemer
2019-08-10, 11:36:09
Nochmal für dich: IPC steht für "instructions per cycle" und nicht für "average instructions per clock". Du liegt nachweißlich falsch, willst es aber nicht wahrhaben :freak:

Lern erstmal die korrekten Begriffe und dann können wir weiter reden :smile:
ich glaub coda hat mehr ahnung von den begrifflichkeiten und wie sie verwendet werden als du. auch wenn er bei der ipc bewertung von zen2 leider imho auch danebne liegt.

bbott
2019-08-10, 11:38:31
Was? Seid ihr bisschen schwer von Begriff? IPC ist average. Du kannst ohne weiteres Code schreiben, der serielle Abhaenigkeiten hat und unter 1 instruction pro cycle haengt. Egal welche Architektur. "Clock" und "Cycle" ist das selbe. Vergleiche machen nur Sinn wenn man irgend wie einen Mittelwert bildet.

Dir ist schon klar, was ich beruflich mache, ja? Kindergarten hier.

:freak:

Clock != Cycle!!!

I P C = instructions per cycle - ohne Takt - the winner is AMD
I P S = instructions per second - inkl. Takt - the winner is Intel dank 5 GHz...

Ganz einfach ;D

basix
2019-08-10, 12:02:39
IPC und "Average Instrunctions per Clock" sind vom Sinn her doch genau das gleiche, da hat gravitationsfeld schon recht. Sich hier am Wording aufzuhängen bringt doch nichts. Ausserdem heisst es ja nicht umsonst "clock cycle" ;)

Aber von allen Benches die ich bis jetzt gesehen habe:
- AMD > Intel bei IPC overall (Single Threaded!)
- AMD ~ Intel bei ST Performance, leichter Vorteil Intel
- AMD < Intel bei IPC Spiele, hier kommen die 10% ca. hin. Das natürlich auf Spiele mit starkem ST Fokus wie FC5 bezogen

Mangel76
2019-08-10, 12:02:46
So ne Kindergartendiskussion. Natürlich kann man IPC nur als Durchschnitt auffassen. Es gibt schließlich nicht "die Instruktion", die ich jetzt messen kann. Das hängt sehr stark von den verwendeten Berechnungen und von der Programmierung ab. Sonst könnte man ja nicht beobachten, dass bei manchen Workloads/Programmen die eine Arch vorne liegt und bei anderen eben die andere Arch. Sonst müsste man genau definieren, welche Instruktion gemeint ist und diese synthetisch messen.

w0mbat
2019-08-10, 12:06:16
Die Diskussion geht doch nicht darum, ob IPC ein Durchschnitt ist. Das steht doch gar nicht zur Debatte.

Es geht darum, dass es "instructions per cycle" heißt und dass Zen2 > CFL-R liegt.

Woher kommt jetzt die doofe Idee es sei kein Durchschnitt? Wie kommt ihr immer auf solche Sachen? :ugly:

robbitop
2019-08-10, 13:02:23
Wenn AMD auch mit rund 40 ns Speicherlatenz ausgestattet wäre (was nichts mit der march zu tun hat) und auch 5 GHz packen würde, wäre es schon ein souveräner Sieg gewesen.

fondness
2019-08-10, 15:04:25
Bloedsinn. Intel hat immer noch ~10% IPC-Vorsprung bei gleichem Takt in Single-Threaded Workloads. Das hat ueberhaupt nichts mit dem Interconnect zu tun.

Beide Aussagen sind nachweislich falsch. Erstens hat das eine Menge mit "dem Interconnect" zu tun, dazu braucht man sich nur Skylake Ringbus vs. Skylake Mesh ansehen, da gibt es locker einen zweistelligen IPC-Unterschied (je nach Workload mehr oder weniger) und zweitens hat Intel in dieser Welt sicher keine "~10% IPC-Vorsprung", eher ist das Gegenteil der Fall.

Wie schon gesagt, am Desktop rettet sie der hohe Takt plus der Ringbus, in der Serverumgebung haben sie diese Vorteile nicht mehr.

Unicous
2019-08-10, 15:06:09
Wir wissen es jetzt langsam. Hat jetzt jeder mal seine Runde gedreht?:rolleyes:

fondness
2019-08-10, 15:09:50
Wir wissen es jetzt langsam. Hat jetzt jeder mal seine Runde gedreht?:rolleyes:

Was bist denn du für ein Clown? Ich werde ja wohl noch auf ein Direktzitat meines Beitrages antworten dürfen ohne das sich der Herr Unicous aufbläst wie ein Luftballon. Nicht jeder ist hier 24/7 im Forum aktiv.

Unicous
2019-08-10, 15:23:01
Okaayyyy.:freak:

x-force
2019-08-10, 15:30:14
Oh man hab ich hier eine schöne Diskussion verpass :tongue:


das musste ja mal festgehalten werden, da ja jeder hier seine eigene definition fährt und damit niemandem geholfen ist.

iuno
2019-08-11, 11:11:38
https://lists.freedesktop.org/archives/amd-gfx/2019-August/038383.html

Die Geruechte, wonach Renoir mit VEGA IGP kommt haben sich wohl bewahrheitet.

Sunrise
2019-08-11, 11:28:06
https://lists.freedesktop.org/archives/amd-gfx/2019-August/038383.html

Die Geruechte, wonach Renoir mit VEGA IGP kommt haben sich wohl bewahrheitet.
Ohje...

basix
2019-08-11, 12:12:46
Ohje...

Wieso? Vega ist ziemlich effizient, wenn man ihn richtig betreibt. Ausserdem könnte Apple ein Grund sein (Software) und ausserdem Time to Market (Entwicklungsressourcen).

Navi wäre nice gewesen, evtl. will man aber auf RDNA2 warten.

Locuza
2019-08-11, 12:34:20
Es sind vermutlich knappe Entwicklungsressourcen.

Apple ist wohl kaum der Grund, da Renoir eine APU ist und es unwahrscheinlich ist, dass der Apfel daraus Geräte baut.

Eine APU mit Navi hätte sicherlich Priorität genossen, wenn AMD sich auf den Markt fokussieren würde.
Aktuell legt Intel mächtig drauf mit Ice-Lake und Gen11-Grafik, dass ist auf Vega8/11-Niveau.
2020 erscheint Tiger-Lake mit Xe-Grafik, welche die GPU-Leistung wohl um >~50% steigert.

Es stimmt nicht optimistisch, das AMD mit alter IP sich dagegen aufstellen wird.
Navi ist in jeder Hinsicht effizienter, wird aber nicht zum Einsatz kommen.

LadyWhirlwind
2019-08-11, 12:43:30
Wenn die noch in Q4 kommen sollen, ging das zeitlich wohl nicht mehr auf.

Sunrise
2019-08-11, 14:26:56
Wieso? Vega ist ziemlich effizient, wenn man ihn richtig betreibt. Ausserdem könnte Apple ein Grund sein (Software) und ausserdem Time to Market (Entwicklungsressourcen).

Navi wäre nice gewesen, evtl. will man aber auf RDNA2 warten.
Siehe Locuzas Ausführungen, da gibt es wenig hinzuzufügen. Das ist für mich die erste richtig schlechte Nachricht seit langem. Intel macht nämlich gerade dort noch ziemlich Dampf und wenn AMD erst so spät dran ist, können wir uns die Marktanteile ja ausrechnen. Da wird sich wohl wenig bis nichts tun und gerade dort gibt es Wachstumschancen. AMD hat wohl einfach nicht genug Ressourcen, da musste man wohl Kompromisse machen.

Der_Korken
2019-08-11, 14:49:10
Ist die Performance bzw. Effizienz von Vega wirklich ein so großes Problem? Dass die großen Vega-Chips gegen N10 so schlecht aussehen liegt sicher auch daran, dass Vega (und Vorgänger) oben raus schlecht skalieren. Für kleine Chips <=16CUs muss das nicht so stark gelten. Abgesehen davon dürfte es eher darauf ankommen wie gut die GPU mit knapper Speicherbandbreite umgehen kann.

Nicht dass Navi nicht besser gewesen wäre, aber wenn AMD irgendwo sparen musste, dann hoffentlich da, wo es nicht so weh tut.

Voodoo6000
2019-08-11, 15:12:44
AMD sollte trotz Vega bei der GPU Performance zulegen können(ggf. höherer Taktraten bzw größer GPU dank 7nm) und sich damit vor der Ice-Lake GPU positionieren. Interessanter finde ich aber die CPU, Ice-Lake hat nur 4 Kerne hoffentlich gibt es bei AMD jetzt endlich auch 8 Kerne für Notebooks. Ein hypothetischer 7nm 8 Kerner sollte ein leichtes Spiel gegen Intels 14nm 8 Kerner haben.

Complicated
2019-08-11, 19:27:09
Wenn Ice Lakes GPU fertig ist, ist auch AMDs RDNA schon in der zweiten Ausführung da. Ich bin sicher AMD überspringt für die nächste APU die Navi IP da Sie ja auch wissen was Intel da angekündigt hat. Q4 2020 kommen die APUs mit dem Hintergrund der Xbox Gerüchte um RDNA2 GPUs zum Ende 2020 mit Chiplets. 2020 könnte AMD seine Chiplet-Architektur nach dem Erfolg bei CPUs und dem erlernten weiter zu dGPUs pushen Mitte 2020 mit Navi21/23 und dann zum Q4 2020 zur Kombination der CPU und GPU Chiplets übergehen. Die IF ist nun soweit mit den Bandbreiten.
Nicht vergessen, dass jetzt noch die Produkte in der Pipeline sind, die mit starker Intel Konkurrenz gerechnet hatten. Die Verzögerung war nicht einzuplanen, doch die Produkt-Pipeline wird mit Sicherheit mit großem Druck weiter gepusht in dieser Situation.

reaperrr
2019-08-11, 19:54:50
Intel selbst hat den Perf-Sprung der ICL-IGP (mit 64 EUs) mit ~80% (ggü. den eigenen 24EU 14nm-Vorgängern) beziffert, jedenfalls für Mobile.
Schon RR's IGP ist aber - sofern nicht in Notebooks durch 12-15W TDP gebremst - teilweise um 150% schneller als Intels Gen9 mit 24 EUs.
Picasso legt da schon einige Prozentpunkte durch höheren Takt drauf.

Renoir hat durch den 7nm-Prozess genug Spielraum, um z.B. zusätzliche CUs, doppeltes Frontend (RR/PC haben nur eine ShaderEngine), doppelten GPU-L2, evtl. doppelte ROPs zu verbauen, und trotzdem noch ähnliche oder eher höhere Taktraten zu fahren.
Vor ICL's IGP bleibt Renoir mMn auf jeden Fall, selbst an Picasso muss ICL im 25-35W-Bereich erstmal rankommen.
Und wie schnell TGL's IGP wirklich wird, muss man auch erstmal abwarten.

aufkrawall
2019-08-13, 10:37:20
Ist offenbar nicht 1:1 die alte RR-Grafik, denn statt VCN 1.0 gibts 2.0:
https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next&id=e91eb65e262c79d6e5150de9f1e86ac694d9dad4

MSABK
2019-08-13, 10:40:32
Ich sehe das mit der Vega nicht als Problem, solange sie endlich mal schnellen Ram unterstützen. In der Vega APU steckt noch viel Potential. Vlt gibt es ja LPDDRx4.

robbitop
2019-08-13, 11:03:58
Naja Navi hätte vermutlich schon deutlich mehr rausholen können. Mehr Bandbreiteneffizienz, mehr IPC, mehr Takt. Gerade bei Bandbreitenknappheit hätte das schon anständig helfen können.

fondness
2019-08-13, 11:04:19
Für Intels GPUs wird Vega wohl reichen, zumal 7nm sicherlich einiges an Taktspielraum bringen wird. Mobile scheint bei AMD einfach die niedrigste Prio zu haben, die Stückzahlen sind zu hoch und die Marge zu niedrig. Man konzentriert sich auf Margenträchtige Bereiche mit niedrigen Stückzahlen.

davidzo
2019-08-13, 11:08:21
Dann müsste Apple ja auf einer großen Menge SOCs sitzen, weil sich die Telefone von Apple seit ~2 Jahren ja nicht mehr so gut verkaufen wie geplant.
Ja genau das tun sie auch, bzw. taten sie bis man radikal dagegen gesteuert hat. 2017 und 2018 saß Apple genau auf doppelt soviel Inventory wie in den Jahren 2015+16 (2 Milliarden). Im Juni 2018 waren das fast 6 Milliarden totes Kapital. Und das ist der liquidation value, bei dem nur halb so hoch gewertet wird wie der book value der goods der eigentlich 12 Milliarden sein müsste und im Verkaufspreis mit Marge dann wohl eher einem halben Apple Jahresumsatz entspricht. Erst Ende 2018 baute sich das so langsam ab, liegt aber immer noch bei über 3 Milliarden, also höher als zur pre-verkaufskrise-Zeiten...
https://www.gurufocus.com/term/Inventory/AAPL/Total-Inventories/Apple%20Inc

deekey777
2019-08-13, 11:56:04
Ich sehe das mit der Vega nicht als Problem, solange sie endlich mal schnellen Ram unterstützen. In der Vega APU steckt noch viel Potential. Vlt gibt es ja LPDDRx4.
Eben.

Die mobilen Vegas, egal ob APUs, Custom-APUs oder diskret in MacBooks Pro, schlagen optimal dort, wofür sie gedacht ist. Die mobilen APUs leiden jedoch an geringem Speicherdurchsatz. Dabei sollte schon der native Zweikerner mit Vega 3 LPDDR4 unterstützen.

YfOrU
2019-08-13, 20:03:42
AMD sollte trotz Vega bei der GPU Performance zulegen können(ggf. höherer Taktraten bzw größer GPU dank 7nm) und sich damit vor der Ice-Lake GPU positionieren. Interessanter finde ich aber die CPU, Ice-Lake hat nur 4 Kerne hoffentlich gibt es bei AMD jetzt endlich auch 8 Kerne für Notebooks. Ein hypothetischer 7nm 8 Kerner sollte ein leichtes Spiel gegen Intels 14nm 8 Kerner haben.

Für Renoir selbst erwarte ich nicht mehr als ein Zen 2 CCX mit (wie bei den APUs inzwischen üblich) halbiertem L3 Cache. Dazu aktuelle DSPs und Vega mit ein paar Anpassungen. Also in erster Linie einen kleineren Raven Ridge/Picasso runderneuert in 7nm. Für 10-25W Mobile, Embedded und Entry Desktop ist das ein gutes und kostengünstiges Paket.

Interessant wird es wenn AMD für die Skalierbarkeit einen IF-Link mit integriert. Optional das integrierte CCX deaktivieren und ein Zen2 Chiplet mit auf das Package (35W+ Mobile, bis 8C) oder eine dGPU mit HBM (analog zu KBL-G).

Hätte mehrere Vorteile. Zum einen kann die APU endlich mal kleiner ausfallen als bisher (in der Vergangenheit war das gegenüber Intel im gleichen Segment immer ein deutlicher Nachteil) und zum anderen ist die Verwendung als zusätzliches I/O Die mit IGP sowohl für Performance Mobile als auch Desktop mit IGP keine so schlechte Option. Hier hat man auch aufgrund des Release Zyklus (APUs ein Jahr später) bis dato nie so richtig konkurrenzfähige Produkte.

Zossel
2019-08-14, 06:22:04
Ja genau das tun sie auch, bzw. taten sie bis man radikal dagegen gesteuert hat. 2017 und 2018 saß Apple genau auf doppelt soviel Inventory wie in den Jahren 2015+16 (2 Milliarden). Im Juni 2018 waren das fast 6 Milliarden totes Kapital. Und das ist der liquidation value, bei dem nur halb so hoch gewertet wird wie der book value der goods der eigentlich 12 Milliarden sein müsste und im Verkaufspreis mit Marge dann wohl eher einem halben Apple Jahresumsatz entspricht. Erst Ende 2018 baute sich das so langsam ab, liegt aber immer noch bei über 3 Milliarden, also höher als zur pre-verkaufskrise-Zeiten...
https://www.gurufocus.com/term/Inventory/AAPL/Total-Inventories/Apple%20Inc

Und wenn TSMC die Kapazitäten anderweitig verhökern kann, warum sollten Apple und TSMC dann keinen Deal machen?

Lehdro
2019-08-14, 11:03:16
Die ersten Threadripper 3000 ES tauchen gerade bei Geekbench auf:

https://i.imgur.com/M70sYD3.png
https://browser.geekbench.com/v4/cpu/14281644
Frequenzen (https://browser.geekbench.com/v4/cpu/14281644.gb4) (um die 4,2 GHz)

Edit: Hier noch ein zweites Resultat: https://browser.geekbench.com/v4/cpu/14281648

robbitop
2019-08-14, 12:43:56
Bin gespannt ob es auch 64x Cores geben wird.

Lehdro
2019-08-14, 16:19:56
Bin gespannt ob es auch 64x Cores geben wird.
Da bin ich auch mächtig gespannt. Ebenso, ob es einen "Zwischenschritt" mit zum Beispiel 48 Cores gibt. Zen 2 ist dort ja maximal flexibel, theoretisch sollte jeder Faktor von 6 (für yield) oder 8 sinnvoll sein, analog zu Rome. Eventuell sogar startend von 16 Kernen, um die TDP für möglichst hohe Boostfrequenzen mitnehmen zu können. Die Frage ist in wie weit AMD den Markt segmentieren will, denn schon der gezeigte 32 Kern ES zerlegt Intels Prestigeprojekt W-3175X einfach nur spielend, die eiern dort je nach Kühlung zwischen 60-70k Multicore rum, erst mit OC geht es dann deutlich nach oben. Steht aber eigentlich in keinem Verhältnis - da grüßt dann wieder die Kühlbarkeit.

iuno
2019-08-14, 17:43:06
48 Cores
Was ist eigentlich aus Starship geworden?

In Linux wird einiges mit "Starship/Matisse" gelabelt (PCIe, PSP, Controller, Audio). Haltet ihr es vielleicht fuer moeglich, dass TR statt mit dem fetten Rome I/O mit 2xMatisse I/O + CPU Chiplets kommt?

Langlay
2019-08-14, 17:52:22
Die ersten Threadripper 3000 ES tauchen gerade bei Geekbench auf:

https://i.imgur.com/M70sYD3.png
https://browser.geekbench.com/v4/cpu/14281644
Frequenzen (https://browser.geekbench.com/v4/cpu/14281644.gb4) (um die 4,2 GHz)

Edit: Hier noch ein zweites Resultat: https://browser.geekbench.com/v4/cpu/14281648

Mich dünkt das Teil rennt nur mit DDR2133, 100+ ns Latency und auch die Multicore Bandbreite sind jetzt eher mäh.

Locuza
2019-08-14, 18:03:17
@iuno

Charlie Demerjian
@CDemerjian
·
8. Nov. 2018
It was quite real.
Charlie Demerjian
@CDemerjian
·
8. Nov. 2018
48C Starship.
Charlie Demerjian
@CDemerjian
·
8. Nov. 2018
I thought it was canned, I now would say modified.
I think so. I was told Rome _IS_ Starship but the starship that was in 2015 is not the Starship they showed yesterday. Not clear on when it changed and why though.
https://twitter.com/CDemerjian/status/1060553675528196098

比屋定さんの戯れ言@Komachi
@KOMACHI_ENSAKA
Antwort an
@planet3dnow
AFAIK, Starship is renamed Rome. Internal documents such as PCI-ID and CPU-ID may remain StarShip, but that is Rome.
https://twitter.com/KOMACHI_ENSAKA/status/1141077081020760064

Ich weiß gerade gar nicht, welchen Codenamen die Chiplets haben?
Z.B. bei Zen1 waren es Zeppelin dies, verwendet unter Summit-Ridge (Desktop-CPUs) und Naples (EPYC-CPUs).
Bei Zen2 wurde Matisse als Nachfolger von Summit-Ridge angegeben.

Bezüglich Castle Peak denke ich, dass man das EPYC-I/O verwenden wird.
Ich kann mir da schwer eine Sonderlösung nur für die Plattform vorstellen.
Aktuell kommunizieren alle CCX über den I/O-die, wie soll das bei 2x Matisse I/O aussehen?
Datensynchronisation über zwei I/O-dies?
Klingt nicht attraktiv.

HPVD
2019-08-15, 09:21:11
A Deep Dive Into AMD’s Rome Epyc Architecture

https://www.nextplatform.com/2019/08/15/a-deep-dive-into-amds-rome-epyc-architecture/

reaperrr
2019-08-15, 14:12:37
Bezüglich Castle Peak denke ich, dass man das EPYC-I/O verwenden wird.
Ich kann mir da schwer eine Sonderlösung nur für die Plattform vorstellen.
Gehe ich auch stark von aus. Zum einen kostet das Design jedes zusätzlichen Chips Geld und Personal, die woanders womöglich dringender gebraucht würden.

Zum anderen, das billigste Epyc2-Modell kostet gerade mal 450$.
Marktanteil und Mischkalkulation hin oder her, dass AMD die mit Verlust verkauft glaube ich nicht.
Die reinen Produktionskosten pro mm² sollten in 14nm wg. hoher Yields und niedriger Waferpreise nämlich inzwischen ziemlich gering sein, und anders als z.B. bei Grafikkarten, wo die Chips im 400-500€-Bereich ja auch schon bei 445-545 mm² angekommen sind, kommen ja nichtmal Kosten für RAM und PCB (bzw. bei Vega10 auch noch Interposer) dazu.
Bei TR3 wird es außerdem sicherlich kein Modell mit unter 16 Kernen geben, evtl. nicht mal unter 24c, somit dürfte selbst das günstigste Modell preislich noch oberhalb des 3950X landen.

BoMbY
2019-08-15, 18:39:14
Man kann für Threadripper z.B. hervorragend teildefekte EPYC-IO-Dies nutzen ...

Lehdro
2019-08-16, 13:46:50
Man kann für Threadripper z.B. hervorragend teildefekte EPYC-IO-Dies nutzen ...
Jup, so wird man das wenn möglich auch machen.

Ansonsten auch für X599, für haufenweise I/O. :freak:

deekey777
2019-08-19, 10:38:10
Beherrscht jetzt Banded Kestrel wie geplant LPDDR4 oder nicht?
Zur Erinnerung: https://videocardz.com/69428/amd-snowy-owl-naples-starship-grey-hawk-river-hawk-great-horned-owl Die offiziellen Seiten zu V/R-SoCs sprechen leider nur von DDR4 und Dualchannel.

Oder steht fest, dass Renoir LPDDR4 nicht unterstützen wird?

Locuza
2019-08-19, 11:22:12
Was ist denn die Quelle dafür, dass LPDDR4 geplant war(/ist)?

Nightspider
2019-08-19, 11:35:54
Ich will aber nicht wissen was so eine 64C Threadripper Plattform kosten würde und was die dann an Strom zieht. ^^

Da werden die Mainboards ja schon alleine auf Grund der komplexen Spannungsversorgung mind. 300€ kosten müssen, eher noch 400-500. :ugly:

dildo4u
2019-08-19, 11:39:29
TDP erhöht sich vermutlich nicht wirklich,der alte 32 Core lag schon bei 250.
Unwahrscheinlich das 300 Watt Modelle kommen,der Takt wird beim 64 gegenüber dem 32 Core Modell einfach nicht sonderlich hoch sein.

deekey777
2019-08-19, 12:13:45
Was ist denn die Quelle dafür, dass LPDDR4 geplant war(/ist)?
Die Bildchen aus dem Link?

Locuza
2019-08-19, 13:36:52
Das Bildchen ist mir entgangen.
https://cdn.videocardz.com/1/2017/05/AMD-Data-Center-Presentation-4_VC.jpg

Auf jeden Fall ist es kein 64-Bit DDR4-Interface geworden, sondern 128-Bit.
Beim Linux-Treiber heißt der Chip IIRC RAVEN2 und LPDDR wurde im Treiber als VRAM-Typ nicht spezifiziert.

Etwas fraglich ist es, um wie viel effizienter LPDDR4 gegenüber DDR4 ist, beide sind mit bis zu maximal 3200 MT/s spezifiziert.
LPDDR4X soll bis zu 20% weniger Strom verbrauchen, als LPDDR4, unter anderem weil die Spannung massiv von 1.1V auf 0.6V reduziert wurde:
https://www.micron.com/-/media/client/global/images/blogs/blog-archive/track-3-images/blog_image_mobile_vr_1.png?la=en&hash=B4EEF2B731974B6BD8595139D2D0D66F
https://www.micron.com/about/blog/2017/february/mobile-vr-needs-more-pixels

Vom Speed her sind bis zu 4266 MT/s möglich, Ice Lake unterstützt es mit bis zu 3733.

Für Renoir wäre das auch deutlich lohnenswerter, als LPDDR4-Support.

----------

Edit:

AMD hat auf der Hot Chips eine Präsentation zu Zen 2 gehalten und Angaben über die Chipgröße und Transistorenanzahl der unterschiedlichen Chips veröffentlicht:
https://pbs.twimg.com/media/ECWG24sVUAEFIka?format=jpg&name=4096x4096
https://twitter.com/IanCutress/status/1163484374995628032

Es ist einigen sofort aufgefallen das AMD 12nm bei den I/O dies angibt, obwohl es früher hieß das der EPYC I/O und Matisse Chipsatz in 14nm gefertigt werden und nur der Matisse I/O die in 12nm.
Gott sei Dank auch Charlie von Semi Accurate, der hat nachgefragt und AMD hat bestätigt, dass alles unter 12nm hergestellt wird:
"@CDemerjian asked. Answer: Everything has been transitioned to 12nm."
https://twitter.com/david_schor/status/1163489183979065344

Es wurde auch die Frage gestellt, wieso ein CCD bei 8 Cores geblieben ist:
"Question: "Why is the CCD only 8 core and CCX at 4 core"

AMD: "Doubling the CCD beyond 8 cores would have caused scale-out challenges with the interconnect"
https://twitter.com/IanCutress/status/1163486659247136768

Opprobrium
2019-08-19, 23:50:05
Während der Keynote gab es dann auch Fragen zu Threadripper. Gab aber keine wirklich neuen oder gar konkreten Antworten...

Q: How is AMD approaching the workstation market? How does that pertain to threadripper? A: We love the workstation market, and yes there will be a next generation of Threadripper. Q: Can you say when? A: If I said soon, is that enough? Q: No? A: How about within a year? Q: Can you say if 2019? A: How about this - you will hear more about Threadripper in 2019.

quelle (www.anandtech.com/show/14762/hot-chips-31-keynote-day-1-dr-lisa-su-ceo-of-amd-live-blog-145pm-pt)

MR2
2019-08-20, 06:42:14
"Die IODs für die Ryzen-Prozessoren sowie den X570-Chipsatz sind deutlich kleiner und weniger komplex. Sie bringen es auf 125 mm² und 2,09 Milliarden Transistoren. Das IOD für die Ryzen-Prozessoren wird nun ebenfalls in 12 nm gefertigt. Zum Start der Ryzen-Prozessoren ließ man dieses noch in 14 nm produzieren."
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/50562-amd-nennt-details-zum-i-o-die-der-epyc-prozessoren.html
Wat fürn Ding?
Sind die ersten in 14nm gefertigt?

https://twitter.com/david_schor/status/1163489183979065344

HOT
2019-08-20, 08:37:40
Die X570 werden 14 und 12nm sein...

Woa, 51 Mio Transistoren pro mm². Zum Vergleich: V20 hat aufgrund des ganzen I/O-Gerümpels nur 39 Mio. Auch Navi10 hat nur 41 Mio.

rentex
2019-08-20, 08:54:55
Da steht als Erklärung, das der X570 Chipsatz in 14nm gefertigt wird.

mboeller
2019-08-20, 10:37:30
https://www.anandtech.com/show/14762/hot-chips-31-keynote-day-1-dr-lisa-su-ceo-of-amd-live-blog-145pm-pt

ganz schön teuer:

https://images.anandtech.com/doci/14762/IMG_20190819_135435.jpg

ich bin mal gespannt, was die neuen Konsolen kosten werden. Bei den CPU haben sie durch den I/O Die ja einen massiven Anteil der Kosten pro CPU vermieden.

iuno
2019-08-20, 10:52:32
Aktuell kommunizieren alle CCX über den I/O-die, wie soll das bei 2x Matisse I/O aussehen?
Datensynchronisation über zwei I/O-dies?
Ja, analog zu Zen 1.
Aber natuerlich gebe ich dir recht, dass das reichlich unwahrscheinlich ist. Es kommt ja auch mit den PCIe Lanes ueberhaupt nicht hin, wenn man kein Downgrade machen will.
Mich hatte nur der Bezeichner verwirrt ;)

Opprobrium
2019-08-20, 11:05:20
ganz schön teuer:
Wobei man natürlich bedenken muß, daß die Kosten pro Transistor nicht so stark steigen wie die Kosten pro mm2. Und auch wenn die Angaben recht arbiträr sind: 1/9 der Größe zum fünffachen Preis passt doch (45 zu 5nm)

mboeller
2019-08-20, 11:17:15
Wobei man natürlich bedenken muß, daß die Kosten pro Transistor nicht so stark steigen wie die Kosten pro mm2. Und auch wenn die Angaben recht arbiträr sind: 1/9 der Größe zum fünffachen Preis passt doch (45 zu 5nm)

Es ging mir mehr um 16/14nm -> 7nm. Da ist der Unterschied schon sehr groß
Die Kosten pro mm² haben sich fast verdoppelt.

Relic
2019-08-20, 15:51:38
Es ging mir mehr um 16/14nm -> 7nm. Da ist der Unterschied schon sehr groß
Die Kosten pro mm² haben sich fast verdoppelt.

Ja 5nm ist da ja schon ein Schnäppchen mit nur ~25% mehr Kosten als 7nm. Liegt sicherlich an der Nutzung von EUV das die Kosten nicht mehr so extrem steigen.

davidzo
2019-08-20, 19:24:47
Es ging mir mehr um 16/14nm -> 7nm. Da ist der Unterschied schon sehr groß
Die Kosten pro mm² haben sich fast verdoppelt.

Dann sind die Kosten für die reinen Wafer sind dann aber nicht gestiegen gegenüber Pinnacle Ridge.
Aus der Folie extrahiere ich Faktor 2.1x für 14/16x und 3.8x für 7nm.

Ein 7nm Matisse Chiplet sind nur 74mm2 statt den 213mm2 von Pinnacle Ridge. Das wäre umgerechnet trotz des teureren Verfahrens nur 62% so teuer wie ein PR Chip.

Das io/die sind 125mm2, das sind immerhin 58% eines PR Chips. Dazu skaliert man jetzt mit demselben i/o DIE bis 600$ statt mit Pinnacle Ridge vorher nur bis 300$. Spätestens beim zweiten DIE wird Matisse deutlich kostengünstiger sein als ein 12nm Threadripper.
Und selbst der Einführungspreis des single chiplet 3700x ist höher als das äquivalente 1-chip Pinnacle Ridge Derivat, die Marge dürfte also kaum schlechter sein...

JVC
2019-08-20, 20:02:47
... die Marge dürfte also kaum schlechter sein...
Einen Geilen 3600 6Kerner für 200.- gibt es ja
Ein 3900 12Kerner für ~400.- wäre noch sehr nett :)
Und ein 3950 16Kerner für ~550.- natürlich Der Burner :smile:

Aber Natürlich muss AMD auch Geld für die Entwicklung reinholen ... (dann sollten sie aber auch liefern können)

"Freies OC" ist bei AMD aber scheinbar Geschichte. Das 75(95)°c "Limit" kommt m.M.n. einer "vernünftigen OC-sperre" gleich.
(ja ich weiß, es ist vermutlich nur ein Schutz für die 7nm Technik vor dem User)

M.f.G. JVC

MSABK
2019-08-21, 19:31:44
So, Intel hat heute im mobilen Bereich 6 Kerne in der 15 Watt Klasse eingeführt. Mal sehen ob AMD mitgeht. Ich persönlich denke sie werden auch auf maximal 8 Kerne gehen im mobilen Bereich.

Brillus
2019-08-21, 20:37:15
So, Intel hat heute im mobilen Bereich 6 Kerne in der 15 Watt Klasse eingeführt. Mal sehen ob AMD mitgeht. Ich persönlich denke sie werden auch auf maximal 8 Kerne gehen im mobilen Bereich.
Ich tip auf 4(wahrscheinlich) oder 12(wenn Renoir noch einen Anschluss für ein Ryzen Chiplet hat, als Highend Teil).

Disclaimer: für die 2020er Generation 2021 ist IMHO alles offen.

gravitationsfeld
2019-08-22, 05:17:21
https://www.legitreviews.com/ipc-battle-amd-ryzen-9-3900x-vs-intel-core-i9-9900k_213719

17% höhere IPC Skylake vs Zen2 bei fixen 4Ghz. Vor kurzem wurde ich für die Aussage noch ausgelacht :rolleyes:

Screemer
2019-08-22, 05:19:19
alleine

So, after tens of hours of setup and testing we discovered that the Intel Core i9-9900K is able to deliver 17.1% more performance than the AMD Ryzen 9 3900X while using 26.7% less system power.
ist einfach kompletter bullshit.

sysmark ist so eingeschränkt was die anwendungsfälle betrifft, damit kann man überhaupt keine allgemeingültigen aussagen wie obige treffen.

allein wenn man sich die versionen der einzelnen softwarepakete ansieht, die sysmark 2018 nutzt:

Microsoft® Excel®2016
Adobe® Acrobat® Pro DC
Adobe® Photoshop® CC (2018)
Adobe® Photoshop® Lightroom® Classic CC
AutoIt 3.3
BowPad 2.3
CyberLink® PowerDirector™15
FileZilla 3Google® Chrome®65
Microsoft® Excel® 2016
Microsoft® OneNote® 2016
Microsoft® Outlook® 2016
Microsoft®PowerPoint® 2016
Microsoft® Word® 2016


das ist software, die ist zum teil fast ein halbes jahrzehnt alt.

wenn man sich dann auch noch die verteilung für die calibration anschaut, dann muss man einfach nur mit dem kopf schütteln.

bedenkt man, dass bapco auch noch hart intel finanziert ist, dann weißt du genau woher der wind weht.

wie jemand wie du, der wirklich ahnung vom technischen hintergrund hat, sowas verteidigen kann, ist mir ein absolutes rätsel.

Unicous
2019-08-22, 07:08:10
https://www.legitreviews.com/ipc-battle-amd-ryzen-9-3900x-vs-intel-core-i9-9900k_213719

17% höhere IPC Skylake vs Zen2 bei fixen 4Ghz. Vor kurzem wurde ich für die Aussage noch ausgelacht :rolleyes:

Ja und ich lache weiter. Willst du mir jetzt tatsächlich weiß machen, dass Sysmark ein legitimer "Benchmark" ist (...um IPC zu messen)?:eek:

Und so wie es scheint, könnte es dir nicht egaler sein, was man dir hier im Thread an Links zukommen lässt, die ignorierst du einfach nonchalant um dann eine Schrott-Benchmarksuite aus dem Hut zu zaubern, die zum Teil Jahre alte Software im Portfolio hat, die vermutlich nicht einmal auf Ryzen optimiert ist.

Niemand, wirklich niemand nutzt Sysmark, keine Ahnung wer Nathan Kirsch ins Hirn geschissen hat, denn eigentlich habe ich ihn nicht als schlampigen Journalisten in Erinnerung, aber so faul zu sein bei einem IPC-Test auf den Knopf zu drücken und ein Programm ablaufen zu lassen anstatt eine eigene Liste an Software zusammenzustellen, wie es jeder andere Reviewer macht der auf IPC testet, ist an Schlampigkeit nicht zu übertreffen. Dass du darauf hereinfällst ist aber um so trauriger.

Wahrscheinlich ist mehr Zeit in die Ausführung des "Tests" geflossen als in die Planung. Wie lange dauert ein Durchlauf? Eine Stunde?:rolleyes:

Mangel76
2019-08-22, 08:40:34
Genauso schlimm finde ich die Verwendung eines 3900X und den dann so zurechtzustutzen, dass es oberflächlich passt. Sogar SMT/HT wird deaktiviert, wo es immer heißt, dass AMD hier Vorteile hat. Viel schlimmer kann man so einen Test echt nicht verbocken.

basix
2019-08-22, 11:05:20
Gut, das Resultat ist wie es ist. Kann sehr gut sein, dass Intel bei älterer Software im Vorteil ist. 2016: Da war Ryzen 1 noch 1 Jahr entfernt vom Marktstart und Skylake gab es da schon seit 1 Jahr :freak:

Ob 3900X oder 3700X spielt in dem Vergleich mit hoher Wahrscheinlichkeit keine Rolle, da die Inter-Core Latenzen von CCD zu CCD gleich sind wie bei CCX zu CCX auf dem selben CCD (gibt Messungen dazu).

Was den Test aber irgendwie "speziell" macht:

Ur-Alt Software hat bei einem neuen PC nur eine geringe Verbreitung (wie gesagt, 2016 war Ryzen nicht mal auf dem Markt), ergo geringe Relevanz für CPU Käufer von heute
Neue Software wird besser auf Ryzen performen, da angepasste SW
8C vs. 8C ohne SMT. Damit misst man eigentlich zu einem gewissen Grad schon die MT Leistung. Hier kann Intel sicher schneller sein (siehe z.B. 9700K in Spielen). Aber wieso nicht 1C vs. 1C für isoliere Single Core IPC Messung? Oder 8C / 16T beibehalten? Ich meine: Ausnahmslos alle Ryzen CPUs > Ryzen 3 1200 unterstützen SMT. Wer also eine Ryzen kauft hat SMT und kann davon profitieren.


Wie gesagt, die Zahlen sind wie sie sind. Aber für 99% der Nutzer stimmt diese Zahl nicht und ist irrelevant, da neuere Software oder SMT aktiviert. Und das ist das was ich kritisiere. Es entsteht ein falsches Bild für "Zeitpunkt heute".

robbitop
2019-08-22, 11:42:43
Für IPC Bestimmung außerhalb von anderen bottlenecks wie Latenzen ist SPEC eigentlich ein probates Mittel. Sowohl INT als auch FP. IIRC wurde dort Zen 2 taktnormiert leicht in Führung von jeglichen Skylakekernen vermessen.

Was Intels Cores in der Praxis oft hilft ist die irre niedrige Latenz zum RAM. Da steht es nunmal 40 ns zu 65-70 ns. Das drückt je nach hitrate mächtig die Performance. Hat aber mit IPC der uArch IMO nichts zu tun.
SKL-X ist in SPEC praktisch gleichschnell zu allen anderen Skylakes...

aufkrawall
2019-08-22, 11:50:14
Ich hab noch einen Benchmark in Borderlands 2 mit D9VK 6700k vs. R5 2600 incoming (normales Gameplay, keine statische Szene). Der Ryzen performt trotz RAM-Tunings so irre schlecht, dass man es kaum glauben mag. Folglich braucht es dabei mit Zen 2 auch eine irre Steigerung. Irgendwann will sich mein Bruder eine Zen 2-CPU holen, das wird interessant...

dildo4u
2019-08-22, 12:16:08
DF hatte das doch im Video alte Games profitieren massiv vom großen Cache da dort mehr vom Game Code komplett reinpasst,das ist ja ein XBox 360 Ära Game.

Skysnake
2019-08-22, 16:10:54
Ich wollte das schon länger posten, musste aber das Bild dazu erstmal auf dem PC verkleinern.

Zum EPYC launch. War lecker btw. :cool:

gravitationsfeld
2019-08-22, 18:22:54
Für IPC Bestimmung außerhalb von anderen bottlenecks wie Latenzen ist SPEC eigentlich ein probates Mittel. Sowohl INT als auch FP. IIRC wurde dort Zen 2 taktnormiert leicht in Führung von jeglichen Skylakekernen vermessen.
Wer bitte laesst zu Hause HPC-Software laufen?

Fakt bleibt, bei reiner Single-Thread-Wald-und-Wiesen-Software halten diese Resultate. Chrome ist keine "uralt Software". Auch fuer den kritischen Pfad in Spielen ist das wichtig. Und fuer die "Snappy-ness" auf dem Desktop.

Zen2 kann nur mit SMT wirklich seine Pipeline fuellen. Dann hat er eine vergleichbare IPC.

Ich hab noch einen Benchmark in Borderlands 2 mit D9VK 6700k vs. R5 2600 incoming (normales Gameplay, keine statische Szene). Der Ryzen performt trotz RAM-Tunings so irre schlecht, dass man es kaum glauben mag. Folglich braucht es dabei mit Zen 2 auch eine irre Steigerung. Irgendwann will sich mein Bruder eine Zen 2-CPU holen, das wird interessant...
Genau.

Setsul
2019-08-22, 18:36:58
https://www.legitreviews.com/ipc-battle-amd-ryzen-9-3900x-vs-intel-core-i9-9900k_213719

17% höhere IPC Skylake vs Zen2 bei fixen 4Ghz. Vor kurzem wurde ich für die Aussage noch ausgelacht :rolleyes:
Schwachsinn, es sind mindestens 23%.
https://images.anandtech.com/graphs/graph14605/111223.png

IPC ist schließlich eine Konstante die immer und überall in jedem Programm gleich ist.
Also postuliere ich, dass Haswell 35% höhere IPC als Ivy Bridge hat und Skylake über 2% langsamer als Broadwell ist.
https://images.anandtech.com/doci/9483/Generational%20CPU%20IPC_575px.png

Unicous
2019-08-22, 18:43:00
@gravitationsfeld

Absoluter Bullshit.

Erstens who cares about "Single-Thread-Wald-und-Wiesen-Software", Chrome ist ein Strohmann für den Rest der Müll-Software die herangezogen wird bei Sysmark und auch wenn du es wieder gekonnt ignorieren wirst, weil es nicht deiner Narrative entspricht ein paar Ergebnisse für Single-Thread-Wald-und-Wiesen-Software

https://i.imgur.com/aayYkqF.png

https://i.imgur.com/wdvRoTV.png

https://i.imgur.com/HRF1KRV.png

https://i.imgur.com/JBaT6od.png

https://i.imgur.com/xKIukwC.png

https://i.imgur.com/qvydkCc.png

https://i.imgur.com/JYIJFHo.png

https://i.imgur.com/CnVXoTf.png

gravitationsfeld
2019-08-22, 23:29:58
Buchstaeblich jeder einzige der Benchmarks die du zeigst ist nicht single threaded.

Wen das interessiert? Den Grossteil der Benutzer. So gut wie niemand erzeugt Content oder transkodiert den ganzen Tag Videos.

Es gibt andauernd irgend welche Tasks auf die ich warte die 100% single threaded sind. Und ich garantier dir, da sind die Intel immer noch schneller, auch bei gleicher Frequenz.

Setsul
2019-08-23, 00:02:17
Glaubst du das ST steht für "Sulti Thread"?

aufkrawall
2019-08-23, 00:25:30
Bei der "Schwuppdizität" würd ich Ryzen generell kein Defizit bescheinigen, Programme starten etc. geht schon zackig. Anfangs konnte es dahingehend unter Windows komische Probleme geben, von Linux ist mir dieses Problem nicht bekannt (nur halt andere :D ). Sollte aber wirklich schon lange kein Thema mehr sein.

Anders siehts beim Kompilieren aus, manche Teilschritte sind wirklich nur ST. Dummerweise ist Ryzen 1/+ dabei auch extrem lahmarschig, der 6C Zen 2 überholt 8C Zen+:
https://www.phoronix.com/scan.php?page=article&item=amd-ryzen5-3600x&num=3
Aber man sieht entsprechend ja auch, wie extrem Zen 2 aufgeholt hat. Das Ding spielt wirklich in einer anderen Liga als die Vorgänger.

N0Thing
2019-08-23, 02:12:59
Fakt bleibt, bei reiner -Wald-und-Wiesen-Software halten diese Resultate. Chrome ist keine "uralt Software". Auch fuer den kritischen Pfad in Spielen ist das wichtig. Und fuer die "Snappy-ness" auf dem Desktop.

Zen2 kann nur mit SMT wirklich seine Pipeline fuellen. Dann hat er eine vergleichbare IPC.


Ich kann zwar den Gedankengang nachvollziehen, für Single-Thread-Benchmarks SMT zu deaktivieren, aber wenn es Teil der Architektur ist, die Ressourcen der CPU mit SMT besser auszunutzen, fände ich einen Benchmarks mit mit einem Kern + SMT zum Vergleich nicht verkehrt. Immerhin wurden ja auch Transistoren genau für dieses Feature eingesetzt.
In deinem verlinkten Review wird extra der 3900X beschnitten, anstatt einen 3700X zu verwenden, der weniger Cache zu bieten hat, um vergleichbarer zu sein. Aber dadurch werden die Ergebnisse des Tests auch weniger relevant für Aussagen zum tatsächlichen Verhalten und der Leistung in der Praxis.
Ich zweifle die Ergebnisse gar nicht an, aber mehr Varianten des Tests hätten einen größeren Erkenntnisgewinn gebracht.

Unicous
2019-08-23, 02:31:03
Buchstaeblich jeder einzige der Benchmarks die du zeigst ist nicht single threaded.

Wen das interessiert? Den Grossteil der Benutzer. So gut wie niemand erzeugt Content oder transkodiert den ganzen Tag Videos.

Es gibt andauernd irgend welche Tasks auf die ich warte die 100% single threaded sind. Und ich garantier dir, da sind die Intel immer noch schneller, auch bei gleicher Frequenz.

Buchstäblich jeder einzige der Benchmarks die "The Stilt" zeigt wurden single threaded ausgeführt.:rolleyes:

Aber schon traurig, dass du blindlings in die Falle gelaufen bist. Zeigt, dass du meinen Post von vor ein paar Tagen, wie ich bereits sagte, gekonnt ignoriert hast.

Natürlich werden diese workloads nicht jeden Tag erzeugt, aber du tust im Gegensatz so als würde deine legacy-Software(:wink::wink:) den ganzen Tag über genutzt, was natürlich auch Unfug ist.

Im Übrigen geht Sysmark von dieser Verteilung aus:

67559

Du kannst mir gerne mal erklären warum eine Gurkensoftware wie Power Director 1/4 des Ratings ausmacht und generell kannst du mir gerne auch erklären, warum MS und Adobe so prominent vertreten sind. Und warum AMD, Nvidia und VIA vor 7 Jahren das Konsortium verlassen haben.:rolleyes:
Warum wurde Intel von der FTC dazu verdonnert bei Sysmark hinzu zu schreiben, dass es nur für Intel optimiert wurde?:uponder:

Diese Suite ist deutlich ferner von der Realität als eine Person die den ganzen Tag Videos produziert, oder 3D-Modelle erstellt. Ein Großteil der genutzten Software ist älter als 2 Jahre bzw. z.T. sogar 4 Jahre alt. Es gibt daher keinerlei Optimierungen für die Zen-Architektur während BapCo eine mehr als illustre Vergangenheit hat, wenn es um Intel-Optimierungen geht.

Über die Monate nach dem Zen-Launch wurde klar, dass Windows schlecht optimiert für die neue Architektur ist (was natürlich auch an AMD liegt/lag), warum gehst du davon aus, dass das bei dieser Suite mit z.T. veralteter Software nicht auch der Fall ist? 1903 z.B. hat Optimierungen für Ryzen 3000 gebracht. AMD behauptet, die neueren Chipsatz-Treiber würden speziell bei MS Office Software nochmals Performance herausholen.

Warum vertraust gerade du auf eine geschlossene Suite, während es bereits genug ähnliche Tests gibt? Warum hast du gerade Sysmark dafür auserkoren ein IPC average darzustellen?:confused:

tm0975
2019-08-23, 07:35:46
Warum hast du gerade Sysmark dafür auserkoren ein IPC average darzustellen?:confused:

Weil ihm das Ergebnis gefällt. Es gibt so massig schlechte Software, es ist aus meiner Sicht fraglich, ob diese überhaupt geeignet ist, eine moderne CPU stichhaltig zu bewerten.

Grendizer
2019-08-23, 08:11:39
Weil man als Anwender auch nur die aktuellste State of the Art Software nutzt und nicht 5 Jahre alte Versionen, da z.b. Sony Vegas 15 Pro locker für alles ausreicht und ein Update zu teuer ist ?

Allerdings nervt mich dieses rumreiten auf Grenzwerte langsam. Ich habe nur einen 1700X der lahm ohne Ende ist und kann trotzdem sorgenfrei zocken und arbeiten.

Was für eine Offenbarung müsste dann der 3700er sein.

HOT
2019-08-23, 08:48:43
Mag ja sein, zum testen macht alte Software aber einfach keinen Sinn. Das ist nur dann sinnvoll, wenn die Software wichtig ist und es keine neuere Version gibt. Ansonsten spiegelt man einfach nicht die derzeitige Leistungsfähigkeit des Prozessors wider, sondern wie der Prozessor, sagen wir, 2012 performt hätte. Es ist, wenn man bei Anwendungssoftware alles überschlägt, klar, dass Matisse eine ca. 5-8% höhere IPC mitbringt als Skylake.
Bei Spiele sieht das wieder anders aus, weil hier I/O (incl. Caches) eine größere Rolle spielt als die IPC.

Und noch was: IPC ist keineswegs ein fixer Wert, das ist einfach Unsinn. IPC hängt immer von der verwendeten Software ab. Eine CPU hat bei einer bestimmten Software im Vergleich mit meiner anderen CPU eine völlig andere IPC als bei einer anderen Software, weswegen ist so gegen diesen Begriff bin. Gemeint ist ja nur pro-Takt-Leistung von den meisten. Manche meinen auch ST-Leistung. Das ist eben ein undefinierter Gummibrandbregriff (weswegen er sich so gut fürs Marketing eignet i.Ü.).

robbitop
2019-08-23, 09:15:20
IMO versaut lediglich das IO von Ryzen der IPC so manchmal den Tag. 50-60% mehr Latenz tun eben weh, wenn die gesuchten Daten nicht im Cache sind sondern im Arbeitsspeicher. Gleiches Problem hat ja SKL-X auch. Mit der Zen mArch hat das aber wenig zu tun.

HOT
2019-08-23, 09:21:11
Exakt. Aber das ist ja nicht nur nachteilhaft. Dank der Organisation sind auch größere Einheiten möglich als 8-10 Kerne, genau wie bei Skylake X. Im Kleinen scheint hier CCX auch die effizientere Lösung zu sein als das Meshing. Das wird erst richtig stark bei sehr großen Dies - und rennt dabei gleichzeitig in den größten Nachteil bei steigenden Fertigungskosten - die Die-Größe.

YfOrU
2019-08-23, 13:07:32
Die Kosten sind pro mm². Die Fläche der kleinen CPU Chiplets summiert sich am Ende genauso. Der Vorteil liegt hier in erster Line dabei das der bei Enterprise CPUs inzwischen richtig fette I/O Bereich in ältere und günstigere Prozesse ausgelagert wurde und man mit wenig Designs auskommt.

Das AMD derart kleine CPU Chiplets mit nur bis zu 8C einsetzt dürfte vor allen an der Limitierung des Packages liegen. Mit Foveros hat Intel hierfür eine sehr interessante Lösung in der Pipeline welche auch große Chiplets bei hoher Leistungsaufnahme verbinden kann.

Blediator16
2019-08-23, 15:00:49
Also bei Intel ist man der Meinung, dass alles mit rechten Dingen vorgeht. Mich wundert absolut nichts mehr.

https://twitter.com/john_bonini/status/1164219255002296320

Die ehemaligen "Journalisten" sind ebenfalls dabei.

Schnoesel
2019-08-23, 15:11:59
Naja für "irgendeinen" Zweck wird man diese ja eingekauft haben. Wer es nicht mitbekommen hat denkt evtl. immer noch, dass die Ex Journalisten absolut unvoreingenommen sind.

Ach ja Sysmark zu nutzen ist natürlich reiner Zufall: https://winfuture.de/news,84360.html

Intel wird sich nie ändern. Dafür funktioniert das Konzept zu gut.

JVC
2019-08-23, 15:23:56
Also bei Intel ist man der Meinung, dass alles mit rechten Dingen vorgeht. Mich wundert absolut nichts mehr.

https://twitter.com/john_bonini/status/1164219255002296320

Die ehemaligen "Journalisten" sind ebenfalls dabei.
"Intel Core i9-9900K is able to deliver 17.1% more performance than the AMD Ryzen 9 3900X while using 26.7% less system power"
:ulol:
Der Dritte April ist aber schon vorbei ...

M.f.G. JVC

Lehdro
2019-08-23, 15:33:41
Die Kosten sind pro mm². Die Fläche der kleinen CPU Chiplets summiert sich am Ende genauso. Der Vorteil liegt hier in erster Line dabei das der bei Enterprise CPUs inzwischen richtig fette I/O Bereich in ältere und günstigere Prozesse ausgelagert wurde und man mit wenig Designs auskommt.
Du vergisst zudem den Vorteil der besseren Yields. Kleinerer Chip = bessere Yields.

Du bezahlst so oder so den Wafer, das ist völlig richtig mit den Kosten pro mm². Allerdings vergisst du dass du bei schlechterer Yield auch viel mehr kaputte mm² mitbezahlst, als bei besserer Ausbeute. Wenn du von derselben defect density (zb 0,5/mm²) ausgehst, kann es passieren das ein 73mm² Die eine Ausbeute von zum Beispiel 70% hat. Ein doppelt so großer Die hat dann nur eine Ausbeute von rund 50%.
Hier ein Beispiel:
https://abload.de/img/zen2fdjiq.jpg
https://abload.de/img/doppelterzen2vqja8.jpg

Somit kannst du mit dem kleineren Die 577/2 = 288x 16 Kerner bauen.
Mit dem nativen 16 Kern Die sind es zum Beispiel nur 206 ganze Dies.

Das ist natürlich nur eine einfache Milchmädchenrechnung (https://caly-technologies.com/die-yield-calculator/), Synergieeffekte kommen noch dazu: Nur ein Die nötig für zb 6-16 Kerne, bei dem großen Die machts nicht wirklich Sinn ein 16 Kern Die für zb 6 Kerne zu benutzen. Critical defects, Redundanzen und ähnliches kommt auch noch hinzu. Ebenso höherer Packaging Aufwand, Verdrahtung der Substrate, I/O Die Kosten + Yields etc.

Schnoesel
2019-08-23, 16:09:49
Passend auch dazu:

Ryzen 9 3900X schneller als 9900K oder 9700K? Intel sieht das anders

https://www.pcgameshardware.de/CPU-CPU-154106/News/Ryzen-9-3900X-schneller-als-9900K-oder-9700K-Intel-sieht-das-anders-1330126/

basix
2019-08-23, 17:18:41
Du vergisst zudem den Vorteil der besseren Yields. Kleinerer Chip = bessere Yields.

Du bezahlst so oder so den Wafer, das ist völlig richtig mit den Kosten pro mm². Allerdings vergisst du dass du bei schlechterer Yield auch viel mehr kaputte mm² mitbezahlst, als bei besserer Ausbeute. Wenn du von derselben defect density (zb 0,5/mm²) ausgehst, kann es passieren das ein 73mm² Die eine Ausbeute von zum Beispiel 70% hat. Ein doppelt so großer Die hat dann nur eine Ausbeute von rund 50%.
Hier ein Beispiel:
https://abload.de/img/zen2fdjiq.jpg
https://abload.de/img/doppelterzen2vqja8.jpg

Somit kannst du mit dem kleineren Die 577/2 = 288x 16 Kerner bauen.
Mit dem nativen 16 Kern Die sind es zum Beispiel nur 206 ganze Dies.

Das ist natürlich nur eine einfache Milchmädchenrechnung (https://caly-technologies.com/die-yield-calculator/), Synergieeffekte kommen noch dazu: Nur ein Die nötig für zb 6-16 Kerne, bei dem großen Die machts nicht wirklich Sinn ein 16 Kern Die für zb 6 Kerne zu benutzen. Critical defects, Redundanzen und ähnliches kommt auch noch hinzu. Ebenso höherer Packaging Aufwand, Verdrahtung der Substrate, I/O Die Kosten + Yields etc.


Ich habe mal eine "kleine" Milchmädchenrechnung mit hohem Unsicherheitsfaktor erstellt :D

Ziel: Evaluation Kostnevorteil Chiplet vs. monolithisches Die

=========================================

Ausgangslage & Annahmen:

Matisse Chiplets = 74mm2 @ 7nm / 125mm2 @ 12nm (Referenz: AMD)
250mm2 yielded Si @ 7nm 1.8x teurer als 12/14/16nm (Referenz: https://www.3dcenter.org/news/die-flaechen-normierten-fertigungskosten-steigen-nach-dem-1416nm-prozess-um-30-pro-node)
Annahme Defect Density D0 @ 7nm = 0.15 (Referenz: https://semiengineering.com/tsmc-tech-tour-de-force/)
Annahme Defect Density D0 @ 12nm = 0.08 (Referenz: siehe vorherigen Link)
Annahme Scaling I/O von 12nm auf 7nm = 0.7 (Referenz: Bauchgefühl :D)


=========================================

Vorteil Yield:

Grösse I/O @ 7nm = 88mm2
16C monolithic Die = (2*74 + 88) mm2 = 236mm2
Hypothetischer 7nm Yield @ 16C monoloithisch: 71% (siehe https://caly-technologies.com/die-yield-calculator/ (https://caly-technologies.com/die-yield-calculator/)))
Yield 12nm I/O Die = 90%
Yield 7nm CCD = 90%
Yield-Vorteil = 90% / 71% = 1.27

Zwischenresultat Yield-Vorteil: 1.27

=========================================

Vorteil verbrauchte Siliziumfläche:

Average Si Area 7nm only per sold CPU = 236mm2
Average Si Area 7nm / 12nm Combo = 210mm2 (es werden ca. 6x mehr CPUs mit 1 Chiplet verkauft als CPUs mit 2 Chiplets, siehe https://imgur.com/a/wuDcgaY)
Wafereffizienzvorteil = 236mm2 / 210mm2 = 1.12

Zwischenresultat Wafereffizienzvorteil: 1.12 (+ weniger Verschnitt am Waferrand, welcher jetzt hier einfachheitshalber nicht enthalten ist)

=========================================

Vorteil Waferkosten / Prozesskosten:

Anteil 12nm I/O Die an der totalen Fläche = 125mm2 / 210mm2 = 0.6
Herausrechnen des Yieldvorteils bei "Yielded 250mm2" Faktor von 1.8: Prozess ist effektiv 40-50% teurer (ansonsten habe ich den Yield-Vorteil 2x drin und die Die sind sowieso kleiner als 250mm2). Ich nehme den Mittelwert: 1.45
Total Prozesskosten bei 7nm only = 1.45
Total Prozesskosten bei 7/12nm = 0.6 * 1.0 + 0.4 * 1.45 = 1.18
Prozesskostenvorteil = 1.45 / 1.18 = 1.23

Zwischenresultat Prozesskostenvorteil : 1.23

=========================================

Nachteil Packagingkosten:

2x Die anstatt 1x Die. Packaging Yield = 0.95 (ist typischerweise deutlich >90%)

Zwischenresultat Packaging-Nachteil: 0.95

=========================================

Gesamtresultat = 1.27 * 1.12 * 1.23 * 0.95 = 1.66

Resultat inkl. Unsicherheitsfaktor (+/-20%): 1.4...2.0

=========================================

Das bedeutet, AMD kann ca. 66% mehr CPUs zu gleichen Kosten bauen. Nicht schlecht.

amdfanuwe
2019-08-23, 17:49:52
Nice. Rechne mal weiter für 64 Core 1000mm² gegen monolithisch.

Grendizer
2019-08-23, 17:56:58
Ich habe mal eine "kleine" Milchmädchenrechnung mit hohem Unsicherheitsfaktor erstellt :D

Ziel: Evaluation Kostnevorteil Chiplet vs. monolithisches Die
...

Das bedeutet, AMD kann ca. 66% mehr CPUs zu gleichen Kosten bauen. Nicht schlecht.

Ok... und wo ist berücksichtigt, das Intel intern herstellt und AMD TMSC bezahlen muss ?

basix
2019-08-23, 18:01:31
Ok... und wo ist berücksichtigt, das Intel intern herstellt und AMD TMSC bezahlen muss ?

Gut, dass du die Frage stellst. Du hast nämlich den Sinn und Zweck der Rechnung nicht verstanden :D Es geht hier nicht um den Vergleich AMD vs. Intel :facepalm:

Nice. Rechne mal weiter für 64 Core 1000mm² gegen monolithisch.
Nö, lass mal. Die Zahl wird aber höher sein, soviel kann ich dir verraten ;)

Grendizer
2019-08-23, 18:05:17
edit: ok hast recht ... habs nur überflogen und war bei monolitisch vs. Chiplet sofort bei AMD vs Intel

Unicous
2019-08-23, 18:06:10
Ok... und wo ist berücksichtigt, das Intel intern herstellt und AMD TMSC bezahlen muss ?

Nur so zur Info und falls du darauf hinaus wolltest: Intels eigener Prozess ist höchstwahrscheinlich teurer als TSMC, und nicht nur weil der Yield so bescheiden ist.:wink:

Grendizer
2019-08-23, 18:07:03
Nur so zur Info und falls du darauf hinaus wolltest: Intels eigener Prozess ist höchstwahrscheinlich teurer als TSMC, und nicht nur weil der Yield so bescheiden ist.:wink:

ja.. vermutlich... die werden aber besser quersubventioniert...

Edit: und was da an Kosten für den 10nm Prozess angefallen sind, will ich nicht wissen

fondness
2019-08-23, 18:54:10
Die Kosten sind pro mm². Die Fläche der kleinen CPU Chiplets summiert sich am Ende genauso. Der Vorteil liegt hier in erster Line dabei das der bei Enterprise CPUs inzwischen richtig fette I/O Bereich in ältere und günstigere Prozesse ausgelagert wurde und man mit wenig Designs auskommt.

Kleinere Dies bedeutet vor allem auch weniger Verschnitt am Rand des Wafer plus bessere Yield.


Das AMD derart kleine CPU Chiplets mit nur bis zu 8C einsetzt dürfte vor allen an der Limitierung des Packages liegen. Mit Foveros hat Intel hierfür eine sehr interessante Lösung in der Pipeline welche auch große Chiplets bei hoher Leistungsaufnahme verbinden kann.

Ein 8C Chiplet war die optimale Größe für AMD nach allen Parametern wie Skalierbarkeit, Yield, Verschnitt, etc. Hätte man bsw ein 16C Chiplet aufgelegt, müsste man am Desktop entweder ein zweites Die auflegen oder sehr viele Cores deaktivieren. Was wäre der Vorteil von größeren Chiplets? Ich sehe keine.

Windi
2019-08-23, 18:55:59
Die Chiplets haben auch den großen Vorteil, das darauf fast nichts lebensnotwendig ist.
Das besteht fast ausschließlich aus Kernen und Cache. Wenn dort ein Fehler auftritt, deaktiviert man einfach einen Kern oder etwas Reserve Cache. Wenn es ganz schlimm kommt muss man halt einen kompletten CCX deaktivieren. Benutzen kann man das Chiplet trotzdem.
Das einzig kritische ist die IF Verbindung, wenn die nicht funktioniert kann man das Chiplet wegwerfen.
Das erhöht die Ausbeute drastisch.

Im IO Chip sitzt hingegen sehr viel kritisches Zeug. Dort muss jeder PCIe Lane und jeder USB Port funktionieren. Ansonsten funktioniert nacher beim Endnutzer das halbe Mainboard nicht gescheit.

Das hat die Produktion deutlich vereinfacht. Vor allem, wenn der Herstellungsprozess noch nicht ganz ausgereift ist und es viele Fehler pro Wafer gibt.


Edit:
Bei Zen1 besteht ja mehr als die Hälft des Die aus kritischem IO Zeugs. Wenn dort ein Fehler auftritt, kann man gleich den ganzen Chip wegwerfen. Bei Zen2 hat man das jetzt aufgeteilt.
Mit dem alten Konzept aus vier zusammen "geklebten" ;D Prozessoren hätte sich AMD wahrscheinlich nicht an so vielen Kernen herangewagt. Dann wäre es bei 8 Kernen im Desktop und 32 im Server geblieben.

basix
2019-08-23, 19:01:39
Noch eine andere Betrachtungsweise: Nimmt man den Faktor 1.8x per yielded 250mm2 und den Faktor 1.66 aus meiner Rechnung (wie genau der Wert auch stimmen mag), ergibt das folgenden interessanten Su-sammenhang (sorry für den "Verschreiber" :D):

Matisse ist im Schnitt ca. +25-30% teurer als Pinnacle Ridge pro CPU --> 1.8 / 1.66 * Flächenunterschied 7nm only vs. 7/12nm Combo


Da der durchschnittliche Verkaufspreis pro CPU laut Mindfactory Statistik um +40-50% gestiegen ist, verdient AMD pro CPU also ca. +10-20% mehr Marge als mit PR (unbekannt: Varianz Händlermarge).

Ohne Chipletdesign wäre die Marge trotz Preisaufschlag gesunken. Wenn man bei max. 8C geblieben wäre, würde man bei gleichem Preisaufschlag evtl. leicht gestiegene Marge haben. Chiplets und die gestiegenen Stückzahlen machen also sehr viel aus bezüglich Gewinn und Marge.

mboeller
2019-08-23, 19:30:02
Im Übrigen geht Sysmark von dieser Verteilung aus:

67559



Hübsche Aufteilung der Software. Vieles davon wird ja wirklich in Unternehmen eingesetzt. Und meistens langweilt sich das System und wartet auf die Usereingaben. Der Benchmark ist also IMHO schon aus diesem Grund ziemlich nutzlos.

Sunrise
2019-08-23, 20:39:47
Ich weiß nicht, wann ich damit aufgehört habe mir Gedanken um die Geschwindigkeit bei Büroanwendungen zu machen, aber seitdem sämtliche Javascript- bzw. Browserbenchmarks auf Handys (iPhone) fast so schnell sind wie deren Desktop-Pendants (wohlgemerkt im Desktop-Modus), merk ich das doch sowieso nichtmehr. Anandtech macht das ja regelmäßig.

Was relevant ist sind doch Bottlenecks wie Encoding oder Echtzeitberechnungen sämtlicher Software, die einem Zeit und Geld sparen. Es kauft doch keine Sau eine neue CPU, weil Outlook darauf schneller läuft, warum also dann einen Test machen, der genau mit dieser Grundlage die IPC vergleichen will... IMHO absoluter Quatsch.

PS: Photoshop o.Ä. lass ich ja noch gelten.

Just my 2 cents.

basix
2019-08-23, 21:00:32
Also wenn Outlook und Co. langsam sind, liegt das eher an einem lahmen Netzwerk (wie z.B. bei uns in der Firma).

Setsul
2019-08-23, 21:05:44
@basix:
Hauptproblem der Milchmädchenrechnung ist dass teildefekte Dies verkauft werden. Zudem sind im Cache, der viel Fläche ausmacht, Redundanzen drin.
Rein rechnerisch müsste Intel über die Hälfte ihrer 700mm² Dies wegwerfen, aber das passiert nicht. 24 von 28 Kernen ergeben einen problemlos verkaufbaren Chip.

Es bleibt dass man aus 700mm² mit 28 Kernen keine gewinnbringenden 100$ 4 Kern SKUs schnitzen, also braucht man mindestens 4 verschiedene Dies. Intel gönnt sich noch mehr für 2 Kerne, ULP und 8 für HEDT dann nochmal praktisch die gleiche Anzahl mit 10 nur mit anderem Interconnect.
AMD kann sich das schlicht und ergreifend nicht leisten.

Ein Nachteil ist, dass es schwieriger ist einen voll funktionsfähigen Chip mit allen Kernen zu bekommen. Weil aber die Masse der Kunden nicht das teuerste Modell kauft, ist das meistens egal. Bei Broadwell hat Intel die 24 Kern SKUs etwas verzögert und erst 2 Monate nach denen mit 22 Kernen rausgebracht, weil die Yields nicht so toll waren aber das wars. Auf 7/10nm wird das Problem eventuell wieder relevant, aber nichts weswegen man sich Sorgen machen müsste. Intel bräuchte in erster Linie überhaupt mal 10nm um >40 Kerne in eine vernünftige TDP zu bringen. Genauso hatte Skylake gegen Zen weniger das Problem dass man nicht genug Chips mit 28 Kernen hatte sondern dass 28 weniger als 32 ist.


Die echten Vorteile von monolithisch und Chiplets sind viel einfacher. Monolithisch bringt niedrigere Latenz, Chiplets bringen höheren durchschnittlichen Takt weil man nicht darauf angwiesen ist dass 28/32/64 "gute" Kerne auf einem Die sind, sondern eben nur 8.
Wie man sieht sind die Chiplets besser solange sie nicht untereinander kommunizieren müssen. Je mehr Kommunikation desto besser steht monolithisch da.
AMD kann sich monolithisch nicht leisten (schon zu K10 Zeiten nicht, mal nebenbei) und bei Zen(2) sind die Kerne und das Interconnect gut genug dass Chiplets auch außerhalb der für sie idealen Situationen konkurrenzfähig sind.


Also das ist schon aus der Not geboren (siehe Cascade Lake AP), aber bei Zen funktioniert es und AMD hat es gut verkauft. Bei K10 hat sich keiner wirklich dafür interessiert weil Intel das gerade erst für Desktop Quadcores gemacht hat und Bulldozer war unabhängig davon schlecht.

Sunrise
2019-08-23, 21:12:05
Also wenn Outlook und Co. langsam sind, liegt das eher an einem lahmen Netzwerk (wie z.B. bei uns in der Firma).
Ich will garnicht erst wissen, wie dieser (sorry für den Ausdruck) Rotz programmiert ist. Klar, Outlook hat architekturbedingt (diverse Schnittstellen wie Netzwerk, AD, Exchange usw.) auch eine Menge Möglichkeiten, aber performant war damals maximal Outlook bis 2010. Outlook 2016 ist dermaßen träge, dass ich mich frage ob MS einfach nur stinkfaul geworden ist. Theoretisch limitiert doch nur noch die Software, gerade in guten internen Firmen-LANs.

Mit PowerPoint und Word gehts dann weiter, sind ja auch höher gewichtet...(ja, die armen Marketingabteilungen brauchen jetzt alles in 3D, schon klar.)

Und dann die absolute Speerspitze der High-End Software wie PowerDirector (kennt man ja noch, PowerDVD die vor 10 Jahren zum DVD schauen genutzt wurde). Ich weiß ja nicht.

Schon ein ziemlicher geiler Test.

basix
2019-08-23, 21:31:33
@Setsul:
Stimmt, durch Salvage sollte monolithisch und Chiplet Ansatz näher zusammenrücken. Habe ich gar nicht berücksichtigt. Aber viel mehr als 10-20% relativer Unterschied wird das nicht werden. 7nm ist einfach so teuer im Vergleich zu 14/16nm. Bei den vorherigen Prozessen bis und mit 28nm war der Kostenvorteil pro Transistor deutlich gegeben. Aber schon bei 16nm hat man gesagt, dass der Prozess deutlich teurer wird (war etwa 1/3 teurer als 28nm). Die Designkosten kommen nochmals hinzu, welche sich schon im 3-stelligen Millionenbereich bewegen. Grosse Die werden immer unrentabler. Deswegen auch überall der Trend zu Chiplets. Auch bei Intel.

Es ist nunmal Fakt, dass Chiplets ökonomisch gesehen Vorteile haben. Und Ökonomie gewinnt in der Masse eigentlich immer gegenüber den anderen Faktoren wie Latenz usw. Ökonomie kann natürlich auch Performance (Zeit ist Geld) und Energieverbrauch (Energiekosten) beinhalten. Mit Chiplets ist es aber auch hier viel einfacher, die variablen Anforderungen der Kunden zu bedienen.

Ich will garnicht erst wissen, wie dieser (sorry für den Ausdruck) Rotz programmiert ist.
Der Hit sind ja die genialen "Übergangsanimationen" zwischen den Ansichten wie z.B. Mails und Kalender. Sorry, wenn ich jedes Mal 2sec warten muss fühlt sich das einfach schnarchlangsam an. Das war bei Office 2010 wirklich viel besser, deswegen nutze ich privat noch ;)

Setsul
2019-08-23, 22:01:22
Ich finde man muss da den I/O-Die einzeln betrachten. Das könnte man genauso mit einem monolithischen Die für die Kerne machen. Der Nachteil wäre der gleiche, höhere Latenz.
Von der Trennung in Chiplets kommt kaum Kosternersparnis pro Stück. Klar, die Verteilung, Taktraten usw. sind etwas anders, aber ob man eine Million funktionierende Kerne in ~140k 8 Kern Chips oder in 18k 64 Kern Chips baut ändert an den Kosten kaum etwas. Vor allem wenn man bedenkt dass AMD 16 MiB L3 pro CCX mehr oder weniger "braucht" um die Latenz zwischen den Chiplets zu kompensieren. Bei homogenem Zugriff auf 20-30 MiB L3 fährt man mit 2-2,5 MiB pro Kern sehr gut, deshalb macht Intel das. Mit einem zweiten Die mit 16 Kernen und eventuell noch einem anderen Interconnect könnte sich AMD die Hälfte des L3 sparen. Aber sie können sich weder das eine noch das andere leisten. Also I/O-Die + mehrere "monolitische" Dies mit 16/32/64 Kernen, keinen CCX sondern unified L3, dafür halb so viel, würden pro Kern eher weniger kosten und wären kein Stück langsamer. Aber AMD kann sich das nicht leisten.

Wie gesagt, sie verkaufen das gut, aber eigentlich machen sie es weil sie müssen.

Der I/O-Die ist einfach eine gute Entscheidung auf technischer Ebene, wenn man mit diesen Gegebenheiten arbeitet. Chiplets mit mehr als 8 Kernen funktionieren nicht mit dem "ein Die für alles"-Prinzip. Halber I/O (z.B. 1 DRAM-Channel) pro Die im Vergleich zu Zen1 geht nicht weil man auch einzelne 8 Kern Chips verkaufen will. Gleicher I/O ist Verschwendung weil bis zu 50% davon abgeschaltet werden. Der I/O-Die löst das Problem, macht aus NUMA wieder UMA, senkt die Kosten und der einzige Nachteil, die höhere Latenz, hat man durch die Chiplets sowieso schon.

Lehdro
2019-08-23, 22:26:36
Chiplets vs Monolithisch hat zudem noch den gigantischen Vorteil des Speedbinnings. Siehe die schöne Grafik hier auf Seite 23 (http://www.cs.ucy.ac.cy/conferences/pact2018/material/PACT2008-public.pdf) (generell eine sehr gut Informationsquelle). Man kann damit Produkte erstellen die mit monolithischen Dies gar nicht bzw. nur in homöopathischen Dosen möglich wären:

https://abload.de/img/speedbinning6kjgx.jpg

basix
2019-08-24, 09:47:09
Das mit dem Binning stimmt schon. Aber wen man sieht, dass Matisse egal nach welcher SKU mit nur Unterschied 300-400 MHz im SC Boost taktet und All-Core mit noch weniger Unterschied, relativiert sich das ziemlich. Zumindest das "Speedbinning". Ausnahme wäre, wenn die EPYC Chiplets nur max. 3.5+ GHz erreichen würden. Dazu müsste aber mal wer einen Rome übertakten ;) Binning auf Stromverbrauch / Effizienz ist natürlich immer gegeben.

tm0975
2019-08-24, 11:21:44
Aber wen man sieht, dass Matisse egal nach welcher SKU mit nur Unterschied 300-400 MHz im SC Boost taktet und All-Core mit noch weniger Unterschied, relativiert sich das ziemlich. der takt ist das eine, die anzahl der kerne die hochtakten das andere. bei zen ein gabs den boost ja nur aif einem kern, ab zen+ gab es dort deutliche verbesserungen und je kernanzahl zwischenstufen.

Complicated
2019-08-24, 11:51:44
Das bedeutet, AMD kann ca. 66% mehr CPUs zu gleichen Kosten bauen. Nicht schlecht.
Chiplets vs Monolithisch hat zudem noch den gigantischen Vorteil des Speedbinnings. Siehe die schöne Grafik hier auf Seite 23 (http://www.cs.ucy.ac.cy/conferences/pact2018/material/PACT2008-public.pdf) (generell eine sehr gut Informationsquelle). Man kann damit Produkte erstellen die mit monolithischen Dies gar nicht bzw. nur in homöopathischen Dosen möglich wären:

https://abload.de/img/speedbinning6kjgx.jpg
Aus dem selben Paper stammt auch diese Grafik:
http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=34739&d=1474733041
https://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs?p=5117294&viewfull=1#post5117294

basix
2019-08-24, 12:07:32
Und was genau willst du uns damit sagen?
Dass das alles nicht stimmt oder stimmst du uns zu? ;)

Zen 2 ist pro Core ohne I/O doppelt so gross wie in dem Paper. Mit I/O wäre der Chip nochmals deutlich grösser, ausser man nimmt wie im Paper einen aktiven Interposer (welches noch Zukunftsmusik ist). Und bei 7nm ist der Yield für ein 300mm2 Die von 85% auch eher fraglich.

Ausserdem kommt noch der Unterschied der höheren Prozesskosten 7nn vs. 12nm dazu.

Complicated
2019-08-24, 12:24:30
Und was genau willst du uns damit sagen?
Dass das alles nicht stimmt oder stimmst du uns zu? ;).
Ich habe das lediglich als ergänzende Zustimmung und gute prinzipielle Darstellung deiner Rechnung zugefügt. Für den Kontext hatte ich extra auch den Link zugefügt wo ich die Grafik schon verwendet hatte.

Mit I/O wäre der Chip nochmals deutlich grösser, ausser man nimmt wie im Paper einen aktiven Interposer (welches noch Zukunftsmusik ist).
Die Infinity-Fabric ersetzt hier den Interposer. Und da der Interconnect aktiv ist, kann man das deutlich besser Vergleichen als mit einem passiven Interposer.
Und bei 7nm ist der Yield für ein 300mm2 Die von 85% auch eher fraglich.
Du interpretierst hier die Yield falsch. Der Yield in der Tabelle bezieht sich ausschließlich auf den zusätzlichen Yield-Faktor durch die unterschiedliche Diegröße (Die Tabelle verdoppelt die Fläche 1:1 mit der Verdopplung der Kerne), bei selber Defektrate eines voll eingefahrenen Nodes. Sozusagen Prozessnode-Agnostisch.
Nimm also die derzeitigen 7nm Yields und normalisiere dies mit 4-Core Dies. Du kannst den Faktor aus der Tabelle verwenden um den zusätzlichen Yield-Verlust bei größerem Die abschätzen. Dafür spielt es ersteinmal keine Rolle ob da nun bei 74 mm² 16 cores, wie in dem Paper angenommen werden, oder tatsächlich nur 8 cores auf dem Die verbaut sind.

dildo4u
2019-08-29, 09:33:43
Neuer Geekbench Wert des 32Core Threadripper 68k,Intel 28 Core 38k,alter 32 Threadripper 36k.


https://wccftech.com/amd-3rd-gen-ryzen-threadripper-3000-cpu-geekbench-destroys-intel-amd-hedt-cpus/

mironicus
2019-08-29, 10:51:05
Ich finde die Multicore-Ergebnisse eher gering. Wenn man den Singlecore mit 32 multipliziert, liege ich bei 176.000. Hier werden aber nur 68000 Punkte erreicht. Schon ein 6-Kerner Ryzen 3600 erreicht ca. 28000 Punkte, ein Ryzen 3950 wird auch über 60000 Punkte kommen.

dildo4u
2019-08-29, 10:57:08
Passt doch gibt wenig Consumer Programme die ideal mit so vielen Cores skalieren.
Der 32 Core hat deswegen bisher nur in ganz wenigen Fällen Sinn gemacht,das ändert sich mit dem neuen Modell deutlich und das Bildet der Bench ab.

Sunrise
2019-08-29, 11:21:25
Neuer Geekbench Wert des 32Core Threadripper 68k,Intel 28 Core 38k,alter 32 Threadripper 36k.


https://wccftech.com/amd-3rd-gen-ryzen-threadripper-3000-cpu-geekbench-destroys-intel-amd-hedt-cpus/
Die Werte sind eindeutig zu niedrig, da halte ich mich eher an die am 14.08. geleakten Werte. Ist sowieso Quatsch, ständig diese geleakten Werte mit Pre-Prod-Samples. Und dann auch noch Geekbench...

Typisch Sommerloch.

Distroia
2019-08-29, 14:06:49
Ich finde die Multicore-Ergebnisse eher gering. Wenn man den Singlecore mit 32 multipliziert, liege ich bei 176.000. Hier werden aber nur 68000 Punkte erreicht. Schon ein 6-Kerner Ryzen 3600 erreicht ca. 28000 Punkte, ein Ryzen 3950 wird auch über 60000 Punkte kommen.

78% schneller als der Intel mit 28 Kernen hältst du für zu niedrig? :confused:

Der Benchmark skaliert eben nicht linear mit den Kernen, aber er skaliert auf dem Threadripper deutlich besser als bei Intel. Ich finde das Ergebnis sogar sensationell gut, weil es zeigt, wieviel besser der Threadripper mit den Kernen skaliert als das Intel pendent.

Xeon: 7,5 mal so schnell wie single core mit 28 Kernen

Threadripper: 12,4 mal so schnell wie single core mit 32 Kernen

][immy
2019-08-29, 14:41:10
Ich finde die Multicore-Ergebnisse eher gering. Wenn man den Singlecore mit 32 multipliziert, liege ich bei 176.000. Hier werden aber nur 68000 Punkte erreicht. Schon ein 6-Kerner Ryzen 3600 erreicht ca. 28000 Punkte, ein Ryzen 3950 wird auch über 60000 Punkte kommen.
Bei Single-Core Leistung liegt auch der komplette Boost an. Das Multicore-Ergebnis kann natürlich das Ergebnis nicht erreichen. Wie willst du das bei einem 28 oder 32-Core Prozessor machen?
Wenn da jeder Core bis zum Anschlag boosten könnte, würd der DIE ja schmelzen. Das ist ja bei einem 8-Core schon kritisch (guck dir mal an was die Intels verbrauchen wenn man alle Kerne auf 5 GHz bringt und sie auslastet).

Der 32-Core Prozessor (oder auch der 28-Core von Intel) hat ein wesentlich geringeren Takt, schon daher kann man das 8-Core Ergebnis nicht mit vergleichen. Zudem Teilen sich mehr CPUs mehr oder minder die gleichen Resourcen. Und bei 32 bis 64 Kernchen wird langsam aber sicher der Speicher & co zu einem Problem. Selbst mit Quad-Channel Interface, zumal der Server-Speicher normalerweise auch nicht so hoch getaktet ist.

Schon 8 Kernchen gegen ein heutiges Dual-Channel interface laufen zu lassen, kann den Prozessor ausbremsen, besonders wenn er bei der Aufgabe ständig was vom Speicher holen muss.

VooDoo7mx
2019-09-03, 14:50:50
Wann kommt jetzt eigentlich der 3950X? Wir haben September und meine Börse braucht etwas Entlastung. :ugly:

Lehdro
2019-09-09, 11:34:48
@VooDoo7mx
3950X kommt Ende September


Neue Informationen zu Threadripper 3000: Hardwareluxx (https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/50773-octa-channel-speicherinterface-fuer-3rd-gen-ryzen-threadripper-bestaetigt.html) & GamersNexus (https://www.youtube.com/watch?v=1Xrys7sOr4A)

TRX40 und TRX80 (HEDT)
4x Speicherkanäle
DDR4-3200 ECC-Unterstützung
UDIMM, 2x DIMMs pro Kanal
OC-Unterstützung
64x PCIe 4.0, 16 switchable mit SATA

WRX80 (Workstation)
8x Speicherkanäle
DDR4-3200 ECC-Unterstützung
UDIMM, RDIMM, LRDIMM, 1X DIMM pro Kanal
96 - 128x PCIe 4.0, 32 switchable mit SATA

Sieht düster aus für Intel, vorallem die Workstation XEONs kriegen wohl richtig Konkurrenz.

Der_Korken
2019-09-09, 11:45:55
Wie grenzt sich Epyc denn noch von TR ab, wenn letzterer auch als Workstation-Modell mit 8 Speicherkanälen und 128PCIe-Lanes verfügbar ist? Nur noch über zwei Sockel?

amdfanuwe
2019-09-09, 11:56:46
Wie grenzen sich denn Server von Workstations ab?

Lehdro
2019-09-09, 12:23:26
Wie grenzt sich Epyc denn noch von TR ab, wenn letzterer auch als Workstation-Modell mit 8 Speicherkanälen und 128PCIe-Lanes verfügbar ist? Nur noch über zwei Sockel?
Mehr Speicher (8 Channel hat bei WRX80 nur 1x DIMM pro Channel, bei EPYC sinds 2)
Zwei Sockel (logo)
Mehr Effizienz (weniger TDP & Takt)
Dann noch: Preis & Plattform/Formfaktor

Setsul
2019-09-09, 13:20:59
@Der_Korken:
AMD muss TR nicht stark von EPYC abgrenzen. TR reiht sich wunderbar in die ganz normale Abstufung der SKUs über Takt/TDP/Preis ein.


AMD hat im Gegensatz zu Intel auch nicht die Probleme bei der Marktsegmentierung. 24 Kerne für 1299$ wären bei Intel zu der Zeit eine Katastrophe gewesen, aber für AMD ist das kein Problem. Wenn jemand statt einem EPYC 7401P zum Listenpreis einen 2970WX kauft verdient AMD 224$ zusätzlich.


Maximal ein DIMM pro Kanal bei 8 Kanälen ist eventuell eher eine Einschränkung der Mainboards als der CPUs. 16 DIMM Slots + genügend PCIe Slots dass mehr als 64 Lanes nutzbar sind + VRMs für 280W TDP mit guter Kühlung wird auch auf EATX/XL-ATX sehr eng.

robbitop
2019-09-09, 18:28:39
Ggf gibts ja nur 32 Cores? Wenn der Preis hoch genug ist gibt es auch keine Kanibalisierung zu Epyc.

reaperrr
2019-09-09, 18:42:12
Ggf gibts ja nur 32 Cores? Wenn der Preis hoch genug ist gibt es auch keine Kanibalisierung zu Epyc.
Ich denke, die TRX40-Plattform wird evtl. nur bis 32c unterstützen, aber die TRX80 und WRX80 werden auf jeden Fall auch Modelle mit mehr Kernen bekommen.

Abgrenzung zu Epyc wird nicht nötig sein, da die Preise bei den 48/64c Modellen auch nicht so wahnsinnig viel niedriger als bei den Epyc-Equivalenten ausfallen werden. Und im Zweifelsfall lieber mit weniger Marge als bei Epyc verkaufen, als dass der Auftrag an Intel geht.

davidzo
2019-09-09, 21:19:48
@VooDoo7mx
3950X kommt Ende September


Neue Informationen zu Threadripper 3000: Hardwareluxx (https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/50773-octa-channel-speicherinterface-fuer-3rd-gen-ryzen-threadripper-bestaetigt.html) & GamersNexus (https://www.youtube.com/watch?v=1Xrys7sOr4A)

TRX40 und TRX80 (HEDT)
4x Speicherkanäle
DDR4-3200 ECC-Unterstützung
UDIMM, 2x DIMMs pro Kanal
OC-Unterstützung
64x PCIe 4.0, 16 switchable mit SATA

WRX80 (Workstation)
8x Speicherkanäle
DDR4-3200 ECC-Unterstützung
UDIMM, RDIMM, LRDIMM, 1X DIMM pro Kanal
96 - 128x PCIe 4.0, 32 switchable mit SATA

Sieht düster aus für Intel, vorallem die Workstation XEONs kriegen wohl richtig Konkurrenz.


Hä, TRX80 soll nur 4 Speicherkanäle haben? Was ist denn dann der Unterschied zu TRX40? Die Core-Anzahl kann es nicht sein, die ist bei AMD unabhängig vom Chipsatz, bzw. bei TR4, wie wir mit Threadripper 1000 und 2000 gelernt haben. PCIelanes eigentlich auch bzw. sind eher ein features des mainboards, bzw. abhängig wieviele dieses zur Verfügung stellt.

Bei gamersnexus steht auch nichts von TRX80. Es sieht viel eher so aus als gäbe es nur zwei Chipsätze, den WRX80 und den TRX40. Das macht imo viel mehr Sinn. Eine künstliche Segmentierung würde zu Intel passen, aber zu AMD überhaupt nicht. Glaube kaum dass sie da die Strategie ändern ausgerechnet das erste mal in einem markt der ohnehin wenig Volumen hat und daher wenig von Segmentierung profitiert.

Gipsel
2019-09-09, 22:17:18
GamersNexus sagt auch nirgendwo was von Chipsätzen oder? Der ganze Kram ist doch sowieso im IO-Die integriert. WRX8 bezeichhnet nur die Workstation-Linie, bei der mehr vom IO-Die nach außen geführt wird als beim TRX4. Bei GamerNexus steht doch sogar noch ein kleines "s" vor TRX4 bzw. WRX8 ("sTRX4" und "sWRX8"). Das sind also höchstwahrscheinlich schlicht die Sockelbezeichnungen. Die werden physisch identisch sein zum bisherigen TR4-Sockel (in den die bisherigen Threadripper passen), der ja auch physisch identisch zum SP3 für die Epycs ist (TR4=SP3r2, da sind halt nur weniger Speicherkanäle und PCIe-Lanes verdrahtet). Das "X" in TRX4 bedeutet vermutlich auch nur PCIE4-Support, daß ein paar kleine Dinge mehr rausgeführt werden (z.B. mehr USB?) oder sowas und aus Symmetriegründen hat man dann den Workstation-Sockel mit 8 verdrahteten Speicherkanälen und mehr PCIe-Lanes (der vermutlich das meiste wie bei 2nd Gen Epycs rausführt) einfach WRX8 genannt.

Lehdro
2019-09-09, 22:50:14
Hä, TRX80 soll nur 4 Speicherkanäle haben? Was ist denn dann der Unterschied zu TRX40?
Vielleicht ist TRX80 einfach nur TRX40 mit 8 Channeln und OC Unterstützung um sich von WRX80 abzugrenzen. Ich habs halt einfach nur schnell reingepostet, da hier noch nichts dazu stand.

Bei gamersnexus steht auch nichts von TRX80.
TRX80 taucht in der selben Quelle auf die GN genutzt hat um das zu verifizieren - in der Zertifizierungstelle für USB (https://www.computerbase.de/2019-08/chipsatz-geruechte-amd-trx40-trx80-wrx80/).

Ich finde die erzwungene Segmentierung über die Plattform bei gleichem Sockel auch Käse, sollen sie halt analog zu TR2000 machen, rein über die CPU. Vielleicht passt ja auch jede CPU in jedes Board, aber je nach Board/CPU Kombination kommt halt was anderes bei raus. So wie damals Intel mit ihrem Kaby Lake auf X299, bei dem halt quasi das halbe Board tot war durch akuten Featuremangel. Hier würden ja "nur" 4 Channel, ein paar PCIe Lanes und ein bissl SATA-Flexibilität wegfallen. Durch den zentralen I/O Die ist man da ja mehr als breit aufgestellt was die Performance angeht, da asymmetrische Lösungen wie bei den TR2000 WXen wegfallen (Computedies ohne seperate Channel)

Setsul
2019-09-09, 23:14:05
Also völlig abwegig ist es nicht. Entweder (L)RDIMM oder übertakten, aber nicht beides.
Segmentierung über CPU macht sich nicht gut, es gibt dafür auch keinen technischen Grund. Wenn AMD jetzt einen 300$ TR anbieten würde könnte man darüber reden, aber es wird wohl eher bei 700$ oder noch höher losgehen und da kann man schon erwarten dass das ganze Board funktioniert ohne dass man nochmal 200-300$ drauflegen muss.

Ob das jetzt Sockel oder Chipsatz ist, ist eigentlich egal. Es kommt alles von der CPU, also könnte jeder Chipsatz alles und physisch wären die Sockel sowieso identisch aber die Segmentierung ist sinnvoll.
8x (L)RDIMM ohne übertakten + bis zu 128 Lanes + bis zu 32x SATA und 4x UDIMM mit übertakten + bis zu 64 Lanes + bis zu 16x SATA führen zu deutlichen anderen Ansprüchen und Layouts der Boards. Anstatt die alle in einen Topf zu werfen unter TR4/X599 sieht man dann an TRX40/TRX80/WRX80 gleich was überhaupt drauf sein kann.
Die meisten Leute werden nicht täglich zwischen 4600 MHz UDIMM und 2933 MHz LRDIMM wechseln oder sich ein Board mit 6-8 x16 Slots kaufen, aber eine CPU die nur 4 davon betreiben kann.

Die einzig interessante Frage ist was ist eigentlich der Unterschied zwischen TRX4 und TRX8?

basix
2019-09-10, 07:09:26
Vielleicht hat AMD noch nicht final entschieden, was am besten passt / was der Markt will. So halten sie sich noch beide Optionen offen.

Zossel
2019-09-10, 07:34:05
Die zusätzlichen RAM-Slots müssen auch auf der Platine verdrahtet werden, das gibt es nicht für lau.

Mangel76
2019-09-10, 08:55:31
Die zusätzlichen RAM-Slots müssen auch auf der Platine verdrahtet werden, das gibt es nicht für lau.

Ich dachte, es sind immer 8 Slots: entweder 4-Channel mit max. je 2 Modulen oder 8-Channel mit max. je einem Modul???

unl34shed
2019-09-10, 09:27:58
Bei der 4x2 configuration werden nur 4 Kanäle von der CPU weg geroutet, die beiden RAM Slots werden dann einfach parallel geschalten.

Lehdro
2019-09-14, 09:15:12
Weitere GN Leaks zu Threadripper 3 (https://www.youtube.com/watch?v=i5SC5ayWyzo):

-sTRX4: 4 Chiplets, max 32 Cores
-SWRX8: 8 Chiplets, max 64 Cores, evtl. weniger

MSABK
2019-09-15, 16:25:53
Angeblich kommt das neue Surface Laptop mit einem AMD Chip, zumindest die 15 Zoll Variante. Das wäre wirklich der Hammer.

Noch gibt es einige offene Fragen rund um das neue Microsoft Surface Laptop 3 15, liegen doch bisher weder genaue Spezifikationen noch erste Bilder vor. Sicher ist aber, aufgrund einer Reihe von entsprechenden Einträgen in nicht-öffentlichen Datenbanken von europäischen Einzelhändlern, die uns vorliegen, dass das neue Surface Laptop 3 15-Zoll-Modell definitiv mit CPUs von AMD ausgerüstet sein wird.


https://winfuture.de/news,111154.html

Lehdro
2019-09-18, 21:21:30
AMD legt nochmal mit einer schnelleren EPYC CPU nach:

https://www.computerbase.de/2019-09/amd-epyc-7h12-supercomputer-hpc/

Bei gleicher Anzahl von 64 Kernen und 128 Threads taktet die Spezial-CPU Epyc 7H12 mit 2,6 GHz in der Basis. Gegenüber dem Epyc 7742 bedeutet dies einen 350 MHz oder rund 16 Prozent höheren Basistakt. Allerdings steigt die TDP von 225 Watt auf 280 Watt und damit um gut 24 Prozent an. Den Angaben von AMD zufolge liegt der maximale Turbotakt mit 3,3 GHz wiederum 100 MHz unter dem Turbotakt des Epyc 7742.

basix
2019-09-19, 08:04:31
AMD legt nochmal mit einer schnelleren EPYC CPU nach:

https://www.computerbase.de/2019-09/amd-epyc-7h12-supercomputer-hpc/

Compute Density steigt. Stromverbrauch sollte sich sogar verringern, wenn man das ganze Datencenter betrachtet, da man für die selbe Leistung 16% weniger CPUs braucht.

dildo4u
2019-09-19, 09:16:55
Geekbench 5 Wert des 3 Gen 32 Core Threadripper 23k.

https://browser.geekbench.com/v5/cpu/170821


https://live.staticflickr.com/65535/48758109591_3a4c43868d_b.jpg (https://flic.kr/p/2hhA4gV)geekf (https://flic.kr/p/2hhA4gV) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

mboeller
2019-09-19, 10:20:08
Geekbench 5 Wert des 3 Gen 32 Core Threadripper 23k.

https://browser.geekbench.com/v5/cpu/170821


https://live.staticflickr.com/65535/48758109591_3a4c43868d_b.jpg (https://flic.kr/p/2hhA4gV)geekf (https://flic.kr/p/2hhA4gV) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr


ernsthaft???

der 16core TR ist schneller als der 32core TR ...

dildo4u
2019-09-19, 10:33:09
Kommt halt drauf an was man bencht ist bei PCGH auch so,Handbrake und Premiere Pro skalieren scheinbar nicht deutlich über 16 Kerne.

https://live.staticflickr.com/65535/48758521422_f1346624da_b.jpg (https://flic.kr/p/2hhCaGs)cpuindex (https://flic.kr/p/2hhCaGs) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/

][immy
2019-09-19, 10:58:35
Kommt halt drauf an was man bencht ist bei PCGH auch so,Handbrake und Premiere Pro skalieren scheinbar nicht deutlich über 16 Kerne.

https://live.staticflickr.com/65535/48758521422_f1346624da_b.jpg (https://flic.kr/p/2hhCaGs)cpuindex (https://flic.kr/p/2hhCaGs) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/
tja, das kommt davon, wenn man zwar Multithreading unterstützt, aber trotzdem noch zu viel im "Hauptthread" hat. Da kann man mit Kernen Aufwarten wie man will, bringt halt irgendwann nichts mehr.
Man sieht ja schön an dem Ergebnis das der bench ab einem Gewissen grad eher auf Frequenz steht als auf breite.

Aber es sind ja nicht nur 16-Kerne sondern 32-Threads die hier parallel verarbeitet werden können. Da kann man dann irgendwo schon verstehen, das irgendwo eine Grenze ist, bei der man nicht mehr einfach so skalieren kann, es sei denn man legt es dann auch dafür aus. Irgendwo ist halt immer ein Punkt erreicht, ab dem der Algorithmus nicht mehr optimal skalieren kann und man muss auf etwas umstellen, was vielleicht erst mal nach "Verschwendung" aussieht, aber letztlich zu besseren Ergebnissen durch die Gewonnene Breite führt.


btw, ich bleib dabei, vergiss Geekbench. Die Ergebnisse davon sind alles andere als zuverlässig um unterschiedliche Architekturen zu vergleichen (höchstens gleiche Prozessoren/Systeme mit unterschiedlichen Frequenzen).

dildo4u
2019-09-19, 15:48:41
3500X könnte im November kommen.


https://www.computerbase.de/2019-09/cpu-amd-ryzen-5-3500x/

Lehdro
2019-09-19, 15:50:06
Beim 2970WX und 2990WX bitte nicht vergessen das nur 2 CCDs direkten Zugriff auf den RAM haben und Windows mit den beiden nochmal extra Probleme hat (noch mehr als schon mit den kleinen TRs). Unter Linux zb sind 2970WX und 2990WX eher da wo sie sein sollten.

Eldoran
2019-09-19, 18:22:41
Bei geekbench unter Windows kommt noch hinzu, das Windows selbst (und NUMA) deutlich bremst.

https://www.servethehome.com/geekbench-4-2p-amd-epyc-7742-sets-world-record/

His response was that the Windows version of Geekbench hits in the Windows memory allocator on high core count (>16 cores) systems and with 128 cores/ 256 threads, we were seeing symptoms of that. He also noted that Geekbench 4 is not managing NUMA itself.

Opprobrium
2019-09-21, 13:04:24
Weil es hier glaub noch nicht thematisiert wurde:

https://www.anandtech.com/show/14895/amd-next-gen-threadripper-and-ryzen-9-3950x-coming-november

Ryzen 3950X kommt wohl erst im November. Threadripper dafür auch :smile:

MSABK
2019-09-23, 18:38:38
Es gibt neue News bzgl. des Surface Laptops und der verbauten Hardware. Angeblich soll es eine mobile 8 Kern Cpu haben. Sowas gibt es ja als APU nicht, im Artikel wird auch darauf hingewiesen, dass die Quelle nicht belastbar ist. An eine geheime neue 7nm APU glaube ich persönlich nicht.

Die Spitze der Hardware- und Preispyramide des neuen Microsoft Surface Laptop 3 mit 15-Zoll-Display bilden laut dem Dokument zwei Modelle, die sogar jeweils einen AMD Ryzen Octacore-Prozessor unter der Haube haben sollen. Die Achtkerner haben jeweils 16 Gigabyte Arbeitsspeicher an Bord und werden je nach CPU-Modell und vermutlich auch SSD-Kapazität mit 1999 und 2399 US-Dollar mindestens das Doppelte der Basis-Modelle kosten.

Bei dem uns vorliegenden Papier ist zwar jeweils von Quad-, Hexa- und Octacore-Prozessoren aus der AMD-Ryzen-Serie als Basis der neuen Produkte die Rede, doch gibt es bei der ganzen Sache zumindest vorläufig einen gewaltigen Haken. AMD hat bisher nämlich noch gar keine mobilen Chips der Ryzen-Serie mit sechs oder gar acht Rechenkernen und jeweils zwölf oder 16 Threads vorgestellt. Außerdem wurde das Dokument so beschnitten, dass wir keine genauen Modellnummern der CPUs kennen.

https://winfuture.de/news,111388.html

MSABK
2019-09-23, 18:46:32
Wäre es realistisch, dass das Xbox Team eine angepasste 7nm 8Kern APU für die Surface Geräte mitentwickelt? Ich meine in der kommenden Xbox ist ja so etwas schon vorhanden.

Armaq
2019-09-23, 18:57:06
Ist doch mit Zen möglich, warum nicht? Nimm mal den IO so wie er ist weg, da geht schon einiges.

Setsul
2019-09-23, 23:30:23
Es muss ja auch nicht unbedingt eine APU sein, also sollte man da nicht zu viel reininterpretieren.

Das XBox-SoC sollte monolithisch sein und der GPU-Teil wäre definitiv viel zu groß für diesen Zweck und GDDR6 für einen Laptop wäre auch merkwürdig. Eine zweite custom-APU mit (LP)DDR und kleinerer GPU nur für Surface Laptops ist noch unwahrscheinlicher als eine geheime 8C APU für alle.

gravitationsfeld
2019-09-24, 01:31:06
In einem Surface wuerde man eher die Standard-Ryzen-Navi-Consumer-APUs sehen. Es lohnt sich nicht da ne Extrawurst zu entwickeln bei den Verkaufszahlen.

robbitop
2019-09-24, 08:59:52
In einem Surface wuerde man eher die Standard-Ryzen-Navi-Consumer-APUs sehen. Es lohnt sich nicht da ne Extrawurst zu entwickeln bei den Verkaufszahlen.
Da es noch keine 8C APU gibt, beziehst du dich damit auf Renoir? Kommende APU in 7 nm mit Zen 2 Kernen.
Die soll leider nur Vega GFX IP bieten laut compilerpatches, die man gefunden hat. :)

HOT
2019-09-24, 09:30:51
8C hat der aber auch nicht :D. Das hatten wir schonmal in diesem Thread. 4c 8t, 11-14 VII CUs, wie es aussieht. Hinzu kommt noch Dali mit 2c 4t und 3 VII CUs.

robbitop
2019-09-24, 10:13:57
Die News spricht doch klar von 8C als Ryzen im Surfacebook. Wenn das wahr ist, sind wir bei 8C.
4C sind etwas dünn für 2019/20, wenn die APU auch das obere Segment abbilden soll.

MSABK
2019-09-24, 10:22:11
Aber bis auf die Surface News ist ja nichts durchgesickert. Wie realistisch ist da jetzt eine neue 7nm APU? Ich denke das wird wenn dann in 7nm kommen.

robbitop
2019-09-24, 10:26:30
Aber bis auf die Surface News ist ja nichts durchgesickert. Wie realistisch ist da jetzt eine neue 7nm APU? Ich denke das wird wenn dann in 7nm kommen.
Naja so weit weg sollte Renoir nicht mehr sein.

MSABK
2019-09-24, 10:34:18
Ich bin gehyped. Der 2.10 kann kommen.:D

Wenn man so überlegt ergeben 4 Kerne in einem 15 Zoll Notebook keinen Sinn. Es sei denn, sie wollen das im niedrigeren Preissegment ansiedeln.

dildo4u
2019-09-24, 10:43:15
4 Kerne machen Sinn wenn sie keine externe GPU verbauen und der Fokus auf der IGP liegt was Sinn macht wenn sie teuren LPDDR4 verbauen.
Der Chip ist ein Play gegen Ice nicht Comet Lake.

SKYNET
2019-09-24, 10:46:37
Aber bis auf die Surface News ist ja nichts durchgesickert. Wie realistisch ist da jetzt eine neue 7nm APU? Ich denke das wird wenn dann in 7nm kommen.

evtl. ist MS auch der grund warum sich der 3950X nun 2 monate nach hinten geschoben hat, die chiplets die sich gut takten lassen, lassen sich meist auch mit deutlich weniger spannung betreiben = perfekt für nen notebook... oder anders gesagt, die geplanten 3950X sind nun 8 kerner im surface, und gehe davon aus, das die ne 16CU NAVI als chiplet haben(dürfte wohl gleich viel fressen wie nen 10CU vega), evtl. sogar mit HBM...

LasterCluster
2019-09-24, 10:56:40
8C hat der aber auch nicht :D. Das hatten wir schonmal in diesem Thread. 4c 8t, 11-14 VII CUs, wie es aussieht. Hinzu kommt noch Dali mit 2c 4t und 3 VII CUs.

Für Vega in Renoir gab es gute Belege, über die Kernanzahl wissen wir doch noch nichts.

dildo4u
2019-09-24, 11:04:33
Könnte mit der Grund sein warum Surface mit AMD kommt.

https://www.computerbase.de/2019-09/lieferengpass-intel-14-nm-cpu/

Es gibt nur ein Modell mit Ice Lake auf Lager das hat aber die alte GPU.(G1)

https://geizhals.de/hp-14-dq1002ng-natural-silver-8ew41ea-abd-a2140260.html?v=l&hloc=at&hloc=de

Locuza
2019-09-24, 11:17:56
G1 ist keine alte GPU, sondern einfach nur abgespeckt.
G1 = 32 Gen11 EUs
G4 = 48 Gen11 EUs
G7 = 64 Gen11 EUs und damit der Vollausbau der GT2 Gen11 iGPU

Aktuelle GT2-Lösungen auf Basis von Gen9 haben nur 24 EUs, bei Coffee Lake mit bis zu 1200 Mhz, die G1-Lösungen gehen nur bis 900 Mhz, aber solange das Power-Budget nicht limitiert, sollte selbst eine G1-Lösung nicht langsamer sein, als aktuelle GT2 Gen9 iGPUs.

MSABK
2019-09-24, 11:26:10
Könnte mit der Grund sein warum Surface mit AMD kommt.

https://www.computerbase.de/2019-09/lieferengpass-intel-14-nm-cpu/

Es gibt nur ein Modell mit Ice Lake auf Lager das hat aber die alte GPU.(G1)

https://geizhals.de/hp-14-dq1002ng-natural-silver-8ew41ea-abd-a2140260.html?v=l&hloc=at&hloc=de

Das wäre ja ein richtiger Paukenschlag wenn da jetzt AMD mit einer 7nm APU kommt.

Wie ist das eigentlich, sitzt das Xbox Team auch bei der Entwicklung der Chips dabei oder geben diese nur die Vorgaben?

HOT
2019-09-24, 12:26:06
Kann ja auch ein Matisse mit N12 sein oder sowas. Das muss keine APU sein.

mironicus
2019-09-24, 13:02:52
Da AMD schon seit Jahren maßgeschneiderte CPUs und GPUs im Auftrag herstellt (Microsoft, Sony, Apple...) würde mich eine exklusive CPU für ein Laptop von Microsoft und weitere Hardware auch nicht wundern. Auf jeden Fall wird das vor allem Intel ärgern. Vielleicht wird es demnächst auch Zen 2/3 bei Apple geben und die Intel-CPUs ersetzen.

][immy
2019-09-24, 13:42:33
Da AMD schon seit Jahren maßgeschneiderte CPUs und GPUs im Auftrag herstellt (Microsoft, Sony, Apple...) würde mich eine exklusive CPU für ein Laptop von Microsoft und weitere Hardware auch nicht wundern. Auf jeden Fall wird das vor allem Intel ärgern. Vielleicht wird es demnächst auch Zen 2/3 bei Apple geben und die Intel-CPUs ersetzen.
Apple wird das nicht tun. Die supporten je Linie eigentlich nur eine CPU und machen sich damit den Support ihres eigenen Betriebssystems deutlich einfacher. Die werden nicht so schnell zu AMD über wechseln.

Opprobrium
2019-09-24, 14:17:28
[immy;12103300']Apple wird das nicht tun. Die supporten je Linie eigentlich nur eine CPU und machen sich damit den Support ihres eigenen Betriebssystems deutlich einfacher. Die werden nicht so schnell zu AMD über wechseln.
Sehe ich ähnlich. Eher werden die komplett auf ihre selbstentwickelten ARM CPUs umsteigen.

amdfanuwe
2019-09-24, 15:06:24
Mit einem 8 Core Semicustom Chip, auf Notebook optimiert, stände MS praktisch konkurrenzlos da.
Die Konkurrenz kann sich nur mit teurer Intel Stangenware eindecken oder auf 4 Core Renoir warten.
Der unterschied zum XBox Chip ist eigentlich nicht so groß: Weniger GPU, etwas geänderter I/O, Effizienterer Betriebspunkt. Das ganze in einem ~200mm² Chip in 7nm (Navi 10 ist ~255mm² groß).
Mit der Treiberunterstützung wird MS auch keine Probleme haben unter Windows :-)
Bleibt wohl spannend bis zuletzt, insbesonders die GPU Leistung und Speicheranbindung.

Setsul
2019-09-24, 16:51:35
Und wieso sollte AMD so einen Chip nur an MS verkaufen?
Daran wäre nichts wirklich custom wie bei den Konsolen-SoCs, einfach eine ganz normale Mobile-APU mit 8 Kernen.

Es ist ja nicht so dass niemand sonst so einen Chip braucht oder will. Oder das MS nichts kaufen würde wenn sie keine Exklusivität haben.

CrazyIvan
2019-09-24, 16:52:23
Und worin genau soll für Apple das Problem bestehen, von einer x64 CPU auf eine andere zu wechseln? Einfacher geht's nun wirklich nicht. Oder redest Du von möglichen Intel Optimierungen in Software? Glaube, das ist Apple ziemlich Wurst, solange die neue Hardware in der Breite schneller ist als die 1 bis x Jahre alten Vorgängermodelle.
Also nicht, dass ich die Chancen sonderlich hoch sehe - aber an technischen Hürden würde das mit Sicherheit nicht scheitern.

[immy;12103300']Apple wird das nicht tun. Die supporten je Linie eigentlich nur eine CPU und machen sich damit den Support ihres eigenen Betriebssystems deutlich einfacher. Die werden nicht so schnell zu AMD über wechseln.

MSABK
2019-09-24, 17:02:37
Und worin genau soll für Apple das Problem bestehen, von einer x64 CPU auf eine andere zu wechseln? Einfacher geht's nun wirklich nicht. Oder redest Du von möglichen Intel Optimierungen in Software? Glaube, das ist Apple ziemlich Wurst, solange die neue Hardware in der Breite schneller ist als die 1 bis x Jahre alten Vorgängermodelle.
Also nicht, dass ich die Chancen sonderlich hoch sehe - aber an technischen Hürden würde das mit Sicherheit nicht scheitern.

Ich kenne mich 0 aus. Ich hatte aber mal auf reddit gelesen, dass Apple eine besondere Refrehsrate Technik der Intel iGPU verwendet. Vlt. weiß hier jemand mehr, oder ich habe das total falsch aufgeschnappt.:)

AMD hat ja schon einmal außerhalb von Sony und MS einen Custom Chip (https://www.golem.de/news/zhongshan-subor-amd-baut-soc-mit-ps4-pro-leistung-fuer-chinesische-konsole-1808-135830.html) entwickelt.

Auf der einen Seite denke ich, die Gerüchte sind alle eine Ente und es kommen nur die bekannten 4 Kerne Chips. Auf der andere Seite denke ich, Microsoft hat wirklich geheim in ihrem Labor mit AMD etwas neues am Start und sie möchten die Surface Geräte exklusiver machen.

SKYNET
2019-09-24, 17:02:57
Und wieso sollte AMD so einen Chip nur an MS verkaufen?
Daran wäre nichts wirklich custom wie bei den Konsolen-SoCs, einfach eine ganz normale Mobile-APU mit 8 Kernen.

Es ist ja nicht so dass niemand sonst so einen Chip braucht oder will. Oder das MS nichts kaufen würde wenn sie keine Exklusivität haben.

weil solche deals meistens exklusivdeals sind.

Opprobrium
2019-09-24, 17:13:01
Naja, theoretisch kann jeder bei AMD seine Semi-Custom-Brötchen backen (lassen).

Complicated
2019-09-24, 17:16:56
Bedenkt man es richtig, so hat AMD die Möglichkeit einfach Custom IO Dies in 14nm anzubieten, die schnell entwickelt sind, und dort die Standard Chiplets anzuflanschen. Besonders bei 7nm könnte ein solcher SemiCustom Chip deutlich billiger sein, da ohne Designkosten. Wenn AMD diese Möglichkeit geschaffen hat, dann wird die Surface Ankündigung für mehr Furore sorgen als nur mit dieser Produktlinie.

Opprobrium
2019-09-24, 17:23:03
Ja, die Möglichkeiten von Semi-Custom sind durch den Chipletansatz enorm gestiegen. Nur können wohl nicht viele Kunden eine entsprechende Marktmacht an den Tag legen um da groß Risiken einzugehen. MS dürfte jedoch zu diesem erlauchten Kreis gehören ;)

][immy
2019-09-24, 17:31:30
Und worin genau soll für Apple das Problem bestehen, von einer x64 CPU auf eine andere zu wechseln? Einfacher geht's nun wirklich nicht. Oder redest Du von möglichen Intel Optimierungen in Software? Glaube, das ist Apple ziemlich Wurst, solange die neue Hardware in der Breite schneller ist als die 1 bis x Jahre alten Vorgängermodelle.
Also nicht, dass ich die Chancen sonderlich hoch sehe - aber an technischen Hürden würde das mit Sicherheit nicht scheitern.
Andere Architektur, andere Stärken. Dazu kommt ein komplett anderes Chipset und die entsprechenden Treiber dafür, etc etc.
Ist für Apple, die ein Ökosystem mit sehr wenigen unterschiedlichen Architekturen haben, nicht gut. Zumal das System genau auf diese Hardware-Architektur optimiert wurde etc etc. Klar könnten sie auch theoretisch auf AMD umsteigen, aber dann hätten sie gleich mit deutlich mehr Treibern mit denen sie kämpfen müssten.

Zossel
2019-09-24, 17:53:24
[immy;12103509']Andere Architektur, andere Stärken. Dazu kommt ein komplett anderes Chipset und die entsprechenden Treiber dafür, etc etc.
Ist für Apple, die ein Ökosystem mit sehr wenigen unterschiedlichen Architekturen haben, nicht gut. Zumal das System genau auf diese Hardware-Architektur optimiert wurde etc etc. Klar könnten sie auch theoretisch auf AMD umsteigen, aber dann hätten sie gleich mit deutlich mehr Treibern mit denen sie kämpfen müssten.

Apple ist also unfähiger als irgentwelche Linuxfrickler?

MSABK
2019-09-24, 17:56:22
Apple ist also unfähiger als irgentwelche Linuxfrickler?

Wahrscheinlich geht es eher darum so viel Geld wie möglich zu sparen, das kann man mit einer unterstützten Architektur besser.

robbitop
2019-09-24, 18:40:16
Kann ja auch ein Matisse mit N12 sein oder sowas. Das muss keine APU sein.
Wäre Matisse + GPU nicht zu durstig für ein Notebook

Unicous
2019-09-24, 18:46:06
Die Kerne an sich nicht, mMn, der I/O Die und die diskrete GPU schon.

Es stellt sich, die Frage inwieweit man den I/O Die abspecken kann, sodass er effizienter läuft, aber bei der GPU ist das eben nicht so einfach.

Opprobrium
2019-09-24, 18:50:32
Apple ist also unfähiger als irgentwelche Linuxfrickler?

Apple setzt auch auf Thunderbolt. Und deren Fokus liegt derzeit wirklich zuallerletzt auf Leistungsfähiger PC Hardware. Mal davon abgesehen, dass die jetzige APU Generation die erste seit...immer(?)...ist, die es im mobilen Bereich schafft als Gesampaket im Vergleich mit Intel zumindest ebenbürtig zu sein.

Unicous
2019-09-24, 18:54:36
Wobei man sagen muss, dass Thunderbolt mit USB 4 nicht mehr das große Argument sein wird.

Aber bis dahin hat Apple schon seine ARM-Prozessoren hochgepimpt für den Desktop-Einsatz.:freak:

Opprobrium
2019-09-24, 18:59:44
Wobei man sagen muss, dass Thunderbolt mit USB 4 nicht mehr das große Argument sein wird.

Jupp. War auch nur als eines von vielen Argumenten gemeint die derzeit noch gegen AMD sprechen. Und Apple hat auch ziemlich lange an PowerPC festgehalten.

Wobei natürlich der Wechsel von Intel zu AMD weniger drastisch wäre. Aber ich denke wie gesagt ebenfalls, dass die ihre eigenen ARM Chips durchsetzen (versuchen) werden.

CrazyIvan
2019-09-25, 07:54:12
Thunderbolt und Energieeffizienz sind im Kurzfristbereich sicher ein Argument. Treiber eher weniger - Apple setzt derzeit AMD und Intel als GPUs ein und früher auch gern nVidia - da schien das nie ein größeres Problem zu sein.
Ist halt die Frage, wie bald und wie konsequent man zu ARM migrieren möchte.

Setsul
2019-09-25, 11:45:21
weil solche deals meistens exklusivdeals sind.
Es wäre ein Exklusivdeal weil es ein Exklusivdeal ist?

Es ist eine Sache custom SoCs für Konsolen mit hohen Stückzahlen zu bauen und exklusiv an den Kunden zu verkaufen der diese Modifikationen bestellt hat, aber es ist eine ganz andere Sache eine ganz normale Mobile-APU zu bauen, ohne Besonderheiten, und die dann nur an einen einzigen Kunden zu verkaufen obwohl man für den Rest des Markts nichts hat.

Console-SoCs sind außerhalb von Konsolen nicht wirklich gefragt, da verliert AMD nicht wirklich etwas. Aber mit der einzigen 8C 7nm APU die sie haben einen Exklusivdeal zu machen wäre so wie die RX 480 nur an Dell zu verkaufen. Es ergibt einfach keinen Sinn. Exklusivdeals gibts nur dann wenn man an den Kunden sonst nichts verkaufen würde oder die Bezahlung gut ist (ein muss wenn custom design) und der Rest des Markts trotzdem abgedeckt ist.

Es gibt nur 3 logische Möglichkeiten, vorausgesetzt dass der Surface Laptop 3 überhaupt eine 8C APU bekommt:
1. Es ist nicht exklusiv, nur das erste/einzige Leak.
2. Es gibt mehrere APUs und die für MS ist tatsächlich custom. Aber was braucht man schon groß an Besonderheiten? Das ist ein Laptop wie jeder andere.
3. Die Exklusivität ist nur temporär. Der 3950X kommt schließlich auch später also wäre es nicht auszuschließen dass AMD nicht genügend APUs für alle rechtzeitig zum Weihnachtsgeschäft liefern kann. Microsoft zahlt extra dafür dass sie die ersten/einzigen sind mit diesen APUs für ein paar Monate.

MSABK
2019-09-25, 11:50:30
Mein ihr AMD könnte in Anbetracht der Intel Probleme bei den 14nm CPUs intern die Pläne geändert haben und 7nm APUs schneller auf den Markt bringen? Das wäre eigentlich eine einmalige Gelegenheit.

MiamiNice
2019-09-25, 11:52:31
Für eine derartige Weitsicht ist AMD eher nicht bekannt. Eher dafür Möglich und Gelegenheiten ungenutzt verstreichen zu lassen.

dildo4u
2019-09-25, 12:00:01
Mein ihr AMD könnte in Anbetracht der Intel Probleme bei den 14nm CPUs intern die Pläne geändert haben und 7nm APUs schneller auf den Markt bringen? Das wäre eigentlich eine einmalige Gelegenheit.
Es würde Sinn machen da sie Vega als IGP nutzen,ich vermute mal RDNA sollte eigentlich immer in der ersten 7nm APU sein.
Aber da Intels neuer IGP nur knapp über Vega liegt sollte Vega in 7nm + besseren Ram das mehr als ausgleichen.

MSABK
2019-09-25, 12:04:56
Für eine derartige Weitsicht ist AMD eher nicht bekannt. Eher dafür Möglich und Gelegenheiten ungenutzt verstreichen zu lassen.

Ich hoffe sie nehmen sich nicht Intels Weitsicht bzgl ihrer 10nm Fertigung als Vorbild bei AMD.:biggrin:

Opprobrium
2019-09-25, 12:07:22
Mein ihr AMD könnte in Anbetracht der Intel Probleme bei den 14nm CPUs intern die Pläne geändert haben und 7nm APUs schneller auf den Markt bringen? Das wäre eigentlich eine einmalige Gelegenheit.

RR und Picasso wurden doch auch jeweils schon zum Ende des Jahres angekündigt/vorgestellt. Nur hat es dann immer ca. bis zum Release der nächsten Zrn Architektur gedauert bis diese auch wirklich verbaut wurden. Vielleicht klappt das ja diesmal wirklich besser. Die aktuellen Picasso Thinkpads von Lenovo deuten zumindest darauf hin, dass diese AMD nicht mehr ganz so stiefmütterlich behandeln, und das der Vorsprung von Intel auch im mobilen Bereich seht geschrumpft ist.

Im Gegensatz zu miamiNice finde ich die langfristige Strategie von AMD recht überzeugend, aber in der Tat wäre jetzt und 2020 der Zeitpunkt gekommen auch im mobilen Sektor ernst zu machen. Mit USB4, 7nm, der Zen2 Architektur, Navi etc. könnten die Voraussetzungen kaum günstiger sein.

amdfanuwe
2019-09-25, 15:07:39
1. Es ist nicht exklusiv, nur das erste/einzige Leak.
2. Es gibt mehrere APUs und die für MS ist tatsächlich custom. Aber was braucht man schon groß an Besonderheiten? Das ist ein Laptop wie jeder andere.
3. Die Exklusivität ist nur temporär.
Ich tippe auf 2.
Mit einem anderem Speicherinterface für mehr Bandbreite und etwas größerer GPU wäre es eben etwas besonderes und kein Laptop wie jeder andere. In Zeiten von aufgelötetem RAM juckt es doch kaum noch, wenn der Speicher nicht erweiterbar ist.

Da könnte eine Standard 8 Core APU mit DDR4 dual Channel Speicherinterface nicht mithalten.
Die Frage ist auch, ob es sich für AMD überhaupt schon rechnet eine 'normale' 8C APU zu bringen. Der Großteil des Marktes ist mit 4C noch gut bedient.

robbitop
2019-09-25, 15:25:28
Die Frage ist, ob sich das für MS für einen einzigen Laptop lohnen würde. Immerhin müssten sie Entwicklungskosten und Masken zahlen. Selbst Apple gönnt sich bis dato in den Macbooks keine custom CPUs. Auch Dell und HP nicht. Und ich denke, die verkaufen alle etwas mehr Laptops als MS.
Diese Kosten müssen ja auch abgeschrieben werden. Wenn das über den Verkaufspreis passiert und die Stückzahl nicht besonders hoch ist, schießt der natürlich nach oben.
Und so ein SoC hat ja nur eine bestimmte Lifecycledauer. Nach 1-2 Jahren ist er nicht mehr modern. Entsprechend muss man das über eine kurze Verkaufzeit abschreiben.

Schwer zu glauben, dass sie das lohnen soll. Auch wenn der USP gegeben ist.

Opprobrium
2019-09-25, 15:26:42
Die Frage ist auch, ob es sich für AMD überhaupt schon rechnet eine 'normale' 8C APU zu bringen. Der Großteil des Marktes ist mit 4C noch gut bedient.

Es lohnt sich doch eigentlich immer wenn man was tolles, großes und schnelles bringt. Weil das Aufmerksamkeit und Berichterstattung mit sich bringt, und sich dadurch auch die vernünftigen Produkte besser verkaufen

SKYNET
2019-09-25, 16:19:02
Die Frage ist, ob sich das für MS für einen einzigen Laptop lohnen würde. Immerhin müssten sie Entwicklungskosten und Masken zahlen. Selbst Apple gönnt sich bis dato in den Macbooks keine custom CPUs. Auch Dell und HP nicht. Und ich denke, die verkaufen alle etwas mehr Laptops als MS.
Diese Kosten müssen ja auch abgeschrieben werden. Wenn das über den Verkaufspreis passiert und die Stückzahl nicht besonders hoch ist, schießt der natürlich nach oben.
Und so ein SoC hat ja nur eine bestimmte Lifecycledauer. Nach 1-2 Jahren ist er nicht mehr modern. Entsprechend muss man das über eine kurze Verkaufzeit abschreiben.

Schwer zu glauben, dass sie das lohnen soll. Auch wenn der USP gegeben ist.

naja, bei AMD ist custom inzwischen ja baukastensystem...
microsoft: wir wollen 8 kerne, 16 threads und ne halbwegs potente grafik, das ganze möglichst sparsam.
AMD: gut, wir basteln nen package, packen nen zen2 chiplet drauf, ne mini navi und binden das ganze mit LPDRR4X 4266MHz an... --> dürfte das wohl weltweit schnellste nicht gaming-notebook werden*


*wenn der partner -in dem fall MS- es nicht mit der kühlung und TDP versaut.

Mangel76
2019-09-25, 16:31:48
Wäre es nicht möglich, dass es eine gestaffelte Verfügbarkeit gibt? Die 4-Kerner mit bekannter APU sofort nach Veröffentlichung. Die teureren Versionen mit 6 und 8 Kernen kommen dann erst etwas später, wenn die neuen APUs vorgestellt wurden. Ich kann mir irgendwie nicht vorstellen, dass Renoir nur mit 4 Zen2-Kernen in 7nm kommt, wenn dort wirklich schon Zen 2 verbaut wird. Damit wäre dann wohl am 2.10. (?) auch die Ankündigung von AMD ;D

Setsul
2019-09-25, 16:35:16
@amdfanuwe:
Was für ein anderes Speicherinterface? 12 und 16 GB mit GDDR6/HBM2 zu erreichen ist etwas komisch und 8 Chips (256 bit) / 2 Stacks würden weit über 400 GB/s Bandbreite bedeuten.

Surface Laptops waren bis jetzt 15W TDP, ich weiß nicht was du erwartest dass Microsoft bei der Dicke einbaut. 15W ist nicht gerade die Zielgruppe bei der man die größte GPU im ganzen Mobile-Sortiment erwartet.

Wenn es in 15W reinpasst gibts für AMD keinen Grund das nicht an alle zu verkaufen. Wieso sich auf MS beschränken?
Wenn sich für AMD keine 8C APU lohnt, die die Entwicklungskosten über den ganzen Markt verteilen können, wieso sollte es sich für MS lohnen eine zu bestellen? So groß ist die Marge nicht.

Brillus
2019-09-25, 17:00:09
Es wäre ein Exklusivdeal weil es ein Exklusivdeal ist?

Es ist eine Sache custom SoCs für Konsolen mit hohen Stückzahlen zu bauen und exklusiv an den Kunden zu verkaufen der diese Modifikationen bestellt hat, aber es ist eine ganz andere Sache eine ganz normale Mobile-APU zu bauen, ohne Besonderheiten, und die dann nur an einen einzigen Kunden zu verkaufen obwohl man für den Rest des Markts nichts hat.

Console-SoCs sind außerhalb von Konsolen nicht wirklich gefragt, da verliert AMD nicht wirklich etwas. Aber mit der einzigen 8C 7nm APU die sie haben einen Exklusivdeal zu machen wäre so wie die RX 480 nur an Dell zu verkaufen. Es ergibt einfach keinen Sinn. Exklusivdeals gibts nur dann wenn man an den Kunden sonst nichts verkaufen würde oder die Bezahlung gut ist (ein muss wenn custom design) und der Rest des Markts trotzdem abgedeckt ist.

Es gibt nur 3 logische Möglichkeiten, vorausgesetzt dass der Surface Laptop 3 überhaupt eine 8C APU bekommt:
1. Es ist nicht exklusiv, nur das erste/einzige Leak.
2. Es gibt mehrere APUs und die für MS ist tatsächlich custom. Aber was braucht man schon groß an Besonderheiten? Das ist ein Laptop wie jeder andere.
3. Die Exklusivität ist nur temporär. Der 3950X kommt schließlich auch später also wäre es nicht auszuschließen dass AMD nicht genügend APUs für alle rechtzeitig zum Weihnachtsgeschäft liefern kann. Microsoft zahlt extra dafür dass sie die ersten/einzigen sind mit diesen APUs für ein paar Monate.

Massiver Denkfehler, Semi-Custom = Kunde bezahlt die Entwicklung und bekommt es exclusive. Die Frage ist also würde es sich für MS lohnen.

SKYNET
2019-09-25, 17:02:04
Massiver Denkfehler, Semi-Custom = Kunde bezahlt die Entwicklung und bekommt es exclusive. Die Frage ist also würde es sich für MS lohnen.

für MS wäre das ding eher prestigeträchtig "erste 7nm CPU und GPU in einem notebook" :smile:

amdfanuwe
2019-09-25, 17:16:33
Wenn sich für AMD keine 8C APU lohnt, die die Entwicklungskosten über den ganzen Markt verteilen können, wieso sollte es sich für MS lohnen eine zu bestellen? So groß ist die Marge nicht.
Für AMD wäre die Marge gering, für MS hängt es an der Menge.
Was kostet so ein ~200mm² 7nm Chip in der Produktion? 100$? Dazu Verwertung von Teildefekten als 6 Kerner, und Modelle mit geringerer GPU Leistung.
Und wieso 15W? Die kleinen 13 Zöller werden doch mit Intel bestückt.

Vielleicht kommt da auch eine Art Mobile Workstation mit Unterstützung für MS Hololens bzw. Windows Mixed Reality.
Ist ja nicht so, dass MS nur einen 'normalen' 8C Laptop im Sinn haben könnte.

Sei es drum, sind nur Spekulationen. Ich halte es nicht für ausgeschlossen, dass es eine MS Semicustom Chip sein könnte.

Renoir halte ich für einen effizienten Replacement für Raven Ridge/Picasso, die ja auch im Embedded Bereich verbreitet sind.

Eine monolithische 8C APU könnte ich mir in 7nm+ gut vorstellen, wenn im Desktop die Preise runter gehen. Dürfte billiger sein als ein MCM mit einem Chiplet.

robbitop
2019-09-25, 17:48:32
naja, bei AMD ist custom inzwischen ja baukastensystem...
microsoft: wir wollen 8 kerne, 16 threads und ne halbwegs potente grafik, das ganze möglichst sparsam.
AMD: gut, wir basteln nen package, packen nen zen2 chiplet drauf, ne mini navi und binden das ganze mit LPDRR4X 4266MHz an... --> dürfte das wohl weltweit schnellste nicht gaming-notebook werden*


*wenn der partner -in dem fall MS- es nicht mit der kühlung und TDP versaut.
Ja, ne? Ente, Rotkohl, Klöße - schnell gemacht...

Auch wenn man die IP Bausteine hat, kostet die Implementierung und die Begleitung eines Chips Ressource. Und ein Maskensatz in 7 nm ist auch nicht billig.

MSABK
2019-09-25, 17:49:31
Evtl könnte so ein Chip auch im Surface Studio eingesetzt werden. Da ist es aber fraglich ob dann die Nvidia Grafikkarten bleiben.

Setsul
2019-09-26, 01:48:13
@Brillus:
Nochmal alles lesen bitte. Was wäre überhaupt semi-custom an der APU?
Wieso legt AMD nicht eine APU auf die sie an alle verkaufen? Egal wer die Entwicklung bezahlt, das Geld muss irgendwoher kommen. Welchen Marktanteil hat Microsoft bei Laptops die diese APU verwenden könnten/würden? 10%? Damit sichs für MS lohnt aber nicht für AMD müsste MS 10 mal so hohen Margen haben wie AMD und das bezweifle ich stark. Intel will für ähnliches gerne mal 500$, da bleibt schon einiges übrig, selbst wenn AMD Intel deutlich unterbietet.

Also bestenfalls lohnt sich eine APU für AMD und für MS, aber nicht für MS alleine. Wenn AMD die Wahl hat auf eigene Kosten zu entwickeln und 10 mal soviele APUs zu verkaufen und damit mehr Gewinn zu machen oder auf Kosten von MS nur für MS zu produzieren dann werden sie sich nicht rein aus Gütigkeit für MS entscheiden.

@amdfanuwe:
Aber bei MS wäre die Menge geringer.
Herstellungskosten sind doch egal, bloß weil MS die Entwicklung bezahlt gibt AMD nicht die gesamte Marge auf.
Na 65W werdens wohl kaum sein. Ich denke wir bewegen uns immernoch im Bereich der 15-35W APUs, völliger Standard. Da kann MS nicht einfach mit den Fingern schnippen und eine xx% schnellere GPU verlangen bei gleicher TDP. Ich sehe da einfach kein semi-custom.

Piefkee
2019-09-26, 01:58:52
Warum denkt ihr den alle das es eine exclusiver Chip ist? Macht doch null Sinn?

a) es ist 4C picasso und der leak ist falsch
B) es ist wirklich bis zu 8C dann ist es renoir

Bezüglich renoir...gibt doch nicht eine Quelle die sagt es sind nur 4 Kerne ?!

amdfanuwe
2019-09-26, 02:23:08
Wieso legt AMD nicht eine APU auf die sie an alle verkaufen?
Tun sie doch. Aktuell kannste 4C Picasso bekommen und wenns mehr Kerne sein sollen Matisse oder ein altes ZEN1 Derivat.
Ansonsten warteste halt oder bestellst ein Custom Design.

reaperrr
2019-09-26, 02:48:32
Warum denkt ihr den alle das es eine exclusiver Chip ist? Macht doch null Sinn?

a) es ist 4C picasso und der leak ist falsch

Sehe ich auch so.


B) es ist wirklich bis zu 8C dann ist es renoir

Oder wirklich ein auf Effizienz getrimmter Matisse + diskrete Grafik, aber auf jeden Fall keine exklusive Custom-Lösung.


Bezüglich renoir...gibt doch nicht eine Quelle die sagt es sind nur 4 Kerne ?!
Eine alte geleakte Roadmap. "Grey Hawk" sollte der Enterprise-Name von Renoir sein:
Link zum Google cache (https://www.google.com/search?q=amd+roadmap+renoir&tbm=isch&source=univ&client=firefox-b-d&sa=X&ved=2ahUKEwjDi-HrnO3kAhWBDOwKHdiTDVYQsAR6BAgGEAE&biw=1445&bih=645#imgrc=QZG48Z_lWU4-yM:)

Allerdings ist die Roadmap dermaßen alt, dass dort auch noch Starship aka Rome mit 48c/96t gelistet ist, also kann sich natürlich auch die Kernzahl von Renoir noch geändert haben.

Setsul
2019-09-26, 02:55:10
Tun sie doch. Aktuell kannste 4C Picasso bekommen und wenns mehr Kerne sein sollen Matisse oder ein altes ZEN1 Derivat.
Ansonsten warteste halt oder bestellst ein Custom Design.
Nach der Logik kann man auch Kaveri kaufen.
Matisse ist keine APU.

Wenn AMD nur eine einzige 8C APU hat, dann müsste es schon verdammt gute Gründe geben die nur an Microsoft zu verkaufen.
Und nein, ich glaube nicht dass der Grund ist dass Microsoft im Geld schwimmt und mit einem einzigen Laptop mehr verdient als AMD am gesamten 6/8C APU Markt verdienen würde.

HOT
2019-09-26, 05:52:55
Vielleicht ist das gar nicht zen2 sondern ein 12nm fenghuang.

Piefkee
2019-09-26, 11:55:52
Bezüglich kommende AMD APUs. Es macht aus meiner Sicht keinen Sinn nur maximal 4 Kerne zu bringen wenn sie den selben Core wie Zen 2 nutzen. Da auch 7nm+ EUV nächstes Jahr wahrscheinlich nicht viel am CCX ändert.

Daher denke ich Renoir wird mehr als 4 kerne bieten und das Dali der Picasso 4 Kern Nachfolger wird der weiterhin bei GF gefertigt wird. Trotzdem glaube ich nicht das wir etwas anderes als Picasso im Microsoft Surface sehen. Die APU 7nm werden erst zur CES kommen...

Setsul
2019-09-26, 14:18:39
Ja, AMD will sicher den 500$ 6/8 Kern Intel-"APUs" Konkurrenz machen mit besserer GPU als Bonus.
Die Frage ist eigentlich nur wann. Nachdem Picasso erst dieses Jahr kam wäre es logischer wenn Renoir nächstes Jahr kommt, nicht schon ein paar Monate nach Picasso.

Ich glaube immernoch dass die einzige realistische Möglichkeit abgesehen von Picasso ein semi-exklusiver Renoir ist, damit Microsoft schon im November/Dezember verkaufen kann statt erst Januar 2020 oder noch später.

LasterCluster
2019-09-26, 15:25:11
Vielleicht laufen Picasso und Renoir mit 8c einfach ne Weile prallel. Picasso ist eher was für den Markt unter 1000€ und Renoir kommt erst mal nur in die Premiumliga

Complicated
2019-09-26, 16:12:47
Oder AMD macht mit der APU "den Tonga" wie bei Apple.
https://www.google.com/amp/s/www.golem.de/news/radeon-r9-380x-amd-veroeffentlicht-endlich-einst-apple-exklusive-grafikkarte-1511-117531.amp.html

In jedem Fall würde eine Zen2 APU keine zusätzlichen 7nm Masken benötigen. Hier würde ein 14nm IO mit chiplets die es schon auf Lager gibt verbunden. Das Packaging und der 14 nm IO Die wären die einzigen Kostentreiber...was deutlich günstiger sein kann als eine Konsolen APU. Und wenn nur 1 Jahr Marktvorsprung vereinbart wird oder 6 Monate...Apple hatte es mit nicht viel größerem Marktanteil für lohnend gehalten.

Piefkee
2019-09-26, 18:51:48
Oder AMD macht mit der APU "den Tonga" wie bei Apple.
https://www.google.com/amp/s/www.golem.de/news/radeon-r9-380x-amd-veroeffentlicht-endlich-einst-apple-exklusive-grafikkarte-1511-117531.amp.html

In jedem Fall würde eine Zen2 APU keine zusätzlichen 7nm Masken benötigen. Hier würde ein 14nm IO mit chiplets die es schon auf Lager gibt verbunden. Das Packaging und der 14 nm IO Die wären die einzigen Kostentreiber...was deutlich günstiger sein kann als eine Konsolen APU. Und wenn nur 1 Jahr Marktvorsprung vereinbart wird oder 6 Monate...Apple hatte es mit nicht viel größerem Marktanteil für lohnend gehalten.

Naja der selbe IO wirds auf jeden fall nicht werden. 11Watt IO die in einer APU? :D

JVC
2019-09-26, 20:07:11
...Und wenn nur 1 Jahr Marktvorsprung vereinbart wird oder 6 Monate...Apple hatte es mit nicht viel größerem Marktanteil für lohnend gehalten.
Gut gesagt :smile:

M.f.G. JVC

KarlKastor
2019-09-26, 20:07:43
Oder AMD macht mit der APU "den Tonga" wie bei Apple.
https://www.google.com/amp/s/www.golem.de/news/radeon-r9-380x-amd-veroeffentlicht-endlich-einst-apple-exklusive-grafikkarte-1511-117531.amp.html

In jedem Fall würde eine Zen2 APU keine zusätzlichen 7nm Masken benötigen. Hier würde ein 14nm IO mit chiplets die es schon auf Lager gibt verbunden. Das Packaging und der 14 nm IO Die wären die einzigen Kostentreiber...was deutlich günstiger sein kann als eine Konsolen APU. Und wenn nur 1 Jahr Marktvorsprung vereinbart wird oder 6 Monate...Apple hatte es mit nicht viel größerem Marktanteil für lohnend gehalten.

Ist das überhaupt realistisch für ne mobile CPU?
Inter Die Kommunikation kostet unnötig Energie und zwei Dies sind auch nicht zuträglich für ein kleines Package.
Eine monolithische APU hat nur Vorteile und wird nicht groß. Ein Chiplet mit 8 Kerne ist klein und AMD könnte den L3 Cache noch halbieren.

MSABK
2019-09-26, 21:45:40
Am Ende ist das im Surface nur eine Embedded CPU samt diskreter GPU wie schon spekuliert wird.

(del)
2019-09-27, 21:58:42
Ich zitiere mich mal selbst vom 03.07.2019:
Irgendwie mache ich mir doch Sorgen das die neuen Threadripper eventuell doch nicht auf den aktuellen TR Boards läuft. Den X399 gibt es ja schon seit Zen1.

Computerbase:AMD-Ryzen-Threadripper 3000 x399-chipsatz nicht abwaertskompatibel (https://www.computerbase.de/2019-09/amd-ryzen-threadripper-3000-x399-chipsatz-nicht-abwaertskompatibel/)

Ich hab es doch die ganze Zeit befürchtet.
Wenn das wirklich stimmen sollte bin ich echt richtig sauer.
Habe einen Haufen Geld für das MSI MEG Creation X399 bezahlt da ich das explizit für den 2990WX gekauft hatte weil ich bedenken hatte das das Asus ROG Zenith Extreme mit der CPU+PBO nicht laufen würde.

Mich verärgert das so sehr das ich am überlegen bin die zwei X399 Boards einen 1950X und den 2990WX zu verkaufen um auf den i9-10980XE zu wechseln.

robbitop
2019-09-27, 22:04:31
Unschön. Aber AMD hat für TR4 nie versprochen, X399 bis zu einem bestimmten Zeitpunkt zu supporten.
Immerhin 2 Generationen. Das ist bei Intel nicht besser.

Ich vermute, dass es hier bei AMD jedoch einen technischen Grund geben wird. Ggf. will man mehr Memorykanäle möglich machen. Ggf. ist Leistungsaufnahme für bis zu 64 Kerne zu groß. Ggf gibt es andere Gründe. Wird man sehen müssen.

SKYNET
2019-09-27, 22:23:58
wurde schon in CB durchgekaut... die TR3000er mit 4 kanälen werden auch in X399 laufen... nur der 8 kanäler wird wohl neu brauchen, wobei selbst da spekuliert wird, das der auf X399 läuft, aber dann halt nur mit 4 kanälen.

Lehdro
2019-09-27, 23:46:07
Ich hab es doch die ganze Zeit befürchtet.
Wenn das wirklich stimmen sollte bin ich echt richtig sauer.
Habe einen Haufen Geld für das MSI MEG Creation X399 bezahlt da ich das explizit für den 2990WX gekauft hatte weil ich bedenken hatte das das Asus ROG Zenith Extreme mit der CPU+PBO nicht laufen würde.
Wie schnell aus Gerüchten bei manchen Fakten werden :eek:

Mich verärgert das so sehr das ich am überlegen bin die zwei X399 Boards einen 1950X und den 2990WX zu verkaufen um auf den i9-10980XE zu wechseln.
Das macht es ja so viel besser :redface:
Unschön. Aber AMD hat für TR4 nie versprochen, X399 bis zu einem bestimmten Zeitpunkt zu supporten.
Es passt überhaupt nicht zu AMD, das ist der Punkt. Dass die das nicht versprochen haben mag zwar stimmen, allerdings gibt es eine berechtigte Erwartungshaltung.

Immerhin 2 Generationen. Das ist bei Intel nicht besser.
Das wäre bei Intel besser, da Cascade Lake-X immer noch in X299 Boards läuft.

Ich vermute, dass es hier bei AMD jedoch einen technischen Grund geben wird. Ggf. will man mehr Memorykanäle möglich machen.
Sollen sie halt extra CPUs dafür rausbringen? TRX80 & WRX80 brauchen so oder so neue Boards, was spricht gegen TRX80 & WRX80 CPUs?

Ggf. ist Leistungsaufnahme für bis zu 64 Kerne zu groß.
Garantiert nicht. 250W langen da dicke, wenn man nur will - soviel verbrauchten nämlich schon die Vorgänger und der Sockel ist da noch lange nicht am Ende.
wurde schon in CB durchgekaut... die TR3000er mit 4 kanälen werden auch in X399 laufen... nur der 8 kanäler wird wohl neu brauchen, wobei selbst da spekuliert wird, das der auf X399 läuft, aber dann halt nur mit 4 kanälen.
Das klingt schon eher realistisch. Ich bezweifle das AMD gerade die HEDT Nutzer so krass schröpft, wo die doch das Marketingzugpferd schlechthin darstellen - AMD hatte vorher noch nie brauchbares HEDT und hat einen bisher unbefleckten Namen in dem Bereich - anders als der Konkurrent. Warum sollte man sich gerade hier gegen Intel die Blöße geben, wo das Prestige am Größten ist?

robbitop
2019-09-28, 10:37:03
Naja wobei Cascadelake X ja nur eine wiedergekaute Gen ist. Wieder nur Skylake Kerne aus dem Jahr 2016, wieder nur 14 nm.

SKYNET
2019-09-28, 11:30:12
Naja wobei Cascadelake X ja nur eine wiedergekaute Gen ist. Wieder nur Skylake Kerne aus dem Jahr 2016, wieder nur 14 nm.

ist TR2000 was anderes als TR1000 ausser nen shrink? :wink:

die verbesserung von zen+ hatte TR1000 ja schon inne, war ja eigentlich schon ein Zen+ nur halt noch in 14nm

Opprobrium
2019-09-28, 12:20:52
ist TR2000 was anderes als TR1000 ausser nen shrink? :wink:
Immerhin ist es ein Shrink :wink:

robbitop
2019-09-28, 12:31:51
Es ist bei Zen+ das Gleiche ja. Wobei Zen+ immerhin niedrigere Latenzen und höhere Taktraten erreicht hat.

Lehdro
2019-09-28, 12:41:39
Es ist bei Zen+ das Gleiche ja. Wobei Zen+ immerhin niedrigere Latenzen und höhere Taktraten erreicht hat.
Und der Skylake-X Refresh höhere Taktraten (mit CL-X nochmals) und fast durch die Bank mehr Cache in den unteren Rängen. Vielleicht sinkt ja sogar das Preisniveau.

robbitop
2019-09-28, 13:11:59
Wird dieser eigentlich mit 14nm++ gefertigt? :)

Lehdro
2019-09-28, 15:33:12
Wird dieser eigentlich mit 14nm++ gefertigt? :)
So viel wie ich gelesen habe: Ja.

Skylake X: 14nm+
Skylake X Refresh: 14nm+ + verlötet
Cascade Lake X: 14nm++ + verlötet?