PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - AMDs CPU-Architekturen-Strategie (Skybridge, K12, Zen, ...)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20]

Korvaun
2016-11-17, 07:53:26
Ich fände es gut wenn AMD mit Einführung von ZEN-basierten Prozzies (und auch bei Vega-GPUs) komplett neue Produktnamen vergibt. Da kommt man dann weg von dem alten Kram (Bulldozer/FX....) das ja ein eher schlechtes Image hat.

robbitop
2016-11-17, 09:11:03
Zumal ZEN auch kein schlechter Name wäre.

Timbaloo
2016-11-19, 16:41:35
Zumal ZEN auch kein schlechter Name wäre.
Finde ich auch. Der Name ist bereits bekannt und prägnant.

Ansonsten macht mir die nicht-Existenz ernstzunehmender geleakter Benchmarks ein wenig Sorgen. Das Jahr ist bald rum, und es ist erschreckend still um Zen. So langsam glaube ich nicht mehr an ein Release in Q1, lasse mich aber gerne eines besseren belehren.

raumfahrer
2016-11-19, 17:45:44
Bei Pascal gab es doch auch kaum nennenswerte Leaks. Das hat dem Chip und dem
Launch selbst nicht geschadet. Verfügbarkeit war allerdings erbärmlich.

Könnte ZEN auch so ergehen. Launch im Januar, aber kaum was zu kaufen. Wobei
ich hoffe, dass GF die Fertigung mittlerweile im Griff hat und in ausreichenden
Mengen liefern kann.

Hübie
2016-11-20, 01:11:00
Zumal ZEN auch kein schlechter Name wäre.

Definitiv. Und besser als Christiano Ronaldo wäre sogar Kevin Justin. Also KJ7 :biggrin:

Egal Namen sind nur Schall und Rauch.

Gandharva
2016-11-20, 10:24:43
Zen-lineup komplett >200€? :uponder:
Ja, und das Topmodell mit nur 3,5GHz Turbo. Das ist viel zu wenig (falls es wirklich so kommt) und wohl alles andre als der Preiskracher den sich hier viele erträumen. Das einzige womit AMD dann Punkten kann ist die Anzahl der Kerne. Sowohl bei IPC als auch beim Takt sind sie hinten dran. Je nach Software wird der Core i5-7600K gegen das AMD Topmodell wohl ziemlich gut aussehen. 700MHz mehr Takt und bessere IPC...

maximus_hertus
2016-11-20, 10:58:30
Ja, und das Topmodell mit nur 3,5GHz Turbo. Das ist viel zu wenig (falls es wirklich so kommt) und wohl alles andre als der Preiskracher den sich hier viele erträumen. Das einzige womit AMD dann Punkten kann ist die Anzahl der Kerne. Sowohl bei IPC als auch beim Takt sind sie hinten dran. Je nach Software wird der Core i5-7600K gegen das AMD Topmodell wohl ziemlich gut aussehen. 700MHz mehr Takt und bessere IPC...

Ist ja auch logisch, der 7600K wird ja sogar dem 1400 Euro 6950X in mancher Software gefährlich...

Ich bin da wesentlich positiver eingestellt: Zum Launch des FX 8350 sah man gegen einen i5-2500k kein Land, war im Schnitt 40+% hinten dran. Nun ist man sehr, sehr oft schneller als der i5-2500k.

Der i5-6600k ist gerade mal 20-25% vor dem FX-8350. Der i5-7600k wird da wohl knapp 10% zulegen könen (wohl +8,5% Base und +10,5% Turboclock).

Das wären dann 32-37% vor dem FX-8350. Das sollte nicht unmöglich sein, trotz niedrigerem Takt. Nimmt man nur die aktuelleren Games, sind es sogar unter 30% im Schnitt.

fondness
2016-11-20, 11:03:25
Ja, und das Topmodell mit nur 3,5GHz Turbo. Das ist viel zu wenig (falls es wirklich so kommt) und wohl alles andre als der Preiskracher den sich hier viele erträumen. Das einzige womit AMD dann Punkten kann ist die Anzahl der Kerne. Sowohl bei IPC als auch beim Takt sind sie hinten dran. Je nach Software wird der Core i5-7600K gegen das AMD Topmodell wohl ziemlich gut aussehen. 700MHz mehr Takt und bessere IPC...

War leider zu erwarten, der Samsung Prozess ist nicht gerade taktfreudig.

Gandharva
2016-11-20, 11:06:07
Das wären dann 32-37% vor dem FX-8350. Das sollte nicht unmöglich sein, trotz niedrigerem Takt. Nimmt man nur die aktuelleren Games, sind es sogar unter 30% im Schnitt.
Dann stimmt aber immer noch der Preis nicht. Den 7600K gibts für $239 US. Der schnelle AMD soll ~275 oder mehr kosten. Das ist kein Produkt für den Consumer- sondern für den Servermarkt. Dort kann man mit niedriger TDP und hoher Kernzahl dick Punkten. Imho wird Intel aber weiterhin das bessere Abfallprodukt für den Consumerbereich haben.

fondness
2016-11-20, 11:10:31
Dann stimmt aber immer noch der Preis nicht. Den 7600K gibts für $239 US. Der schnelle AMD soll ~275 oder mehr kosten. Das ist kein Produkt für den Consumer- sondern für den Servermarkt. Dort kann man mit niedriger TDP und hoher Kernzahl dick Punkten. Imho wird Intel aber weiterhin das bessere Abfallprodukt für den Consumerbereich haben.

Selbst wenn es so kommen sollte, mit dem Octa-Core hat man mit Sicherheit wesentlich länger Spaß wie mit dem Quad-Core. Der Parallelisierungsgrad steigt zwar langsam, aber kontinuierlich.

Außerdem muss man auch bedenken, wenn du so argumentierst, dann machen auch die Intel 6/8-Kerner keinen Sinn, denn die takten in der Regle auch niedriger und haben eine ältere Architektur.

Gandharva
2016-11-20, 11:22:18
Das dachte ich mir mit dem X6 damals auch. Im Nachhinein hätte ich lieber einen i7 Sandybridge gekauft und den übertaktet. Der wäre bis Dato dem X6 in so gut wie allen Belangen überlegen gewesen. Dank der aktuellen Konsolen wird sich da imho auch nicht viel ändern in den nächsten Jahren.

Außerdem muss man auch bedenken, wenn du so argumentierst, dann machen auch die Intel 6/8-Kerner keinen Sinn, denn die takten in der Regle auch niedriger und haben eine ältere Architektur.
Die machen im Consumerbreich auch wenig bis keinen Sinn.

gmb
2016-11-20, 11:36:29
Selbst wenn es so kommen sollte, mit dem Octa-Core hat man mit Sicherheit wesentlich länger Spaß wie mit dem Quad-Core. Der Parallelisierungsgrad steigt zwar langsam, aber kontinuierlich.



Das sind die gleichen Argumente wie damals beim Thuban und Bulldozer. Sofern Zen wirklich nur im IPC Bereich Sandy-Ivy liegt bei 3.0-3.5 Ghz, wären mir das zu viele Einbußen in Spielen und Apps, die wenig mit 8 Kernen zulegen können. Ein Upgrade wäre nicht sinnvoll, dann besser auf Coffe Lake warten.

maximus_hertus
2016-11-20, 11:46:59
Das dachte ich mir mit dem X6 damals auch. Im Nachhinein hätte ich lieber einen i7 Sandybridge gekauft und den übertaktet. Der wäre bis Dato dem X6 in so gut wie allen Belangen überlegen gewesen. Dank der aktuellen Konsolen wird sich da imho auch nicht viel ändern in den nächsten Jahren.


Die machen im Consumerbreich auch wenig bis keinen Sinn.

Die haben sich aber im US-Retail Markt besser verkauft als die Skylake 4-Kerner. Die 2011er sind richtige (Retail) Verkaufsschlager.

Gerade der PC-Hardwaremarkt ist so von Emotionen getrieben, dass man da nur eher selten von "logischen" Käufen sprechen sollte ;)

mboeller
2016-11-20, 11:52:38
komisch, die Heise-News zu ZEN wird hier im Thread gar nicht diskutiert, obwohl sie im planet3DNow-Forum heftig diskutiert wird:

https://www.heise.de/newsticker/meldung/AMD-auf-der-Supercomputing-Konferenz-SC16-OpenCompute-mit-ROCm-aber-kein-Zen-3491050.html


Und Zen?

Auch wer gehofft hatte, einen Prototypen der nächsten Prozessorgeneration Zen mit bis zu 32 Kernen (Naples) auf der Supercomputer-Konferenz SC16 in Salt Lake City vorgeführt zu bekommen, wurde enttäuscht. Nicht mal hinter den Kulissen konnten die vielen Interessierten aus Wissenschaft, Forschung und Industrie laufende Zen-Systeme bewundern.

Es gab in den NDA-Sessions nur Folien, allerdings mit durchaus interessanten Werten für SPECint2006. Wenn man Naples in dieser Disziplin mit Intels Werten für den Haswell – gemessen mit gcc und nicht mit dem Intel Compiler -- vergleicht, kann er danach einigermaßen mithalten. Noch sind die Werte allerdings ohne Hyper-Threading, damit gibt derzeit noch ein paar Probleme.

Wenn alles funktioniert, soll er sogar in etwa on par mit dem Skylake EP (Xeon E5 2698v5) sein. Woher AMD die mußmaßlichen Skylake-Werte her hat, bleibt allerdings offen. Für die in der HPC-Szene auch nicht ganz unwichtigen Gleitkommawerte (SPECfp, Linpack) schwieg sich AMD aus. Bei dem anderen wichtigen Benchmark HPCG, der hauptsächlich von der Speicherbandbreite abhängt, müsste Zen mit seinen bis zu acht Speicherkanälen jedoch gut dabei sein.


schaut noch nicht so gut aus... anscheinend haben sie noch einige Bugs (wenn das Gerücht zum TLB-Bug stimmt) die die Leistung massiv beeinflussen. Ohne HT ist die Leistung im Server-Bereich IMHO auch nicht konkurrenzfähig.

fondness
2016-11-20, 12:00:14
War fast zu erwarten bei einem völlig neuen Prozessordesin, die Komplexität ist kaum mehr zu beherrschen. Deshalb geht selbst Intel nur mehr iterativ vor.

Matrix316
2016-11-20, 12:24:08
http://www.tomshardware.de/zen-summit-ridge-sr7-sr5-sr3,news-257364.html

Demnach soll der AMD-Prozessor nicht nur hinsichtlich der Kernzahl und der möglichen Threads mithalten, sondern auch bei der Leistung Intels leistungsstarkem Core i7-6900K Paroli bieten können (z.B. im Cinebench) - und das trotz eines vergleichsweise niedrigen Preises: Die Chinesen bestätigen Gerüchte, die einen Verkaufspreis von etwa 300 Dollar vorhersehen.
Wenn DAS stimmt... dann ist der sofort gekauft. :)

gmb
2016-11-20, 12:26:24
Lauffähige Exemplare gibt es bei Intel weit im Voraus, ein kaputtes HT 6 Monate vorm Start wäre sehr ungewöhnlich. Haswell-EX gab es mit maximal 18 Kerne, E5-2698 v3 kommt auf 16 Kerne. Dennoch liegt ein 32 core Zen im AMD optimierten SPECint2006 dahinter, gut sieht das wirklich nicht aus. Ein worst case wird AMD für Zen sicher nicht demonstrieren wollen, sowas wird verschwiegen.

Korvaun
2016-11-20, 12:55:19
Ich hoffe nur das AMD die Zähne zusammenbeißt und ZEN erst released wenn er auch wirklich funktioniert. Die haben nur noch diese eine Chance. Ob ZEN jetzt in Januar vorgestellt wird oder erst zur Computex im Juni ist auch schon wurscht.

PrivateCeralion
2016-11-20, 13:15:52
Lisa hat ja gesagt, dass Zen kein Ort ist, sondern der Beginn eines Weges, von daher haben sie mehr als eine Chance.
Wenn Naples Ende von H1 2017 veröffentlicht wird, hat AMD noch 7Monate um das zu fixen, dass sollte reichen. Mich würde nur interessieren, ob der “Bug“ nur den 32Kerner betritt, oder auch den 8Kerner.

Timbaloo
2016-11-20, 14:45:01
Mich würde nur interessieren, ob der “Bug“ nur den 32Kerner betritt, oder auch den 8Kerner.
Muß ja eigentlich, da der 32-Kerner ja aus 4x8-Kern-Dies aufgebaut ist.

Also wenn sie aktuell keine lauffähigen Samples mit HT haben, dann ist Q1 sicher gelaufen.

y33H@
2016-11-20, 17:19:58
Lisa hat ja gesagt, dass Zen kein Ort ist, sondern der Beginn eines Weges, von daher haben sie mehr als eine Chance.
Wenn Naples Ende von H1 2017 veröffentlicht wird, hat AMD noch 7Monate um das zu fixen, dass sollte reichen. Mich würde nur interessieren, ob der “Bug“ nur den 32Kerner betritt, oder auch den 8Kerner.Der 32-Kerner besteht aus vier 8C-Dies. Ich wüsste jez nicht, was bei einem MCM das SMT kaputt macht, bei einem 8C-Die aber nicht. Aber ich baue auch keine CPUs.

PrivateCeralion
2016-11-20, 17:26:25
Der 32-Kerner besteht aus vier 8C-Dies. Ich wüsste jez nicht, was bei einem MCM das SMT kaputt macht, bei einem 8C-Die aber nicht. Aber ich baue auch keine CPUs.

Ich weiß es auch nicht, aber da ein 32Kerner eine größere komplexere Maske hat, gibt es natürlich mehr Fehlerquellen.
Ich gehe 100% davon aus, das der 8Kerner Pünktlich kommt, denn dies hat Lisa bei der Vorstellung der Q3 Zahlen gesagt. Und da wird es sehr schnell sehr teuer, wenn sie lügt.

fondness
2016-11-20, 17:27:36
Sie hat gesagt er sei "on track"; das kann alles oder nichts bedeuten, ein konkreter Termin wurde AFAIK nicht genannt.

PrivateCeralion
2016-11-20, 17:59:56
"Absolutely, Matt. Thanks for your question, and as you said, it’s been a very busy quarter for us. As it relates to Zen, we are on track to launch in the first half of the year, for both our desktops and our servers. The desktop launch will go first, and it is on track for the first quarter, and then the server launch will go in the second quarter. "

.....

"Stacy Rasgon

Got it. For my follow-up, I just want to get some clarification on the timing of the Summit Ridge and Zen launches. You said Summit Ridge launches obviously in Q1 2017. You had said before that you were going to be shipping at least some product in Q4 of this year. Is that still true? And around the server launch in Q2, does that mean the volume is actually in Q3?

Lisa Su

So I think our expectation is, we may ship some production samples in Q4, but the volume launch for desktop will be in Q1, and that’s consistent with everything that we’ve planned into the business. And as it relates to server, I think it’s a little early to tell. I think we’ll go through our process, and our customers’ processes, and we’ll have more color on that, as we get into next year."

anddill
2016-11-20, 18:03:15
Wenn die zur Einführung einen 8-Kerner ohne HT für Heimanwendungen raushauen wär das doch schon mal ok, solange der Preis stimmt. HT bringt im Desktop sowieso nicht soo viel, und erst recht nicht bei vohandenen echten 8 Kernen.

OBrian
2016-11-20, 18:06:28
Das SMT nicht aktivieren zu können ist evtl. ein Temperatur-/Leistungsaufnahmeproblem. Die Einheiten werden damit ja stärker ausgelastet, werden also wärmer und verbrauchen mehr. Gersde die FPU ist ja üblicherweise die heißeste Stelle. Wenn es ein Hotspotproblem ist, dann ist das sicher ganz doof, weil man dann entweder den Heatspreader besser aufbringen müßte oder gar eine neue Maske entwerfen, Layoutfehler. Aber in dem 4c-Block sitzen die FPUs ja außen und schon weit voneinander weg, auch zwischen den beiden 4c-Blöcken eines 8ers ist Platz, also an Hotspotverplanung glaube ich eher nicht. Müßte man ja im Zweifel auch mit geringerem Takt in den Griff kriegen. Und wenn es ein Verbrauchsproblem ist, dann würde ich an deren Stelle einfach doch 125-W-CPUs bringen. Das ging jahrelang auch und hat keinen gestört (ärgerlich bei den BDs mit 125 W war nur, daß sie schwächer als Intels mit der halben TDP waren, aber die TDP-Klasse an sich war nicht das Ding).

Könnte auch ein Problem sein, daß SMT zwar funktioniert, es die CPU aber langsamer macht statt schneller, weil sich da irgendwas stört und das Ding sich verschluckt. Als Intel HT im P4 gebracht hat, war es auch über mehrere Generationen nur bei manchen Programmen ein Vorteil, bei vielen (bei Spielen z.B.) aber ein Nachteil. Dauert hoffentlich nicht so lange bei AMD, aber eine gewisse Lernkurve könnte auch nötig sein.

gmb
2016-11-20, 18:11:14
Ich gehe 100% davon aus, das der 8Kerner Pünktlich kommt, denn dies hat Lisa bei der Vorstellung der Q3 Zahlen gesagt. Und da wird es sehr schnell sehr teuer, wenn sie lügt.


Das ist doch völlig wertlos. Pünktlich wäre 2016 gewesen. Egal was sie sagt oder der Plan zu dem Zeitpunkt gewesen ist, verschieben kann sich das immer. Da muss sie gar nicht gelogen haben. Sonst würde es nie Verschiebungen geben dürfen. Verschiebungen bei AMD und Intel sind eher die Regel als Ausnahme. Zumal die dann selten öffentlich kommuniziert werden.

Korvaun
2016-11-20, 18:39:25
Ohne funktionierendes SMT (obwohl auf dem Chip verbaut) kann AMD es sich wohl kaum erlauben die CPU zu releasen.

Wie sieht das denn aus: "Hallo Leute, wir haben hier unseren neue superdolle ZEN CPU, nen 8-Kerner+SMT!!! Leider geht SMT noch nicht richtig, haben wir deshalb für die aktuellen CPU-Versionen deaktiviert. Die CPU ist aber trotzdem noch total supi. Der Rest funktioniert auch ohne Probleme, großes Ehrenwort!"

Das wird keiner kaufen wollen...

anddill
2016-11-20, 18:40:49
Kauft ja auch keiner nen Intel i5, oder?

Korvaun
2016-11-20, 18:43:36
Beim i5 ist es reine Produktpolitik...

iuno
2016-11-20, 18:48:16
i5 Kaeufer sind aber eine andere Gruppe als die, die fuer einen Octa ueberhaupt infrage kommen. i5 haben ziemlich sicher auch bessere IPC und mehr Takt als der Zen 8C. Insofern waere er fuer z.B. aktuelle/aeltere Spiele momentan besser, womoeglich auch aus P/L Sicht.
SR zunaechst billiger und ohne HT zu releasen waere eine Notloesung, ich persoenlich wollte das nicht kaufen. Intel hat fuer Kunden, die mehr ausgeben wollen wenigstens Alternativen. Wer HT will kann einen i7 kaufen (oder fuer mehr eben gleich auf die grosse Plattform gehen). Bei AMD waere das zunaechst nicht der Fall.

Ist es denn voellig ausgeschlossen, dass das Problem nur bei Naples auftritt? Immerhin wurde SR schon mit HT zur Schau gestellt, sogar live z.B. mit der Blender demo gegen Broadwell-E.
Kann es nicht sein, dass die Problematik auf das MCM zurueckzufuehren ist, etwa das Scheduling oder "Balancing" dann nicht richtig funktioniert, es zu viel data management gibt oder sowas?

anddill
2016-11-20, 18:48:53
Beim i5 ist es reine Produktpolitik...
Noch schlimmer. Und trotzdem wird er gekauft, weil er den zugedachten Job perfekt erfüllt.

Abgesehen davon weiß keiner hier wo das Problem liegt und ob es noch rechtzeitig gefixt werden kann. Wir wissen noch nicht mal ob es den Desktop-Chip tatsächlich betrifft.

Timbaloo
2016-11-20, 18:51:10
Ich weiß es auch nicht, aber da ein 32Kerner eine größere komplexere Maske hat, gibt es natürlich mehr Fehlerquellen.
Es gibt keine 32-Kerner-Maske.

MR2
2016-11-20, 19:16:53
The important thing here is that the 16Thread/8-Core CPU is minimum 5960X performance if not better actually. (Based on Cinebench R15) with the error fix disabled.

Performance is really good, be it SuperPi, Cinebench, 3DMark etc, it’s FPU performance is incredibly good and easily matching that of what Intel offers.

For Gaming, the CPU is neck and neck with INTEL, even at low res where CPU bound.


Diese Zitate klingen gar nicht so schlimm... Wir werden sehen.

Dino-Fossil
2016-11-20, 19:25:39
Wie glaubwürdig ist das Gerücht über diesen ominösen Bug überhaupt?
Ich halte es zwar durchaus für möglich, dass es solche Bugs gibt, aber schon so zu tun, als wäre es eine Tatsache erscheint mir doch auch ein bisschen verfrüht.

Matrix316
2016-11-20, 19:35:14
The important thing here is that the 16Thread/8-Core CPU is minimum 5960X performance if not better actually. (Based on Cinebench R15) with the error fix disabled.

Performance is really good, be it SuperPi, Cinebench, 3DMark etc, it’s FPU performance is incredibly good and easily matching that of what Intel offers.

For Gaming, the CPU is neck and neck with INTEL, even at low res where CPU bound.


Diese Zitate klingen gar nicht so schlimm... Wir werden sehen.

https://abload.de/img/shut-up-and-take-my-m4ykmd.jpg (http://abload.de/image.php?img=shut-up-and-take-my-m4ykmd.jpg)
:biggrin:

Das könnte ja seit dem Phenom II mal wirklich die erste AMD CPU sein die wirklich gut ist. Und vielleicht führt das ja auch dazu, dass die Dunkle Seite der Macht auch mal mehr als 4 Kerne aufm Consumer Desktop rausbringt.

iuno
2016-11-20, 19:35:28
Wie Glaubwürdig ist das Gerücht über diesen ominösen Bug überhaupt?
Naja die Meldung auf Heise ist afaik die einzige Quelle dazu. Dort wird aber suggeriert, dass die Info von AMD kommt (Slides unter NDA). Demnach soll AMD Benchmarkwerte gegen Intel gezeigt haben, wobei HT deaktiviert wurde, weil es Probleme gebe.
Womoeglich stand auf den Slides aber nur "without HT" und der Autor hat seine Annahme mit in den Text fliessen lassen :ulol:

Ich bin mal auf die Seite von dem Benchmark gegangen, dort hat es ganz viele Ergebnisse ohne HT, obwohl es fast jeder Xeon haben sollte. Siehe Spalte "Threads/Core". Vielleicht ist es auch nur ein Problem mit dieser Software, das wird ja nicht naeher beschrieben.

http://www.spec.org/cpu2006/results/res2016q4/

SPECint tests are carried out on a wide range of hardware, with results typically published for the full range of system-level implementations employing the latest CPUs. For SPECint2006, the CPUs include Intel and AMD x86 & x86-64 processors, Sun SPARC CPUs, IBM POWER CPUs, and IA-64 CPUs. This range of capabilities, specifically in this case the number of CPUs, means that the SPECint benchmark is usually run on only a single CPU, even if the system has many CPUs. If a single CPU has multiple cores, only a single core is used; hyper-threading is also typically disabled,
https://en.wikipedia.org/wiki/SPECint
Leider ohne Quellenangabe auf wiki. Die Software selbst ist teuer, es ist also nichts mit eben mal testen.

Noch sind die Werte allerdings ohne Hyper-Threading, damit gibt derzeit noch ein paar Probleme.
https://www.heise.de/newsticker/meldung/AMD-auf-der-Supercomputing-Konferenz-SC16-OpenCompute-mit-ROCm-aber-kein-Zen-3491050.html
In dem Satz fehlt ohnehin ein "es". Wer Lust hat kann ja im Heise Forum oder per Mail darauf aufmerksam machen, nebenbei die Wiki zitieren und um Klarstellung bitten ;p


Und vielleicht führt das ja auch dazu, dass die Dunkle Seite der Macht auch mal mehr als 4 Kerne aufm Consumer Desktop rausbringt.
Dass Intel die Kernanzahl hochschrauben will ist schon bekannt. Coffee Lake soll als Hexa mit IGP kommen. Zudem kommt man wohl auch bei Ultrabooks endlich von zwei Kernen weg. 4C+IGP Minimum, wie bei Raven Ridge…

War leider zu erwarten, der Samsung Prozess ist nicht gerade taktfreudig.
Und das nimmst du woher? Von Polaris? Pascal taktet mit 14LPP wohl aehnlich wie mit 16FF+, nur dass die 1050 Probleme mit dem PT hat. Ich sage nicht, dass der Prozess deshalb automatisch fuer CPUs und >4 GHz taugt, aber das Gegenteil sollte man aus Polaris halt auch nicht schlussfolgern

Entropy
2016-11-20, 20:39:50
Ohne funktionierendes SMT (obwohl auf dem Chip verbaut) kann AMD es sich wohl kaum erlauben die CPU zu releasen.

Wie sieht das denn aus: "Hallo Leute, wir haben hier unseren neue superdolle ZEN CPU, nen 8-Kerner+SMT!!! Leider geht SMT noch nicht richtig, haben wir deshalb für die aktuellen CPU-Versionen deaktiviert. Die CPU ist aber trotzdem noch total supi. Der Rest funktioniert auch ohne Probleme, großes Ehrenwort!"

Das wird keiner kaufen wollen...
Das kommt drauf an gegen welche Intel CPU sie mit ihrem Marketing konkurieren. Wenn ZEN mit 8Cores (ohne HT) gegen den 7600, zum selben Preis mehr Leistung liefert, wieso sollte das jemand nicht kaufen? (Ausgehend davon, dass es keine anderen schweren Probleme gibt).
Bei GPUs zogen sie auch in schon belegte Regionen, dafür mit besserem Preis und bis heute ganz ohne Flagschiff.

y33H@
2016-11-20, 21:56:50
Im Golem-Forum sprechen AMD-Anhänger wie David64Bit davon, dass das schnellste Summit Ridge Modell mit 8C einen Turbo von 4 GHz erreiche und der Preis wäre kürzlich intern von 800 auf 600 Euro gesenkt worden. Woher das stammt und ob es stimmt ... wird sich zeigen. Der angeblich behobene SMT-Bug sei der Grund warum SR erst im Januar erscheint und nicht noch im Q4/16.

Pirx
2016-11-20, 22:40:50
Die Erwartungen sind wohl (angeblich) schon wieder ziemlich hoch...

OBrian
2016-11-20, 23:03:02
Das könnte ja seit dem Phenom II mal wirklich die erste AMD CPU sein die wirklich gut ist. Dazu gehört ja leider nicht viel. Aber diese Sätze klingen sogar eher danach, als wäre es die beste CPU von AMD seit dem K8! Gut, wäre ja sogar machbar: K7 war gut als Neuentwurf, K8 war gut wegen on-die-Speichercontroller, danach kam leider bei Intel der Core2 mit für AMD überraschend massivem IPC-Schub, und der K10 war erstmal ein Rohrkrepierer, der K10.5 dann ordentlich, aber zu spät und Intel hatte schon zuviel Vorsprung. Und dann über BD brauchen wir ja nicht zu reden. Jedenfalls, wenn sie mal wieder was richtig machen und in der Zeit fertig kriegen, dann können sie durchaus da landen, wo sie hin wollen. Immerhin hat Intel ja seit Jahren auch kaum zugelegt, ist also eher ein statisches Ziel, leichter zu treffen ;)

Aber so wie AMD Leaks stopft, bezweifele ich die Substanz jeglicher Aussagen, ob sie nun positiv oder negativ klingen. Wer riskiert denn für ein bißchen anonymen Fame in Internetforen, daß er verklagt wird, bis ihm Buttermilch aus dem Arsch läuft?

PrivateCeralion
2016-11-21, 00:08:27
Es gibt keine 32-Kerner-Maske.

Natürlich gibt es die, oder wie glaubst du, belichtet die Foundry die Wafer?

iuno
2016-11-21, 00:11:55
Der 32 Kerner ist ein MCM aus mehreren Zeppelin Dies.

Unicous
2016-11-21, 00:19:19
Natürlich gibt es die, oder wie glaubst du, belichtet die Foundry die Wafer?

Wie oft soll man dir eigentlich noch erklären, dass du falsch liegst?:facepalm:

reaperrr
2016-11-21, 00:25:27
Dazu gehört ja leider nicht viel. Aber diese Sätze klingen sogar eher danach, als wäre es die beste CPU von AMD seit dem K8!
Das ist auch im Prinzip gar nicht so schwer. K8 hat selbst in seiner letzten Ausbaustufe (nichts anderes ist K10.5 im Grunde ja) mehr als genug Schwächen und Limitierungen.

Dass die Construction-Kerne trotz des verkorksten Basis-Ansatzes, mit nur 2 Integer-Pipes je "Kern", "1,5" AGUs (eine beides, eine nur Load, iirc) je "Kern", geteilter FPU, elendig lahmem L2 und kleineren L1 Caches, mehreren anderen Schwächen und generell viel längerer Pipeline trotzdem ca. ab SR die Pro-Takt-Leistung von K10.5 erreicht bzw. teilweise übertroffen haben, bei besserer Taktbarkeit und Effizienz (die letzten beiden Punkte im Prinzip schon seit Trinity) sagt schon einiges darüber, wo AMD mit einem breiteren, auf IPC ausgelegten modernen Kern inzwischen hätte stehen können.

PrivateCeralion
2016-11-21, 01:16:30
Wie oft soll man dir eigentlich noch erklären, dass du falsch liegst?:facepalm:

Tut mir leid, 16 Kerner Maske.

Aber warum oft erklären, dass ich falsch liege? Das klingt ja, als würde ich nur falsche Sachen posten und wäre unbelehrbar. Was bei 20 Posts gar nicht sein kann.

Unicous
2016-11-21, 01:30:20
Auch die gibt es nicht. Lerne zu lesen.

Es wurde dir bereits 3! mal erklärt.

Es gibt genau einen, in Zahlen 1, Chip und der hat 8 Kerne. 8 Kerne+SMT, also 16 Threads.

Per MCM (Multi-Chip-Module) können bis zu 4 Chips miteinander kommunizieren, am Ende hat man einen 32 Kerner mit 64 Threads.

y33H@
2016-11-21, 01:41:53
Behauptet zumindest AMD :ulol:

Unicous
2016-11-21, 01:47:37
Behauptet zumindest AMD :ulol:

Das mag sein... dennoch ist das die offizielle Variante und es gibt keinerlei Hinweise, dass es anders wäre.

PrivateCeralion
2016-11-21, 11:17:28
Auch die gibt es nicht. Lerne zu lesen.

Es wurde dir bereits 3! mal erklärt.

Es gibt genau einen, in Zahlen 1, Chip und der hat 8 Kerne. 8 Kerne+SMT, also 16 Threads.

Per MCM (Multi-Chip-Module) können bis zu 4 Chips miteinander kommunizieren, am Ende hat man einen 32 Kerner mit 64 Threads.

Vielen Dank für die Erklärung. Es geht aber auch wirklich freundlicher!

Unicous
2016-11-21, 11:28:34
Vielen Dank für die Erklärung. Es geht aber auch wirklich freundlicher!

Das haben schon 3 Personen vor mir versucht. Bedanke dich lieber bei ihnen.

Cyphermaster
2016-11-21, 11:43:01
@Private: Das hier kam DIREKT an dich als Antwort gerichtet:
Muß ja eigentlich, da der 32-Kerner ja aus 4x8-Kern-Dies aufgebaut ist.

Also wenn sie aktuell keine lauffähigen Samples mit HT haben, dann ist Q1 sicher gelaufen.
Der 32-Kerner besteht aus vier 8C-Dies. Ich wüsste jez nicht, was bei einem MCM das SMT kaputt macht, bei einem 8C-Die aber nicht. Aber ich baue auch keine CPUs.
Der 32 Kerner ist ein MCM aus mehreren Zeppelin Dies.
Das war doch sehr klar, und nicht unfreundlich, oder? Wenn du sowas aber dauernd überliest, reißt halt irgendwann jemandem der Geduldsfaden. ;)

Was das HT und die Preisspekulationen und sonstige Gerüchte betrifft: Ich halte das für ziemlich unsinniges Gewäsch. Ohne die Art des Bugs zu kennen, kann man schlecht bis gar nichts dazu prognostizieren, genau wie zu irgendwelchen internen Preiskalkulationen, Launch-Varianten etc.. Belastbar wissen das nur sehr wenige Leute, und das Ganze ist noch relativ kurzfristig (abseits OEM-Geschäft usw. mit großen Stückzahlen) anpaßbar. Theoretisch kann ZEN genauso in einer abgespeckten Version ohne HT günstig gelauncht werden, genau wie fixed/open Multi, usw.. Macht Intel ja auch.

Klingt für mich alles wie typische Pre-Launch "Übersprungshandlungen". Da halten Einige die Spannung nicht mehr aus, und machen aus jeder Mücke, die sie auch nur glauben husten gehört zu haben, einen fliegenden Elefanten. Mit Überschallantrieb.

PrivateCeralion
2016-11-21, 13:47:29
Ich hatte mich mit MCM noch nie auseinander gesetzt und es deshalb überlesen, tut mir leid.

Auf jedenfall fände ich es sehr gemein von AMD wenn ZEN nicht gut wird, denn sie haben durch ihr teaser Video sehr viel Aufsehen erregt und nachdem der Aktien Kurs stark gestiegen ist, eine Kapitalerhöhung gemacht. Sollte irgendwas an der Performance gelogen sein, wäre das ziemlich illegal.

y33H@
2016-11-21, 14:29:31
Bämm, da ist wie erwartet Intels Skylake-EP mit 32C geleakt.

Tamagothi
2016-11-21, 17:30:31
Und was wird das gute Stück kosten 10K € ? ;D

LadyWhirlwind
2016-11-23, 19:55:03
Genau, Aktienkurs innerhalb eines Jahres von ca. $1,60 auf knapp $9, wie dumm sind die denn? Du weißt es natürlich besser, AMD verkackt gerade alles :freak:

Wie hat AMD eigentlich die Zen-Entwicklung finanziert? Mit den laufenden Einnahmen? Bankkredit?

PrivateCeralion
2016-11-23, 20:51:10
Wie hat AMD eigentlich die Zen-Entwicklung finanziert? Mit den laufenden Einnahmen? Bankkredit?

Schulden und laufenden Einnahmen.
Eddit: Die haben ja viele Anleihen ausgegeben, über die Jahre

LadyWhirlwind
2016-11-23, 21:34:28
Schulden und laufenden Einnahmen.
Eddit: Die haben ja viele Anleihen ausgegeben, über die Jahre

Einer der Gründe für den Anstieg des Aktienkurses dürfte sicher auch die Erwartung sein, dass den Ausgaben für Zen demnächst auch Einnahmen gegenüber stehen. Zen dürfte die allgemeine finanzielle Situation für AMD verbessern. So wie es aussieht gehen die Finanzmärkte davon aus, dass die Talsohle durchschritten ist. Kommt noch die Erwartung dazu, dass Zen einigermassen konkurenzfähig ist, dann ist der Aktienkurs kein Wunder mehr.

Hübie
2016-11-23, 22:42:47
Seh ich auch so. Haswell Leistung pro Takt wäre schon echt gut. Wenn man dann nicht bei 4 GHz verreckt ist es doch schon ein rundes Produkt. Ich würde sofort wechseln. Aber ich schraube meine Erwartungen lieber herunter. =)

StefanV
2016-11-23, 22:46:03
...welcher bisher seit fast 10 Jahren nur 4kerner bietet...

Und dabei ging der Umstieg vom 2 Kerner zum 4er relativ flott von statten...
Die ersten 2 Kerner kamen AFAIR um 2004 oder 2005 rum, die ersten 4 Kerner (OK; DUal Duos) waren um 2006 oder so erhältlich. Und seit dem gurken wir mit 4 Kernern im Mainstream Desktop rum, wenn wir Glück haben aber auch nur...

Oh und 4 Kerner mit 2 Threads je Kern gibts auch schon seit mindestens 7 Jahren (Nehalem)...

Rincewind
2016-11-23, 22:52:58
ich hoffe, dass die Richtung zu 8-Kernern geht. Als Sandy 2600K-Besitzer wäre das ne gute Aufrüstung.

Hübie
2016-11-23, 23:02:31
...welcher bisher seit fast 10 Jahren nur 4kerner bietet...

Und dabei ging der Umstieg vom 2 Kerner zum 4er relativ flott von statten...
Die ersten 2 Kerner kamen AFAIR um 2004 oder 2005 rum, die ersten 4 Kerner (OK; DUal Duos) waren um 2006 oder so erhältlich. Und seit dem gurken wir mit 4 Kernern im Mainstream Desktop rum, wenn wir Glück haben aber auch nur...

Oh und 4 Kerner mit 2 Threads je Kern gibts auch schon seit mindestens 7 Jahren (Nehalem)...

Ja ein Trauerspiel. Bulldozer hat aber gezeigt, dass '8' Kerne es allein aber auch net reißen. Der Mix machts halt. Aus aktueller Lage sag ich: Es kann nur besser werden. :freak:

Hugo40
2016-11-24, 12:36:52
Man sollte aber auch die Software dabei nicht vergessen. Hätten wir eine Skalierung wie heute bei GoW4 vor 5 Jahren flächendeckend über viele Spiele würde es ganz anders für Bulldozer aussehen. Die Software hinkt wie so oft der Hardware hinter her. Die gleichen Gesetze gelten auch für Intel. Vor wenigen Jahren wäre man mit sowas:
http://geizhals.de/intel-xeon-e5-2660-bx80621e52660-a733980.html?hloc=at&hloc=de

auch nicht gerade rasant in Spielen unterwegs gewesen.

Matrix316
2016-11-24, 15:21:37
Ja ein Trauerspiel. Bulldozer hat aber gezeigt, dass '8' Kerne es allein aber auch net reißen. Der Mix machts halt. Aus aktueller Lage sag ich: Es kann nur besser werden. :freak:
Naja, der Bulldozer war halt pro Kern zu langsam. Wenn man auf Haswell oder auch Ivy Bridge Leistung kommt (oder selbst Sandy Bridge wäre schon ein Erfolg) UND man kriegt 8 Kerne mit HT UND dann noch über 3 GHz UND dann noch im humanen Preissegment... dann konkurriert man nämlich hiermit:

http://geizhals.de/?cat=cpuppro&sort=p&xf=25_6%7E3_3000

Und das wäre gigantisch.

Dino-Fossil
2016-11-24, 15:32:58
Mir würden schon 6 Kerne (sogar ohne HT) bei vernünftiger Leistung pro Kern (also ca Haswell IPC bei >3GHz) und max 95W TDP reichen, wenn sie dafür einen guten Preis machen.

Sunrise
2016-11-24, 17:04:19
Naja, der Bulldozer war halt pro Kern zu langsam. Wenn man auf Haswell oder auch Ivy Bridge Leistung kommt (oder selbst Sandy Bridge wäre schon ein Erfolg) UND man kriegt 8 Kerne mit HT UND dann noch über 3 GHz UND dann noch im humanen Preissegment... dann konkurriert man nämlich hiermit:

http://geizhals.de/?cat=cpuppro&sort=p&xf=25_6%7E3_3000

Und das wäre gigantisch.
Das wird allem Anschein nach auch so kommen und das wäre schon eine ganz große Hausnummer für jemanden wie AMD derzeit. Einige sind aber natürlich wieder so gehyped, dass sie direkt und sofort Broadwell-/Skylake-Leistung erwarten. Mag für bestimmte Fälle ja sein, aber ich würde die Erwartungen da mal eher in deine Richtung runterschrauben, denn das wäre tatsächlich schon sensationell gut. AMD hat mit dieser Blender-Präsentation leider auch wieder etwas zu diesem Hype beigetragen, um hier wohl Käuferinteresse auf AMD zu ziehen.

Es würde mich nicht wundern, wenn 2017 so einige auf AMDs 8-Kerner umrüsten. Intel versucht das natürlich mit allen Mitteln zu unterbinden (Kaby Lake, Skylake-E mit 32 physikalischen Kernen, 6-Kerner im Mainstream), aber wenn man dann wieder das Preis-/Leistungsverhältnis vor Augen hat und Intels Politik, dann hat AMD da ein ganz heißes Eisen im Feuer, solange die Verfügbarkeit auch gut wird. Im Server-Markt sowieso, da sind dank Intels Schweinepreisen die Margen nämlich gigantisch und das wird AMD so oder so enorm helfen, auch weiter bestehen zu können.

Vega wird natürlich nochmal das i-Tüpfelchen, wenn man jetzt schon sieht, wie gut eine Fury X mit gerademal 4GB und quasi nur SP-Leistung noch oben mithalten kann. Also alles natürlich auch unter der Annahme, das AMD das auch ordentlich durchzieht, dann machen die in 2017 nämlich ordentliche Asche und das ist gut für uns alle.

cat
2016-11-28, 23:34:30
intel macht HT seit Februar 2002 in Xeons, hat also 15 Jahre mehr Erfahrung damit als AMD.
Es könnte also passieren, das die Erfolge die SMT aktuell mit Skylake einfährt, z.B. i3-6100 nicht sofort von AMD eingestellt werden, ist ja auch logisch.

Falls die SR3 und Ravens-Ridge 4C/8T über Ivy-Bridge-Niveau also über 3570K und 3770K wäre es für einen kompletten Neustart nach K10 keine Schande.

Leute ihr dürft nicht vergessen wieviel intel aus der/den core-i-Architekturen an Know-How generiert hat, es wäre mit Verlaub ein Wunder wenn AMD und Jim Keller "das mal eben so aus den Ärmel schütteln"

Und was intel und nvidia uns immerwieder zeigen ist:
Baue Hardware die jetzt/aktuell vorhandene Software/Games schneller macht und nicht NUR die Software/Games von morgen.

Leonidas
2016-11-29, 05:21:36
In Intels Xeon-Geschäft wird Zen kaum umgehend einbrechen können. Da muß AMD erstmal 3 Jahre solide Leistungen zeigen, ehe sich da ein Entscheider wirklich herabläßt, deren Angebot überhaupt ernsthaft zu prüfen.

Und auch bei den Systemhäusern dauert es einige Zeit, ehe diese so etwas neu ins Programm aufnehmen.

Foobar2001
2016-11-29, 05:44:40
AMD hatte nach 2 Jahren fast 25% Server-Marktanteil mit Opterons in 2006. Ich glaube du lebst in einer ziemlichen Traumwelt wenn du glaubst der Markt kauft nicht das guenstigere Angebot. Das setzt natuerlich voraus, dass sie auch konkurieren koennen - auch was TDP angeht.

LadyWhirlwind
2016-11-29, 07:35:47
Bei den Grosskunden die den Einkauf von entsprechenden Spezialisten machen lassen, wird das relativ fix gehen. Dort wird man aus Prinzip eine (Konkurenz-)Offerte von AMD verlangen, nur schon um Intel mit dieser vor der Nase herumwedeln zu können und den Preis etwas zu drücken. Auch wird man sich absichern wollen, weil niemand wird gern die Frage beantworten: "Wäre AMD nicht billiger gewesen..." Ausserdem wird in diesen Abteilungen knallhart gerechnet. Lässt sich die höhere IPC der Intel-CPU nicht in einen messaren Produktivitäsgewinn umsetzten, tut es ja auch eine AMD CPU. (Und nein, die Mitarbeiter arbeiten mit Excel nicht schneller mit einer Intel-CPU als wie mit einer AMD CPU). Da gelten dann Plattformkosten (bei OEMs) bzw. TCO bei Endkunden viel mehr als die Marke und die Performance-Krone.
Die hohen Preise kommen ja daher, dass Intel in letzter Zeit recht konkurenzlos da Stand, da hat man natürlich ein gewisses Interesse am Erfolg von Zen, damit Intel wieder einen Konkurenten hat. Weil mittelfristig wird das sonst seeeehr teuer. Da wird man auch AMD in Erwägung ziehen, einfach auch um Intel klar zu machen: ihr müsst wieder um den Auftrag kämpfen.

Dort wo allerdings die Leute keine Zeit haben, sie mit dem Thema CPU von AMD ausführlich zu beschäftigen, wird man natürlich vorerst weiterhin Intel-CPUs sehen.

Immer natürlich vorausgesetzt, AMD kann auch Konkurenzieren.

iuno
2017-01-17, 21:18:20
Auf top500.org gibt es was zu Naples:

https://www.top500.org/news/amd-readies-naples-cpus-to-do-battle-with-intel-skylake-xeons/

Quelle ist offenbar WCCF, aber ich war etwas ueberrascht das dort zu sehen. Weiss gar nicht, ob das hier schon mal irgendwo kam. Sind aber glaube ich auch nicht wirklich neue Infos dabei. 1.4-2.8 GHz ist vielleicht interessant.

Skysnake
2017-01-17, 21:44:45
Ja, das überrascht schon, weil die Leute eigentlich schon ganz gut wissen sollten was abgeht in der Branche.

StefanV
2017-01-18, 04:28:42
intel macht HT seit Februar 2002 in Xeons, hat also 15 Jahre mehr Erfahrung damit als AMD.
Es könnte also passieren, das die Erfolge die SMT aktuell mit Skylake einfährt, z.B. i3-6100 nicht sofort von AMD eingestellt werden, ist ja auch logisch.
Was du hier schreibst, ist einfach Unsinn.

Denn woher weißt du, dass AMD nicht 'heimlich' an irgendwelchen SMT Implementierungen arbeitet?!
Und was ist mit der aktuellen Bulldozer FPU, ist das kein SMT?!

Und vergisst du hier wieder IBM?!

Guggsu hier mal:
https://en.wikipedia.org/wiki/Simultaneous_multithreading#Historical_implementations

Da steht was von seit 1968(!!) bekannt. Also bevor AMD sich überhaupt von Fairchild abgespalten hat...

Isen
2017-01-18, 08:58:25
SMT ist natürlich seit Ryzen völliges Neuland für AMD :facepalm:,
Ich frag mich, wie die überhaupt ne CPU basteln konnten, dachte die lernen erst das Zeichnen und Keller hat die Farben aus irgendwelchen verstaubten Katakomben geliefert.

Nakai
2017-01-18, 14:36:18
Wann kommen die Quartalszahlen nun? 31. Januar?

Pirx
2017-01-18, 14:50:27
Wann kommen die Quartalszahlen nun? 31. Januar?
jo http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-calendar

fondness
2017-01-18, 16:17:18
Heise hat angeblich eine gute Quelle, laut der Ryzen am 28. Februar vorgestellt wird:
https://www.heise.de/newsticker/meldung/Kerniges-zum-Karneval-AMD-Ryzen-kommt-wohl-am-28-Februar-3597324.html

iuno
2017-01-18, 16:21:12
Im Ryzen/Summit Ridge Thread schon gesagt ;)
Vielleicht sollten wir diesen hier umbenennen? Es gibt threads zu SR+RR, offen bleiben mit Zen Naples und weitere Ableger (HPC APU?)

Ravenhearth
2017-01-18, 16:22:40
Was ist eigentlich mit K12? Kommt der noch?

fondness
2017-01-18, 16:23:53
Oh sorry, stimmt falscher Thread.

Screemer
2017-01-18, 16:29:22
der amd arm-core? vielleicht.

unl34shed
2017-01-18, 16:42:32
Würde K12 nicht wegen Zen auf 2018 verschoben?

Edit: ne war doch 2017. http://www.kitguru.net/components/cpu/anton-shilov/amd-delays-introduction-of-k12-based-processors-to-2017/

fondness
2017-01-18, 16:47:07
Offiziell hat man von K12 schon lange nichts mehr gehört. Die letzte Erwähnung von AMD stammt noch aus H1/2015. Damals wurde von 2016 für K12 gesprochen AFAIK. Man hat allerdings dann wohl relativ schnell erkannt, dass sich ARM im Servermarkt nicht so durchsetzt wie erwartet und schnell auf das x86 Design umgesattelt. Würde mich nicht mal wundern, wenn K12 völlig gestrichen wurde, ich sehe keinen Markt für das Ding.

Setsul
2017-01-23, 16:06:59
Es hängt auch sehr stark davon ab wieviel schneller/effizienter als Zen der K12 sein sollte.

Später, wenn/falls es genug ARM Server gibt, kann man immernoch einen ARM-Ableger von Zen+ produzieren, um sich an dem Markt zu beteiligen. Natürlich wäre es besser von Anfang an dabei zu sein (Seattle ist lächerlich, ich meine Big Iron wie Centriq 2400), aber will man das? Es kommt darauf an wie AMD die Chancen gegen Qualcomm etc. einschätzt im Vergleich zu Intel.
Wenn man die nicht deutlich schlagen kann, wäre es besser wenn so viel wie möglich im x86 Markt bleibt. Wenn man kein kosteneffizientes Angebot am Markt hat, bringt es nichts und wenn man eins hat, beschleunigt man eventuell den Wechsel zu ARM und schießt sich selbst ins Knie.
Wenn man aber die deutlich bessere Architektur hat, dann könnte man sich die Kosten für ARM CPUs sparen und alle im x86 Markt halten, wo die Margen hoch und die Konkurrenz zahlenmäßig minimal (1) ist.

Andererseits wenn der Markt dann doch stark wächst, eben wegen der schönen x86 Margen, verpasst AMD eventuell den Anschluss, wenn sie zu lange warten. Absolut Sinn ergibt der K12 momentan nur, wenn Zen nicht zum "King of the Hill" reicht, K12 aber schon. Das hängt dann aber wieder von Qualcomm etc. ab, die keine Daten herausrücken.

Also die Entscheidung ob und wann man den K12 braucht, würde ich nicht treffen wollen, das ist ein schwieriges Ratespiel.

fondness
2017-01-23, 16:36:28
Der ARM Servermarkt ist defacto nicht existent. Die prognostizierten Zahlen, die AMD noch vor zwei Jahren gezeigt hatte, sind nicht mal annähernd eingetreten. Ich sehe keinen plausiblen Grund, warum sich das ändern sollte. Eine neue ISA ist kein Vorteil, sondern ein Nachteil. Die Software läuft auf x86. Qualcomm und Co können wohl kaum eine CPU liefern, die Intel und AMD nicht auch liefern könnten. Alle bisherigen Versuche ARM eine Nische im Servermarkt zu sichern sind grandios gefloppt, warum sollte sich das ändern? Das könnte sich nur ändern, wenn der ARM-Servermarkt etwas liefern könnte, was x86-CPUs nicht bieten können, womit wir wieder bei meinen vorherigen Satz sind.

Skysnake
2017-01-23, 19:47:17
z.B.
https://www.hpcwire.com/2017/01/19/cea-riken-partner-arm-exascale/
https://www.top500.org/news/cray-to-deliver-arm-powered-supercomputer-to-uk-consortium/
http://insidehpc.com/2017/01/atos-delivers-bull-sequana-supercomputer-hartree-centre/

Setsul
2017-01-23, 22:31:38
@fondness:
Ja, in der ursprünglich geplanten Nische ist es nichts geworden weil niemand wirklich etwas interessantes produziert hat (Beispiel X Gene, mit 40nm wird man nicht magisch effizienter sein als 14nm) und weil Intel mit dem Xeon D gekontert hat, bevor irgendetwas auch nur annähernd konkurrenzfähig war.
Jetzt kommen langsam aktuelle Architekturen auf anständigen Prozessen.

Der Vorteil ist ganz einfach: Es reicht eine ähnliche CPU zu liefern, mit weniger lächerlichen Margen. Die letzten Jahre war AMD einfach irrelevant bei CPUs und freiwillig senkt Intel die Preise nicht. Andere Konkurrenz kann es bei x86 aber nicht geben.


Letztendlich pokert man natürlich darauf, dass Intel nicht einfach um sich selbst zu retten einen großen Teil der Profite aufgibt und die Preise senkt. Allein durch die Menge würde Intel profitabler bleiben und könnte alle anderen zu Verlusten zwingen, bis sie aufgeben.



@Skysnake:
HPC läuft oft auf custom CPUs hinaus, mit mehr oder weniger beliebiger ISA. Daran würde ich es nicht festmachen.

Skysnake
2017-01-23, 22:54:05
Es läuft wohl bei CRAY auf ThunderX CPUs raus, aber mal schauen, wie sich das entwickelt. Cray geht damit Intel auf jeden Fall fremd.

Hübie
2017-01-24, 09:51:17
Heise hat angeblich eine gute Quelle, laut der Ryzen am 28. Februar vorgestellt wird:
https://www.heise.de/newsticker/meldung/Kerniges-zum-Karneval-AMD-Ryzen-kommt-wohl-am-28-Februar-3597324.html

Wäre toll. Letzten Meldungen zufolge soll der Preis nicht so niedrig liegen wie man erwarten würde. Was erwartet denn die Menge?

pilzsammler2002
2017-01-24, 10:39:30
If "15% €" < "Intel €" then BUY

Ich halte weniger oder grob 500€ für nen 8/16 thread (was ja oft gesagt wird) eher unrealistisch aber ich bin mir da nicht sicher in wie weit AMD da wirklich aggressiv Marktanteile haben möchte...

ABer ich gehe stark davon aus das unterm strich der Preis mehr als passend sein wird. Bis ca. 700€ Würde ich bei nem 8er mitmachen :D

Felixxz2
2017-01-24, 10:51:24
Einer der 8 Kerner wird wohl im Preisbereich des 6800K liegen bzw. Leicht darüber. Wenn man Mobo und Speicher einbezieht kosten beide dann gleich viel, der AMD bietet dann zwei Kerne mehr.

Man muss ja immer bedenken, dass Intels Margen lächerlich hoch sind. Wenn AMDs 8 Kerner bei 500€ startet, machen sie immernoch ein Heidengeld. Das ist der große Vorteil für AMD. Man kann bei hohen Margen immernoch viel günstiger anbieten als Intel.
Man sehe sich ja nur die Preise der FX CPUs an, sogar da macht AMD noch Gewinn.

tm0975
2017-01-24, 11:53:37
Einer der 8 Kerner wird wohl im Preisbereich des 6800K liegen bzw. Leicht darüber. Wenn man Mobo und Speicher einbezieht kosten beide dann gleich viel, der AMD bietet dann zwei Kerne mehr.

Man muss ja immer bedenken, dass Intels Margen lächerlich hoch sind. Wenn AMDs 8 Kerner bei 500€ startet, machen sie immernoch ein Heidengeld. Das ist der große Vorteil für AMD. Man kann bei hohen Margen immernoch viel günstiger anbieten als Intel.
Man sehe sich ja nur die Preise der FX CPUs an, sogar da macht AMD noch Gewinn.

genau das war und ist immer das problem von amd. wozu sollten sie billiger anbieten? sie brauchen endlich top produkte und top image. wenn ryzen tatsächlich top ist und auf niveau eines 6900k liegt, muß auch der preis auf niveau des 6900k liegen, maximal 5 bis 10% darunter! amd kann ja gerne noch einen kleinen 8-kerner für 400 bis 600 € im angebot haben. aber top sachen müssen top preise haben, sonst werden sie nciht ernst genommen.

Timbaloo
2017-01-24, 12:56:57
Glaubst du ernsthaft, dass er auf 6900K-Niveau liegt? 6800K/6850K-Niveau halte ich für realistisch (im Mittel), vielleicht leicht drüber. Wenn sie diese Leistung bei geringerem Verbrauch hinlegen wäre das schon ordentlich.

Mangel76
2017-01-24, 12:56:58
genau das war und ist immer das problem von amd. wozu sollten sie billiger anbieten? sie brauchen endlich top produkte und top image. wenn ryzen tatsächlich top ist und auf niveau eines 6900k liegt, muß auch der preis auf niveau des 6900k liegen, maximal 5 bis 10% darunter! amd kann ja gerne noch einen kleinen 8-kerner für 400 bis 600 € im angebot haben. aber top sachen müssen top preise haben, sonst werden sie nciht ernst genommen.

Das ist doch Quatsch! Top-Produkt und Top-Image definiert sich nicht allein über den Preis. Natürlich gibt es sowas wie einen Snobeffekt bzw. "Wenns nix kostet ist es auch nix". Ein Top-Image kann man sich aber als Lieferant von Spitzenleistung zu einem fairen Preis viel leichter erarbeiten.

Außerdem: wer soll den einen 8-Kerner für 1000€ (=10% unter i7-6900K) kaufen, wenn es einen wohl nur unwesentlich schlechteren für 400-600€ gibt? Die geringen Absatzzahlen erwirtschaften dann eben kaum Gewinn, denn hoher Preis bedeutet eben nicht automatisch hohen Gewinn!!!!!

Felixxz2
2017-01-24, 12:59:25
Ich stimme dir zu, sie müssen angemessene Preise verlangen, um ihr Schmuddelimage loszuwerden. Sie müssen allerdings eben auch billiger sein als Intel, denn die haben die deutlich stärkere Marke.
Es gibt vielleicht keine wirklichen Intel Fanboys so qie bei nV, aber die Marke ist eben trotzdem deutlich bekannter.

Ich sehe aber wie du eine Staffelung als sinnvoll an. Top-Modell 8 Kerner (vielleicht besonders selektiert? Weil OC ja bei allen geht) für bisl unter 1000 (alles bei angenommener 6900K Perf). Vielleicht noch einen in der Mitte und einen Brot und Butter 8er für bisl überm 6800K. Denn der ist wohl der gefährlichste Konkurrent.

Käsetoast
2017-01-24, 13:06:24
Ich denke selektieren ist da genau das richtige Stichwort. Wenn man von der Leistung her in ähnlichen Gefilden wildert wie Intel kann man halt die paar wenigen extrem gut taktenden Exemplare aus der Produktion rausfischen und für Mondpreise verkaufen einfach um auch sicherzustellen, dass die Nachfrage gering genug ist, um nicht in hoffnungslose Lieferengpässe zu geraten, weil nur wenig CPUs so ein Niveau auch stabil packen können...

So gesehen fände ich es gut, wenn AMD auch ein paar extrem hochpreisige Prozessoren anbieten würde. Das Preis-/Leistung hier dann jenseits von gut und böse liegt dürfte ist denke ich klar, aber es würde sich imagetechnisch sicherlich gut machen...

Mangel76
2017-01-24, 13:12:25
Ich sehe aber wie du eine Staffelung als sinnvoll an. Top-Modell 8 Kerner (vielleicht besonders selektiert? Weil OC ja bei allen geht) für bisl unter 1000 (alles bei angenommener 6900K Perf). Vielleicht noch einen in der Mitte und einen Brot und Butter 8er für bisl überm 6800K. Denn der ist wohl der gefährlichste Konkurrent.

Da bleibt meiner Meinung nach zu wenig Leistungsdifferenz für eine so große Preisspanne. Wenn der kleinste 8-Kerner mit mind. 3,4 GHz Basistakt kommen soll und übertaktbar ist, wie hoch sollte dann ein doppelt so teurer 8-Kerner takten? Ein mögliches Feature, dass man sich gut bezahlen lassen kann, wäre diese extended frequency range, was bei den kleinsten deaktiviert sein könnte. Aber auch das würde keinen doppelten Preis rechtfertigen.

Einzige lohnende Möglichkeit, die sich mir erschließt: wirklich handverlesene und sehr stark limitierte CPUs, für die die Enthusiasten, denen es im Benchmark auf jedes FPS ankommt, wirklich diesen Aufpreis bezahlen würden.
Edit: Käsetoast war schneller.

Matrix316
2017-01-24, 13:33:41
Ohne Quadchannel und 8 Speicherslots KANN AMD IMO den Ryzen garnicht fürs gleiche Geld wie Intel anbieten.

Das wäre so wie wenn Google Apple kopiert und das nächste Nexus für den gleichen Preis wie die iPhones anbietet. Wer wird denn so blöd sein? ;) :usad:

tm0975
2017-01-24, 13:45:55
für dich mögen das ko-kriterien sein, für andere evtl. nicht. quad-channel wäre mir persönlcih total egal, da das nicht bremst. anzahl der ram-bänke ist mir auch egal, solange 256 gb ram möglich sind. das ist mit 4 bänken teuer, aber möglich. interessanter sind da eher die lanes. ich möchte gerne 4 gb/s lese bzw schreibperformance, und das am besten im raid 1. wenn dann die performance = 6900k ist, geb ich auch die 1k € für ryzen aus.

iuno
2017-01-24, 14:29:04
Ist doch voellig egal, ob es fuer die Masse erheblich ist. Man hat weniger Lanes und 2 statt 4 DDR4 Channels. Alleine deswegen wird man nicht zum Preis eines 6900k verkaufen koennen.

Felixxz2
2017-01-24, 15:30:25
Das wäre so wie wenn Google Apple kopiert und das nächste Nexus für den gleichen Preis wie die iPhones anbietet. Wer wird denn so blöd sein? ;) :usad:

https://store.google.com/config/pixel_phone?utm_source=madeByGoogle&utm_medium=MS&utm_campaign=pixel_phone_Config_BN :freak::freak::freak:


Im Ernst: Ein 500€ 8er für die Masse und ein 1000€ Top Modell (als FX, Black Edition oder TWKR) machen am meisten Sinn. OCen kann man beide theoretisch gleich, die 1000€ CPU macht halt im Schnitt 300-500MHz mehr.

Daredevil
2017-01-24, 15:43:37
500€ für die Masse?
Schau dir doch mal die beliebtesten CPUs auf Geizhals rechts auf der Seite an, anscheinend ist da die Masse nicht vertreten.

https://geizhals.de/?o=4

Mangel76
2017-01-24, 16:07:22
Im Ernst: Ein 500€ 8er für die Masse und ein 1000€ Top Modell (als FX, Black Edition oder TWKR) machen am meisten Sinn. OCen kann man beide theoretisch gleich, die 1000€ CPU macht halt im Schnitt 300-500MHz mehr.

Im Ernst: 500€ und mehr ist keine Masse. Sieh dir die Verkaufszahlen bei Mindfactory an. Die einzigen Sockel 2011-CPUs die auf halbwegs signifikante Zahlen kommen sind die sub-500€-CPUs 5820K und 6800K. Alles was teurer ist, ist völlig unbedeutend, und das obwohl diese Preisklasse bei Mindfactory im Vergleich zum Gesamtmarkt noch deutlich überrepräsentiert sein dürfte. Gekauft wird selbst beim Selbst-PC-Zusammensteller im Preisbereich 200-350€, beim typischen Massen-MediaMarkt-Kunden wahrscheinlich noch darunter.

Vielleicht gelingt es AMD hier sogar diesen Preisbereich etwas nach oben zu verschieben, wenn dafür die Systemkosten geringer sind (Board, Speicher usw.), da für die meisten der Gesamtpreis zählt und nicht der Einzelpreis der CPU. Aber mit Preisen deutlich über 500€ gewinnt man im Comsumer-Markt keinen Blumentopf!;D

Linmoum
2017-01-24, 16:11:24
Ein nicht kleiner Teil der Masse kauft aber auch für über 300€ Quad Cores. Warum sollten 500€ für einen Octa da nicht massentauglich sein? Ich bin mir sogar sehr sicher, dass das der Fall wäre.
Aktuell bringt ein Vergleich in der Hinsicht auch überhaupt nichts. AMD hat noch keine entsprechenden Produkte und bei Intel wird's preislich unverschämt. Da darfste alleine fürs Mainboard 200€ blechen, wenn's dann doch mehr als nur ein Quad Core sein soll.

Mal ganz davon abgesehen, dass ich 500€, vor allem zum Start, sowieso für seeehr optimistisch halte.

Mangel76
2017-01-24, 16:48:28
Ich glaube, man sollte nicht vom Leser dieses Forums auf den Massenmarkt schließen wollen. Natürlich gibt es Leute, die sich so ein Sockel 2011-System hinstellen. Die allermeisten User brauchen sowas aber nicht. Da gibts einerseits die 0815-Büro-Kisten, die eigentlich schon mit nem i5 völlig überdimensioniert sind. Dann gibts die typischen MMORPG-Spieler, für die der 700€-Media-Markt-PC völlig ausreicht und die auch keinen 8-Kerner brauchen. Hier zählt eher, ob die Mindestanforderungen erfüllt werden und dann nur der Preis.

Was dann noch übrig bleibt an Hardcore-Gamern und Overclockern und die PC-Enthusiasten, die gerne mehr Geld für neue Technik ausgeben, obwohl sie es eigentlich nicht bräuchten. Aber das ist verglichen mit all den anderen ein verschwindend geringer Teil. Für die kommt ein 8-Kerner ab 500€ in Frage, für alle anderen kaum.

Ich weiß noch, wie lange ich mit mir gerungen habe ob ich den i5-2500K, der damals locker gereicht hätte, oder doch den i7-2600K kaufe. Letztendlich bekam ich bei ebay die i7 zum Preis des i5 und bin heute umso glücklicher darüber, da ich auch heute noch nicht wirklich Aufrüstungsdruck habe. So kann ich seelenruhig abwarten, was da kommt. So lange hielt bei mir noch kein System! Aber auch damals kamen mir die Extreme-Versionen nie in Betracht, auch wenn ich durchaus gewillt war, ein bisschen mehr zu investieren.

Aber für die anderen gibts ja auch 4- und 6-Kerner. Außerdem gibt es ja wahrscheinlich mehr als einen 8-Kerner, hier kann AMD also durchaus etwas Preisdiskriminierung betreiben.

Botcruscher
2017-01-24, 17:53:24
Ihr mit eurer langweiligen Preisdiskussion. Eine 480 gibt es mit deutlich größerem Chip, Board und Speicher für 190€. Der Preis selber wird dann über Performance, Marge und besonders durch das Produktionsvolumen bestimmt. Von allem ist nichts sicher bekannt. Wenn Samsung bei der Fertigung beteiligt ist, wird zumindest mit ordentlichen Volumen geplant. Die große Masse wird eh erst mit den APUs bedient.

Hübie
2017-01-24, 19:41:48
Also die 6800er Broadwell-E bewegen sich schon auf die 400er-Marke zu. Im Luxx gibt es quasi Neue ab 380 Euro (liefen wenige Tage / Wochen). Ein MSI X99 Board habe ich heute für 115 gekauft. Da muss AMD definitiv einen kompetitiven Preis ansetzen, sonst wird das nix, weil die Basis für Intel einfach da ist. Für 499 Euro können die sich auch ihren 8/16-Kerner an die Backen schmieren, wenn der nicht auf dem Niveau agiert und performt.

fondness
2017-01-24, 19:50:15
Sorry, aber gebraucht mit neu vergleichen kann wohl nicht dein ernst sein.

tm0975
2017-01-24, 19:53:47
ist klar hübie... aber schnell noch das teure intel-zeugs loswerden, bevor es mit dem zen-release den wert halbiert ist schon verständlich ;-)

Hübie
2017-01-24, 21:21:58
Sorry, aber gebraucht mit neu vergleichen kann wohl nicht dein ernst sein.

Ich habe beides genannt. Gekonnt ignoriert? Neue bewegen sich auf die 400er-Marke, wenig gebrauchte unter 400. :|

Felixxz2
2017-01-25, 02:38:07
Meine Güte, Masse ist natürlich relativ. Es wird ja auch 4 und 6 Kerner von AMD geben. Wenn man sich aber für 500-600€ nen 8Kern inkl. Mobo hinstellen kann, ist das für die obere Mittelklasse ein sehr interessantes Angebot. Denn sind wir mal ehrlich: Für 6 Kerne der letzten Generation auf Sockel 2011 zu gehen ist nun wahrlich kein rosiges Angebot.
Vermutlich wird aber eh der Ryzen 6er am attraktivsten, mit Plattformkosten um Kaby Lake.

tm0975
2017-01-25, 07:46:30
wenn die masse derzeit bei intel 4 kerne ohne ht! kauft, dann ist amd bereits mit 4 kerne + smt bestens positioniert! wenn dann noch ein 6 kerner mit smt gegen die i7 gestellt wird, sieht es für amd blendend aus. vernünftigen takt vorausgesetzt. die 8-kerner sind doch eigentlich schon bonus, sofern sie unter 800 € kommen!

Unicous
2017-03-03, 16:08:22
Zen+/Zen2 hört laut PCGH auf den Namen Pinnacle Ridge.

http://www.pcgameshardware.de/AMD-Zen-Codename-261795/News/Zen-2-Pinnacle-Ridge-Release-Termin-1222222/

edit: PR war für Ende 2017 angesetzt, PCGH vermutet, aber durch die Verschiebung bei SR wird es Anfang 2018. Raven Ridge sollte nach PR kommen, PCGH fragt sich ob es schon Verbesserungen von Zen+ enthält.

Loeschzwerg
2017-03-03, 18:33:47
Warum soll RR nach PR erscheinen?

Von Anfang '17 bis jetzt (hinsichtlich SR Verzögerung) sind es nicht mal ein Quartal, da wird RR wohl kaum nach 2018 rutschen.

Unicous
2017-03-03, 19:27:48
'soll' ungleich 'sollte'.:wink:

Sollte! Raven Ridge aber tatsächlich Zen+-Verbesserungen enthalten (was ich nicht glaube;)) könnte es durchaus sein, dass RR später kommt.

Loeschzwerg
2017-03-03, 19:42:52
'soll' ungleich 'sollte'.:wink:

Jo ^^

Ich frage mich halt wie PCGH zu der Annahme kommt.

Ob Zen+ in RR oder nicht, die APUs fehlen im Lineup und erst 2018 wäre etwas spät.

Unicous
2017-03-03, 19:47:07
Da AMD gerade mitgeteilt hat, dass Bristol Ridge zu einem späteren Zeitpunkt doch noch im retail Markt auftaucht, könnte ich mir einen sehr, sehr späten Start im vierten Quartal bei RR vorstellen. Ich ging optimistischerweise von Sommer-Herbst aus.

Loeschzwerg
2017-03-03, 19:48:44
Pfuiii :( BR will doch keiner haben. Ja, das könnte eine Erklärung sein, danke für die Info.

deekey777
2017-03-07, 14:26:33
Heute ist der Naples-Tag:
https://www.golem.de/news/naples-prozessor-wie-amd-intel-im-serversegment-uebertrumpfen-will-1703-126518.html

Um das zu erreichen, zielt AMD auf 2-Sockel-Systeme ab, welche im Serverbereich mit großem Abstand am weitesten verbreitet sind. 4- und 8-Sockel-Plattformen wie IBMs Power9 oder Intels Xeon E7 v4 stellen eine extrem teure Minderheit für Nischenmärkte dar, die AMD vorerst nicht bedienen will und kann. Naples unterstützt zwar einzig 2-Sockel-Systeme, ist in diesem Segment jedoch auf absehbare Zeit einer der mächtigsten Prozessoren überhaupt und könnte bis auf Ausnahmen selbst für Intels kommende Skylake-EP-Generation einen ernstzunehmenden Gegner darstellen.

Interessant. Wie ist das bei den ganz großen Supercomputern? Sie haben mehr als 2 Sockel je Platine, oder?

anddill
2017-03-07, 14:53:31
Dann hast Du Nodes mit 2 Sockeln die untereinander mit was HT-oder Netzwerkartigem verbunden sind.

HOT
2017-03-07, 16:56:53
Da AMD gerade mitgeteilt hat, dass Bristol Ridge zu einem späteren Zeitpunkt doch noch im retail Markt auftaucht, könnte ich mir einen sehr, sehr späten Start im vierten Quartal bei RR vorstellen. Ich ging optimistischerweise von Sommer-Herbst aus.
Das stimmt überhaupt nicht. RR ist mehr oder weniger offiziell für das 2. HJ angekündigt. RR kommt definitiv vor PinnacleRidge, es gab auch nie ne andere Informationslage.
Ob der Zen oder Zen2 hat wird primär darauf ankommen, ob PinnacleRidge in 14HP gefertigt wird (es gab derlei Gerüchte auf den einschägigen Gerüchteseiten, die du so sehr hasst, mehr aber eben nicht), denn RR ist mit an Sicherheit grenzender Wahrscheinlichkeit auch in 14LPP gefertigt.

Unicous
2017-03-07, 17:19:53
1. Das mit dem Konjunktiv erkennen lernen wir noch.
2. Zen war ursprünglich auch für 2016 anvisiert, Lisa Su hat dahingehend auch geflunkert und es dann auf Samples in late 2016 geändert.
3. RR ist für das 2H angekündigt... das hat auch niemand bestritten, du brauchst mir also keine Worte in den Mund legen oder liegt das 4. Quartal auf einmal in der 3. Jahres...hälfte?:freak:
4. Es ging um die theoretische Möglichkeit, dass RR schon Zen+-Verbesserungen beinhaltet und es daher logisch wäre, dass der Release nicht am Anfang des 2H sondern eher zum Ende hin erfolgt. Der potentielle Release von BR den retail channel verleiht dieser Theorie meiner Meinung nach Gewicht. Man möchte eine APU auf der AM4-Plattform haben um das Produktportfolio nach unten abzurunden und RR ist mutmaßlich noch nicht bereit.
5.AMD wird 14HP CPUs/APUs mit sehr hoher Wahrscheinlichkeit nicht nutzen (und ich denke auch nicht bei irgendwelchen anderen zukünftigen Produkten), das wäre absoluter Blödsinn, nachdem man sich gerade FinFET Bulk gewidmet hat und FD-SOI die Chipherstellung unnütz verteuern würde. Ich wüsste auch nicht, dass es dazu auch nur ansatzweise plausible Gerüchte gegeben hätte und wenn du jetzt wirklich mit WTF-Tech kommst, dann liege ich lachend auf dem Boden.;D;D;D
Bloß weil ein WTF-Tech Schreiberling mal etwas von 14HP auf der GF-Website gelesen hat, macht es das nicht zu einem glaubwürdigen Gerücht.
Es gibt übrigens auch "Gerüchte", dass RR in 22FD-SOI gefertigt wird. Quelle: Der Spinner (Nosta)SeronX.
6. Wenn jemand 'definitiv' fett schreibt, weiß er definitiv nicht, wovon er redet.:rolleyes:
7. Es gab auch vor ein paar Tagen noch nicht die Information, dass Pinnacle Ridge der Name für Zen+/2 sein könnte.

edit:

8. Hass führt zur dunklen Seite der Macht. Ich hasse nicht.:rolleyes:

Tru
2017-03-07, 17:27:28
Das stimmt überhaupt nicht. RR ist mehr oder weniger offiziell für das 2. HJ angekündigt. RR kommt definitiv vor PinnacleRidge, es gab auch nie ne andere Informationslage.
Ob der Zen oder Zen2 hat wird primär darauf ankommen, ob PinnacleRidge in 14HP gefertigt wird (es gab derlei Gerüchte auf den einschägigen Gerüchteseiten, die du so sehr hasst, mehr aber eben nicht), denn RR ist mit an Sicherheit grenzender Wahrscheinlichkeit auch in 14LPP gefertigt.
Zumindest ~vor einem halben Jahr prognostizierte AMD RR erst Anfang 2018 und damit nach PR. Wie es jetzt aussieht ... keine Ahnung. Aber ein fettgedrucktes "definitiv" würde ich nicht unterschreiben.

Complicated
2017-03-07, 18:33:02
RR war IIRC noch nie für 2018 angekündigt. Bitte die Quelle falls du wo anders etwas anderes gelesen hast. Im August 2016 war alles so wie nun passiert auf der Roadmap, inkl. Ryzen in 2017:
https://www.heise.de/newsticker/meldung/AMD-Roadmap-Hinweise-auf-Zen-APU-3290009.html
Nur Stoney Ridge ist bisher verschollen kann aber immer noch auftauchen.

Tru
2017-03-07, 21:08:11
RR war IIRC noch nie für 2018 angekündigt. Bitte die Quelle falls du wo anders etwas anderes gelesen hast. Im August 2016 war alles so wie nun passiert auf der Roadmap, inkl. Ryzen in 2017:
https://www.heise.de/newsticker/meldung/AMD-Roadmap-Hinweise-auf-Zen-APU-3290009.html
Nur Stoney Ridge ist bisher verschollen kann aber immer noch auftauchen.
Interne Roadmap, auf der die News basiert: http://www.pcgameshardware.de/AMD-Zen-Codename-261795/News/Zen-2-Pinnacle-Ridge-Release-Termin-1222222/

Complicated
2017-03-07, 21:23:56
Der Artikel ist von letzter Woche. Ich habe dir einen Link gegeben wo eine interne Roadmap im August 2016 alles so darstellt wie es auch gekommen ist. Somit ist das wohl seit 9 Monaten genau so geplant. Bei der PCGH sortieren sie alle Woche alles anders um wieder Klicks zu bekommen - da stimmt ja gar nichts mehr bei denen. Ich sage nur Autor: Mark Mantel.
WCCF Tech ist da zuverlässiger mittlerweile.

Und selbst er schreibt:
Zuletzt wiederholte AMD immer wieder, dass Raven Ridge im zweiten Halbjahr 2017 debütieren soll.

deekey777
2017-03-08, 21:53:09
Serverprozessor AMD Naples in der Microsoft-Cloud (https://www.heise.de/newsticker/meldung/Serverprozessor-AMD-Naples-in-der-Microsoft-Cloud-3647855.html)

Auf dem OCP Summit kündigt Microsoft den Einsatz des kommenden AMD-Prozessors Naples in "Project Olympus"-Servern für Azure-Rechenzentren an.

Schön für Microsoft, dass sie auf vernünftige CPUs setzen. :biggrin:

Unicous
2017-03-15, 11:17:57
Tja, Raven Ridge (Desktop)... kommt erst 2018.

Jedenfalls laut dieser roadmap.:wink:

https://cdn.videocardz.com/1/2017/03/AMD-Pinnacle-Ridge-Raven-Ridge.jpg

deekey777
2017-03-15, 11:28:34
RR-APUs kommen erst 2018 für AM4?

dildo4u
2017-03-15, 11:33:44
Sollte 2018 nicht Zen + kommen?

Unicous
2017-03-15, 11:34:05
Wenn die roadmap legit ist - und allzu träumerisch ist sie ja nicht- kommt RR erst 2018 für den Desktop, was schon nicht so cool ist. Stattdessen kommt die DT Variante von BR, die ja im retail channel bislang M.I.A. war.

Ich schätze mal, dass ist auf geringe Kapazitäten zurückzuführen und dem Fakt, dass Mobile mehr Marge abwirft. Mal sehen, ob sie es schaffen zur back to school season RR Mobile rauszuhauen, ansonsten wäre das 2017 nur Augenwischerei, da die OEMs eben nur in festen Zyklen denken.


edit:

Kommt es doch. Das ist Pinnacle Ridge. Darüber haben wir die letzte Seite gesprochen.:rolleyes:

gmb
2017-03-15, 12:05:51
Wenn die roadmap legit ist - und allzu träumerisch ist sie ja nicht- kommt RR erst 2018 für den Desktop, was schon nicht so cool ist. Stattdessen kommt die DT Variante von BR, die ja im retail channel bislang M.I.A. war.


Überrascht dich das? Es war doch praktisch schon lange klar, dass Raven Ridge in 2017 höchstens für mobile kommt. Das sollte keinen überraschen. Die Frage ist jetzt nur, ob AMD 2017 für mobile wirklich halten kann. Ryzen war auch lange für 2016 angesetzt, daraus wurde bekanntlich nichts. Es scheint mir so, als wenn das sehr eng werden könnte. Eine Roadmap mit nur der Jahreszahl ist halt sehr ungenau, war schon bei den ersten Zen Roadmaps so.

Unicous
2017-03-15, 12:10:56
Nichts war klar. Außer man zieht die 20/20 hindsight Brille auf und weiß alles besser.:rolleyes:

robbitop
2017-03-15, 12:19:06
Mobile macht schon am Meisten Sinn. Dort sind die Gewinnspannen höher. Seit Carrizzo kommen die DT Pendants später als die mobilen. DT kann Summit Ridge bis runter auf 4C gut abdecken. Die IGP fehlt dann zwar - somit entgeht AMD dann für ein paar Monate ein Teil des OEM Markt. Aber der mobile Markt sollte mehr abwerfen.

MR2
2017-03-19, 22:45:58
https://cdn.videocardz.com/1/2017/03/CanardPC-16-core-Ryzen-HEDT.png
X399 Chipsatz? 16 Kerne?
Suck it down, you little....

Ravenhearth
2017-05-17, 01:07:00
http://i.imgur.com/ncEyS3i.jpg

Epyc soll außerdem in der zweiten Junihälfte erscheinen.

dildo4u
2017-05-17, 02:18:18
Epyc ohne Heatspreader.

http://abload.de/img/article-630x354.90c8dinko6.jpg

https://www.computerbase.de/2017-05/amd-epyc-naples-multi-chip-module/

Skysnake
2017-05-17, 09:27:55
Jup. Jetzt wissen wir, dass das 4 Chip MCM keinen Interposer nutzt. Das wird die Kosten unten halten, da man ein einfaches organisches Package nutzt.

Ich bin echt wie ein Flitzebogen darauf gespannt mal so ein Teil in die Finger zu bekommen :D

y33H@
2017-05-17, 10:04:25
Hat jemand ein MCM mit Interposer erwartet?

deekey777
2017-05-17, 13:36:52
Zen+ fehlt? Oder ist das ein Hingespinst? (Oder bloß ein fehlerbereinigtes Stepping oder so ähnlich.)

Dino-Fossil
2017-05-17, 13:40:40
Auf einer anderen Folie war, glaube ich, "14nm+" zu sehen. Evtl. Ist das dann Zen+ mit leichten Fertigungsverbesserungen?

Skysnake
2017-05-17, 15:01:33
Hat jemand ein MCM mit Interposer erwartet?
Nicht wirklich, ich hätte es aber auch nicht ausschließen wollen.

Mit Interposer, wäre die Chance für ZEN + VEGA halt deutlich gestiegen als HPC APU. So ist die Chance dafür wohl nur noch ziemlich klein.

disap.ed
2017-05-18, 16:26:39
Ist K12 eigentlich offiziell tot? Habe nie was gehört dass er gecancelled wurde, sonst aber eigentlich auch nichts über den Status.

anddill
2017-05-18, 16:42:53
Hat jemand ein MCM mit Interposer erwartet?

Ja. Weil ein Interposer zumindest vom Gefühl her höhere Takte und damit mehr Speed für das Infinity Fabric zulassen würde. Die Verbindungen zu und in einem INterposer sind halt feiner und besser kontrollierbar (HF-Eigenschaften, Impedanz, parasitäre Verluste). Aber vielleicht wäre das schon unnötig gut. Oder schlicht zu teuer für den eventuellen Nutzen.

Loeschzwerg
2017-05-18, 16:53:33
Ich bin ja gespannt ob es nicht irgendwelche Engpässe gibt. Sehr sehr Interessant die Geschichte.

---

@disap.ed: Scheinbar am Ende bzw. wieder in eine Schublade gewandert. Momentan hat AMD aber eh sehr viel Baustellen zu bewältigen, da braucht es nicht so einen weiteren "Klotz" der Geld kostet.

https://www.computerbase.de/2017-05/amd-epyc-naples-opteron/

Mit diesen Worten und den zuvor bereits von AMDs Chefin erwähnten Zurückziehen von bestimmten Projekten in der jüngeren Vergangenheit dürfte das definitive Aus von einem ARM-Prozessor von AMD sein: x86 ist das Produkt an dem AMD festhalten wird.

ndrs
2017-05-18, 18:03:57
Hat jemand ein MCM mit Interposer erwartet?
Dabei frage ich mich gerade, ob es überhaupt möglich ist den gleichen Die einmal auf einem Interposer und einmal auf dem Package zu verlöten oder gibt es da weitere Anpassungen, die gemacht werden müssen? Ich frage explizit nicht, ob das sinnvoll ist, sondern technisch möglich.

Skysnake
2017-05-18, 22:51:35
Normal sollte es schon gehen einen Chip auch auf einen Interposer zu packen, den man auf ein normales PAckage packt. Das Problem daran ist nur, dass man den großen Vorteil des höheren Pinouts des Interposers verliert...

Macht also wenig Sinn.

Setsul
2017-05-18, 23:28:35
Technisch möglich aber man müsste alle Kontakte so groß machen, dass sie auch auf einem Package funktionieren.

RAM und PCIe müssen sowieso nach außen geführt werden, also da stört es nicht. IF zwischen Sockeln verwendet die PCIe PHYs, zumindest bei Naples, bei Snowy Owl kann man sicher auch mit konstanter Anzahl PCie Lanes leben (anstatt doppelt soviele mit 2 CPUs) und 2P Systeme mit nur 8 Kernen pro Sockel sind nicht mehr überwältigend, also darauf kann man verzichten.

Ich glaube das Problem ist einfach, dass schon zwischen CCX die Verbindung recht langsam ist und für die Verbindung zwischen Dies ein Interposer einfach unnötig ist.

Und dann sind da natürlich immernoch die Kosten. Wenn man nur das verbindet was man braucht und die Kontakte nah nebeneinander liegen (also wie EMIB) dann ginge es noch, aber damit man alles auch noch gut kühlen kann sollte man die Fläche der 4000-Pin Sockel auch ausnutzen und nicht alle Dies direkt nebeneinander in die Mitte setzen. 800mm² reine Diefläche sind schon groß genug, mit den Abständen reicht wahrscheinlich nicht einmal doppelte Belichtung sondern man bräuchte einen vierfach belichteten Interposer. Das Kosten/Nutzen-Verhältnis sieht da nicht gut aus.

deekey777
2017-05-19, 09:40:33
Keine Ahnung, wohin damit: https://youtu.be/-P87BBSHAsg

Asus ROG Laptop mit Ryzen.

Gipsel
2017-05-20, 01:28:23
Jup. Jetzt wissen wir, dass das 4 Chip MCM keinen Interposer nutzt. Das wird die Kosten unten halten, da man ein einfaches organisches Package nutzt.

Ich bin echt wie ein Flitzebogen darauf gespannt mal so ein Teil in die Finger zu bekommen :D
Hat jemand ein MCM mit Interposer erwartet?
Es ist ein organisches Package mit schickem Schleifchen ;). AMD sprach doch von einem 2.1D Package, oder? Auf dem PCB-Substrat sind dann eventuell noch ein paar recht feine Duennfilmschichten aufgebracht, in denen auch Kontakte laufen. Damit bekommt man hoehere Dichten als mit den althergebrachten organischen Substraten hin. Inwieweit das wirklich benutzt wird (die einzelnen Dies liegen doch recht weit auseinander) oder ob das nur ein in die Runde geworfenes Schlagwort war, entzieht sich aber meiner Kenntnis.

Skysnake
2017-05-20, 08:55:43
Für mich hört sich das nach Marketing Bullshitbingo an. 2.1 D habe zumindest ich noch nie gehört.

Complicated
2017-05-20, 09:41:48
http://www.semi.org/eu/sites/semi.org/files/docs/7_Amkor_NaniumSymposium_Jun26th2013.pdf
Seite 11
2.1 D-DOS: Dual Organic Substrate

Ergänzend:
http://www.imapsource.org/doi/abs/10.4071/isom-WP15?code=imap-site&journalCode=isom

In this paper, we describe an organic interposer that is capable of providing high density interface between chips with large I/O counts therefore could be an attractive low-cost 2.1D packaging solution. Our concept can demonstrate ultra fine line interconnects with width/space below 5um with microvias having pitch below 50um which can be effective solution for high density routing. This feature enables the ICs to be attached directly to the substrate therefore eliminating the need for a silicon interposer needed in conventional 2.5D package architecture.

Sehr detailliert: http://thor.inemi.org/webdownload/2014/Substrate_Pkg_WS_Apr/13_Hitachi.pdf

anddill
2017-05-20, 10:18:08
Mit anderen Worten: Der funktionale Unterschied zwischen einem Si-Interposer und einem Kunststoff-Interposer ist kleiner als gedacht.

Complicated
2017-05-20, 10:23:05
Kosten und Bruchfestigkeit sind hier eher im Fokus.

Hier eine Grafische Darstellung:
http://electroiq.com/insights-from-leading-edge/wp-content/uploads/sites/4/2015/02/ST-2.jpg

mboeller
2017-05-20, 13:08:36
es schaut für mich als Laie so aus, als ob man 2.1D selbst für CPU/GPU + HBM benutzen kann.

Stimmt die Einschätzung? Wenn ja würde es mich nicht wundern wenn AMD in Zukunft komplett auf diese neue(?) Technologie setzen wird.

dildo4u
2017-06-19, 00:07:21
Der Taktsprung durch 7LP scheint gewaltig bin gespannt ob das bei den Desktop CPU's (95TDP) machbar ist.


http://i.imgur.com/6iLXsKl.png

robbitop
2017-06-19, 06:26:28
Ich nehme an, dass wir im 12C 7nm Core in Q1 2019 sicherlich höhere Taktraten sehen werden. Wie heißt da eigentlich der einzelne Core? Starship ist ja der Codename für ein 4x MCM aus dem Core mit 48c/96t.

Bereits PInnacle Ridge (respin von summit ridge in 14nm+ in Q1 2018) wird sicherlich etwas höhere Taktraten mitbringen.

reaperrr
2017-06-19, 20:55:25
Wie heißt da eigentlich der einzelne Core?
Entweder Zen+ oder Zen2.

basix
2017-06-19, 21:05:24
Zur APU: Kann es sein, dass AMD auch hier die 1-DIE for all Strategie fährt?

1x Die = 2C / 4T + 512 Vega Shader = 15-35W.
2x Die = 4C / 8T + 768...1024 Vega Shader = 35-55W
3x Die = 6C / 12T + 1024...1536 Vega Shader = 45-75W
Bei Derivaten ohne max. Shader werden die Teildefekten DIEs verwendet
Verbindung jeweils über Infinity Fabric
1x Die ist jeweils der Master und beinhaltet das DDR4 Speicherinterface oder wie auch immer dies am intelligentesten gemacht werden kann. Theoretisch könnte man das über die Anzahl Chips skalieren (gut für die IGP, schlecht für die Energieeffizienz und Platzbedarf im Notebook)
Noch besser wäre das mit einem kleinen Interposer + HBM2 Stack pro Die, z.B. jeweils 1-high Stack mit 1GB @ 128-256bit @ 64GB/s. Das entspricht der Vega 10 Bandbreite pro Speicherkapazität und Shader. Da nur 1-high praktisch keine Herstellungsprobleme des HBM und Yield des Interposers etc. ist auch >98%
Solche Ideenansätze sind einfach ideal, weil die technischen Daten / Kapazitäten mit der Anzahl Einheiten skaliert. Gewisse Sachen sind dann aber zwangsweise redundant (z.B. I/O Zeugs). Dies kann man mit dem generell kleineren Die, der höheren Ausbeute, geringerem Entwicklungs- und Validierungsaufwand aber wahrscheinlich wieder reinholen. Man hat enorme Skaleneffekte aufgrund der hohen Stückzahlen bei allen Komponenten.
Man kann die Verbindung der Dies per Substrat herstellen oder optimalerweise alle Dies auf einen Interposer knallen. Ich hoffe aber auf den Mini-Interposer Ansatz in Kombination mit einem Substrat :D
Probleme: Der Vega Tile Binning Rasterizer benötigt relativ viel Cache und den HBCC. Das wären evtl. ziemlich grosse unnötige Platzfresser. Vielleicht lohnt sich das ganze erst ab 4C / 8T / 1024 Shader und dementsprechender Skalierung nach oben und unten (Vega 10 hat 4 Rasterizer und scheint laut Die-Shot in 4 Stück unterteilt zu sein ;)). 8C / 16T / 2048 Shader / 4-8GB HBM2 hören sich für ein High End Notebook ja nicht schlecht an :D Zusätzlichen DDR4 für Allerweltsaufgaben kann man immer noch dazu integrieren


Kurz zusammengefasst: AMD hat ganz heisse Eisen im Feuer, um aus relativ wenig Aufwand grosse Skalierungen hinzubekommen. Dies auf CPU Seite und wahrscheinlich auch GPU Seite.

Brillus
2017-06-19, 21:49:28
Zur APU: Kann es sein, dass AMD auch hier die 1-DIE for all Strategie fährt?

1x Die = 2C / 4T + 512 Vega Shader = 15-35W.
2x Die = 4C / 8T + 768...1024 Vega Shader = 35-55W
3x Die = 6C / 12T + 1024...1536 Vega Shader = 45-75W
Bei Derivaten ohne max. Shader werden die Teildefekten DIEs verwendet
Verbindung jeweils über Infinity Fabric
1x Die ist jeweils der Master und beinhaltet das DDR4 Speicherinterface oder wie auch immer dies am intelligentesten gemacht werden kann. Theoretisch könnte man das über die Anzahl Chips skalieren (gut für die IGP, schlecht für die Energieeffizienz und Platzbedarf im Notebook)
Noch besser wäre das mit einem kleinen Interposer + HBM2 Stack pro Die, z.B. jeweils 1-high Stack mit 1GB @ 128-256bit @ 64GB/s. Das entspricht der Vega 10 Bandbreite pro Speicherkapazität und Shader. Da nur 1-high praktisch keine Herstellungsprobleme des HBM und Yield des Interposers etc. ist auch >98%
Solche Ideenansätze sind einfach ideal, weil die technischen Daten / Kapazitäten mit der Anzahl Einheiten skaliert. Gewisse Sachen sind dann aber zwangsweise redundant (z.B. I/O Zeugs). Dies kann man mit dem generell kleineren Die, der höheren Ausbeute, geringerem Entwicklungs- und Validierungsaufwand aber wahrscheinlich wieder reinholen. Man hat enorme Skaleneffekte aufgrund der hohen Stückzahlen bei allen Komponenten.
Man kann die Verbindung der Dies per Substrat herstellen oder optimalerweise alle Dies auf einen Interposer knallen. Ich hoffe aber auf den Mini-Interposer Ansatz in Kombination mit einem Substrat :D
Probleme: Der Vega Tile Binning Rasterizer benötigt relativ viel Cache und den HBCC. Das wären evtl. ziemliche unnötige Platzfresser. Vielleicht lohnt sich das ganze erst ab 4C / 8T / 1024 Shader und dementsprechender Skalierung nach oben und unten (Vega 10 hat 4 Rasterizer und scheint laut Die-Shot in 4 Stück unterteilt zu sein ;)). 8C / 16T / 2048 Shader / 4-8GB HBM2 hören sich für ein High End Notebook ja nicht schlecht an :D Zusätzlichen DDR4 für Allerweltsaufgaben kann man immer noch zusätzlich integrieren


Kurz zusammengefasst: AMD hat ganz heisse Eisen im Feuer, um aus relativ wenig Aufwand grosse Skalierungen hinzubekommen. Dies auf CPU Seite und wahrscheinlich auch GPU Seite.

Sehr unwahrscheinlich:
a) Wegen des Uncores, da müsste der kleine schon alles IO haben was da schon relative viel Platz wegnehmen würde und bei 2 cores der ganze platz nicht zu gebrauchen (ok evtl. könnte man da noch auf Summit Ridge like PCIe slots hoch gehen aber mit integrierter GraKa bruacht man auch nicht soviel). Bei Summit Ridge bekommen die größeren eignen Sockel wo man das ganze Zeugs nutzen kann.
b) Bis jetzt gibt es keine Anzeichen dafür das Grafikeinheit sinnvoll über IF zu skalieren ist und Crossfire will man sich sicher nicht ins Haus holen, das wäre totaler zerriss in der Presse.

basix
2017-06-19, 22:11:22
Sehr unwahrscheinlich:
a) Wegen des Uncores, da müsste der kleine schon alles IO haben was da schon relative viel Platz wegnehmen würde und bei 2 cores der ganze platz nicht zu gebrauchen (ok evtl. könnte man da noch auf Summit Ridge like PCIe slots hoch gehen aber mit integrierter GraKa bruacht man auch nicht soviel). Bei Summit Ridge bekommen die größeren eignen Sockel wo man das ganze Zeugs nutzen kann.
b) Bis jetzt gibt es keine Anzeichen dafür das Grafikeinheit sinnvoll über IF zu skalieren ist und Crossfire will man sich sicher nicht ins Haus holen, das wäre totaler zerriss in der Presse.

a) Stimme ich dir voll zu, ist bei Zeppelin aber auch schon schon so (siehe all die I/O Spielereien bei Epyc vs. AM4, bei einem 1800X liegt extrem viel I/O Zeugs brach weil es auf AM4 einfach gar nicht genutzt werden kann). Habe ich aber auch so erwähnt. Die I/O's und SerDes an sich sind allerdings Multiprotokoll fähig. Also z.B. GMI oder PCIe frei wählbar, je nach Einsatzzweck. Da kann man unter Umständen ein wenig I/O Redundanz sparen.
b) Wissen wir noch nicht, richtig. Crossfire wie wir es kennen wäre es sicher nicht, eher ein HW-Crossfire das gegen die Applikation hin wie eine Single GPU aussieht. Grundsätzlich sollte das bei einem 4-Die Epyc oder 2-Die Threadripper in diesem Sinne schon so laufen. Ich nehme nicht an, dass das Betriebssystem dann 2 oder 4 CPUs erkennt. Für mich ist solch eine Erweiterbarkeit das Totschlag-Argument bezüglich Scalability. Vielleicht kommt das aber erst mit Navi (siehe http://images.anandtech.com/doci/11002/Roadmap2.jpg)

robbitop
2017-06-20, 08:07:47
Entweder Zen+ oder Zen2.

Nein Core. Nicht die mArch. Der einzelne Core. Starship ist ein MCM aus 4x Core dessen Namen ich suche mit je 12C/24T.

fondness
2017-06-20, 12:08:37
Der Codename für das Single Die wurde noch nicht geleaket.

robbitop
2017-06-20, 12:11:26
Würde mich nicht wundern wenn dieser Core auf SKL-X IPC und Takt käme. Allerdings mit weniger Leistungsaufnahme und günstiger.

fondness
2017-06-20, 12:15:10
Würde mich nicht wundern wenn dieser Core auf SKL-X IPC und Takt käme. Allerdings mit weniger Leistungsaufnahme und günstiger.

AMD hat jedenfalls angekündigt, dass sie noch viele Ideen und Verbesserungen in petto haben, bzw. wurde ja ein weiterer IPC-Anstieg angekündigt. Mal sehen wieviel davon Realität wird.

robbitop
2017-06-20, 13:18:57
Für den Markt und somit alle Konsumenten ist es hochgesund was seit diesem Jahr passiert. AMD hat mit dem neuen Management wirklich erstaunliches geleistet.

HPVD
2017-06-21, 10:26:17
Der heutige Epyc Launch ist ja mehr als vielversprechend.
Mal schauen wie sich da die Marktanteile entwickeln...

Gibts bereits irgendwelche gesicherten Infos welche neuen Features Zen2 und Zen 3 mit bringen?

Das einzige was imho im Prof Umfeld noch fehlt
- für maches HPC Thema: schnelles AVX2 und das bei Intel mit Skylake SP kommende AVX512
- für manche HL-Workstation (und auch andere Anwendungen..): ein sehr schnell ansprechender sehr hoher Turbo für ST-Peaks (analog intels Kombi aus speedshift(2) und Turbo 3.0)
(sonst fühlt sich selbst manche Workstation auch mit vielen Kernen bei den immer wieder anstehenden Alltags Aufgaben irgendwie lahm an (Erfahrung mit 2x10core Ivy)

auch interssant wäre z.B.: wann kommt bei AMD PCIe 4.0 in der Praxis an?

Intel hat ja z.B. über Dinge wie AVX512 gefühlte 100Jahre vorher gesprochen..

Tru
2017-06-21, 10:48:22
Würde mich nicht wundern wenn dieser Core auf SKL-X IPC und Takt käme. Allerdings mit weniger Leistungsaufnahme und günstiger.
Hätte das jemand vor einem Jahr gesagt, wäre man wohl für verrückt erklärt worden. Erstaunlich. :D

Complicated
2017-06-21, 10:59:52
AVX512 wird bei AMD nicht kommen. AMD nutzt HSA und GPUs für solche Workloads. Die Implementierung bläht die CPUs auch übermäßig auf mittlerweile. Niedrigere Taktraten je nach Workload sind auch keine angestrebten Features.

fondness
2017-06-21, 11:14:38
Für den Markt und somit alle Konsumenten ist es hochgesund was seit diesem Jahr passiert. AMD hat mit dem neuen Management wirklich erstaunliches geleistet.

Man sollte Intel nicht unterschätzen. Offensichtlich braucht man dort immer erst mal ordentlich auf die Fresse, dass man wieder zu arbeiten beginnt.

Pirx
2017-06-21, 11:46:33
Man sollte Intel nicht unterschätzen. Offensichtlich braucht man dort immer erst mal ordentlich auf die Fresse, dass man wieder zu arbeiten beginnt.
geht doch allen so

robbitop
2017-06-21, 11:47:44
Vermutlich ist man mittlerweile wirklich an einem Punkt auf der Kurve des sinkenden Grenzertrags angekommen, an dem die IPC Gewinne immer kleiner und gleichzeitig immer schwieriger zu erreichen sind. Würde mich nicht wundern, wenn Icelake nur noch grob 5% IPC ggü SKL bringt.

Mancko
2017-06-21, 11:50:19
Man sollte Intel nicht unterschätzen. Offensichtlich braucht man dort immer erst mal ordentlich auf die Fresse, dass man wieder zu arbeiten beginnt.

Das ist normal denn man will so viel Geld wie möglich verdienen und warum soll man dann mehr liefern als man zwingend muss. Das macht einfach keiner.

Wie ich Intel kenne werden die einfach die überlegenen Finanzen nutzen und AMDs Erfolgsaussichten damit verlangsamen und dann einfach in der Zwischenzeit wieder ordentlich Geld in die Hand nehmen. Mich würde auch nicht wundern wenn Intel parallel an der Softwareseite bei Compilern etc. perspektivisch architekturbedingt wieder Änderungen herbeiführt die für AMD dann einfach schwierig zu kompensieren sind. Am Ende des Tages stehen da einfach Tausende Fache Finanzen vs. einem Unternehmen das so um die +- Null Punkt herum operiert.

Complicated
2017-06-21, 12:24:01
Es ist fraglich ob das Management mit "Geld in die Hand nehmen" bei den Investoren punkten kann. Mal schnell noch ne Milliarde verbrennen wie im mobile Geschäft wird nicht drin sein. weitere Milliarden-Strafzahlungen wegen Wettbewerbsverhalten ebenfalls nicht, da alle nur auf der Lauer liegen was Intel nun machen wird. Geld in der Kasse alleine bringt noch keinen Erfolg, da wird man sehen müssen wo dieses Geld denn überhaupt Nutzen bringen wird ohne verbrannt zu werden. Die Margen senken ist noch viel schwerer, ebenfalls wegen den Hypernervösen Aktien-Analysten die nur auf solche Änderungen der "Fundamentals" warten um einen Börsenkurs auf Talfahrt zu schicken.

Intel hat derzeit keine einfachen Lösungen. Es wird in jedem Fall schmerzhaft werden an der einen der anderen Stelle. Vermutlich an allen gleichzeitig. Verlust von Marktanteilen bei dem Server-Monopol ist nicht zu verhindern, die Margen werden dennoch sinken weil die Preise angepasst werden müssen um nicht zu viele Marktanteile zu verlieren. Das größte Sorgenkind jedoch ist die einstmals für den Erfolg der letzten Jahre verantwortliche Fertigung. Diese wird nun zur Belastung, sowohl bei den Kosten, als auch bei der Entwicklung wo man ins Hintertreffen geraten ist wegen dem stocken bei EUV.

Was Compiler-Probleme angeht ist AMD deutlich besser aufgestellt als sie es früher einmal waren. HSA, Vulkan, DX12 und ROCm ist Sofwareseitig besonders beim Computing und Gaming auf AMD Hardware getuned. GCN hat die Software nachziehen lassen durch eigene Aktivitäten wie Mantle und der Boltzman-Initiative.

Skysnake
2017-06-21, 12:44:14
Das ist normal denn man will so viel Geld wie möglich verdienen und warum soll man dann mehr liefern als man zwingend muss. Das macht einfach keiner.

Wie ich Intel kenne werden die einfach die überlegenen Finanzen nutzen und AMDs Erfolgsaussichten damit verlangsamen und dann einfach in der Zwischenzeit wieder ordentlich Geld in die Hand nehmen. Mich würde auch nicht wundern wenn Intel parallel an der Softwareseite bei Compilern etc. perspektivisch architekturbedingt wieder Änderungen herbeiführt die für AMD dann einfach schwierig zu kompensieren sind. Am Ende des Tages stehen da einfach Tausende Fache Finanzen vs. einem Unternehmen das so um die +- Null Punkt herum operiert.
Was heist wird? Intel macht schon immer sehr viel in Sachen Software. Die sind ein riesiges Softwareunternehmen!

Und z.B. der Intel Compiler 17 ist teilweise sehr sehr sehr viel besser als der 16er. Ich habe das schon speedups von >1,3 gesehen

@Complicate:
Schon mal den ROCm stack genutzt. Was ich bisher gehoert habe ist eher desastroes. Und so lange kein FORTRAN support dabei ist, werden Sie im HPC nichts reisen...

Complicated
2017-06-21, 13:33:49
Ich habe bisher nichts von desaströs gehört. Nutze es nicht selber. Fortran läuft soweit ich weiss nicht direkt auf GPUs sondern lediglich spezielle Iterationen die Nvidia z.B. für ihre GPUs in CUDA implementiert hat. AMD geht hier wohl andere Wege mit ROCm, wobei Python wohl weiter verbreitet ist als Fortran. C, C++ wird wohl ebenso bevorzugt. Was ich so von Entwicklern lese liest sich meist so wie dieses hier:
I have roughly a decade of experience in Fortran 90/95, and I've also programmed in Fortran 2003. I have roughly five years of experience programming in Python. I use Python much more than I use Fortran because, frankly, I get more done in Python. The majority of the work I need to do does not require major supercomputing resources and is generally not worth re-developing in another language, so Python is just fine for solving ODEs and PDEs. If I need to use a compiled language, I will use C, C++, or Fortran, in that order.

mksn7
2017-06-21, 13:45:58
Es gibt CUDA Fortran, wird aber ausschließlich vom PGI compiler implementiert. C-Module zu einer Fortran code basis dazulinken ist aber prinzipiell möglich und nicht unüblich.

Locuza
2017-06-21, 14:40:51
AVX512 wird bei AMD nicht kommen. AMD nutzt HSA und GPUs für solche Workloads. Die Implementierung bläht die CPUs auch übermäßig auf mittlerweile. Niedrigere Taktraten je nach Workload sind auch keine angestrebten Features.
AVX512 bietet aber viel mehr, als die reine SIMD-Breite.
Ebenso wie bei AVX1 und AVX2 könnte AMD bei Zen 2 in 7nm die Datenbreite auf 256-Bit aufbohren und AVX512 Operationen einfach in zwei Schritten erledigen.
Man unterstützt alle Funktionen, erhöht den theoretischen Durchsatz allerdings nicht und belässt das Design relativ schmal.

Complicated
2017-06-21, 15:17:46
Was bietet AVX512 denn mehr als reine SIMD Breite? AMDs HSA Ansatz ist hier deutlich flexibler IMHO. Auch das Software Ökosystem wird nun langsam fahrt aufnehmen nach einigen Jahren der Vorarbeit.

Ich bin mir sicher, dass Intel am liebsten so viel SIMD in die CPU stopfen würde, dass GPUs irrelevant werden, doch das wird nicht gelingen. Man sieht die Bemühungen ja hier z.B.: https://software.intel.com/en-us/forums/intel-isa-extensions/topic/499225

Doch AMD wird sicherlich besser beraten sein keine Extensions zu etablieren die zu sehr GPU-Ersatz werden und das auch noch zu Lasten der eigenen Entwicklungen im Bereich HSA und APU. Die Server-APU wird der nächste Schritt sein und da wird SIMD-Code nicht mehr auf der CPU laufen. Heterogene Beschleuniger werden immer einfach eingebunden mit EPYC und Infinity Fabric zzgl HBCC.

iuno
2017-06-21, 15:19:48
Alles ab hier: https://en.wikipedia.org/wiki/AVX-512#New_instructions_in_AVX-512_conflict_detection

Complicated
2017-06-21, 15:44:32
Das ist wohl kaum der Fall. Das meiste davon funktioniert auf GPUs und benötigt keine neuen AVX512 Instruktionen. Siehe hier: http://gpuopen.com/professional-compute/

Edit:
Das erinnert mich sehr an die TSX Erweiterungen die Intel nach wie vor nicht zum laufen bringt und AMD schon seit Jahren als ASF implementiert hat ohne neue Instruktionen dafür zu benötigen.

Skysnake
2017-06-21, 16:26:39
Ich habe bisher nichts von desaströs gehört. Nutze es nicht selber. Fortran läuft soweit ich weiss nicht direkt auf GPUs sondern lediglich spezielle Iterationen die Nvidia z.B. für ihre GPUs in CUDA implementiert hat. AMD geht hier wohl andere Wege mit ROCm, wobei Python wohl weiter verbreitet ist als Fortran. C, C++ wird wohl ebenso bevorzugt. Was ich so von Entwicklern lese liest sich meist so wie dieses hier:

I have roughly a decade of experience in Fortran 90/95, and I've also programmed in Fortran 2003. I have roughly five years of experience programming in Python. I use Python much more than I use Fortran because, frankly, I get more done in Python. The majority of the work I need to do does not require major supercomputing resources and is generally not worth re-developing in another language, so Python is just fine for solving ODEs and PDEs. If I need to use a compiled language, I will use C, C++, or Fortran, in that order.

Ich habe mal die wesentlichen Teile markiert...

Klar das ich dann Python oder so etwas nutze. Und ja, es gibt auch immer mehr hybridcodes, aber die echte Arbeit wird of in C oder FORTRAN erledigt.

Und wenn du da nichts hast, dann biste angeschissen.

Wie gesagt, so lange kein FORTRAN support da ist, wird das nichts. Aus meiner Erfahrung heraus sind noch ca 30-50% der Codes FORTRAN codes, und je größer die codes werden, und insbesondere je mehr Rechenzeit die Codes verblasen, desto höher wird die Wahrscheinlihckeit, das FORTRAN drin steckt.

mksn7
2017-06-21, 16:39:22
Du überschätzt da die Wichtigkeit der Unterstützung eines Fortran frontends. Es werden selten neue Codes in Fortran geschrieben. Und bestehende große Codes werde selten komplett auf GPUs umgeschrieben. nvidia gibt sich bei Fortran auch nicht besonders viel Mühe, und das ist offensichtlich kein so großes Hindernis. Wie gesagt, wenn man unbedingt möchte linkt man halt C dazu.

Skysnake
2017-06-21, 16:45:12
Was aber ziemlich hässlich ist.

Und ich spreche nur aus meiner täglichen Erfahrung mit HPC Codes aus ganz Europa

Gipsel
2017-06-21, 17:08:29
Fortran an sich ist irgendwie häßlich. :weg:

Aber das führt jetzt zu weit. Sind wir hier nicht im CPU-Architektur-Thread?

fondness
2017-06-23, 21:31:25
GF 7nm Plan:
http://www.anandtech.com/show/11558/globalfoundries-details-7-nm-plans-three-generations-700-mm-hvm-in-2018

basix
2017-07-14, 23:35:36
Meine Speku zu Ryzen 2: AMD wird den CCX von 4C auf 6C aufbohren und wieder jeweils 2x CCX pro Die verbauen.

Pro:

Grundkonzept von Ryzen bleibt erhalten: 2x CCX pro Die
Der ganze Aufbau rund um EPYC bleibt gleich (z.B. max. 2 Hops zwischen den verschiedenen CCX)
Dito Threadripper
Software kennt jedes einzelne Die als "Dual CCX", egal was verbaut wird und wie viele Kerne man hat.
Bessere Performance als 3x 4C CCX
Platzbedarf eines 6C CCX @ 7nm ist geringer als bei einem heutigen Summit Ridge (wahrscheinlich ca. 150mm2 für die ganze CPU)
Da man anscheinend die CCX symmetrisch Cutten muss, gäbe es bei 3x 4C "lustige" Kombinationen (12C, 9C, 6C, 3C)
Ryzen 3 könnte man auf 8C pro CCX aufbohren, mit selber Begründung wie oben. Die Size ca. 200mm2


Contra:

Wie kommt man z.B. zu 4C CPUs? Dies bedeutet ziemlich viel Ausschuss (den hat man bei Summit Ridge heute aber auch) --> Man macht jeweils APU Desigs mit 1x CCX + GPU mit dann jeweils 6C und 8C. Von der Die Fläche hat man den Platz dazu und sind skalierbar von Notebook bis 95W max. CPUs ohne iGPU besitzen immer 2x CCX
Wäre es SW mässig trotzdem besser, bei 4C pro CCX zu bleiben? Rein vom Anpassungsaufwand

StefanV
2017-07-15, 00:17:27
Wie kommt man z.B. zu 4C CPUs?
Muss man das überhaupt??

Gab ja auch keine Single Core Bulldozer und schon von K10 war das verdammt selten...

Aktuell dürfte es als erstes den 2 Kernern an den KRagen gehen...

dildo4u
2017-07-15, 00:27:46
Zen 2 sollte den Takt erhöhen,Zen 3 den Corecount.Für mich mach es kein Sinn schon 2018,300€ 8 Core's zu verkaufen,die 12 Core Die's Ausschuss sind.
So wie es jetzt aussieht wird Intel 2018 auf der Mainstream Plattform eh nur maximal 6 Core's haben.

StefanV
2017-07-15, 00:35:18
Und genau DESWEGEN muss man ja auch beim Core Count die Stellschrauben ansetzen und nicht nur den Takt erhöhen...

10 Jahre Quad Cores (maximal) sind nun nicht gerade ein besonders schöner Zustand...
Und auch, dass der Preis von den Quads so stark angezogen hat...

robbitop
2017-07-15, 00:48:13
Ab CFL werden Core i3 wohl 4c/4t. Pentium ja heute schon 2c4t. Da braucht man rgendwan keinen nativen 2C Die mehr. 2C und 4C werden bei AMD wohl die APUs übernehmen. Alles andere die 8C Dice. Kann mir auch gut vorstellen, dass bei der 7nm Generation die ccx auf 6C wachsen.
APU also 6C. Kann man teildeaktiviert sls 2C oder 3C anbieten. Die großen Cores dann 12C. Deaktiviert bis runter suf 6C. Kombiniert dann bis zu 48C. Mit 2Dice kann man dann alles abdecken. Schon schlau. :)

basix
2017-07-15, 01:43:18
Zen 2 sollte den Takt erhöhen,Zen 3 den Corecount.

Zen 2 ist doch schon bestätigt mit 12 Cores? Ich denke nicht, dass man nämlich den 48C EPYC aus 6x 8C DIEs zusammenbastelt. Irgendwo habe ich im Hinterkopf das mal irgendwo auf einer Roadmap gesehen zu haben...

Ah voilà, siehe "Starship":
https://www.computerbase.de/2017-05/amd-server-embedded-roadmap-2019/

Und wegen Ausschuss: Hat man 1x 12C Die, müsste man für 4C 2/3 ausknipsen. Deswegen ;)

dildo4u
2017-07-15, 01:55:35
Die Slides sind 1.5 Jahre alt,ich würde erstmal abwarten wie 7nm läuft.

fondness
2017-09-20, 20:50:39
At the Global Foundries Technology Conference, AMD’s CTO Mark Papermaster announced that the company will be transitioning “graphics and client products” from the Global Foundries14nm LP FinFET process it uses today to the new 12nm LP process in 2018.Global Foundries also announced that 12LP will begin production in 1Q18.

We followed up with Papermaster in person and confirmed directly that the company will transition both Vega GPUs and the Ryzen line of processors to the 12nm LP process. However, it’s still not clear whether or not he meant that 12nm LP will be a shrink of Ryzen in 2018 (a "tick" equivalent if you will) or if Zen+/Zen 2 will also be using the 12LP process. Previously, AMD has implied that Zen 2 will use the 7nm process. The company has used both "Zen+" and "Zen 2" to refer to its next-generation die.

http://www.tomshardware.com/news/amd-ryzen-vega-12nm-lp-2018,35502.html

Vermutlich hat GF als Reaktion auf TSMC ihren 14nm+ Prozess in 12nm umbenannt.^^

/Edit: Pics:

https://s26.postimg.org/usk9gjuax/DKLn_NJBUIAEKNfp.jpg (https://postimg.org/image/df9z1oyzp/)

https://s26.postimg.org/6q3flodnt/DKLn_Y1_QUEAAC6_Qh.jpg (https://postimg.org/image/amgrhnyn9/)

Unicous
2020-12-03, 20:12:24
*Leichenfledderei


AMD has an M1 competitor in prototype stages, one version with integrated RAM, and one without it
he said "almost ready"
but -imo- idk
leak is only a few days old, the chip idk

https://twitter.com/MauriQHD/status/1332601734565416962

Um ehrlich zu sein weiß ich jetzt nicht so sehr um die Qualität seiner Leaks, afaik ist er auf Seiten Apple und Smartphones relativ aktiv.

Da AMD mit Samsung zusammenarbeitet wäre es nicht abwegig ein eigenes Design zu entwickeln, gab ja vor ein paar Monaten diese "geleakte" Folie die aber eher wie ein feuchter Traum aussah als ein wirkliches Produkt. Kann also dahingehend auch nur ein weiteres Kolportieren dieses "leaks" sein. :uponder:

basix
2020-12-03, 23:51:34
Wäre für AMD wie Samsung attraktiv. Für Samsung da sie ihre ARM-Eigenentwicklungen zurückgefahren haben und RDNA2 integriert wird. Für AMD geht es allgemein um Low-Power Formfaktoren (Mobile, Notebooks, Handhelds, Embedded). Und da alles bei Samsungs Foundries produziert werden wird, hätte Samsung einen weiteren (Gross-)kunden für ihre Bleeding Edge Nodes. Win-Win für beide.

Aber hat AMD hier genug Expertise und Know How? Ist es "nur" der ARM-Core + GPU und der Rest des SoCs käme von Samsung?

Ich weiss, AMD hatte mal ARM Chips in Entwicklung aber das wurde doch vor ein paar Jahren abgestossen oder nicht?

Unicous
2020-12-04, 00:20:18
Ich gehe davon aus, dass das ein Chip ist der unabhängig von Samsung designed wird. (Kann aber auch wirklich nur der Samsung Chip, wäre dann bloß kein sehr spannender Leak. :wink:)

Dass AMD die Expertise hat würde ich nicht anzweifeln, dass sie weiterhin an ARM arbeiten zeigen afaik auch mehrere Patente in den letzten Jahren. Darüber hinaus vergisst du etwas Entscheidendes. Sie haben vor Xilinx zu kaufen und die haben definitiv Expertise bezüglich ARM.:wink:

AMD hat vor Allem auch Expertise beim Packaging und das geht auch Hand in Hand mit Xilinx, von daher würde ich mir dahingehend keine Sorgen machen.

Es stellt sich natürlich die Frage nach der Performance und in welche Bereiche man einsteigen möchte.

IoT ist definitiv ein Bereich in dem sie Nachholbedarf haben, womöglich wollen sie auch mehr Richtung Chrombooks und Surface Tablets/Laptops gehen.
Automotive Infotainment wäre interessant aber ich glaube da ist es sehr schwer reinzukommen und KI hätten sie definitiv viel zu viel nachzuholen um sie überhaupt in Betracht zu ziehen.

spotz
2020-12-04, 00:43:14
Muss es als ein M1 Konkurrenzprodukt denn tatsächlich eine APU mit ARM Architektur sein? Könnte sich dahinter nicht auch eine x86 APU verbergen, wie beispielsweise AMDs van Gogh? Wäre mit niedriger TDP und CVML in etwa derselbe Marktbereich. Vielleicht ist eher das gemeint als ein AMD Chip mit ARM Architektur.

basix
2020-12-04, 01:05:34
Muss es als ein M1 Konkurrenzprodukt denn tatsächlich eine APU mit ARM Architektur sein? Könnte sich dahinter nicht auch eine x86 APU verbergen, wie beispielsweise AMDs van Gogh? Wäre mit niedriger TDP und CVML in etwa derselbe Marktbereich. Vielleicht ist eher das gemeint als ein AMD Chip mit ARM Architektur.

Think the other way round: x86 Chips mit ARM-Emulation à la Rosetta 2? ;D Aber ja, ein super low power x86 Design könnte es auch sein. Van Gogh wäre da wirklich eine Erklärung.

Dass AMD die Expertise hat würde ich nicht anzweifeln, dass sie weiterhin an ARM arbeiten zeigen afaik auch mehrere Patente in den letzten Jahren. Darüber hinaus vergisst du etwas Entscheidendes. Sie haben vor Xilinx zu kaufen und die haben definitiv Expertise bezüglich ARM.:wink:

Ich meine damit nicht, dass AMD keine Expertise hat. Nur hat Apple mit massiv Geld in der Hinterhand etliche Jahre für M1 investiert. Und der Fokus der letzten Jahre lag bei AMD bei Zen, RDNA und den Konsolen. "Almost ready" und "prototypes" hört sich so an, als ob das Design oder der Chip fast fertig ist. Dazu ist die Xilinx Fusion noch zu jung ;)

spotz
2020-12-04, 01:26:50
Denke ich auch. Bei einem Konkurrenzprodukt zu Apples M1 fallen mir als erstes nicht günstige Chromebooks ein ;)

Wenn der Twitterer recht hat und van Gogh meint, dann wird das eine echt interessante APU mit integriertem RAM. Vielleicht lohnt sich so eine Lösung eher als Infinity Cache bei einer APU. Auf CPU Seite frage ich mich nur wie AMD einen bigLITTLE Ansatz lösen will? Irgendwie müssen sie ja auch da Strom sparen.

Unicous
2020-12-04, 01:27:31
@spotz

Das ist möglich, aber im Zusammenhang eher unwahrscheinlich. Warum sollte man M1 erwähnen wenn man dann einen x86-Chip meint. :uponder:

Und er sagt ja nicht 'a chip with m1 performance and power metrics' sondern es ist ein "competitor". Das ist zwar jetzt auch ein wenig Interpretation des Geschriebenen, aber ich glaube nicht, dass M1 erwähnt worden wäre wenn nicht ARM als Architektur impliziert ist.

Er hätte zudem auch Lakefield erwähnen können, das wäre ja in dem Sinne auch ein Konkurrent.

edit:

Warum sollte er Van Gogh meinen? Huh? Über den Chip wissen wir doch längst Bescheid und es ist definitiv mit dem TDP-Bereich kein "M1 competitor". CVML ist ein buzzword. Daran sollte man sich nun wirklich nicht aufhängen.


@basix

Dass Xilinx jetzt nicht unbedingt am Prototypen beteiligt ist, sollte klar sein, dennoch würde ich schätzen, dass AMD nie ARM aufgegeben hat, eben nur die Prioritäten so gesetzt hat, dass K12 und Co. ganz unten auf der Liste stehen die gerade abgearbeitet wird.

Prototyp heißt auch nicht automatisch Serienreife. AMD hat über die Jahre zig Prototypen entwickelt die nie die Öffentlichkeit erreicht haben, maximal Codenamen wurden geleaked. Ob etwas an dem Gerücht dran ist wird sich vermutlich erst in vielen, vielen Monaten wenn nicht gar Jahren zeigen.


edit:

Ich verstehe auch nicht den abschätzigen "günstige Chromebooks"-Kommentar. Du denkst anscheinend es gäbe nur 200 Euro Chromebooks, dann bist du offensichtlich falsch informiert. Es gibt Chrome OS Laptops mit Comet Lake CPU die deutlich über 1000 Euro kosten. Das Google Pixelbook hat/te sogar ein 4K Display, auch wenn der Laptop selbst keinen Sinn gemacht hat.

amdfanuwe
2020-12-04, 01:35:47
Sie haben vor Xilinx zu kaufen und die haben definitiv Expertise bezüglich ARM.:wink:

Weil Xilinx in einigen FPGAs ARM Standardcores integriert?
Mal gespannt, was die FPGAs zukünftig mit ZEN Cores leisten.

Wäre auch interessant zu sehen, was ein ZEN Core mit ARM statt X86 Decoder leistet.
Denke mal, da gibt es keinen wesentlichen Leistungsunterschied.

S940
2020-12-04, 03:01:19
Ich meine damit nicht, dass AMD keine Expertise hat. Nur hat Apple mit massiv Geld in der Hinterhand etliche Jahre für M1 investiert. Und der Fokus der letzten Jahre lag bei AMD bei Zen, RDNA und den Konsolen. "Almost ready" und "prototypes" hört sich so an, als ob das Design oder der Chip fast fertig ist. Dazu ist die Xilinx Fusion noch zu jung ;)Naja, der K12 wurde doch entwickelt, nur dann nicht auf den Markt geworfen. Also der liegt sicherlich irgendwo fertig herum, möglicherweise hatte Jim Keller bei dem auch schon 3 Generationen wie bei Zen fertig entwickelt.
Samsung hat seine ARM-Abteilung bekanntlich geschlossen, die brauchen irgendwas Neues. Denen käme ein fast fertiger K12_3 sicherlich gut gelegen. Irgendwas brauchen die, wenn sie nicht komplett aus dem Markt aussteigen wollen.
Produkte von der ehem. Konkurrenz einzubauen ist ein Gesichtsverlust, lieber AMDs ARM-CPU-Design einkaufen und dann damit eigene SoC basteln, die man auch in der eigenen Fab herstellen kann.

Unicous
2020-12-04, 03:15:13
Halt stop. Sie haben nicht die ARM-Abteilung geschlossen sondern die custom ARM Core Abteilung. D.h. sie werden jetzt ARM-Kerne von der Stange nehmen und je nachdem entweder Radeon oder Mali GPUs verbauen werden und auf dieser Basis ihre SoC designen.

Ich wüsste nicht, dass AMD das gesamte SoC-Design übernimmt oder gar eigene Kerne entwickelt. Aller Voraussicht nutzt AMD auch nur die Designs von ARM direkt.

S940
2020-12-04, 04:42:40
Halt stop. Sie haben nicht die ARM-Abteilung geschlossen sondern die custom ARM Core Abteilung.
Ja das meinte ich damit, ist doch klar, dass Samsung weiter Telefone und samt SoCs herstellt und fabbt ;)
D.h. sie werden jetzt ARM-Kerne von der Stange nehmen
Zu langweilig für Samsung, die sahen sich ja durchaus als Apple/Iphone Konkurrent. Deswegen eben die aktuelle Spekulation, dass Samsung AMDs ARM-Architektur nutzen könnte. So weit hergeholt ist das nicht, im Gegenteil. Den Gedanke dürfte jeder gehabt haben, als Samsung die Schließung des eigene Designs bekannt gab.
Ich wüsste nicht, dass AMD das gesamte SoC-Design übernimmt oder gar eigene Kerne entwickelt. Aller Voraussicht nutzt AMD auch nur die Designs von ARM direkt.Google mal AMD K12, bzw. les hier am Threadanfang nach. Und ne, SoCs baut AMD zwar auf Verlangen auch,aber dafür hat Samsung genügend eigenes Know-How, sogar inkl. eigener Fertigung. Was sie brauchen ist nur eine neue Kernarchitektur, die schneller ist als die 08/15-ARM-Kerne und die hat AMD sicherlich ;)

Auf offiziellen AMD-Folien wurde bei K12 übrigens angegeben: "High leverage with x86-core development".

Unicous
2020-12-04, 06:10:48
Was genau K12 werden sollte werden wir wohl nie erfahren, momentan sieht es jedenfalls nicht danach aus, als würde AMD custom Kerne designen. Und was soll der Verweis auf den Threadanfang?:confused:

Ich schreibe und lese in diesem Thread seit Anfang an mit.:rolleyes:

Samsung war es zu teuer custom ARM designs herzustellen, warum sollte AMD als das kleinere Unternehmen das auffangen können? Darüber hinaus war die Partnerschaft auf GPUs beschränkt, wenn AMD so einen großen design win an Land ziehen würde, hätte man davon schon gehört bzw. gäbe es entsprechend ein Statement.

HOT
2020-12-04, 06:27:32
Samsung war eine eigene Entwicklung zu teuer, die AMD eh hat. Das ist was anderes.

Unicous
2020-12-04, 07:05:40
Samsungs custom Abteilung gibt es seit 10 Jahren, was bitte erzählst du hier, Fakt ist, dass sie nie etwas reißen konnten, die Designs waren einfach zu schlecht, gekoppelt mit Prozessen die auf dem Blatt gute Specs hatten, aber im Vergleich meist gegen TSMC verloren haben, insbesondere was Effizienz anbelangt. Eins, zwei Jahre später haben sie auch eine Menge an Ex-AMD-Mitarbeiter eingestellt, stellt sich nun die Frage ob das schon ein Omen war. :uponder:

Die Entwicklung war ihnen nicht zu teuer, sie haben einfach erkannt, dass der Erfolg ausgeblieben ist und die zukünftigen Designs daran nichts geändert hätten. Zudem scheint es auch so, dass die Designs immer wieder verspätet waren und das GPU-Design anscheinend gar nicht mehr das Licht des Tages erblicken wird.

Samsung ist ein Milliardenunternehmen mit buchstäblich hunderttausenden Mitarbeitern. Das war eine rein ökonomische Entscheidung auf Grund von ausbleibenden Erfolgs nicht weil es zu teuer ist. Wenn es zu teuer wäre, hätten sie alle Teams aufgelöst, aber dem ist nicht so. Es wurde nur das Team aufgelöst, dass für die Exynos-CPUs Designs entwickelt hat.

Samsung sagte damals sie hätten allein 20000 US-Mitarbeiter in den R&D Zentren, sie haben 290 Mitarbeiter vom Exynos-Team entlassen.

Hier noch ein Zitat von Anandtech:

The SARC and ACL activities in Austin and San Jose will continue as Samsung’s SoC, AI, and custom GPU teams are still active, the latter project which seems to be continuing alongside the new AMD GPU collaboration and IP licensing for future Exynos SoCs.
https://www.anandtech.com/show/15061/samsung-to-cease-custom-cpu-development

basix
2020-12-04, 13:29:05
Samsung war es zu teuer custom ARM designs herzustellen, warum sollte AMD als das kleinere Unternehmen das auffangen können?
Nutzen vs. Ertrag. Samsungs Designs waren einfach nicht so viel besser wie die ARM Designs und bei Smartphones ist es vielen Kunden mittlerweile "schnell genug". Der Markt ist von der Performance als auch des Marktanteils her gesättigt. AMD hat hier eine ganz andere Sichtweise: Unerschlossene Märkte und somit Wachstumspotential. Ausserdem generell die ARM Konkurrenz, welche so langsam in ihr Core Business reindümpelt (siehe Apple M1, Fujitsu Fugaku oder Amazon Graviton 2) --> Mobile, HPC und Server mit ernstzunehmenden ARM-basierten Konkurrenzprodukten.


Darüber hinaus war die Partnerschaft auf GPUs beschränkt, wenn AMD so einen großen design win an Land ziehen würde, hätte man davon schon gehört bzw. gäbe es entsprechend ein Statement.
Das ist ein guter Punkt. Meine Frage: Wer sagt, dass das Design für Samsung ist? Wir haben das hier spekuliert. Könnte auch sein, dass AMD hier für sich selbst etwas entwickelt hat --> APU, ARM-Serverchip

Edit:
Beim ARM-Serverchip sehe ich ausserdem noch folgendes: Chiplets ;) Das IOD könnte für x86 und ARM Chiplet das selbe sein. Wäre mMn ein genialer Schachzug. Gleiche Plattform, selbe I/O-Funktionalitäten aber Compute auf die ensprechende Anwendung angepasst. Darauf läuft es langfristig mit Kombination CPU, GPU und FPGA ja sowieso hinaus. Heterogenous Computing (HSA) at its best ;) Und man kann bei Marktbedarf relativ schnell auf ARM vs. x86 reagieren ohne die Plattform langwierig wechseln zu müssen. Unsicherheit: Die relativ kleine Grösse von AMD würde dieses Unterfangen schon sehr schwierig machen.

robbitop
2020-12-04, 13:38:53
Man muss konstatieren, dass die Designs von ARM bereits schon wirklich gut sind. Die muss man erstmal deutlich schlagen in Punkto Perf/W. Daran haben sich im mobile Bereich Nvidia, Samsung, Qualcomm und Apple versucht. Und bisher hat nur Apple das konsistent geschafft. Alle anderen haben praktisch aufgegeben, weil sich der Erfolg für den jeweiligen Aufwand nicht eingestellt hat. Im Server/Cloud Bereich hingegen gibt es ja mittlerweile doch einige custom uArchs - aber wohl auch vor allem weil es dafür keine spezifisch optimierten Designs von ARM gab.
Entsprechend muss man sich die Frage stellen, ob das überhaupt nötig ist. Qualcomm fuhr nachdem sie es das letzte mal mit Kryo versucht haben sehr gut damit, ARM CPU Cores zu nutzen.

basix
2020-12-04, 13:46:30
+1

Samsung verkauft auch keine CPUs sonderm Smartphones. Die CPU muss einfach gut genug sein. Wenn sie schneller als die Konkurrenz ist gut, aber die meisten Smartphones werden wegen Display, Kamera, Akkulaufzeiten und SW gekauft.

Bei AMD sind CPU das Kerngeschäft. Da wird AMD die ARM-Designs definitv im Auge behalten wollen.

Edit:
Ich habe schnell den M1 vermessen. Die vier Firestorm Cores sind inkl. dei 12MByte L2 gerade mal ~17mm2 gross. AMD könnte also locker 16 Core Chiplets herstellen (5nm hier, die Firestorm Cores sind aber auch wirklich sehr fett).

amdfanuwe
2020-12-04, 15:44:56
+1

Waren die ARM Designs damals nicht auch noch relativ einfach gestrickt und mehr auf Energiesparen als auf Leistung ausgelegt?
Erst mit den neueren auf Leistung ausgelegten ARM Designs lohnte es sich für die Firmen nicht mehr ihre eigenen Designs zu entwickeln.

Sieht für mich so aus, als hätten aktuell nur noch Intel, AMD, ARM und Apple Kernkompetenz für allround Kerne. Spezialentwicklungen für bestimmte Bereiche wird es immer mal von anderen geben.

Wörns
2020-12-04, 16:08:43
Ich erwarte die optische Ankopplung auf dem Chiplet in Rechenzentren. An der optischen Übertragung vom Silizium aus wird seit Jahren gearbeitet. Mit der Chiplet Technologie wird es möglich.
Intel hat zusammen mit Ayar Labs und Globalfoundries ein Chiplet auf SOI Basis entwickelt, an das man direkt Lichtwellenleiter anschließen kann. Die Latenzen sind dann bei ungefähr 10nm beidseitig des Wellenleiters plus 5nm pro Meter. Und es ist natürlich viel energieeffizienter. Das macht dann ganz andere Supercomputer möglich. Bei Intel liegt Foveros zugrunde. AMD hat bereits seine eigene Träger Technologie. Ich habe von AMD zwar noch über nichts dergleichen gehört, aber daran arbeiten die mit Sicherheit auch.
MfG

spotz
2020-12-04, 17:22:03
@spotz

Das ist möglich, aber im Zusammenhang eher unwahrscheinlich. Warum sollte man M1 erwähnen wenn man dann einen x86-Chip meint. :uponder:

Und er sagt ja nicht 'a chip with m1 performance and power metrics' sondern es ist ein "competitor". Das ist zwar jetzt auch ein wenig Interpretation des Geschriebenen, aber ich glaube nicht, dass M1 erwähnt worden wäre wenn nicht ARM als Architektur impliziert ist.

Er hätte zudem auch Lakefield erwähnen können, das wäre ja in dem Sinne auch ein Konkurrent.

edit:

Warum sollte er Van Gogh meinen? Huh? Über den Chip wissen wir doch längst Bescheid und es ist definitiv mit dem TDP-Bereich kein "M1 competitor". CVML ist ein buzzword. Daran sollte man sich nun wirklich nicht aufhängen.

edit:

Ich verstehe auch nicht den abschätzigen "günstige Chromebooks"-Kommentar. Du denkst anscheinend es gäbe nur 200 Euro Chromebooks, dann bist du offensichtlich falsch informiert. Es gibt Chrome OS Laptops mit Comet Lake CPU die deutlich über 1000 Euro kosten. Das Google Pixelbook hat/te sogar ein 4K Display, auch wenn der Laptop selbst keinen Sinn gemacht hat.

Ich deute die Bezeichnung "Competitor" so, dass er damit das Marktsegment meint in dem Apples M1 eingesetzt wird. Also hochpreisige Laptops mit geringer TDP.

Ja, und da frage ich mich halt wirklich, ob es da einer ARM Architektur bedarf. Denn auch die von dir genannten hochpreisigen Chromebooks werden mit x86 Chips ausgeliefert. Soweit ich weiß, läuft der M1 ähnlich wie van Gogh bei einer TDP zwischen 10 und 18 Watt, hat mit RDNA2 eine starke Grafik die bei integriertem RAM wohl auch ähnlich leistungsfähig sein würde. Kann mich irren, aber daher dachte ich das dies recht ähnlich zum M1 ist.

Es tut mir leid das der von mir verwendete Begriff "günstig" als abschätzig aufgenommen wurde. Ich dachte der wäre positiv bzw neutral im Gegensatz zu "billig". Ich wollte damit nur zwischen niedrig- und hochpreisigen Chromebooks unterscheiden.

edit: Warum er Lakefield bei seinem Dreizeiler nicht nannte, weiß ich nicht. Ich vermute einfach mal das AMD und Apple zur Zeit einfach interessantere, gehyptere Unternehmen sind, die mehr Aufmerksamkeit schaffen?

Unicous
2020-12-04, 18:29:31
@basix

Liest du die Beiträge nicht richtig? Ich sagte bereits, Samsungs Designs waren Schrott, deswegen haben sie die custom Kerne eingestellt, nicht aus finanziellen Gründen (bzw. aus ökonomischer Sicht eben nur, weil sie sinnlos Mittel verpulvert haben und keine Ergebnisse sehen). Warum kaust du mir das wieder vor?

Auch habe ich nicht gesagt, dass das Design für Samsung ist. Im Gegenteil, ich habe aufgezählt welche Bereiche ich mir vorstellen könnte und klargestellt, dass ich nicht davon ausgehe, dass das ein Chip für Samsung ist. Anscheinend liest du wirklich nur sehr selektiv oder blendest ganze Beiträge aus?:confused:

@spotz

Über Van Gogh ist bereits bekannt wie groß der Die sein wird (wenn die Angaben von Patrich Schur stimmen, wovon ich ausgehe, seine Leaks haben sich bislang bestätigt), wie viele Kerne es sind, der TDP-Bereich liegt wohl bei 7,5-18 Watt, darüber hinaus hat der Chip viel zu viel I/O um als M1 Konkurrent aufzutreten, warum sollte also ein anderer Leaker den Namen nicht kennen und dann von Van Gogh als M1 Konkurrent sprechen?:confused:

Van Gogh ist so gut wie fertig, über den "M1 competitor" scheint so gut wie nichts bekannt zu sein.
Warum sollte die Die size, wie viele Fixed Function Units AMD eingekauft hat etc. bekannt sein aber nicht, dass das ein Design ist bei der der RAM auf dem Package ist?:confused:

S940
2020-12-05, 00:59:03
Was genau K12 werden sollte werden wir wohl nie erfahren, momentan sieht es jedenfalls nicht danach aus, als würde AMD custom Kerne designen. Und was soll der Verweis auf den Threadanfang?:confused:

Ich schreibe und lese in diesem Thread seit Anfang an mit.:rolleyes:
Wieso weisst Du dann nicht, dass der AMD K12 ein eigenes AMD custom Design ist? War nicht bös gemeint, dachte nur Du hättest da ein grösseres Informationsdefizit.

Samsung war es zu teuer custom ARM designs herzustellen, warum sollte AMD als das kleinere Unternehmen das auffangen können?
Siehe das obige Zitat:
"High leverage with x86-core development".
Auf Deutsch: Hohe Überlappung mit der x86-Entwicklung. Deshalb kann sich das AMD locker erlauben. Man darf auch nicht vergessen, Jim Keller war der, der bis 2012 die Apple-ARM-Designs (mit)entwickelt hatte :freak:
Auf YT gibts n Video, das für K12 ne +20% grössere IPC ggü Zen1 angibt. Hauptunterschied: Ne AGU & Branch-Unit mehr, die dann auch beim Zen2 kam.
Ob der Type das fantasiert oder nicht, weiss man nicht, das Video hat gerade mal 150 views.

Darüber hinaus war die Partnerschaft auf GPUs beschränkt, wenn AMD so einen großen design win an Land ziehen würde, hätte man davon schon gehört bzw. gäbe es entsprechend ein Statement.Kann sein, muss aber nicht. Samsung wird es kaum an die grosse Glocke hängen, dass sie jetzt keine eigenen Kerne mehr verbauen. Stichwort Gesichtsverlust - ist in Asien wichtig. Und eben weil man schon bei den GPUs zusammenarbeitet, liegt auch die Übernahme der AMD-ARM-CPU-Architektur auf der Hand.

Könnte aber natürlich sein, dass die Gerüchte alleine auf dieser hohen Wahrscheinlichkeit basieren, aber doch nichts dahinter steckt.

Unicous
2020-12-05, 01:57:40
Ich habe gar nicht behauptet, dass K12 kein eigenes Design ist?:confused:
Warum behauptest/interpretierst du Dinge die ich nie gesagt habe? Komm mal bitte von deinem "Informier dich/Google mal"-Ross herunter und vor Allem leg mir nicht Worte in den Mund die ich nie getätigt habe. Warum denkst du habe ich das Gerücht in diesem Thread gepostet?:rolleyes:

Meine Aussage bezog sich auf das Hier und Jetzt und insbesondere auf Samsungs Mobile Chips. Warum du da mit K12 ankommst wenn Samsung selbst sagt sie würden die Kerne von ARM übernehmen erschließt sich mir nicht.

K12 ist Schnee von gestern. K12 würde heute höchstwahrscheinlich niemand mehr vor dem Ofen hervorholen, über 6 Jahre nach Ankündigung. 6 Jahre sind eine lange Zeit, aktuell und offiziell ist kein custom ARM Produkt auf AMDs roadmap.

Klar könnten sie einen custom Core entwickeln, aber eben nicht für Samsung. Ob der "M1 competitor" custom designte Kerne hat wage ich dennoch zu bezweifeln, es gibt bislang keinerlei Indikatoren dafür, da hätte man entsprechende Gerüchte wären schon längst durchgesickert, samt Patenten und roadmap.

Kann sein, muss aber nicht. Samsung wird es kaum an die grosse Glocke hängen, dass sie jetzt keine eigenen Kerne mehr verbauen. Stichwort Gesichtsverlust - ist in Asien wichtig. Und eben weil man schon bei den GPUs zusammenarbeitet, liegt auch die Übernahme der AMD-ARM-CPU-Architektur auf der Hand.

Das ist keine von Kenntnis unterfütterte Vermutung sondern reines ins Blaue raten. Gesichtsverlust? Denkst du nicht sie haben schon genug Gesicht verloren indem sie die Abteilung geschlossen haben. Was da auf der Hand liegen soll erschließt sich mir nicht. Dass Samsung den X1 Kern nutzt ist so gut wie sicher, Marc Sauter behauptet sogar Samsung hätte es bestätigt:

Seitens Samsung wurde der Einsatz des Cortex-X1 bereits bestätigt.

https://www.golem.de/news/cortex-a78-cortex-x1-arm-baut-extremen-cpu-kern-2005-148699.html

Könnte aber natürlich sein, dass die Gerüchte alleine auf dieser hohen Wahrscheinlichkeit basieren, aber doch nichts dahinter steckt.
Von welchen Gerüchten sprichst du jetzt`und warum verlinkst bzw. zitierst du das nicht entsprechend?:confused:

Unicous
2020-12-20, 22:49:01
Another AMD codename to throw around
Gesicht mit Monokel


Zermatt | ZT-A0
https://twitter.com/ExecuFix/status/1340618292302663681


K12...


Zermatt.


:uponder:

HOT
2020-12-21, 09:00:38
Zermatt ist sehr sicher Server (nur Schweizer statt Italienische Stadt) und könnte kein ARM-Produkt, sondern das vorher gerüchteweise kolportierten 12nm-Zen3-Chiplet (evtl. 12LP+, würde den meisten Sinn ergeben) darstellen, dass AMD zur Kapazitätserweiterung mMn aufgelegt haben könnte.

basix
2020-12-21, 09:16:17
Zermatt ist sehr sicher Server (nur Schweizer statt Italienische Stadt) und könnte kein ARM-Produkt, sondern das vorher gerüchteweise kolportierten 12LP+-Zen3-Chiplet darstellen, dass AMD zur Kapazitätserweiterung angeblich aufgelegt hat.

Aua, das tut mir als Schweizer aber weh ;D Erstens "nur" schweizerisch und zweitens ist Zermatt ein Dorf (nicht mal 6000 Einwohner) ;) Allerdings ein schönes und vor allem sehr bekanntes Dorf, wegen dem Matterhorn und den umliegenden Skigebieten. Skigebiete könnte auch ein Hinweis auf ARM sein, da man eine italienische und schweizer Seite hat und man direkt via Skipisten und Lifte über die Grenze kann. Inkl. Pistenpolizisten um Schmuggel über die Grenze zu unterbinden :D x86 zu ARM sozusagen als Grenzüberschreitung ;)

Unicous
2020-12-21, 13:31:21
Gerüchteweise. Kolportiert. 12LP. Zen 3. Kapazitätserweiterung.

HOT mal wieder mit den wirren Tagträumen.

Was Zermatt nun ist weiß anscheinend
niemand außerhalb von AMD, aber die Nomenklatur lässt zumindest einen Zusammenhang erahnen. Ob Server, Embedded, Semi, oder Consumer lässt sich auch nicht ablesen.

Aber dennoch lässt es sich eine Person nicht nehmen HOT takes zu verbreiten.

HOT
2020-12-21, 16:25:05
Nur um das mal richtig zu stellen, es war von 12nm-Zen-Server-Chiplets die Rede und von einer "großen Überraschung". Was da dran ist sehen wird dann. Der Rest ist natürlich von mir ;). Von daher ist das gewählte Wort auch mißverständlich, habs mal korrigiert. Außerdem ist das alles Konjunktiv, also stell dich net so an.

Unicous
2020-12-21, 16:43:40
Außerdem ist das alles Konjunktiv, also stell dich net so an.


Zermatt ist sehr sicher Server
:rolleyes:


Wo bitte war von 12nm Chiplets die Rede und woher hast du den Müll überhaupt?:confused:

davidzo
2020-12-21, 17:32:04
Semiaccurate hatte da vor ein paar dutzend Seiten einen Artikel in den man eine Menge hinein interpretieren konnte. Suche ich jetzt nicht raus weil sowieso paywalled.

Da Semiaccurate aber eben auch gerne mal selber spekuliert, würde ich darauf nicht all zu viel geben. Das kann sich genau so auf Dali/Pollock 12nm für "edge-server" cases beziehen.

Piefkee
2020-12-21, 20:22:47
Zermatt-> keine Infos
Zu Arm -> es gibt zwei Chips die im fortgeschrittenen Design ist. Inklusive RAM bei einem der beide, siehe M1.
Für wenn die Chips gedacht sind keine Ahnung. Aber man könnte natürlich die Mircosoft Gerüchte mit denen von AMD vergleichen. Ich für meinen Teil kann nicht sagen ob Microsoft ein Costum core Design Team hat....

basix
2020-12-27, 14:09:16
Um die Diskussion noch etwas anzuregen: Es sind ebenfalls AMD Patente in Richtung Big.Little aufgetaucht, siehe z.B. https://www.pcgameshardware.de/CPU-CPU-154106/News/Zen-AMD-forscht-Big-Little-Design-zukuenftige-Modelle-Patent-1355815/

Was ich mir darunter vorstellen könnte, am Beispiel eines hypothetischen Zen 4:

Big Core Zen 4 = Half-Rate AVX512, Full-Rate AVX256, AMX, 1MB L2$, ...
Little Core Zen 4 = Half-Rate AVX256, 512kB L2$, kleinere L1 sowie uOp Caches, ...

Für das grosse Number-Crunching werden die Big Cores verwendet. Die Little Cores sind eine Abspeckung der heutigen Zen 2/3 Cores. Du kannst 99% des Programme auf den Little Cores mit recht ordentlicher Performance ausführen. Ausnahme sind hohe AVX-Lasten, welche bei Background Tasks usw. eh eigentlich nicht anfallen. Die Little Cores wären in etwa 50-60% der Fläche der Big Cores, bei Integer und Light FP Code aber bei weitem nicht nur halb so schnell. So könnte man bei vielen Tasks die Energieeffizienz und auch die Performance erhöhen (mehr Cores pro Fläche, weniger Energieverbrauch pro Performance). Knacknuss sind aber die OS-Scheduler und die Apps, welche allenfalls auf die neue Topologie angepasst werden müssen.

Wenn ich mir das Zen 3 CCD ansehe, könnte man auf der einen Seite nochmals 4 Little Cores hinklatschen, ohne die CCD-Fläche wahnsinnig zu erhöhen (ähnliche Grösse wie GMI + SMU + Debug). L3$ bliebe unverändert von der Grösse her.

JVC
2020-12-27, 16:41:26
Mein "Monitor" benötigt schon 200Watt+ ...
Big/Little soll gefälligst im Handheld und Mobile Bereich bleiben.
Im stand PC will ich Power. Zum surfen und so reicht auch die "spar-CPU" des Fernsehers...

M.f.G. JVC

Platos
2020-12-27, 23:08:59
Big.little ist einfach ein logischer Schritt, da sehr (energie-)effizient.

Rooter
2020-12-27, 23:28:05
Dafür muss der Windows-Kernal aber noch einiges dazu lernen, zurzeit müssen da die Kerne alle dieselben Features beherrschen, z.B. Big kann AVX, Little aber nicht, ist da noch nicht möglich.

MfG
Rooter

Der_Korken
2020-12-27, 23:38:35
In dem PCGH-Link wird gesagt, das Patent beschreibe ein Big-Little-Schema mit getrenntem L1 aber geteiltem L2. Könnte man den Little-Core als "Co-Kern" für den großen Kern auslegen, der die Hauptarbeit erledigt und den großen Kern immer nur dann weckt, wenn viel ST-Leistung oder AVX gebraucht wird? Durch die räumliche Nähe wäre es einfach, den Thread quasi an den großen Kern zu übergeben (Daten liegen schon im L2). Eventuell umgeht man so auch das Problem der unterschiedlichen Befehlssätze, weil bei AVX einfach intern umgeschaltet wird und man es nach außen wie eine homogene Architektur aussehen lassen kann.

Das hätte ja schon fast etwas Bulldozer/CMT-artiges :D

Platos
2020-12-28, 00:17:08
Dafür muss der Windows-Kernal aber noch einiges dazu lernen, zurzeit müssen da die Kerne alle dieselben Features beherrschen, z.B. Big kann AVX, Little aber nicht, ist da noch nicht möglich.

MfG
Rooter

Ja, das stimmt schon. Aber ich denke, Intel wird da sicherlich mit Windows (also Microsoft) dran arbeiten (schliesslich muss Alderlake ja irgendwas mit den kleinen Kernen anfangen können).

Ich hoffe, dass in naher Zukunft auf dem PC auch z.B SSDs mal endlich richtig zu gebrauchen sind. Heute macht es ja praktisch keinen Unterschied, ob man nun eine Sata SSD oder eine M.2 SSD hat. Als Musterbeispiel kann man z.B die PS5 nennen. Wobei das auch an Zusatzhardware liegt, die es so (noch?) nicht gibt am PC.

Aber ich hoffe, langfristig wird es auch am PC eine bessere Effizienz geben (unterstützt durch auch Zusatzhardware). Aber Windows scheint mir irgendwie allgemein extrem schlecht modernisiert zu sein. Hoffentlich ändert sich das dank der Series S(Edit: ich meinte X) bald.

Aber Windows ist sowieso ein extremer Leistungsfresser mit wenig output (gefühlt).

y33H@
2020-12-28, 10:21:40
Win10 funktioniert mit Lakefield schon sehr gut, allerdings noch ohne AVX und HT.

vinacis_vivids
2020-12-28, 10:57:57
...
Aber Windows ist sowieso ein extremer Leistungsfresser mit wenig output (gefühlt).

Das ist richtig. Hat Billy Gates schon in den 80er Jahren erkannt, dass OS/2 von IBM das bessere Betriebssystem ist.

Windows ist halt anfällig, weil es so verbreitet ist und ~90% des Internets aus P*rn besteht.

Zossel
2020-12-28, 11:58:52
Aber ich hoffe, langfristig wird es auch am PC eine bessere Effizienz geben (unterstützt durch auch Zusatzhardware). Aber Windows scheint mir irgendwie allgemein extrem schlecht modernisiert zu sein. Hoffentlich ändert sich das dank der Series S bald.

Aber Windows ist sowieso ein extremer Leistungsfresser mit wenig output (gefühlt).

Ich vermute der Businesscase für einen besseren Kernel rechnet sich nicht, und den Shareholder dauert der ROI zu lange.

basix
2020-12-28, 13:16:01
In dem PCGH-Link wird gesagt, das Patent beschreibe ein Big-Little-Schema mit getrenntem L1 aber geteiltem L2. Könnte man den Little-Core als "Co-Kern" für den großen Kern auslegen, der die Hauptarbeit erledigt und den großen Kern immer nur dann weckt, wenn viel ST-Leistung oder AVX gebraucht wird? Durch die räumliche Nähe wäre es einfach, den Thread quasi an den großen Kern zu übergeben (Daten liegen schon im L2). Eventuell umgeht man so auch das Problem der unterschiedlichen Befehlssätze, weil bei AVX einfach intern umgeschaltet wird und man es nach außen wie eine homogene Architektur aussehen lassen kann.

Das hätte ja schon fast etwas Bulldozer/CMT-artiges :D

Sowas mit dem Co-Kern habe ich mir beim Patent anschauen auch gedacht. Man kann das sogar noch weiter treiben. Sozusagen ein Kern innerhalb des Kerns, welcher nur 50% der Ressourcen ansprechen kann und auf Low Power optimiert ist. Aber sich die Ressorcen wie Cache und Datenpfade teilt. Gegen aussen wäre das dann aber versteckt und würde wie ein einzelner Core aussehen. Was ich dann aber Frage ist, ob man damit gegenüber normalem Clock/Power Gating noch einen Vorteil hätte.

Der_Korken
2020-12-28, 16:16:54
Sozusagen ein Kern innerhalb des Kerns, welcher nur 50% der Ressourcen ansprechen kann und auf Low Power optimiert ist. Aber sich die Ressorcen wie Cache und Datenpfade teilt. Gegen aussen wäre das dann aber versteckt und würde wie ein einzelner Core aussehen. Was ich dann aber Frage ist, ob man damit gegenüber normalem Clock/Power Gating noch einen Vorteil hätte.

Die Kerne werden immer fetter, was es schwer macht, die für leichtgewichtige Aufgaben entsprechend sparsam zu bekommen. Wenn der Co-Kern da selektiv überall einzelne Ressourcen raus zieht, sind die Wege entsprechend weit. Ich könnte mir vorstellen, dass es einfacher ist, ein eigenständiges schmales Design neben das breite Design zu setzen, wo möglichst wenig Daten möglichst kurze Wege bewegt werden müssen. Einzig den L2$ könnte man gut sharen, denn der bringt auch bei leichten Aufgaben sicherlich viel und die Co-Kerne hängen ohnehin am selben Speichersystem, sprich beim L3 (und IMC) treffen sich die Datenpfade eh.

Ich habe mich auch schon mal gefragt, ob man den AVX-Teil vom Rest abspalten und einen eigenen L1D spendieren kann, weil die hohen Bandbreitenanforderungen der breiten AVX-Units an den Cache das Design sicherlich ziemlich schwer machen.

Zossel
2020-12-29, 09:23:17
Ich habe mich auch schon mal gefragt, ob man den AVX-Teil vom Rest abspalten und einen eigenen L1D spendieren kann, weil die hohen Bandbreitenanforderungen der breiten AVX-Units an den Cache das Design sicherlich ziemlich schwer machen.

Das Ein oder Andere was auf den AVX-Units gerechnet wird vorher oder die "normalen" ALUs gelaufen sein. AVX-Befehle lassen sich über einen Illegal Instruction Trap abfangen und behandeln.

davidzo
2020-12-29, 15:23:43
Aber Windows ist sowieso ein extremer Leistungsfresser mit wenig output (gefühlt).

Ich vermute der Businesscase für einen besseren Kernel rechnet sich nicht, und den Shareholder dauert der ROI zu lange.

Ich denke nicht dass der Kernel der große Leistungsfresser ist, wieso sich Windows nicht Snappy anfühlt. Die Anwendungssoftware dadrüber ist doch viel schlimmer. Programme die gut optimiert sind, direkt Hardwareressourcen etwa per directX benutzen etc. sind genau so schnell wie auf Linux oder MacOS, durch modernere Treiber sogar gelegentlich noch schneller. Kernelschwächen sieht man nur bei krassem Multithreading, i/o- bzw. networkinglastigen Sachen wie sie im Anwenderumfeld eigentlich nicht vorkommen. Und der Zug als Serverbetriebssystem ist abgefahren, da wieder nennenswert Marktanteile aufzuholen würde viel zu teuer werden. Microsoft sollte sich da lieber auf den Anwender und Serveranwendungen konzentrieren die auch auf Linux laufen bzw. containerisiert.

Das Problem von Windows sind imo eher die schrottig zusammegeflickten Apps und damit meine ich auch die von Microsoft selber. Systemeinstellungen sind verteilt auf verschiedene UI-Teile die teilweise bis Windows95 zurückgehen und in Regedit sieht man schön wie Ordnerstrukturen 3-fach vierfach vorhanden sind weil jede Abteilung ihr eigenes Süppchen kocht. Bestimmte Schlüsselapps hat seit Jahrzehnten niemand angefasst und entsprechend fühlen die sich auf moderner hardware nicht snappy an.

Bei MacOS wurde ein Großteil der Entwicklungszeit darauf angewandt die Betriebssystemsteuerung zu modernisieren, alle UIs auf Metal zu bringen und durch sinnvolle UI guidelines logisch und Snappy zu machen. und zuletzt restlos alle Apps auf 64bit zu heben. Bei M$ laufen die meisten Systemanwendungen noch in 32bit. Libraries sind in tausendfachen Versionen vorhanden und verschwenden gigantischen Speicherplatz weil man einfach zu faul ist bestimmte Programme auf neuere Libraries zu migrieren. Nicht dass 64bit performancemäßig wichtig ist, aber das Zeigt eben wie Microsoft seine Aufräumarbeiten vernachlässigt und eine Art Messi-OS gebaut hat. Die Hangeln sich von einem neuen Feature zum nächsten und keiner überblickt mehr den Haufen vollder Codeleichen den man mittlerweile produziert hat. Das KachelOS ist immer noch voller Lücken und für grundlegende Basisfunktionalität eines Betriebssystems muss man nach wie vor auf Hacks oder 3rd party Software zurückgreifen. Guckt euch z.B. an wie aufwändig es ist einen Clean Install zu machen, das Betriebssystem selber kann nichtmal den eigenen Key auslesen den man zur Neuinstallation braucht, dann muss es während der installation tausendmal neustarten, die Zeitangaben sind way off und die Hälfte der Treiber fehlt am Ende - was für ein Fail.

Die "Anleitungen" auf der Microsoft Knowledge base würden bei jedem anderen Unternehmen als "Workaround" bezeichnet werden, mit dem dazugehörigen Bug den man in einem der nächsten Releases mal fixen könnte. Bei Microsoft hat man sich dran gewöhnt, ebenso wie ein Großteil der User. Es haben sich aber auch viele Programmierer an diese Workarounds gewöhnt so dass es in vielen Fällen längst zu spät ist diese zu fixen. Die jahrzehntelange Prokrastination und Fokussierung auf neue Features fällt denen jetzt auf die Füße wo eine neue Generation ihr Daily computing/kommunikation /media consumption eben flüssiger mit Android, iOS, macOS erledigt.

Win10 funktioniert mit Lakefield schon sehr gut, allerdings noch ohne AVX und HT.

Super, es funktioniert. Das war damals auch das große Argument für Netbooks: Win und basic apps laufen drauf, was will man mehr? Nachhaltig einen Markt schafft man mit so einer Minimalleistung eben nicht. Lakefield läuft zumindest bei Samsung weder so Snappy wie das im Vorjahr vorgestellte Snapdragon-System, noch bietet es vergleichbare mobile Connectivity, geschweige denn bessere Akkulaufzeiten. Dass man dann in vielen theoretischen workloads leicht vor dem Handyprozessor liegt reicht einfach nicht...

Das ist richtig. Hat Billy Gates schon in den 80er Jahren erkannt, dass OS/2 von IBM das bessere Betriebssystem ist.

Windows ist halt anfällig, weil es so verbreitet ist und ~90% des Internets aus P*rn besteht.

Die müssen endlich mal reinen Tisch machen mit der UI. Das neue Kacheldesign ist einfach ein Flickenteppich und verbraucht auf PCs/Workstation unnötig viel Screen Estate während es weiterhin nicht alle Funktionen bietet wie die alte UI. Die ganze Tablet-Fokussierung war imo ein Fehler, denn den Markt hat man praktisch doch an Android und IOS verloren.

Zossel
2020-12-29, 17:16:42
Ich denke nicht dass der Kernel der große Leistungsfresser ist, wieso sich Windows nicht Snappy anfühlt. Die Anwendungssoftware dadrüber ist doch viel schlimmer. Programme die gut optimiert sind, direkt Hardwareressourcen etwa per directX benutzen etc. sind genau so schnell wie auf Linux oder MacOS, durch modernere Treiber sogar gelegentlich noch schneller. Kernelschwächen sieht man nur bei krassem Multithreading, i/o- bzw. networkinglastigen Sachen wie sie im Anwenderumfeld eigentlich nicht vorkommen.

Es gibt schon einige Dinge man auf Terminalservern oder auch die ein oder andere Backend Anwendung die man auf Windows laufen lässt. Und da ist das schon sehr ärgerlich und kostet MS auch Marktanteile.
Und mit einem Kernel der so schlecht skaliert gewinnt man schon erst recht keinen Blumentopf im Cloud Umfeld, wie soll das eigentlich zur vom MS postulierten Cloud-Strategie passen?

aufkrawall
2020-12-29, 17:26:07
Bei M$ laufen die meisten Systemanwendungen noch in 32bit.

Da läuft doch mit 64 Bit Windows fast gar nichts als 32 Bit? :confused:

Windows 8 fühlt sich auf lahmen Mühlen jedenfalls massiv snappier an als 10. Imho hatte man schlicht keinen Bock, für 10 weiterhin für ULP zu optimieren. Wird mit neuen Windows 10-Versionen auch eher immer noch schlechter.

y33H@
2020-12-30, 10:26:51
Super, es funktioniert. Das war damals auch das große Argument für Netbooks: Win und basic apps laufen drauf, was will man mehr? Nachhaltig einen Markt schafft man mit so einer Minimalleistung eben nicht. Lakefield läuft zumindest bei Samsung weder so Snappy wie das im Vorjahr vorgestellte Snapdragon-System, noch bietet es vergleichbare mobile Connectivity, geschweige denn bessere Akkulaufzeiten. Dass man dann in vielen theoretischen Workloads leicht vor dem Handyprozessor liegt reicht einfach nicht.Nein, Lakefield war eher ein Testballon für Intel.