PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

amdfanuwe
2019-05-06, 14:02:35
Wenn TR später kommt, dann liegt es eher an Produktionsproblemen beim I/O.
GF hatte ja schon Probleme die Polaris Produktion zum Mining Boom zu steigern.
Zwar fällt jetzt Pinnacle Ridge weg, die Matisse I/O mit 150mm² sind aber nicht viel kleiner.
Auch GPU fällt weg, dafür wird wesentlich mehr Picasso und gute 400mm² Rome I/O benötigt.

Im embedded Bereich gibt es einen kleinen EPYC embedded mit der gleichen I/O Ausstattung wie TR. Der ROME I/O wäre für embedded zu groß.
Kann mir daher vorstellen, dass ein eigener I/O für TR kommt, aber erst mal abgewartet wird bis der erste Ansturm auf ROME und Matisse gedeckt ist.

War doch auch die Rede von einem 3ten Chip bei GF?
Oder gibt es doch noch einen I/O+GPU Chip?

Jedenfalls spekuliere ich eher auf Probleme bei GF als Engpässe bei TSMC, vor allem da Apple in der Menge runtergeschraubt hat.

HOT
2019-05-06, 14:27:50
I/O-Chips als Flaschenhals? Gar nicht blöd der Gedanke. Insgesamt kann man dafür erheblich mehr Kapazität benötigen als bei der gesamten Ryzen-Produktion bisher.
An Knappheit bei 7nm glaub ich nicht, sonst hätte man Navi nicht so vorangetrieben. Zudem steigen ja jetzt wichtige Hersteller um auf 7 LPP (Qualcomm) oder N7+ (HiSilicon/Huawei), für AMD müsste die vorhandene Kapazität also dicke reichen.

Opprobrium
2019-05-06, 14:34:13
Mal abgesehen davon, daß das nur eine Roadmap für Investoren ist die das nächste Produkt hervorheben soll: TR kam bisher immer gut ein halbes Jahr nach Ryzen. Und da die Ryzen 3000er dieses Jahr vorraussichtlich im July kommen macht es durchaus Sinn nicht direkt im August/September mit einem noch eindrucksvolleren Produkt aufzufahren. Wenn man die üblichen fast 6 Monate zwischen Ryzen und Threadripper nimmt, dann ergibt sich fast automatische eine Veröffentlichung um den Jahreswechsel.

Außerdem: wenn Ryzen 3000er wirklich mit bis zu 16 Kernen kommen sollten, dann wäre alles unterhalb von 16 Kernen für TR 3000 schon mal (fast) sinnlos.

Auch wird man wohl schauen wie und ob Intel reagiert. Kurzfristig dann mit 32-64 Kernern aufzulaufen hätte was :cool:

Kann mir eigentlich nicht vorstellen, daß die paarhundert TR CPUs einen wirklichen Einschnitt in die Epycproduktion bedeuten würden, vor allem wenn man davon ausgeht, daß zuerst einmal 4 der möglichen 8 Chiplets Dummychips sein könnten.

Gipsel
2019-05-06, 14:59:04
Kann mir daher vorstellen, dass ein eigener I/O für TR kommt, aber erst mal abgewartet wird bis der erste Ansturm auf ROME und Matisse gedeckt ist.Da Threadripper im gleichen Package wie Epyc kommt aber nur die Hälfte an IO mitbringt, werden die höchstwahrscheinlich da einfach teildefekte IO-Dies von Rome salvagen, das wäre auf jeden Fall das Einfachste. TR hat so geringe Stückzahlen, da lohnt sich ein eigener IO-Die eher nicht (aber bei einem ~400mm² Die in 14nm dürften einige teildefekte Dies anfallen, die man vielleicht nicht alle wegwerfen möchte). Und bezüglich der Epyc Embedded: Das ist sowieso kein Stecksockel sonder die Dinger kommen in einem BGA-Package und werden verlötet. Wer sagt denn, daß die "Epyc 2" Embedded-Versionen 1:1 im gleichen Format kommen? Und kennt einer die Stückzahlen?

HOT
2019-05-06, 15:32:37
War leider abzusehen. Ich weiß nur nicht, ob ich mich darüber freuen soll. Ich hatte damals in den sauren Apfel gebissen und mir direkt 2x16GB geholt. RAM-Module zu mischen ist gerade mit OC eine ziemlich schlechte Idee, d.h. sobald mit die 32GB nicht mehr reichen, muss ich entweder gebrauchte B-Dies nachkaufen oder die alten verkaufen.


Ist doch uninteressant, das OC-Verhalten wird ja nur besser und die Dinger werden doch erheblich größer. Man sollte das hier im Auge behalten:
https://www.techpowerup.com/255165/samsung-kills-production-of-famed-b-die-ddr4-memory-in-favor-or-higher-densities
Momentan gibts halt C-Dies (seit nem Jahr), die wurden aber von den Herstellern offenbar kaum angenommen, D-Dies sind eh nur OEM-Ware, interessant sind da nur die neuen 16 und 32Gbit-Chips. Das ermöglicht 32 und 64GB-Kits im Singleranked-Baustil und damit auch besser übertaktbar. Samsung hat also den Wechsel von 16GB auf 32GB als PC-RAM-Standardgröße eingeläutet. Da kommen dann halt neue FlareX mit A-Die 16Gbit. Oder eben dualranked mit 32Gbit-Chips, also 128GB für ein (!) Kit.

amdfanuwe
2019-05-06, 15:45:21
Wer sagt denn, daß die "Epyc 2" Embedded-Versionen 1:1 im gleichen Format kommen?
Wer sagt denn, dass es nicht so ist?
Und kennt einer die Stückzahlen?
Jup, AMD.:wink:

tm0975
2019-05-06, 15:47:55
Es wäre aber ein schönes Halo Produkt, was AMDs Ruf gut aufmöbeln kann..

das ist es ja immer noch. wir haben unsere ganzen alten opteron-server gerade von ein paar workstations auf basis AMD TR (red. Netzteil, RAID 10 nvme-SSDs, 128 GB RAM) abgelöst. top leistung zum echten schnäppchen-preis. die server-landschaft ist eh virtualisiert. hätten wir physische server gekauft, wäre es ein vielfaches teurer geworden. AMD TR ist klasse, vermutlich aber ein bisschen zuviel konkurenz für die eigene server-plattform.

Gipsel
2019-05-06, 16:16:24
Wer sagt denn, dass es nicht so ist?

Jup, AMD.:wink:Also Du nicht? Nach dem, was ich so gehört habe, sind die Stückzahlen bisher recht überschaubar (weswegen auch hier ein spezieller IO-Die kaum Sinn machen könnte). Eventuell überlegt man sich deswegen, da am Lineup grundsätzlich was zu ändern. Bis zu 16 Kerne gehen ja auch locker im AM4-Format und die eventuell fehlenden PCIe-Lanes (wirklich wesentlich nur bei den bisherigen Modellen mit 2 Dies) kann man durch eine Bridge auf dem Board (wie z.B. den X570 Chipsatz) zum großen Teil kompensieren (insbesondere da es jetzt auch PCIe4 statt PCIe3 ist). Ich sehe die Embedded Serie also nicht wirklich als zwingenden Grund für einen weiteren IO-Die für diese (vermutlich recht übersichtliche) Marktnische.

Lehdro
2019-05-06, 16:22:15
Na ja, die Plattform wäre ja eh nur für Prozessoren mit 24 und 32 Kernen interessant. Das kann man vllt. mit günstigen Epycs abdecken.
Nur das TR deutlich höhere Taktraten fährt, so etwas unwesentliches wie Faktor x1,5. Und ganz sicherlich wird man nicht seine Epycs in dem Sektor verramschen wollen, gerade nachdem man sich dort einen exzellenten Ruf erarbeitet hat. Das gilt sowohl für Epyc als auch TR.

Der Grund wird wohl einfach sein das bei den üblichen +6 Monaten Abstand zum Desktoppendant einfach das Jahr zuende ist. Kein Drama wie in der News beschworen, nur eine zeitliche Änderung.

amdfanuwe
2019-05-06, 16:27:59
Also Du nicht? Nach dem, was ich so gehört habe, sind die Stückzahlen bisher recht überschaubar
Also du auch nicht.
Hast ja recht mit deinen Argumenten. Ich würde es halt nicht kategorisch ausschließen.

Unicous
2019-05-06, 16:28:04
I would be pretty surprised if we don't see it this year.
https://twitter.com/CDemerjian/status/1125028393312030721

Supply isn't a problem for Rome/TR, trust me on this one.


https://twitter.com/CDemerjian/status/1125370450790498311

Ich wollte eben schon schreiben, dass man momentan nicht allzu viel in das "Fehlen" von TR3 hineininterpretieren sollte, da bin ich auf diese Tweets gestoßen.

Gibt mehrere Möglichkeiten:


der Folienpraktikant™ hatte nicht mehr genug Platz oder TR3 schlicht vergessen.:wink::wink:

Der Launch wurde nach hinten verschoben (Ende 2019?->Anfang 2020) um sich auf Zen2 und Navi zu konzentrieren

TR wird gestrichen weil er in der 570er Plattform aufgeht und man nicht die Serverplattform kannibalisieren möchte.


edit: Bonus-Hypothese: Sie warten noch auf Intel.:freak:


edit:
Das mit dem 570er Chipsatz macht natürlich keinen Sinn, weil es Dual-Channel ist.:redface:

Mal schauen, vllt. launched ja AMD auch eine neue Plattform für TR3.

amdfanuwe
2019-05-06, 16:54:05
Wer meint, 16Core AM4 würde TR kanibalisieren:
seh ich nicht so. Auf Grund der unterschiedlichen TDP bleiben auf AM4 ca. 5,6W / Core.
Bei TR 16Core sind es ca. 10W / Core.
Das dürfte für 1GHz unterschied im Baseclock gut sein.
Wenn dann noch selektierte 4 Core Chiplets eingesetzt werden, würde der TR auf 16 Cores die gleiche Leistung/Core bringen wie sie auf AM4 8Core möglich wäre.
Auch nicht vergessen, höchst taktende 8Core Chiplets sind verdammt selten. Mit selektierten höchst taktenden 4 Core Chiplets ist man im 5% Ausbeute Bereich.
Kann man einfach durch Monte Carlo Simulation ermitteln.
Also
AM4 8C 4,2/4,5
AM4 16C 3,0/4,3 3,5/4,3
TR4 16C 4,2/4,6 (Best of the best selection)
Da sieht ein TR 16 Core gar nicht so überflüssig aus.

P.S.
Die Taktangaben dienen nur zur verdeutlichung und sind rein hypothetisch.

Änderung: Wie Gipsel unten richtig stellt, sind die 3,0 GHz zu niedrig. Wären die Daten für 16C 65W.

tm0975
2019-05-06, 16:59:52
@amdfanuwe: aus meiner erfahrung gibt es 2 wesentlichen Unterschiede zwischen AM$/TR abseits der reinen Ausstattungsfolien:

1. 24/7 Stabilität als Host für eine Vielzahl virtueller Maschinen (bei ner handvoll Geräe unterschiedlicher Konfiguration haben wir bei AM4 früher oder Später freeze, bei TR 100% Verfügbarkeit. Einziger Unterschied waren Board und CPU)
2. CPU Raid 10 für eine Vielzahl von M2.NVMe SSDs

Gipsel
2019-05-06, 17:42:20
Wer meint, 16Core AM4 würde TR kanibalisieren:
seh ich nicht so. Auf Grund der unterschiedlichen TDP bleiben auf AM4 ca. 5,6W / Core.
Bei TR 16Core sind es ca. 10W / Core.
Das dürfte für 1GHz unterschied im Baseclock gut sein.
Wenn dann noch selektierte 4 Core Chiplets eingesetzt werden, würde der TR auf 16 Cores die gleiche Leistung/Core bringen wie sie auf AM4 8Core möglich wäre.
Auch nicht vergessen, höchst taktende 8Core Chiplets sind verdammt selten. Mit selektierten höchst taktenden 4 Core Chiplets ist man im 5% Ausbeute Bereich.
Kann man einfach durch Monte Carlo Simulation ermitteln.
Also
AM4 8C 4,2/4,5
AM4 16C 3,0/4,3
TR4 16C 4,2/4,6 (Best of the best selection)
Da sieht ein TR 16 Core gar nicht so überflüssig aus.

P.S.
Die Taktangaben dienen nur zur verdeutlichung und sind rein hypothetisch.Nicht nur hypothetisch, sondern vermutlich auch unrealistisch. Der Taktunterschied des 16C zum 8C wird wohl nicht so groß ausfallen. Natürlich immer abhängig davon, wo genau man sich auf der Spannungs-/Frequenzkurve bei den verschiedenen Kernanzahlen aufhält, aber die Verlustleistung steigt zum oberen Ende des Frequenzbereichs doch sehr beträchtlich an. Und schon jetzt ist der Ryzen 2700 mit 8C bei 3,2GHz Basetakt mit 65W TDP angegeben. Außerhalb von 256Bit AVX-Code (der durch die breitere FPU etwas mehr ziehen könnte, keine Ahnung, ob das im Basetakt mit drin sein wird oder ähnlich wie bei Intel Abschläge produzieren kann) sollte ein 16C mit 3GHz Basetakt wohl nicht mehr als das ziehen (man erinnere sich an die verdoppelte Energieeffizienz etwas unterhalb des Peaktaktes mit 7nm). Ein 16C-105W-Modell kommt also wohl eine hundert MHz höher (und eventuell gibt AMD für den 16C ja sogar noch etwas mehr Saft frei), so daß wir durchaus vergleichbare Basetakte des 16C zu heutigen 8C-Modellen sehen könnten.
Wenn man die Erfahrungen der 7nm mit der Radeon7 hernimmt, könnte es sogar sein, daß die Peak-(Boost-)Takte gar nicht so sehr verbrauchslimitiert sind (auf den Gesamtchip oder den Kern gesehen), sondern eher durch die extrem hohen Stromdichten in den Leitungen begrenzt werden. Dies könnte dann eventuell sogar zu einem Zusammenrücken der Takte zwischen Base- und Boost-Takt resultieren (bzw. keinem größeren Auffächern als bisher schon, außer vielleicht bei Modellen mit sehr vielen Kernen [TR-Topmodell, Epyc]). Und ich bezweifle noch ein wenig, daß z.B. 8C-Modelle überhaupt mit 105W TDP kommen, da man eventuell nur schwer so viel verheizen kann, ohne daß der Chip Probleme bekommt. Das ist aber extrem vom physischen Design des Chips abhängig, also auf welchen Betriebspunkt man den genau designed hat (wenn Energieeffizienz im Serverbereich der Schwerpunkt war, würde ich eventuell keine extrem hohen Boosttakte erwarten).

amdfanuwe
2019-05-06, 18:33:35
Und schon jetzt ist der Ryzen 2700 mit 8C bei 3,2GHz Basetakt mit 65W TDP angegeben. ... (man erinnere sich an die verdoppelte Energieeffizienz etwas unterhalb des Peaktaktes mit 7nm). Ein 16C-105W-Modell kommt also wohl eine hundert MHz höher
Hast recht. Ich hatte den 16C 65W im Kopf. Ausgehend von 14nm 1700 65W 3,0 Base bei doppelter Energieeffizienz eben doppelt so viele Kerne bei gleichem Takt und Verbrauch. Also 7nm 16C 65W 3,0/4,3, mit 105W eher im Bereich 1700X/1800X.

, daß die Peak-(Boost-)Takte gar nicht so sehr verbrauchslimitiert sind (auf den Gesamtchip oder den Kern gesehen), sondern eher durch die extrem hohen Stromdichten in den Leitungen begrenzt werden...
Meine ich doch immer. Hotspots. In 14/12nm kommt ein Core im Turbo auf ~20W. War wohl mal ein Thema bei dual Core, dass der Turbo durch die TDP begrenzt wurde.
Und ich bezweifle noch ein wenig, daß z.B. 8C-Modelle überhaupt mit 105W TDP kommen, da man eventuell nur schwer so viel verheizen kann, ohne daß der Chip Probleme bekommt..
Sagte ich auch schon. Bei einem 8C Chiplet läge die Wärmeabgabe bei >1W/mm², das wäre mehr als beim ungezügeltem 9900k unter Vollast.
Nimmt man aber 2*4Core Chiplets läge die Wärmeabgabe für ein Chiplet bei ca. 0,6W/mm², was nur etwas mehr wäre als beim 2700X.
Dann noch 100-200MHz höheren Turbo bei selektierten 4Core Chiplets gegenüber 8Core Chiplets.

Langlay
2019-05-06, 20:01:49
Sagte ich auch schon. Bei einem 8C Chiplet läge die Wärmeabgabe bei >1W/mm², das wäre mehr als beim ungezügeltem 9900k unter Vollast.
Nimmt man aber 2*4Core Chiplets läge die Wärmeabgabe für ein Chiplet bei ca. 0,6W/mm², was nur etwas mehr wäre als beim 2700X.
Dann noch 100-200MHz höheren Turbo bei selektierten 4Core Chiplets gegenüber 8Core Chiplets.

Ich glaube nicht das es viele Ryzen mit 8 Kernen und 2 Chiplets geben wird. Wenn die Chiplets <100mm² sind, wird es einfach nicht viele Chipslets geben wo mehr als 2 Kerne hin sind. Und jedes Chiplet wo 2 oder weniger Kerne hin sind kann man als 6-,12-,24-,48 Kerner verscherbeln.

BoMbY
2019-05-06, 20:13:01
Am Ende gibt es vermutlich maximal 8c/16t, und immer mit zwei Dies, weil die 100% Dies alle für die hochpreisigen EPYCs gebraucht werden.

Knuddelbearli
2019-05-06, 20:13:28
Na ja, die Plattform wäre ja eh nur für Prozessoren mit 24 und 32 Kernen interessant. Das kann man vllt. mit günstigen Epycs abdecken.

naja schon der 16 Kerner ist interessant, mehr Bandbreite und vor allem mehr PCI-E. Selbst als 8 Kerner gäbe es da sicher einige Abnehmer. Vor allem jetzt wo man keine Nachteile mehr davon hat wäre schon ein threadripper von ganz klein bis groß Klasse zu jeweils 20-30% mehr als ryzen oder so.

Knuddelbearli
2019-05-06, 20:18:53
Ist doch uninteressant, das OC-Verhalten wird ja nur besser und die Dinger werden doch erheblich größer. Man sollte das hier im Auge behalten:
https://www.techpowerup.com/255165/samsung-kills-production-of-famed-b-die-ddr4-memory-in-favor-or-higher-densities
Momentan gibts halt C-Dies (seit nem Jahr), die wurden aber von den Herstellern offenbar kaum angenommen, D-Dies sind eh nur OEM-Ware, interessant sind da nur die neuen 16 und 32Gbit-Chips. Das ermöglicht 32 und 64GB-Kits im Singleranked-Baustil und damit auch besser übertaktbar. Samsung hat also den Wechsel von 16GB auf 32GB als PC-RAM-Standardgröße eingeläutet. Da kommen dann halt neue FlareX mit A-Die 16Gbit. Oder eben dualranked mit 32Gbit-Chips, also 128GB für ein (!) Kit.

Da du dich damit scheinbar besser auskennst kannst einem Unwissenden mal erklären was es mit A, B, C usw auf sich hat? dachte ja bisher je weiter desto neuer und "besseres" Fertigungsverfahren aber jetzt sollen statt B sie mit A kommen?!? Das wäre doch eine ältere Version? und wieso D nur OEMs?

amdfanuwe
2019-05-06, 21:43:28
Ich glaube nicht das es viele Ryzen mit 8 Kernen und 2 Chiplets geben wird. Wenn die Chiplets <100mm² sind, wird es einfach nicht viele Chipslets geben wo mehr als 2 Kerne hin sind. Und jedes Chiplet wo 2 oder weniger Kerne hin sind kann man als 6-,12-,24-,48 Kerner verscherbeln.
Hat nichts mit glauben zu tun. ist Mathematik.
Werden so gut wie keine Chiplets mit 2 defekten Kernen in einem CCX geben, die zudem noch hoch takten.

Dummerweise sind die Kerne in einem Chip nicht exakt gleich.
D.h. die Turbofrequenzen der Kerne unterscheiden sich.

Sagen wir, es gibt 3 Speedgrades; F1, F2 und F3 für die höchste Frequenz.
Die Cores ohne Defekt könnten alle mit F1 Turbo verkauft werden, da sicherlich alle Kerne mindestens F1 erreichen.
Es gibt auch ein paar, die erreichen auf allen Kernen mindestens F2.
Die Wahrscheinlichkeit für F3 auf einem Kern liegt bei 1/3. Bei 8 Kernen somit bei 1/3*1/3*1/3*1/3*1/3*1/3*1/3*1/3 = 1/6561= 0,015%

Unter 1 Millionen Chiplets befinden sich also gerade mal 152 Chiplets, die auf allen 8 Kernen die höchste Frequenz erreichen.

Warum also nicht durch abschalten ausgewählter F1 oder F2 Kerne sehr gute 6 Kerner machen (Wahrscheinlichkeit 1/729 = 0,14% => 1400/1Mil.).

Oder sehr gute 4 Kerner durch abschalten ausgewählter F1 oder F2 Kerne ( 1/3*1/3*1/3*1/3 = 1/81 = 1,2% => 12 000/1Mil)
Wenn sich 2 4 Kerner Chiplets teurer verkaufen lassen als ein schlechter 8 Kern Chiplet, warum dann nicht.

Man sieht an dieser simplen Rechnung schon, dass es kaum 8 Kern Chiplets mit höchstem Speedgrade gibt.
Es gibt aber genügend 4 Kerner aus denen man einen 8 Kerner mit höchstem Speedgrade zusammenstellen kann.

Von daher sieht man auch, dass es Blödsinn ist den 16 Kerner mit der höchsten Turbofrequenz zu erwarten.

Brillus
2019-05-06, 22:24:33
Am Ende gibt es vermutlich maximal 8c/16t, und immer mit zwei Dies, weil die 100% Dies alle für die hochpreisigen EPYCs gebraucht werden.

Die letzten Gerüchte sprechen von 70% voll funktionsfähigen Chips, da bleibt genug über auserdem haben die unterschieliches binning epcy Effizienz Ryzen max speed.

Knuddelbearli
2019-05-06, 22:51:27
Außerdem hat AMD noch nie großartig nach Leistung gebinnt, selbst GPUs geben sie lieber eine viel zu hohe Spannung drauf um auch ohne Binning möglichst alles verwerten zu können ( gibt immer mal wieder eine Grafikkarte die sich kaum untervolten lässt, der großteil lässt sich aber extrem gut untervolten )

HOT
2019-05-06, 22:52:31
Da du dich damit scheinbar besser auskennst kannst einem Unwissenden mal erklären was es mit A, B, C usw auf sich hat? dachte ja bisher je weiter desto neuer und "besseres" Fertigungsverfahren aber jetzt sollen statt B sie mit A kommen?!? Das wäre doch eine ältere Version? und wieso D nur OEMs?
B sind 20nm-Chips, C 1x nm (vermutlich 18nm) und D 1y nm (also weniger). Die neuen A-Chips sind wieder die ersten der neuen Serie in 16Gbit und 32Gbit ( /8 = 2 bzw. 4GB pro Chip).
Auch SKHynix und Micron müsste dieses Jahr mit 16Gbit starten.

Linmoum
2019-05-06, 22:57:06
Außerdem hat AMD noch nie großartig nach Leistung gebinnt, selbst GPUs geben sie lieber eine viel zu hohe Spannung drauf um auch ohne Binning möglichst alles verwerten zu können ( gibt immer mal wieder eine Grafikkarte die sich kaum untervolten lässt, der großteil lässt sich aber extrem gut untervolten )
Ich hab seit 2017 knapp ein Dutzend AM4-Systeme zusammengeschraubt und ich kann aus eigener Erfahrung sagen, dass die X-CPUs sich höher (bei idR auch niedrigerer Spannung) takten lassen. Da wird definitiv gebinnt, das merkt man dann eben entsprechend bei manuellem OC.

Langlay
2019-05-07, 00:19:37
Werden so gut wie keine Chiplets mit 2 defekten Kernen in einem CCX geben, die zudem noch hoch takten.

Dummerweise sind die Kerne in einem Chip nicht exakt gleich.
D.h. die Turbofrequenzen der Kerne unterscheiden sich.



Soweit sind wir noch (einigermassen) gleich.

(Imo isset so das Chips die in der Mitte vom Wafer liegen sich im Durchschnitt höher Takten lassen das die Chips vom Rand. Und imo dürfte auch : "Chip hat einen Defekt" und "Chip taktet nich gut", nicht zwingend Hand in Hand gehen.)



Sagen wir, es gibt 3 Speedgrades; F1, F2 und F3 für die höchste Frequenz.
Die Cores ohne Defekt könnten alle mit F1 Turbo verkauft werden, da sicherlich alle Kerne mindestens F1 erreichen.
Es gibt auch ein paar, die erreichen auf allen Kernen mindestens F2.
Die Wahrscheinlichkeit für F3 auf einem Kern liegt bei 1/3. Bei 8 Kernen somit bei 1/3*1/3*1/3*1/3*1/3*1/3*1/3*1/3 = 1/6561= 0,015%

Unter 1 Millionen Chiplets befinden sich also gerade mal 152 Chiplets, die auf allen 8 Kernen die höchste Frequenz erreichen.


Schöne Milchmädchenrechnung. Nur ich kann F1 und F2 und F3 frei wählen. Und ich muss F3 nicht so so hoch wählen das es nur 0.015% der Chips schaffen.

Sinnvoll wäre es zu sagen F1 schaffen 90% der Chips F2 schaffen 50% der Chips und F3 vielleicht 10% der Chips.



Warum also nicht durch abschalten ausgewählter F1 oder F2 Kerne sehr gute 6 Kerner machen (Wahrscheinlichkeit 1/729 = 0,14% => 1400/1Mil.).

Oder sehr gute 4 Kerner durch abschalten ausgewählter F1 oder F2 Kerne ( 1/3*1/3*1/3*1/3 = 1/81 = 1,2% => 12 000/1Mil)
Wenn sich 2 4 Kerner Chiplets teurer verkaufen lassen als ein schlechter 8 Kern Chiplet, warum dann nicht.

Man sieht an dieser simplen Rechnung schon, dass es kaum 8 Kern Chiplets mit höchstem Speedgrade gibt.
Es gibt aber genügend 4 Kerner aus denen man einen 8 Kerner mit höchstem Speedgrade zusammenstellen kann.


https://abload.de/img/die8pjgu.jpg

0.35 Fehler pro cm² mit 20mm x 5mm Dies. (das ist ungefähr der Yield den Zen2 heute schon haben soll)

Wie man sieht hab ich ~400 Dies die komplett in Ordnung sind. Und 161 Dies die Defekte aufweisen. Von diesen 161 Kerne werden einige einen Fehler haben der den ganzen Die unbrauchbar macht also nicht zu retten sind. Bei den Chips wo der fehler die Cores betreffen wird bei den meisten Chips nur 1 oder maximal 2 Kerne kaputt sein. Chips mit 3+ defekten Kernen werden einfach kaum anfallen.

Desweiteren ist es billiger eine Zen2 8 Kern CPU mit 1 Chiplet + IO Die zu fertigen als 2 Chiplets + IO Die. Und es besteht keine grosse Not dies zu tun, weil man kaum Chiplets mit 3 o. 4 Defekten Kernen haben wird.

basix
2019-05-07, 07:21:52
Obwohl die Abmasse des Chiplets ganz anders sind (eher so 8x11mm) kann man trotzdem einigermassen die Die Kosten abschätzen. Bei 10k$ pro Wafer wären es also 25$ pro Die und inkl. Salvage so 18-20$. Nicht gerade wenig, wenn man zwei davon braucht und noch das I/O Die dazu kommt. Dann ist man irgendwo bei 60$ nur für die Chips, Packaging etc. kommt dann noch oben drauf. Kann gut sein, dass ein 2-Chiplet Ryzen 80-100$ in der Produktion kostet. Ist OK aber auch nicht wenig.

LadyWhirlwind
2019-05-07, 07:45:28
Obwohl die Abmasse des Chiplets ganz anders sind (eher so 8x11mm) kann man trotzdem einigermassen die Die Kosten abschätzen. Bei 10k$ pro Wafer wären es also 25$ pro Die und inkl. Salvage so 18-20$. Nicht gerade wenig, wenn man zwei davon braucht und noch das I/O Die dazu kommt. Dann ist man irgendwo bei 60$ nur für die Chips, Packaging etc. kommt dann noch oben drauf. Kann gut sein, dass ein 2-Chiplet Ryzen 80-100$ in der Produktion kostet. Ist OK aber auch nicht wenig.

Die Gestehungskosten sind erstmal irrelevant.
Die Frage ist, was kostet es die Konkurrenz und was kannst du dafür verlangen?
Wenn das billigste Model für $150 und das teuerste für $399 verkauft wird, ist alles im grünen Bereich.

robbitop
2019-05-07, 08:06:17
Den 32 Core kann man zur Zeit eh vergessen wenn man Windows nutzt,da muss sich erstmal was am Scheduler tun damit es überhaupt Sinn macht TR noch mehr Kerne zu geben.
Ich tippe darauf das sich da erst 2020 was tut.
Das dürfte aber mit Rome nicht mehr das Problem sein, da der IO Die das Problem mit den asymmetrischen Latenzen löst

Rancor
2019-05-07, 08:30:37
Bald ist Computex und es gibt immer noch keine ordentlichen Leaks? Was ist denn da los :D

Langlay
2019-05-07, 08:51:52
Obwohl die Abmasse des Chiplets ganz anders sind (eher so 8x11mm) kann man trotzdem einigermassen die Die Kosten abschätzen.

https://abload.de/img/diee3jzj.jpg

Hier nochmal mit 11x8mm

BoMbY
2019-05-07, 09:26:02
Bald ist Computex und es gibt immer noch keine ordentlichen Leaks? Was ist denn da los :D

Das liegt vermutlich daran dass die einzigen CPUs die veröffentlicht werden die 3000er APUs sind.

Pirx
2019-05-07, 09:30:02
Das liegt vermutlich daran dass die einzigen CPUs die veröffentlicht werden die 3000er APUs sind.
Dann brennt aber die Luft:freak:

amdfanuwe
2019-05-07, 09:35:36
(Imo isset so das Chips die in der Mitte vom Wafer liegen sich im Durchschnitt höher Takten lassen das die Chips vom Rand.
OK, das ist so. Verkompliziert nur etwas die Simulation. Ordne erst einem Chip eine Grundfrequenz zu, je nachdem ob er am Rand oder in der Mitte liegt. Anschließend noch eine gewisse Streueng von dieser Grundfrequenz für jeden Kern.

Und imo dürfte auch : "Chip hat einen Defekt" und "Chip taktet nich gut", nicht zwingend Hand in Hand gehen.)

Nö, hat ja nichts miteinander zu tun. Defekt ist doch, wenn ein Staubkorn den Belichtungs oder Ätzprozess stört.
Takt und auch Verbrauch liegt eher an der Belichtungs- und Ätzqualität.
Da wird halt nicht jede Struktur wie sie sein soll. Ein paar Atome mehr oder weniger reichen um den Widerstand oder die Kapazität zu ändern.
Auf die Summe in einem Kern gerechnet, gibt es dann gute und schlechte Kerne und viele dazwischen.



Schöne Milchmädchenrechnung.
Danke gleichfalls.


Nur ich kann F1 und F2 und F3 frei wählen. Und ich muss F3 nicht so so hoch wählen das es nur 0.015% der Chips schaffen.

Sinnvoll wäre es zu sagen F1 schaffen 90% der Chips F2 schaffen 50% der Chips und F3 vielleicht 10% der Chips.
Hier schießt du den Bock.
Nachdem mann alle Chips nach Taktqualität sortiert hat, F1 bis F3 in meinem Beispiel, real wohl noch mehr, sagt man, wir brauchen 10% für die guten Chips etc.
Die F3 reichen nicht, also nimmt man die F2 hinzu um auf die 10% zu kommen.
Du hast in deinem Programm also 8 Kerner mit F2 und F3, bei denen F2 auf der Verpackung steht.
Nimmt man jetzt die schlechtesten 50% der Chips, die F1, und schaltet Kerne ab, kann man aber noch genug 4 Kerner gewinnen, bei denen man F3 auf die Verpackung schreiben kann.

Mit 2 4 Kernern kann man einen F3 8 Kerner zusammenstellen.
Mit einem 8 Kern Chip kann man nur max F2 verkaufen.



Desweiteren ist es billiger eine Zen2 8 Kern CPU mit 1 Chiplet + IO Die zu fertigen als 2 Chiplets + IO Die. Und es besteht keine grosse Not dies zu tun, weil man kaum Chiplets mit 3 o. 4 Defekten Kernen haben wird.
Hast recht mit deiner Defekt Betrachtung. Aber es geht nicht um die Defekten. Die kann man noch zusätzlich verwerten.
Es geht um die schlechten F1 Chips
Und zum Billiger:
Basix schätzt ca. 20$ pro Chiplet.
Kosten einer 1 Chiplet CPU ca. 40$.
Kosten einer 2 Chiplet CPU ca. 60$.
(Bitte beachten, die F Angaben sollen den Turbo darstellen, F3= höherer Turbo)
CPU 1, 8C Chiplet, 65W F2 Handel 300€ (Die guten 10%)
CPU 2, 2*4C , 105W F3 Handel 350€ (Aus 2 Müll Chips gewonnen)

Aus 2 schlechten Chipets, die ansonsten eventuell sogar in der Tonne gelandet wären, kann AMD einen Chip zusammenkleben der sich teurer verkaufen läßt als ein Chip mit einem Chiplet. Warum sollten sie das nicht tun? Vor allem, wenn sie damit eine bessere CPU haben als die Konkurrenz während die 1 Chiplet CPU diese nicht schlagen kann.
Es rechnet sich also.

Ob AMD das so macht ist eine andere Frage. Ich sage nur, sie könnten es so machen und es würde sich lohnen.

HOT
2019-05-07, 09:43:28
Zwei Chiplets bei 8 Kernen macht nur dann auch nur entfernt Sinn, wenn man den doppelten Cache mitnehmen möchte. Ansonsten ist diese These einfach Unsinn.

amdfanuwe
2019-05-07, 10:02:39
Kann gut sein, dass ein 2-Chiplet Ryzen 80-100$ in der Produktion kostet. Ist OK aber auch nicht wenig.
Ein 1 Chiplet Ryzen wäre ca 20$ billiger, also 60-80$.

Wo liegen wir da mit Pinnacle Ridge bzw. Picasso?
Bei 30 - 50$?
Der 200GE wird für 43€ verkauft. Denke mal, dass ist schon nahe untere Grenze.

amdfanuwe
2019-05-07, 10:07:06
Ansonsten ist diese These einfach Unsinn.
Den Spruch hat man schon öfters von Päpsten und anderen Leuten gehört, die anschließend widerlegt wurden.

Also sorry, "Unsinn" kann ich nicht als Argument gelten lassen.

Mangel76
2019-05-07, 10:29:00
Ein 1 Chiplet Ryzen wäre ca 20$ billiger, also 60-80$.

Wo liegen wir da mit Pinnacle Ridge bzw. Picasso?
Bei 30 - 50$?
Der 200GE wird für 43€ verkauft. Denke mal, dass ist schon nahe untere Grenze.

Aus dem Verkaufspreis kannst du doch nicht auf die Herstellungskosten schließen! Bei einem PR-Die, bei dem nur 2 Kerne funktionieren, hast du die Wahl zwischen Müll und Verkauf für sagen wir 20€. Dieser Abgabepreis kann durchaus unter den theoretischen Die-Kosten liegen, solange andere für einen deutlich höheren Preis verkauft werden. Die Kosten sind ja angefallen, egal wie das Ding verwertet wird, also nimmt man auch so viele Erlöse mit, wie man kriegen kann. Es wird doch niemand bei AMD auf die Idee kommen, das Ding wegzuschmeißen, weil der Verkaufspreis unter den theoretischen, aber für den Einzel-Die völlig irrelevanten Herstellungskosten liegt. Wichtig ist, dass man in der Gesamtkalkulation auf einen positiven DB kommt.

Langlay
2019-05-07, 10:48:38
Aus dem Verkaufspreis kannst du doch nicht auf die Herstellungskosten schließen! Bei einem PR-Die, bei dem nur 2 Kerne funktionieren, hast du die Wahl zwischen Müll und Verkauf für sagen wir 20€. Dieser Abgabepreis kann durchaus unter den theoretischen Die-Kosten liegen, solange andere für einen deutlich höheren Preis verkauft werden.

Kann man machen, ist aber auch dort gibt es den Punkt wo die ganze Sache eine Beschäftigungstheraphie wird, nämlich wenn ich den Chip wegverwerfe mache ist Betrag X verlust. Wenn ich den Chip verkaufen will und noch Betrag Y für das CPU Packaging + ggf. Retailverpackung + Kühler ausgeben muss. Nur um am Ende wieder mindestens Betrag X verlust mache an dem Geschäft.



@amdfanuwe

Davon ab möchte ich auch nicht ausschliessen das es Ryzen 3000 CPU mit 2 Chiplets geben wird. Ich würde nur davon ausgehen das die breite Masse an 8 Kern Ryzen 3000 ein Chiplet tragen wird.

Zergra
2019-05-07, 11:14:22
Am Ende liegt es doch an der Frage, was voll funktionsfähig ist. Meiner Meinung sind das die geplanten Taktraten die erreicht werden, also reichen 70% für die 8 Kerner aus und erreichen auch die Taktraten. Mit Glück bekommt man halt bessere. Dadurch muss man halt auch 8C teildeaktivieren und als 6C verkaufen.

Mangel76
2019-05-07, 11:20:26
Kann man machen, ist aber auch dort gibt es den Punkt wo die ganze Sache eine Beschäftigungstheraphie wird, nämlich wenn ich den Chip wegverwerfe mache ist Betrag X verlust. Wenn ich den Chip verkaufen will und noch Betrag Y für das CPU Packaging + ggf. Retailverpackung + Kühler ausgeben muss. Nur um am Ende wieder mindestens Betrag X verlust mache an dem Geschäft.


So viel Sachverstand habe ich mal stillschweigend vorausgesetzt. Aber du hast recht, es ist immer vom schlimmsten Fall auszugehen und ich werde daher beim nächsten Mal eine komplette Deckungsbeitragsrechnung beifügen :biggrin:

LadyWhirlwind
2019-05-07, 11:43:53
Am Ende liegt es doch an der Frage, was voll funktionsfähig ist. Meiner Meinung sind das die geplanten Taktraten die erreicht werden, also reichen 70% für die 8 Kerner aus und erreichen auch die Taktraten. Mit Glück bekommt man halt bessere. Dadurch muss man halt auch 8C teildeaktivieren und als 6C verkaufen.

Ich würde eher den umgekehrten Weg gehen und alles als Defekt bezeichnen, dass sich nicht für ein verkaufbares Produkt verwenden lässt.

amdfanuwe
2019-05-07, 12:07:25
Aus dem Verkaufspreis kannst du doch nicht auf die Herstellungskosten schließen!
Schon klar. Rechne mal mit Binning, Verpackung, Lüfter, Vertrieb, Händlermarge etc. Da dürfte man schon bei 30€ sein, selbst wenn der Die mit 0$ angesetzt wird.

Billigster Bristol Ridge für AM4 geht für 29,92€ über die Theke.
Billiger geht wohl nur noch, wenn der Händer auf seine Marge verzichtet und der Lüfter rausgenommen würde.

Zergra
2019-05-07, 12:47:49
Ich würde eher den umgekehrten Weg gehen und alles als Defekt bezeichnen, dass sich nicht für ein verkaufbares Produkt verwenden lässt.

Dann wären die 70% aber relativ schlecht und nicht besonders gut. Voll Funktionsfähig kann bei einem 8C Die auch nur ein 8C Die sein. Sonst macht das ganze doch keinen Sinn und wäre nur Teilfunktionsfähig.

amdfanuwe
2019-05-07, 12:56:25
Dann wären die 70% aber relativ schlecht und nicht besonders gut. Voll Funktionsfähig kann bei einem 8C Die auch nur ein 8C Die sein. Sonst macht das ganze doch keinen Sinn und wäre nur Teilfunktionsfähig.
Seh ich auch so.
70% funktionsfähige 8C und >90% verwertbare Chips.

HOT
2019-05-07, 13:27:11
Den Spruch hat man schon öfters von Päpsten und anderen Leuten gehört, die anschließend widerlegt wurden.

Also sorry, "Unsinn" kann ich nicht als Argument gelten lassen.
Es ist offensichtlicher Unsinn. Warum sollte man 7nm-Dies verschwenden? Begründe das ordentlich, dann sehen wir weiter.
Ich schrieb ja schon, Cache würd ich als Begründung akzeptieren.


70% Yield sind 70% heile Chips. Was soll denn dieser Blödsinn jetzt auf einmal? Habt ihr was geraucht?

amdfanuwe
2019-05-07, 13:38:58
Warum sollte man 7nm-Dies verschwenden? Begründe das ordentlich, dann sehen wir weiter.
Wenn du meine Begründung nicht verstehst, kann ich dir auch nicht helfen.
Cache wäre ein zusätzliches Argument, hatte ich gar nicht angesprochen.

Aber stell doch mal eine Begründete Antithese auf. So mit Kosten, Frequenzen, Gewinnkalkulation etc.
Ich will auch mal meckern und alles als Unsinn abtun.

amdfanuwe
2019-05-07, 14:26:30
Exaflop Computer mit AMD Komponenten.
https://www.amd.com/en/products/frontier
https://www.computerbase.de/2019-05/frontiert-supercomputer-amd-cray/
1,5 Exaflops = 1500 Petaflops = 1,5Millionen Teraflops.
Frontier soll damit schneller fertig sein als Intel mit dem 1 ExaFlop Aurora.

Damit dürften je eine CPU und vier GPUs auf einem gemeinsamen und potentiell sehr großen Interposer zum Einsatz kommen.
Das ist völliger Blödsinn. Da hatte der Author wohl noch die Exaflop CPU Studie von AMD im Sinn http://www.computermachines.org/joe/publications/pdfs/hpca2017_exascale_apu.pdf.
In der Pressemitteilung wird von EPYC + 4 Instinct in einem NODE geschrieben.
Das wird also ROME + 4 * MI60 sein.
Bei 14,7 TFlops / MI60 komm ich somit auf ca:
100 000 MI60
25 000 ROME
Also 25000 Einschübe. Für 1,5 Jahre genug Arbeit das ans laufen zu kriegen.

HOT
2019-05-07, 14:30:11
Das Ding ist 80mm² maximal. Anfangs sind die Yields etwas schlechter, das ist normal bei einem neuen Prozess, aber das geht ruck zuck Richtung 90. Das macht einfach keinen Sinn. Da ist entweder ein Dummy oder nix. Aber man wird keine 7nm-Chips in irgendeiner Form verschwenden. Man wird das so gut es geht ausnutzen, da man u.U. jeden Chip brauchen wird aufgrund der Marktsituation. Und 4-Kern-Dies kann man bis September sammeln und dann als OEM-Ware auf den Markt werfen als 3300 oder 3500X.

Dass man TR verschoben hat wird i.Ü. genau dem Rechnung tragen.

amdfanuwe
2019-05-07, 15:12:43
Aber man wird keine 7nm-Chips in irgendeiner Form verschwenden.
Das ist doch grad mein Punkt. Wenn ich einen qualitativ schlechten 8C durch abschalten einzelner Cores in einen höherwertigen teurer verkaufbaren Chip umwandeln kann, warum nicht.
Und du glaubst ja wohl nicht, dass die 6 und 12 Kerner nur aus defekten Chips bestehen?
Bei 70% Yield für 8C, 10% mit defekt in einem Core, 10% mit defekt im Cache und 10% unbrauchbare bleiben nicht genügend defekte für 6C übrig.
Belassen wir es dabei und warten ab, was AMD bringt.

Zergra
2019-05-07, 15:41:43
Ich bin immer noch der Meinung das die 6C eher einen geringen Anteil am Verkauf ausmachen werden. Es wird welche geben ja, aber AMD hat die Möglichkeit den Markt mit günstigen 8C zu fluten und das werden sie wohl auch machen. Also 160€ für den Einstiegs 8C halte ich für realistisch.

HOT
2019-05-07, 16:17:30
amdfanuwe
Reden wir aneinander vorbei? Man wird die Defekten zu 90% bei 12 und 6-Kernern natürlich einsetzen. Und noch schlechteren landen dann in 4-Kernern (oder in 16 und 24 Kern-EPYCs). Aber ein 8-Kerner macht nur mit einem CCD Sinn. Man könnte einen Premium 8-Kerner mit doppeltem Cache machen. Aber per Standard wird man bei einem CCD bleiben, da alles andere Verschwendung wäre.

amdfanuwe
2019-05-07, 16:22:15
Also 160€ für den Einstiegs 8C halte ich für realistisch.
Haben wir doch schon.
Ryzen 7 1700 158,-€
Ryzen 7 1700X 183,90 €

Nur will die keiner.
Die Leute kaufen lieber einen 6C für 147,90 oder
8C für 297,90.
Sogar 8C für 498,- € verkaufen sich gut.

Verstehe da einer die Welt.

amdfanuwe
2019-05-07, 16:31:30
amdfanuwe
Reden wir aneinander vorbei?
Anscheinend schon.
Welche Leistungsdaten erwartest du dir eigentlich von einem Chiplet?
Also maximal abzuführende Wärme auf den 75mm², Base Takt, Turbo Takt?

dargo
2019-05-07, 16:38:09
Haben wir doch schon.
Ryzen 7 1700 158,-€
Ryzen 7 1700X 183,90 €

Nur will die keiner.

Ich sehe bei MF jeweils >11.000 verkaufte Exemplare davon. Das ist dann also "keiner"? Ein Ryzen 7 2700 liegt bei MF übrigens bei >4.000 Exemplaren.

=Floi=
2019-05-07, 17:56:25
Haben wir doch schon.
Ryzen 7 1700 158,-€
Ryzen 7 1700X 183,90 €


warum werden die noch verkauft/ sind noch nicht EOL?

Der 2X00 macht schon einiges besser.

amdfanuwe
2019-05-07, 18:08:52
Ich sehe bei MF jeweils >11.000 verkaufte Exemplare davon. Das ist dann also "keiner"? Ein Ryzen 7 2700 liegt bei MF übrigens bei >4.000 Exemplaren.
Stimmt. Muß man wohl sagen: keiner mehr.
Seit 15.Januar 2019 verkaufte exemplare bei MF:
1700X 390
1700 710

2700X 5370
2700 1830
2600 16980

Zergra
2019-05-07, 18:20:40
Aktuell gibt es 8C ab 200€, die alten gibt es günstiger. Aber das Interesse ist selbstverständlich kleiner, an den alten.

y33H@
2019-05-07, 18:34:10
Frontier nutzt laut AMD weder Rome/Milan noch Vega/Navi, sondern Custom Desigs (die wohl irgendwo dazwischen liegen).

amdfanuwe
2019-05-07, 18:37:28
Frontier nutzt laut AMD weder Rome/Milan noch Vega/Navi, sondern Custom Desigs (die wohl irgendwo dazwischen liegen).
Kann auch einfach nur eine andere Firmware bedeuten.

y33H@
2019-05-07, 18:41:12
Zur CPU hieß es Beyond Zen 2.

Unicous
2019-05-07, 18:42:34
Andere "firmware"... natürlich.:freak:

Es ist höchstwahrscheinlich dem Fakt geschuldet, dass CPU und GPU direkt kommunizieren können/müssen. Vllt. gibt es einen eigenen I/O Die dafür, es wurde an anderer Stelle auch suggeriert (glaube Computerbase), das Ganze würde auf einem einzigen Package stattfinden, siehe AMDs PIM(Processing in Memory)-Projekt.

Bin davon aber noch nicht ganz überzeugt auch wenn AMD massiv Grundlagenforschung in den letzten Jahren betrieben hat.

edit:

Zufälligerweise hat jemand bei Twitter gestern auch einige dieser Patente recherchiert. Ich habe mir gestern noch gedacht: nett dass AMD da weiterhin forscht und sogar Fertigungsstechnicken bzw. -verfahren entwickelt um z.B. die Kühlung von 3D-stacks zu verbessern:

https://twitter.com/Underfox3/status/1125284546969206784

Es stellt sich dennoch die Frage ob man da "ready for prime time" ist. TSMC hat ja mittlerweile ein Verfahren entwickelt wie man Interposer 3x mal so groß herstellen kann wie es die Fotomaske eigentlich zulässt.

Zossel
2019-05-07, 19:22:41
warum werden die noch verkauft/ sind noch nicht EOL?

Weil es Käufer dafür gibt.

Knuddelbearli
2019-05-07, 20:01:21
Die Gestehungskosten sind erstmal irrelevant.
Die Frage ist, was kostet es die Konkurrenz und was kannst du dafür verlangen?
Wenn das billigste Model für $150 und das teuerste für $399 verkauft wird, ist alles im grünen Bereich.

Ich hoffe für den größten können sie mehr als 399$ verlangen

Knuddelbearli
2019-05-07, 20:06:17
Aus dem Verkaufspreis kannst du doch nicht auf die Herstellungskosten schließen! Bei einem PR-Die, bei dem nur 2 Kerne funktionieren, hast du die Wahl zwischen Müll und Verkauf für sagen wir 20€. Dieser Abgabepreis kann durchaus unter den theoretischen Die-Kosten liegen, solange andere für einen deutlich höheren Preis verkauft werden. Die Kosten sind ja angefallen, egal wie das Ding verwertet wird, also nimmt man auch so viele Erlöse mit, wie man kriegen kann. Es wird doch niemand bei AMD auf die Idee kommen, das Ding wegzuschmeißen, weil der Verkaufspreis unter den theoretischen, aber für den Einzel-Die völlig irrelevanten Herstellungskosten liegt. Wichtig ist, dass man in der Gesamtkalkulation auf einen positiven DB kommt.

Da vergisst du mehrere Sachen

1.) AMD muss liefern wenn die nachfrage besteht, außerdem wird die Fertigung immer besser also muss AMD dann auch Chips die sie sonst teurer verkaufen könnte kastrieren um die nachfrage zu bedienen
2.) hätte der Käufer dann eventuell ein anderes Produkt gekauft wo AMD sehr wohl auch am CHIP verdient. Entweder ein höher preisigen Zen oder einen APU.

BoMbY
2019-05-07, 21:00:04
Bezüglich Frontier (Lisa Su): https://www.youtube.com/watch?v=0etwfvG3x2g&t=1744

Das hört sich schon stark nach Zen3 und Post-Navi an, und möglicherweise nach so einem Chiplet-Design wie in den alten Exascale-Papers.

Edit: Sowas:

https://i.imgur.com/m526Gtd.png

Unicous
2019-05-07, 21:16:22
Da interpretierst du meiner Meinung nach aber ganz schön was hinein, es könnte auch genauso gut Zen2 und Navi sein, beides "future" architectures. Und heterogenous ist auch ein buzzword, dass AMD schon in ganz anderen Zusammenhängen erwähnt.:wink:

Interessant fand ich eher den "gag"? ahead of schedule und below budget.

Ersteres könnte definitiv der Wahrheit entspringen wenn man sogar noch vor Intel das System ans Netz bringen will.

Wenn ich das richtig sehe war vor einem Jahr Frontier noch für 2022 vorgesehen.:uponder:

https://www.olcf.ornl.gov/wp-content/uploads/2018/02/Frontier-Schedule3.jpg
https://www.olcf.ornl.gov/2018/02/13/frontier-olcfs-exascale-future/

Brillus
2019-05-07, 21:28:47
warum werden die noch verkauft/ sind noch nicht EOL?

Der 2X00 macht schon einiges besser.
Kleiner Zusatz Gedanke, die aktuellen Epcys sind immer nocj normaler Zen also müssen die auch noch hergestellt werden. Da könnte ein gewisser Teil Salvage sein der nicht die Effizients bringt die Server braucht.

BoMbY
2019-05-07, 21:54:03
Da interpretierst du meiner Meinung nach aber ganz schön was hinein, es könnte auch genauso gut Zen2 und Navi sein, beides "future" architectures.

"based on a new zen architecture". @ t=1721

Ich glaube nicht das sie sich so ausdrücken würde wenn es um Rome/Zen2 und Navi ginge, was ja schon offiziell angekündigt ist.

HOT
2019-05-07, 22:00:15
Anscheinend schon.
Welche Leistungsdaten erwartest du dir eigentlich von einem Chiplet?
Also maximal abzuführende Wärme auf den 75mm², Base Takt, Turbo Takt?
Ein Chiplet+I/O-Chip wird bis zu 95 oder 105W in einem verlöteten Package verbrauchen. Bei 12 oder 16 Kernen sinkt einfach der Allcore-Takt entsprechend ab. Was soll er sonst verbrauchen.

Unicous
2019-05-07, 22:12:44
@BoMbY

Ja, DU glaubst. Darum geht es doch. Es ist zwar sehr wahrscheinlich, dass es Zen3 ist oder zumindest etwas dazwischen ist, denn sie sagt auch es ist eine "custom CPU", aber was es genau ist und warum man schon wieder mit nichtssagenden Namen umher werfen müssen ist doch eher die Frage.

Sie bleibt extrem vage und du wirst seltsamerweise sehr konkret.

Wie das Design am Ende aussieht steht vollkommen in den Sternen, es kann genauso gut ein Derivat aus Zen2 und 3 sein und warum du Navi ausschließt (was am Ende des Tages auch nur ein Name ist) erschließt sich mir auch nicht. Denn wenn man 2021 das System baut, wird man sicherlich schon 2020 das Design abgeschlossen haben.

Ich würde daher das Codenamen-Umhergewerfe sein lassen, denn am Ende des Tages ist es laut AMD ein custom design (siehe Konsolen-Chips, siehe Kaby-Lake G)

amdfanuwe
2019-05-07, 22:23:55
Ein Chiplet+I/O-Chip wird bis zu 95 oder 105W in einem verlöteten Package verbrauchen.
Na dann viel Spaß. Da haste auf dem Chiplet Temperaturen im Normalbetrieb wie beim 9900k im Overclock.

Windi
2019-05-07, 22:27:43
Manchmal ist der simpelste Gedanke ja der Richtige.

2020 kommt Zen3 und NextGen.
Die könnte man ja ähnlich wie bei Epyc2 auf eine grüne Konststoffplatte löten.
Also, der IO-Chip in die Mitte, die Chiplets rund herum und die Grafikchips mit Interposer und HBM-Speicher daneben.
Da alles fest verlötet und immer gleich ist, kann AMD dann anfangen die Timings und andere Einstellungen genau auf diesen Anwendungsfall zu optimieren. Dazu kann man nch ein paar Kleinigkeiten mit in den IO-Chip integrieren. Z.B. könnte man noch eine Verbindung integrieren, um den Slingshot-Interconnect-Controller von Cray besonders gut anbinden zu können. Das könnte man auch so gestalten, das andere Kunden auch andere Controller auflöten können. Generell könnte AMD diese "grünen Kärtchen" dann auch anderen Serverkunden anbieten. Die meiste Technik dahinter müsste wohl von AMD selbst stammen.
Microsoft und Google wären solche Kandidaten.
Beide wollen Next-Gen Spielestreaming anbieten, brauchen dafür aber Hardware, die man auch Zweitverwerten kann, wenn gerade weniger gespielt wird. Mit diesem Konzept wäre das wahrscheinlich möglich.

Zum Thema Spezialversionen.
AMD deckt momentan alle Prozessoren mit Zen-Kernen mit gerade einmal mit 2 verschiedenen Chips ab.
Einmal die CPU mit 8 Kernen.
Und einmal die APU mit 4 Kernen.
Ok, beides gibt es dann einmal in 14nm und einmal in 12nm. Aber der Aufbau ist eigentlich gleich geblieben.
AMD deckt damit alle Bereiche ab, in dem sie die "Einstellungen" ändern oder mehrere Chips zusammenschalten. Von der kleinen APU mit nur 2C/3CUs bis hin zu den dicksten Epyc Prozessoren. Billig und Teuer. Mobile und Stationär. Embedded und Overclocker. Alles!
Dafür sind aber auch ein paar Extras in die Chips gewandert, die nicht bei allen Varianten freigeschaltet sind.
Alle 8C-Chips haben 32xPCIe und können als 4er Pack betrieben werden.
Alle 4C-Chips haben Dual 10GBE für die embedded Varianten.
Auf dem Sockel AM4 wird das aber alles nicht genutzt.
Ich glaube jetzt nicht, das AMD plötzlich anfängt für einen einzigen Anwendungsfall einen eigenen Chip und eine eigene Maske zu eintwickeln. Das wiederspricht völlig der Vorgehensweise der letzten Jahre.

amdfanuwe
2019-05-07, 22:50:32
ist es laut AMD ein custom design (siehe Konsolen-Chips, siehe Kaby-Lake G)
Bei 25000 CPUs und 100000 GPUs dürfte das kaum lohnen.
Custom Chips lohnen doch erst ab ca. 1 Millionen Stück.
Zudem die zusätzliche Validierung etc.
Für Konsole wird 5 Jahre am neuem Chip gearbeitet.

Ich denke eher, dass wird ROME + 4 * MI60 mit Firmware/µCode Anpassungen. Die Validierung und Machbarkeitstudie seitens CRAY sind durch. In den nächsten 1,5 Jahren gehts an den Zusammenbau, Software Abstimmung, Fehlersuche. Dürfte schon sportlich genug sein.
Das ist keine Spielekonsole, bei der am Schluß auch mal ein paar auf der Halde landen dürfen wegen Produktionsfehler.

HOT
2019-05-07, 22:56:59
Na dann viel Spaß. Da haste auf dem Chiplet Temperaturen im Normalbetrieb wie beim 9900k im Overclock.
Wo soll das bitte ein Problem sein? Die Dinger sind doch eh verlötet. 95W sind 95W, kann doch problemlos weggekühlt werden. Der 9900k hat bis zu 180W, das packen viele Kühler kaum noch.
Wobei es eher wohl so aussehen wird, dass bis zu 8 Kerne mit 95W laufen werden und die 2-Chip-Dies auf 105W kommen. Zwei Chiplets brauchen ja grundsätzlich mehr Strom, selbst wenn der eine idlet und Turbo muss ja auch mehr abkönnen wahrscheinlich.

amdfanuwe
2019-05-07, 23:06:41
2020 kommt Zen3 und NextGen.
Die könnte man ja ähnlich wie bei Epyc2 auf eine grüne Konststoffplatte löten.
Also, der IO-Chip in die Mitte, die Chiplets rund herum und die Grafikchips mit Interposer und HBM-Speicher daneben.

Mit den aktuellen Komponenten läge der Verbrauch bei ca. 1000 - 1400W für den Einschub (ROME + 4*MI60). ZEN3 und NextGen kommen auch auf 7nm, sind also nicht viel effizienter.
Bin ich mal gespannt auf den Kühler für den Chip.

Da alles fest verlötet und immer gleich ist, kann AMD dann anfangen die Timings und andere Einstellungen genau auf diesen Anwendungsfall zu optimieren. Dazu kann man nch ein paar Kleinigkeiten mit in den IO-Chip integrieren. Z.B. könnte man noch eine Verbindung integrieren, um den Slingshot-Interconnect-Controller von Cray besonders gut anbinden zu können.
Das könnte ich mir auch vorstellen, dass der I/O Custom Design ist.
Zwar etwas teurer wegen geringer Stückzahl, aber in 14nm halb so wild.

Unicous
2019-05-07, 23:14:58
Ihnen wird das Design vom DoE bezahlt. :facepalm:
Und was denkst du denn was Sony und MS so für das Chip-Design zahlen.:rolleyes:

Du checkst irgendwie nicht, dass das keine simples Server Blade System ist wo man die Chips in die Sockel steckt und das wars. Cray arbeitet mit AMD zusammen um den Slingshot Interconnect mit AMDs Plattform zusammenzubringen, es geht um Cache Coherency nicht nur zwischen den CPUs sondern auch zwischen den GPUs dafür braucht es entsprechende Anpassungen.
Dein firmware-Quatsch kannst du also getrost stecken lassen, als wäre es so einfach.:rolleyes:

Wie du auf 5 Jahre Entwicklungszeit kommst wüsste ich auch gerne (am besten mit Quelle, sonst will ich lieber nicht wissen wo die Zahl hergezaubert hast), es sind eher 3-4 Jahre.

Und natürlich sind die Eckdaten durch, aber nicht seitens Cray sondern seitens des ORNL, denn die haben sie in der Ausschreibung schon festgelegt. Cray arbeitet jetzt mit bzw. wahrscheinlich schon seit geraumer Zeit zusammen mit AMD an der Umsetzung, du tust so als ob jetzt schon die Chips vorproduziert werden, dabei geschieht das in frühestens 1,5 Jahren. Ich habe die roadmap doch gepostet, die Installtion des Systems beansprucht gerade mal ein Viertel der Zeit, du tust so als wären sie schon so gut wie fertig und fangen morgen an mit Stress tests.:freak::freak:

Ich finde es putzig wie du großkotzig von "Das ist keine Spielekonsole" sprichst und dann vollkommen verkennst wie so etwas vonstatten geht.;D

amdfanuwe
2019-05-07, 23:16:32
Wo soll das bitte ein Problem sein? Die Dinger sind doch eh verlötet. 95W sind 95W, kann doch problemlos weggekühlt werden. Der 9900k hat bis zu 180W, das packen viele Kühler kaum noch.

Also 95W auf 75mm² ist probemlos und 180W auf 180mm² das packen viele Kühler kaum noch.
Wenn du meinst.

prinz_valium
2019-05-07, 23:20:29
Ich denke auch, dass das custom relativ simple sein wird.
Zen 2 in 7nm und die jetzt neu kommenden Instinct GPUs werden benutzt.

BoMbY
2019-05-07, 23:47:25
Sie bleibt extrem vage und du wirst seltsamerweise sehr konkret.


Ja, Hauptsache Du hast etwas zu weinen ... :freak:

kunibätt
2019-05-07, 23:52:54
Also 95W auf 75mm² ist probemlos und 180W auf 180mm² das packen viele Kühler kaum noch.
Wenn du meinst.

Das ging schon zu Cedar Mill Zeiten problemlos. Weiß ehrlich gesagt nicht mal, was du mit dem Herumreiten auf diesen theoretischen Watt/mm2-Zahlen belegen möchtest.

basix
2019-05-08, 00:14:11
Custom für Frontier heisst ja nicht unbedingt ein eigener Chip. Evtl. ein spezielles I/O Die um 4x GPUs und 1x CPU miteinander zu verbinden und alles auf ein custom Package packen. Mit genug Fläche kann das Ding dann 500+W saufen und bleibt kühlbar. Dazu noch haufenweise HBM3 (gibt jetzt schon 7nm IP dafür) und das Ding wird sehr schnell sein.

LadyWhirlwind
2019-05-08, 00:14:14
Bei 25000 CPUs und 100000 GPUs dürfte das kaum lohnen.
Custom Chips lohnen doch erst ab ca. 1 Millionen Stück.
Zudem die zusätzliche Validierung etc.
Für Konsole wird 5 Jahre am neuem Chip gearbeitet.

Ich denke eher, dass wird ROME + 4 * MI60 mit Firmware/µCode Anpassungen. Die Validierung und Machbarkeitstudie seitens CRAY sind durch. In den nächsten 1,5 Jahren gehts an den Zusammenbau, Software Abstimmung, Fehlersuche. Dürfte schon sportlich genug sein.
Das ist keine Spielekonsole, bei der am Schluß auch mal ein paar auf der Halde landen dürfen wegen Produktionsfehler.

Die Anzahl der Chips hat ja mal gar nichts damit zu tun ob es sich lohnt. Der Kunde bezahlt bei solchen Projekten sowieso alles... Bitte Hirn einschalten.

Brillus
2019-05-08, 00:57:20
Manchmal ist der simpelste Gedanke ja der Richtige.

2020 kommt Zen3 und NextGen.
Die könnte man ja ähnlich wie bei Epyc2 auf eine grüne Konststoffplatte löten.
Also, der IO-Chip in die Mitte, die Chiplets rund herum und die Grafikchips mit Interposer und HBM-Speicher daneben.
Da alles fest verlötet und immer gleich ist, kann AMD dann anfangen die Timings und andere Einstellungen genau auf diesen Anwendungsfall zu optimieren. Dazu kann man nch ein paar Kleinigkeiten mit in den IO-Chip integrieren. Z.B. könnte man noch eine Verbindung integrieren, um den Slingshot-Interconnect-Controller von Cray besonders gut anbinden zu können. Das könnte man auch so gestalten, das andere Kunden auch andere Controller auflöten können. Generell könnte AMD diese "grünen Kärtchen" dann auch anderen Serverkunden anbieten. Die meiste Technik dahinter müsste wohl von AMD selbst stammen.
Microsoft und Google wären solche Kandidaten.
Beide wollen Next-Gen Spielestreaming anbieten, brauchen dafür aber Hardware, die man auch Zweitverwerten kann, wenn gerade weniger gespielt wird. Mit diesem Konzept wäre das wahrscheinlich möglich.

Zum Thema Spezialversionen.
AMD deckt momentan alle Prozessoren mit Zen-Kernen mit gerade einmal mit 2 verschiedenen Chips ab.
Einmal die CPU mit 8 Kernen.
Und einmal die APU mit 4 Kernen.
Ok, beides gibt es dann einmal in 14nm und einmal in 12nm. Aber der Aufbau ist eigentlich gleich geblieben.
AMD deckt damit alle Bereiche ab, in dem sie die "Einstellungen" ändern oder mehrere Chips zusammenschalten. Von der kleinen APU mit nur 2C/3CUs bis hin zu den dicksten Epyc Prozessoren. Billig und Teuer. Mobile und Stationär. Embedded und Overclocker. Alles!
Dafür sind aber auch ein paar Extras in die Chips gewandert, die nicht bei allen Varianten freigeschaltet sind.
Alle 8C-Chips haben 32xPCIe und können als 4er Pack betrieben werden.
Alle 4C-Chips haben Dual 10GBE für die embedded Varianten.
Auf dem Sockel AM4 wird das aber alles nicht genutzt.
Ich glaube jetzt nicht, das AMD plötzlich anfängt für einen einzigen Anwendungsfall einen eigenen Chip und eine eigene Maske zu eintwickeln. Das wiederspricht völlig der Vorgehensweise der letzten Jahre.

Stimmt nicht ganz mittlerweile 3 chips 2c 3cu apu für embedded.

Leonidas
2019-05-08, 04:48:41
Laut Computerbase wurde Threadripper 3000 Release dieses Jahr gestrichen:

https://www.computerbase.de/2019-05/amd-roadmap-ryzen-threadripper-3000-verschoben/


Gestrichen ist ein großes Wort. Eventuell hat es man es einfach nicht als würdig genug erachtet, auf diese Liste der wichtigsten (nicht aller!) Produktreleases zu erscheinen.

Reine Terminverschiebung wäre auch eine Option.

Ich denke ja, das sie für TR3000 problematischerweise die allerbesten Dies brauchen - und genau die am Anfang knapp sind. Nicht also generelle Knappheit, sondern nur Knappheit an besonders taktstarken Dies. Und deswegen kommt TR3000 dann, wenn man diese Dies auf Lager liegen hat.

Die These mit dem fehlenden I/O-Chip hat auch was.


Die eigentliche Problematik: Kommt TR3000 erst im Jahr 2020, dann müsste man es eigentlich TR4000 nennen.

Zossel
2019-05-08, 07:30:22
Das hört sich schon stark nach Zen3 und Post-Navi an, und möglicherweise nach so einem Chiplet-Design wie in den alten Exascale-Papers.


Das wird die Softwareunterstützung für AMD-Lösungen vorantreiben, IMHO das größte Problem von AMD im HPC-Markt.

Zossel
2019-05-08, 07:34:03
Bei 25000 CPUs und 100000 GPUs dürfte das kaum lohnen. Custom Chips lohnen doch erst ab ca. 1 Millionen Stück.

Cray wird das sicherlich auch an andere Kunden verhökern wollen.

Mangel76
2019-05-08, 08:40:48
Cray wird das sicherlich auch an andere Kunden verhökern wollen.

The CPU and GPUs will be linked by AMD’s new coherent Infinity fabric and each GPU will be able to talk directly to the Slingshot network, enabling each node “to get the optimum performance for both supercomputing as well as AI,” said Su. All these components were designed for Frontier but will be available to enterprise applications after the system debuts, according to AMD.
Link (https://www.planet3dnow.de/cms/46407-exaflop-supercomputer-von-cray-mit-amd-epyc-und-radeon-instinct/)

Opprobrium
2019-05-08, 10:20:13
Die eigentliche Problematik: Kommt TR3000 erst im Jahr 2020, dann müsste man es eigentlich TR4000 nennen.
Raven Ridge hieß doch auch 2000, obwohl die schon 2017 offiziell da waren. Glaube nicht, daß sie da bei TR eine Generation überspringen werden.

Leonidas
2019-05-08, 10:40:28
Jein, das war ein Frühstart, real verfügbar war da eigentlich nichts. Auch kam die Masse der Produkte erst Anfang 2018. Genau deswegen auch Ryzen 2000G ... AMD hat gesehen das dies mehrheitlich 2017 nix mehr wird und hat deswegen lieber gleich den 2000er Namen gesetzt. Da geht es einfach darum, im Jahr 2018 kein Produkt verkaufen zu müssen, wo "Ryzen 1000" dransteht.

Gleiches Spiel bei TR3000 würde bedeuten, das man ab einem Jahresendstart lieber "TR4000" dranschreibt - weil man damit dann ja über den Großteil des Jahres 2020 leben muß.

Brillus
2019-05-08, 10:58:34
Jein, das war ein Frühstart, real verfügbar war da eigentlich nichts. Auch kam die Masse der Produkte erst Anfang 2018. Genau deswegen auch Ryzen 2000G ... AMD hat gesehen das dies mehrheitlich 2017 nix mehr wird und hat deswegen lieber gleich den 2000er Namen gesetzt. Da geht es einfach darum, im Jahr 2018 kein Produkt verkaufen zu müssen, wo "Ryzen 1000" dransteht.

Gleiches Spiel bei TR3000 würde bedeuten, das man ab einem Jahresendstart lieber "TR4000" dranschreibt - weil man damit dann ja über den Großteil des Jahres 2020 leben muß.

Wobei wenn die Topmodels eine höhere Nummer haben ist das auch nicht so schlimm.

LadyWhirlwind
2019-05-08, 11:15:41
Bei dem Produktnamen spielt die Wahrnehmung des Kunden eine zentrale Rolle.
Medial sind ja immer die neusten Produkte mit ihrem Produktnamen präsent. Wenn nun Otto Normalverbraucher in der Computer Bild liest das die neue CPU Serie Ryzen 3000 die zurzeit beste CPU ist und er dann diesen Namen zwei Wochen später im Media Mark sieht, denkt er, dass er jetzt ein super Produkt kauft. Steht da aber dann 2000 dran, glaubt er, dass es sich hier um etwas altes handelt und kauft ev. etwas anderes.

Das Jahr spielt hier absolut keine Rolle.

Edit: das heisst natürlich auch, dass wenn ein Produkt erst erscheint, wenn schon der Nachfolger des Basisprodukts am Horizont ist, es Sinn macht, schon das Namensschema des Nachfolgers zu nehmen.
Bei den GPUs kann man das ja immer mal wieder beobachten.

robbitop
2019-05-08, 12:28:59
@BoMbY

Ja, DU glaubst. Darum geht es doch. Es ist zwar sehr wahrscheinlich, dass es Zen3 ist oder zumindest etwas dazwischen ist, denn sie sagt auch es ist eine "custom CPU", aber was es genau ist und warum man schon wieder mit nichtssagenden Namen umher werfen müssen ist doch eher die Frage.

Sie bleibt extrem vage und du wirst seltsamerweise sehr konkret.

Wie das Design am Ende aussieht steht vollkommen in den Sternen, es kann genauso gut ein Derivat aus Zen2 und 3 sein und warum du Navi ausschließt (was am Ende des Tages auch nur ein Name ist) erschließt sich mir auch nicht. Denn wenn man 2021 das System baut, wird man sicherlich schon 2020 das Design abgeschlossen haben.

Ich würde daher das Codenamen-Umhergewerfe sein lassen, denn am Ende des Tages ist es laut AMD ein custom design (siehe Konsolen-Chips, siehe Kaby-Lake G)
Wobei zu vermuten ist, dass bei Zen 3 nicht so enorm viel passieren wird, oder? AMD hat ja offenbar nur 1x Design- und 2x Implementierungsteams. Für Zen 2 hat man 2 Jahre gebraucht (Annahme, da das Release etwa 2 Jahre später als Zen kam) und dort gab es offenbar (bis auf das sicherlich aufwändige) single cycle AVX2-256 relativ milde mArch updates. Zen 3 soll ja bereits 2020 kommen. Die Annahme liegt nahe, dass Zen 3 eher den Charakter eines Refreshes hat. Ggf (obwohl der Name etwas anderes Impliziert) ja analog zu Zen+ nur eine optimierte Zen 2 Variante?

Manchmal ist der simpelste Gedanke ja der Richtige.

2020 kommt Zen3 und NextGen.
Die könnte man ja ähnlich wie bei Epyc2 auf eine grüne Konststoffplatte löten.
Also, der IO-Chip in die Mitte, die Chiplets rund herum und die Grafikchips mit Interposer und HBM-Speicher daneben.
Da alles fest verlötet und immer gleich ist, kann AMD dann anfangen die Timings und andere Einstellungen genau auf diesen Anwendungsfall zu optimieren. Dazu kann man nch ein paar Kleinigkeiten mit in den IO-Chip integrieren. Z.B. könnte man noch eine Verbindung integrieren, um den Slingshot-Interconnect-Controller von Cray besonders gut anbinden zu können. Das könnte man auch so gestalten, das andere Kunden auch andere Controller auflöten können. Generell könnte AMD diese "grünen Kärtchen" dann auch anderen Serverkunden anbieten. Die meiste Technik dahinter müsste wohl von AMD selbst stammen.
Microsoft und Google wären solche Kandidaten.

Ich finde das klingt absolut konkludent.


Ich glaube jetzt nicht, das AMD plötzlich anfängt für einen einzigen Anwendungsfall einen eigenen Chip und eine eigene Maske zu eintwickeln. Das wiederspricht völlig der Vorgehensweise der letzten Jahre.
Da würde ich nicht drauf wetten. Gerade im HPC Bereich ist großes Geld zu verdienen. Und AMD hat ja sogar für die Subor (chinesische Konsole) einen eigenen Chip aufgelegt. Selbiges für KBL-G. Obwohl bei letzterem die Stückzahlen anscheinend relativ mau waren. Wenn es signifikante Vorteile für den Kunden bringt, könnte da ein anständiges Sümmchen zu verdienen sein.

Mit den aktuellen Komponenten läge der Verbrauch bei ca. 1000 - 1400W für den Einschub (ROME + 4*MI60). ZEN3 und NextGen kommen auch auf 7nm, sind also nicht viel effizienter.
Bin ich mal gespannt auf den Kühler für den Chip.

Es ist sicherlich kein einzelner Chip. Ich würde eher darauf tippen, dass es so aussieht, wie Windi es beschreibt.
Und im Serverbereich ist Lautstärke weniger das Problem - dazu kommt, dass die Zuluft ja in der Regel klimatisiert ist. Auch aggressive industrielle Wasserkühlungen gibt es in Servern.

Gestrichen ist ein großes Wort. Eventuell hat es man es einfach nicht als würdig genug erachtet, auf diese Liste der wichtigsten (nicht aller!) Produktreleases zu erscheinen.

Reine Terminverschiebung wäre auch eine Option.

Ich denke ja, das sie für TR3000 problematischerweise die allerbesten Dies brauchen - und genau die am Anfang knapp sind. Nicht also generelle Knappheit, sondern nur Knappheit an besonders taktstarken Dies. Und deswegen kommt TR3000 dann, wenn man diese Dies auf Lager liegen hat.

Die These mit dem fehlenden I/O-Chip hat auch was.


Die eigentliche Problematik: Kommt TR3000 erst im Jahr 2020, dann müsste man es eigentlich TR4000 nennen.
Klingt IMO wahrscheinlich. Die APUs kommen ja auch idR erst zum Jahresende bzw nach dem Jahreswechsel. Verfügbar häufig erst im Q1 des Folgejahres. Entsprechend bekommen sie eine höhere erste Zahl. Die von dir benannten Gründe erscheinen schlüssig. Es kann tatsächlich so kommen. AMD kann bei ihrer Größe und bei ihrem Bedarf an 7 nm Output schlecht auf allen Hochzeiten gleichzeitig tanzen.

Locuza
2019-05-08, 12:45:41
Bei Gelegenheit muss ich das noch einmal genauer nachschauen, aber wie erwähnt gab es für Zen 3 IIRC AVX512-F Hinweise.
Bei Frontier redet AMD von neuen Instruktionen für HPC und AI:
Frontier will use a custom AMD Epyc processor based on a future generation of AMD’s Zen cores (beyond Rome and Milan). “[The future-gen Epycs] will have additional instructions in the microarchitecture as well as in the architecture itself for both optimization of AI as well as supercomputing workloads,” said AMD CEO Lisa Su, adding that the new Radeon Instinct GPU incorporates “extensive optimization for the AI and the computing performance, [with] mixed-precision operations for optimum deep learning performance, and high bandwidth memory for the best latency.”
https://www.hpcwire.com/2019/05/07/cray-amd-exascale-frontier-at-oak-ridge/

Für so ein System würde eine fette und flexible SIMD-Unit bei der CPU passen, Intel schlägt schon genau in die Kerbe mit Cascade Lake und VNNI:
https://scr3.golem.de/screenshots/1904/Intel-CLX-AP-Server-Workshop/thumb620/Intel-CLX-AP-08.png

robbitop
2019-05-08, 13:08:24
Wobei AVX2-512 auch double cycle realisiert sein könnte, so wie einst AVX2-256.
Sind für solche Aufgaben die GPUs nicht sowieso besser?

HOT
2019-05-08, 13:13:09
Für ROCm könnte AMD doch auch eigene Befehlssätze machen oder? Muss doch nicht zwingend AVX512 sein. Wär nur schön wenns irgendwie kompatibel wär hinterher. Und klar läuft das in 2 Passes, alles andere wär Leistungsverschwendung für normalen Code.

Windi
2019-05-08, 13:26:04
Da würde ich nicht drauf wetten. Gerade im HPC Bereich ist großes Geld zu verdienen. Und AMD hat ja sogar für die Subor (chinesische Konsole) einen eigenen Chip aufgelegt. Selbiges für KBL-G. Obwohl bei letzterem die Stückzahlen anscheinend relativ mau waren. Wenn es signifikante Vorteile für den Kunden bringt, könnte da ein anständiges Sümmchen zu verdienen sein.

Ich wüßte nur nicht, was man an der CPU groß ändern sollte.

Epyc1 hat 128xPCIe Lanes, die man auf IF umschalten kann. Daneben aber auch noch 32 Sata Ports, die man gleichzeitig nutzen kann. (Hatte ich so gehört, hoffe das es stimmt) Wenn man diese auch noch nach PCIe/IF umschalten könnte, dann hätte man genug um alle Grafikchips und den spezial Cray Netzwerkchip mit jeweils 32 Lanes anzubinden. Das sollte eigentlich reichen.

AMD hat so etwas sicherlich schon länger geplant und das ist jetzt kein spontaner Plan, der Cray zufällig eingefallen ist. Deshalb glaub ich, das sich AMD schon länger Gedanken um Cache Coherency und alles weitere gemacht hat. Ich kann mir sehr gut vorstellen, das dies alles schon längst für den großen IO-Chip eingeplant war und man dort nichts neues mehr braucht.

Anders sieht es beim Grafikchip aus. Der müßte 32 Lanes für die Anbindung zur CPU haben und zusätzlich (laut Bild) noch welche, um sich mit 2 weiteren zu verbinden. Da wäre man dann schnell bei 64xPCIe/IF Lanes. Integriert man dies nun in den normalen HighEnd/Workstation Chip und lässt die Lanes die meiste Zeit deaktiviert? Oder baut man dafür einen eigenen Servergrafikchip?



Ach, und zur Kühlung. Zur Jahrtausendwende mit dem Rennen um die höchsten Taktraten mit dem AthlonXP und Pentium3/4 hatten wir auch gigantische Verlustleistungen auf kleiner Fläche. Manche CPUs waren keine 100mm² groß und die Overklocker haben sie trotzdem in Richtung 200W getrieben. Der AthlonXP 2800+ Thoroughbred war auch nur 80mm² groß.
Das sollte jetzt mit den 80mm² großen Chiplets auch kein größeres Problem sein. Extremes Overclocking ist heute eh kaum noch angesagt.

Korvaun
2019-05-08, 13:29:24
Gestrichen ist ein großes Wort. Eventuell hat es man es einfach nicht als würdig genug erachtet, auf diese Liste der wichtigsten (nicht aller!) Produktreleases zu erscheinen.

Reine Terminverschiebung wäre auch eine Option.

Ich denke ja, das sie für TR3000 problematischerweise die allerbesten Dies brauchen - und genau die am Anfang knapp sind. Nicht also generelle Knappheit, sondern nur Knappheit an besonders taktstarken Dies. Und deswegen kommt TR3000 dann, wenn man diese Dies auf Lager liegen hat.

Die These mit dem fehlenden I/O-Chip hat auch was.


Die eigentliche Problematik: Kommt TR3000 erst im Jahr 2020, dann müsste man es eigentlich TR4000 nennen.

War nicht eindeutig formuliert, meinte natürlich "kein TR3k-Release mehr 2019" und nicht "TR3k gestrichen" ;)

Locuza
2019-05-08, 13:57:41
Wobei AVX2-512 auch double cycle realisiert sein könnte, so wie einst AVX2-256.
Sind für solche Aufgaben die GPUs nicht sowieso besser?
Für ein HPC-System im Jahr 2021 würde ich nicht von Double-Cycle ausgehen, wenn AMD noch betont, dass man speziell für HPC und AI Anpassungen vorgenommen hat, entsprechend würde ich da eine fette Arbeitseinheit erwarten, die viel rausspuckt.

Bezüglich GPUs gibt es nach wie vor die Vorwürfe, dass solche Prozessoren stellenweise wesentlich schwerer zu handhaben sind, als CPUs.
Das fängt bei der Software und der Programmierung an und hört bei der Hardware auf.

Aktuell hat man bei AMD einen 16KB$ kleinen L1$, 64KB Scratchpad-Memory den man selber managen muss und etliche "Threads" im Vergleich zu einer CPU, welche viel weniger Ressourcen pro Arbeitsabschnitt haben, weniger Cache, weniger Bandbreite, In-Order-Execution, größere Latenzen, hohe Divergenzkosten und keine Branch-Prediction.
An CPUs kann man auch noch viel mehr Speicher hängen.

Wenn es keine entsprechende Nachfrage gäben würde oder GPUs überall eine bessere Alternative wären, würden Intel und AMD nicht in dem Bereich aufstocken und liefern.

Die meiste Rohleistung kommt aber dennoch seit Jahren durch GPUs zu Stande und bei Frontier liegt das Verhältnis pro Node bei vier GPUs pro CPU.

Gipsel
2019-05-08, 13:58:11
Epyc1 hat 128xPCIe Lanes, die man auf IF umschalten kann. Daneben aber auch noch 32 Sata Ports, die man gleichzeitig nutzen kann. (Hatte ich so gehört, hoffe das es stimmt) Wenn man diese auch noch nach PCIe/IF umschalten könnte, dann hätte man genug um alle Grafikchips und den spezial Cray Netzwerkchip mit jeweils 32 Lanes anzubinden. Das sollte eigentlich reichen.Die SATA-Ports nutzen die gleichen Multi-Protokoll-PHYs, jeder SATA Port kostet also eine Lane.
Aber falls die Lanes (was relativ wahrscheinlich ist) dann 25GT/s unterstützen, benötigt man dann gar nicht soo viele mehr, um auf ansehnliche Bandbreiten zu kommen.
Jede der 4 GPUs hängt z.B. mit 16 Lanes an der GPU (50GB/s zwischen CPU und jeder GPU), zusätzlich sind die GPUs auch noch über einen Ring verbunden (vermutlich ebenfalls noch mal 2 Ports mit je 16 Lanes auf der GPU, also nochmal bis zu 100GB/s zur Kommunikation zwischen den GPUs). Da bleiben also immer noch 64 Lanes an der CPU übrig, um das in den Slingshot-Interconnect zu integrieren, falls man das so machen wollte. Möglich wäre aber natürlich auch, die 64 Lanes (oder zumindest ein Teil davon) durch ein Slingshot-Interface zu ersetzen bzw. den Lanes das zusätzliche Protokoll "beizubringen" (dann spart man sich einen PCIe4-Controller zur Umsetzung).
Und es gibt zwar die Aussage, daß "each GPU will be able to talk directly to the Slingshot network", aber das muß nicht unbedingt heißen, daß jedes GPU-Die wirklich einen Slingshot-Interface beinhaltet (kann auch über den "gemeinsamen" IO-Die für CPU und GPUs laufen).
So oder so sollte man da genug Bandbreite haben, um das vernünftig umzusetzen.

robbitop
2019-05-08, 15:14:49
Für ein HPC-System im Jahr 2021 würde ich nicht von Double-Cycle ausgehen, wenn AMD noch betont, dass man speziell für HPC und AI Anpassungen vorgenommen hat, entsprechend würde ich da eine fette Arbeitseinheit erwarten, die viel rausspuckt.

Bezüglich GPUs gibt es nach wie vor die Vorwürfe, dass solche Prozessoren stellenweise wesentlich schwerer zu handhaben sind, als CPUs.
Das fängt bei der Software und der Programmierung an und hört bei der Hardware auf.

Ich vermute aber mal, dass man sich das nicht für jede Wald-und-Wiesen Ryzen CPU gönnen wird, oder? Intel bietet das ja IIRC auch nur bei den HEDT/HPC Cores an.
Ggf. ist das ja hier custom. Wobei das sicher nicht wenig Arbeit ist, alle Flaschenhalse nochmal zu verdoppeln. Caches, FPUs, sämtliche Verbindungen.

amdfanuwe
2019-05-08, 15:26:07
Anders sieht es beim Grafikchip aus. Der müßte 32 Lanes für die Anbindung zur CPU haben und zusätzlich (laut Bild) noch welche, um sich mit 2 weiteren zu verbinden
Hab ein Bild vom Next Horizon Event gefunden:
https://image.slidesharecdn.com/finalnexthorizondeckv2-181127200927/95/amd-next-horizon-56-638.jpg?cb=1543349536

[I]Ach, und zur Kühlung.
Danke, ist so langsam bei mir angekommen.

Windi
2019-05-08, 15:39:36
Hab ein Bild vom Next Horizon Event gefunden:

Ok, das sieht doch sehr ähnlich aus :D

Da wird man dies für Cray nur optimieren müssen.

Locuza
2019-05-08, 16:04:35
Ich vermute aber mal, dass man sich das nicht für jede Wald-und-Wiesen Ryzen CPU gönnen wird, oder? Intel bietet das ja IIRC auch nur bei den HEDT/HPC Cores an.
Ggf. ist das ja hier custom. Wobei das sicher nicht wenig Arbeit ist, alle Flaschenhalse nochmal zu verdoppeln. Caches, FPUs, sämtliche Verbindungen.
Kann man sich natürlich vorstellen, aber mal sehen was kommt.
Intels Client Skylake unterstützt gar kein AVX512, nur bis zu AVX2 + FMA und der maximale Durchsatz liegt bei 2x256-Bit FMA.
Bei Server Skylake gibt es die Unterstützung für mehrere AVX512-Instruktionen.
Der Durchsatz liegt bei 2x512-Bit.
Aber das setzt Intel auf zwei unterschiedliche weisen intern um.
Eine 512-Bit Operation wird in einem Cycle ausgeführt, indem die Einheiten von Port 1 und Port 2 zusammen für eine AVX512-Op genutzt werden:
https://en.wikichip.org/w/images/2/2b/skylake_scheduler_server.svg

Und die zweite läuft nativ über eine neue 512-Bit Unit bei Port 5 ab.

Cannon Lake/Palm Cove, der erste 10nm Core von Intel, bot die Unterstützung für mehrere AVX512-Instruktionen an, aber ich weiß nicht wie hoch der Durchsatz lag.
Eine Dokumentation hat Intel nie öffentlich gemacht.

Ice Lake / Sunny Cove unterstützt noch mehr AVX512-Instruktionen und bietet wie Skylake Server drei FMA-Units an, bei Port 0, 1 und 5.
Unklar ist noch wie breit die ausfallen.
3x 256-Bit?
2x 256-Bit + 512-Bit wie bei Skylake Server?
3x 512-Bit?

Gibt es Unterschiede zwischen Sunny Cove Server und Client?

robbitop
2019-05-08, 16:50:16
Ich dachte mal gelesen zu haben, dass CNL/ICL das nur dual cycle können. Kann aber auch falsch sein. Ist für Desktop Use ja relativ irrelevant. Zumindest aktuell. Und kostet sicherlich auch einiges an Transistoren, oder?

BoMbY
2019-05-08, 17:11:03
Wobei zu vermuten ist, dass bei Zen 3 nicht so enorm viel passieren wird, oder?

Also das war bisher der Tenor:


In a late-2018 interview, CTO Mark Papermaster stated AMD's design goal with "Zen 3" would be to prioritize energy-efficiency, and that it would present "modest" performance improvements (read: IPC improvements) over "Zen 2." AMD made it clear that it won't drag 7 nm DUV over more than one microarchitecture (Zen 2), and that "Zen 3" will debut in 2020 on 7 nm+ EUV.


https://www.techpowerup.com/254656/amd-zen3-to-leverage-7nm-euv-for-20-transistor-density-increase

BoMbY
2019-05-08, 17:22:51
Ich finde das klingt absolut konkludent.

Lisa sagt:


And then, at the node level, we are really putting together a CPU and GPU heterogeneous system, that we believe is the first of its kind in the industry. That allows the custom interconnection through a fabric that will give us the very highest bandwidth capability that there is [...]


https://www.youtube.com/watch?v=5CP9m-iggls&t=1520

Locuza
2019-05-08, 18:01:03
Ich dachte mal gelesen zu haben, dass CNL/ICL das nur dual cycle können. Kann aber auch falsch sein. Ist für Desktop Use ja relativ irrelevant. Zumindest aktuell. Und kostet sicherlich auch einiges an Transistoren, oder?
Sowie das Intel bei Skylake Server umgesetzt hat, würde ich eher fused single cycle erwarten.

Von der Fläche her verbraucht AVX512 scheinbar nicht so wahnsinnig viel, wobei ich da lieber genaue die shots von den Kernen miteinander vergleichen würde, da mehr Register und Features dazu kommen und der Kern selber etwas dicker sein sollte:
https://en.wikichip.org/wiki/File:skylake_sp_mesh_core_tile_zoom_with_client_shown.png

Also das war bisher der Tenor:

https://www.techpowerup.com/254656/amd-zen3-to-leverage-7nm-euv-for-20-transistor-density-increase
Das klang sofort so fishy und natürlich lohnt es sich die Quelle zu finden und was die Leute wirklich gesagt haben:
On the hardware side, AMD’s Epyc and Vega are among the first reality checks on the 7-nm node.

TSMC said in March 2017 that its process would offer up to 35% speed gains or 60% lower power compared to its 16FF+ node. However, AMD is only claiming that its chips will sport 25% speed gains or 50% less power compared to its 14-nm products.

“TSMC may have been measuring a basic device like a ring oscillator — our claims are for a real product,” said Mark Papermaster in an interview the day that the 7-nm chips were revealed.

“Moore’s Law is slowing down, semiconductor nodes are more expensive, and we’re not getting the frequency lift we used to get,” he said in a talk during the launch, calling the 7-nm migration “a rough lift that added masks, more resistance, and parasitics.”

Looking ahead, a 7-nm-plus node using extreme ultraviolet lithography (EUV) will “primarily leverage efficiency with some modest device performance opportunities,” he said in the interview.
https://www.eetimes.com/document.asp?doc_id=1333996&page_number=3#

Also man lese nicht IPC-Verbesserungen, sondern Frequenz-Verbesserungen.

hilo
2019-05-08, 18:31:52
Nö, also Frequenzverbesserungen lese ich da gerade nicht heraus, sondern Frequenzstagnation.

Locuza
2019-05-08, 19:14:58
Natürlich bezogen auf den Kontext.

Bei Techpowerup wurde die Sachlage so dargestellt, als ob das Design-Ziel von Zen3 primär auf Effizienzverbesserungen zielt und nicht auf die Performance, wobei hierbei in Klammern IPC-Verbesserungen genannt wurden.
Dadurch wird der Eindruck erweckt, als ob es um die Mikroarchitektur selber ging.

Die Originalaussage drehte sich aber nur um zukünftige 7nm+ Prozesse, welche primär Effizienzverbesserungen ausnutzen sollen, mit lediglich geringen Möglichkeiten die Frequenz anzuheben.

hilo
2019-05-08, 20:05:25
Ah, so meinst Du das. O.K.
Tja, so verschieden kann man eine Meldung aufnehmen. Ich z.B. habe die Meldung von TechPowerUp so verstanden, daß sich alle Beteiligten klar sind, daß bei Zen3 wenn überhaupt Leistungsverbesserungen nur über die Architektur zu machen sind, daß freundlicherweise zugunsten von AMD die Annahme vorausgesetzt wird, daß AMD tatsächlich wohl auch mehr Leistung bieten werden wird und daß demzufolge wohl einfach davon auszugehen ist, daß dieses dann wohl über Architektur/IPC-Verbesserungen zu erhoffen ist - Frequenz fällt halt sowieso (weitestgehend) flach. Die vergleichsweise niedrig hängende Frucht sind aber halt Verbrauchseinsparungen. Dennoch hoffen eben doch alle, daß auch noch etwas mehr bei rumkommt.

basix
2019-05-08, 22:31:48
Effizienzverbesserung ist ja sinnvoll. Und zwar auch von Architekturseite. Dann kann man bei Zen 3 auch +50% Cores bei ähnlichen Frequenzen bieten, was für mich am wahrscheinlichsten ist. Auf dem EPYC package hat man Platz für 12 etwas kleinere Chiplets ;)

Zossel
2019-05-08, 22:56:12
Effizienzverbesserung ist ja sinnvoll. Und zwar auch von Architekturseite. Dann kann man bei Zen 3 auch +50% Cores bei ähnlichen Frequenzen bieten, was für mich am wahrscheinlichsten ist. Auf dem EPYC package hat man Platz für 12 etwas kleinere Chiplets ;)

Den Leistungsbedarf der Interconnects nicht vergessen.

Lehdro
2019-05-08, 23:00:59
Wenn jemand große Lust auf extreme Packungen von Spekulatius für Zen 3 und folgend hat:

il5Zl3vGvVw

Zen 3
- stacked memory on I/O die
- 4 way SMT
- DDR4 & DDR5

Birdman
2019-05-08, 23:13:17
4-way SMT würde Sinn machen, weil an mehr echte Cores glaube ich vorerst nicht.
Die bekäme man selbst mit verbessertem 7nm oder 6nm Prozess kaum hin, ohne entweder die TDP Klassen zu erhöhen oder alternativ die Taktfrequenzen zu gimpen.

Unicous
2019-05-08, 23:28:28
Ich habe das Video nicht gesehen, aber allein schon Stacked Memory auf dem I/O die lässt mich das Augenpaar rollieren. :rolleyes:

Erstens: Warum? Wofür? :confused:

Zweitens: Man hat bislang immer noch nicht die Temperatur im Griff, der I/O Die wird entsprechend warm, der Stack kann das nicht ordentlich abführen, es gibt zwar theoretisch schon Verfahren die das mitigieren können, aber das ist teuer ergo, für den Mainstream schon einmal ausgeschlossen und im Serverbereich sicherlich auch eher Fluch denn Segen.

Drittens: Wie soll dann das Package aussehen, wie will man die Höhenunterschiede ausgleichen ohne die Kühlung der Chiplets zu gefährden?:confused:

Zu x-fach SMT gab es schon mehrfach Gerüchte von daher ist das nichts Neues.

DDR4&5 Support... vorstellbar, aber auch keine neue Erkenntnis und es stellt sich die Frage ob man dafür ein extra PHY braucht.

edit: Ich kann mir das nicht geben. Soviel Gelaber der Brei ist schon steinhart und ungenießbar und dann ist auch noch der Ton leicht asynchron.:rolleyes:

][immy
2019-05-08, 23:56:41
4-way SMT würde Sinn machen, weil an mehr echte Cores glaube ich vorerst nicht.
Die bekäme man selbst mit verbessertem 7nm oder 6nm Prozess kaum hin, ohne entweder die TDP Klassen zu erhöhen oder alternativ die Taktfrequenzen zu gimpen.
Naja, von SMT verspreche ich mir nur in Grenzfällen überhaupt was. Rein theoretisch ist ja immerhin eine bessere Auslastung eines Kerns möglich, rein praktisch nimmt der ertrag aber stark ab und ganz nebenbei teilen sich mehr aufgaben den Cache. Wenn dieser natürlich entsprechend groß ist, spricht jedenfalls nichts dagegen, wenn es kaum Transistoren kostet. Im Serverbereich kann das jedenfalls wohl auch recht nützlich sein.

Stacked memory sehe ich eher bei integrierten Chips, wobei hier wohl die Kosten für gewöhnlich zu hoch wären. Aber auch im Server Bereich wäre soweit eventuell von Vorteil wenn der speicher entsprechend groß und schnell angebunden sind. Szenarien für In-Memory Datenbanken beispielsweise könnten davon profitieren. Und AMD stellt ja nun mal nicht nur Spiele-CPUs her, die sind ja eher so ein nettes Nebenprodukt. Besonders jetzt wo Intel grad nicht all zu viel neues bringen kann, kann man im Server-Bereich eventuell mal richtig gut durchkommen und sich nen guten Ruf aufbauen mit entsprechenden CPUs.

BlacKi
2019-05-09, 05:57:19
4x smt kann in games einen vorteil haben, da man die kerne halbieren kann. die auslastung in multicore unterstützenden games ist allgemein ziemlich mieß, aber das ruckeln mit zu wenig threads ist eine allgegenwärtige bedrohung^^

basix
2019-05-09, 07:04:01
Den Leistungsbedarf der Interconnects nicht vergessen.

Jop, der ist signifikant. Aber auch den kann man optimieren. Evtl. sinken die Taktraten auch um 10%, im Endeffekt steigt die Leistund dennoch massiv. Stimmt die DDR5 Speku gewinnt man wohl relativ viel Performance / Watt.

Korvaun
2019-05-09, 07:33:24
Ist ja auch sinnvoll für ZEN3 mehr auf Effizienzoptimierung und kleinere Architekturverbesserungen abzuzielen als *noch mehr* Kerne zu bringen. Wir bekommen dieses Jahr recht sicher 16C32T für die Consumerplattform, das "reicht" vorraussichtlich für den kompletten nächsten Konsolenzyklus der erst 2020 beginnt. Ich glaube das spätestens mit 5nm die Effizienz/TDP stark in den Vordergrund rückt, denn dann weden die Chiplets so klein das es wirklich schwer wird mit der Kühlung (mit aktueller Technik).

basix
2019-05-09, 09:29:02
Bei *mehr Kernen* reden wir nicht von Consumer, sondern von EPYC. Dort geht es um Kosten pro Socket (je nach Software zahlt man pro Socket) und um Integrationsdichte / Effizienz (total cost of ownership sinkt).

Im Consumerbereich sind 16C für 98% der User genug. Für die restlichen 2% gibt es Threadripper.

Birdman
2019-05-09, 10:40:02
[immy;11989880']Naja, von SMT verspreche ich mir nur in Grenzfällen überhaupt was.
Diesbezüglich bin ich voll bei Dir.
4x SMT halte ich mehr oder weniger nur für einen Marketing Stunt, um mit neuen und hohen Zahlen bei der Anzahl Threads, bzw. logischen Cores punkten zu können.

robbitop
2019-05-09, 11:04:19
Zumal der Implementierungs- und Validierungsaufwand sicherlich ziemlich hoch ist. AMD wird sicherlich schauen, wo man die Entwicklungsressourcen (die im Vergleich zu Intel sicherlich eingeschränkt sind) einsetzt und wo nicht. Aufwand/Nutzen eben.

Ich würde 4xSMT also auch nicht erwarten. Eher macht man Zen irgendwann mal (z.B. Zen 4) ein wenig breiter und schaut wo man mehr ILP extrahieren kann. Mehr Decoder, bessere Sprungvorhersage, größere ROB buffer, mehr L/S?, mehr INT?, mehr Reuse (größerer Cache?)? etc.
Analog Sunny Cove.

Setsul
2019-05-09, 13:14:44
Man muss immer bedenken wie SMT skaliert. SMT4 holt eher weniger heraus als SMT2, kostet aber mehr. Also wenn man pessimistisch erwartet, dass SMT4 nur die Hälfte von SMT2 bringt (10-20% statt 20-40%), bei gleichen oder doppelten Kosten je nach Teilen ist es schon fraglich ob sich der Aufwand lohnt.
Also zum Beispiel Tags kosten jetzt 1 bit mehr (2 statt 1), also gleiche Kosten wie SMT2, aber von allen Teilen die Thread-exklusiv sind wie zum Beispiel IDQ bei Skylake braucht man 2 zusätzliche statt 1 zusätzliches wie bei SMT2.

Immerhin hat x86 das "Glück" relativ wenige Register zu haben, aber bei AVX512 kann es schon knapp werden. Bei 4x32 bleiben von 160 nur noch 32 für das eigentliche an "out of order execution", das merkt man dann schon.
Mit GPRs und AVX2 ist es natürlich nicht so extrem aber ob 10% (ST), 20% (SMT2) oder 40% (SMT4) für architectural state draufgehen ist schon spürbar.

Außerdem ist jetzt kurz nach Spectre vielleicht nicht die Zeit noch mehr auf SMT zu gehen wenn viele Angst haben und es sowieso ausschalten.

robbitop
2019-05-09, 13:54:20
Wobei CPU Entwicklungen ja relativ langfristig sind. Entsprechend hoch sind die Reaktionszeiten auf wesentliche Anforderungen / Paradigmenwechsel. Insbesondere wenn man tiefe Veränderungen vornimmt oder neue Designs auflegt. Da sind 3...5 Jahre schnell im Rahmen.
Meltdown/Specter ist zwar nicht mehr taufrisch aber auch noch nicht so alt. Sofern eine CPU mArch mit Auslegung auf 4xSMT bereits in der Entwicklung war, wird man die wahrscheinlich nicht über Board werfen. Aber die Wahrscheinlichkeit dafür ist eh gering.

Pirx
2019-05-09, 15:27:41
https://twitter.com/TUM_APISAK/status/1126466183740321798

Zen2 ES 16 Core
Base clock 3.3 Ghzฺ
Boost clock 4.2 Ghz
MB X570
This CPU name can't decode by decode chart

rentex
2019-05-09, 15:36:16
War nicht von nem höheren Boost Clock die Rede?

Linmoum
2019-05-09, 15:37:55
ES takten bei AMD immer niedriger. Davon ab kommt es gerade beim 16C darauf an, welche TDP der bekommt. Ich tippe ja auf maximal 105W und dementsprechend muss auch der Takt ausfallen.

dildo4u
2019-05-09, 15:39:04
War nicht von nem höheren Boost Clock die Rede?

Klar für 8 Kerne,500mhz mehr mach Sinn wenn Beide sich mit 105 TDP begnügen müssen.

Relic
2019-05-09, 15:40:44
ES takten bei AMD immer niedriger. Davon ab kommt es gerade beim 16C darauf an, welche TDP der bekommt. Ich tippe ja auf maximal 105W und dementsprechend muss auch der Takt ausfallen.

Der Allcore Boost sicherlich... Der Single Core Boost sollte keine Probleme bei der TDP haben ;)

rentex
2019-05-09, 15:59:06
🙄 klar. Die TDP Angabe fehlt ja noch!!! Hoffen wir das Beste.

dildo4u
2019-05-09, 16:22:01
Der Takt wäre sogar sehr gut,nicht vergessen Zen 2 hat volle AVX2 Leistung was den Takt drückt.Wenn der 8 Core halbwegs an den 9900k kommt und der Verbrauch beim 2700X bleibt. :eek:

https://www.tomshardware.com/reviews/intel-core-i9-9980xe-cpu,5902-2.html

MSABK
2019-05-09, 17:04:22
Ich tippe auf Base 4.2 GHz und Boost 4.9 GHz beim 8 Core mit einer TDP von 105W.:) Leistung knapp hinter dem 9900k.

samm
2019-05-09, 17:16:28
Der Allcore Boost sicherlich... Der Single Core Boost sollte keine Probleme bei der TDP haben ;)Gibt doch keine fixen "single" vs. x Core Boosts bei AMD mehr, sondern das wird schon bei Zen+ via Verlustleistung/Temperatur dynamisch geregelt, bis zu einer fixen Maximalfrequenz (z.B. hier zum Launch bei Anandtech https://www.anandtech.com/show/12625/amd-second-generation-ryzen-7-2700x-2700-ryzen-5-2600x-2600/5). Würde mich überraschen, wenn das Herumgetakte bei Zen 2 wieder unflexibler würde.

Der_Korken
2019-05-09, 17:17:32
4,2Ghz Boost sind schon relativ wenig. Selbst wenn das Ding nur 65W TDP hätte, müsste es auf einem Kern höher takten können als Zen+. Ja, es ist nur ein ES, aber es stimmt nicht gerade optimistisch.

Edit: Oder ist mit Boost-Clock der maximale Allcore-Boost gemeint? Dann wäre es wiederum extrem gut, kann ich mir bei 16 Kernen aber nicht vorstellen. Das wäre mehr als der Achtkerner in 12nm schafft, also mehr als 100% Effizienzgewinn.

Schnoesel
2019-05-09, 17:23:58
Omg bin ich spät :-)

Linmoum
2019-05-09, 17:24:20
Was wollt ihr denn immer mit einem Kern? Intel haut doch auch nicht 5GHz auf jede CPU, obwohl es ja nur SC wäre.

Davon ab könnte das genauso ein 3700 non-X analog zu den Vorgängern sein. Who knows.

mironicus
2019-05-09, 17:55:55
Yeah, der neue 16 Kerner wird meinen 5820K in Rente schicken. Dreifache Leistung und dann noch geringerer Stromverbrauch - ideal für Videobearbeitung.

BlacKi
2019-05-09, 18:03:36
Was wollt ihr denn immer mit einem Kern? Intel haut doch auch nicht 5GHz auf jede CPU, obwohl es ja nur SC wäre.

man vermutet dort die max clocks für übertakten auf allcore. da es aber ungewiss ist ob und wo die finalen taktraten später erscheinen, bringt der leak eigentlich garnichts an neuen infos.

Birdman
2019-05-09, 18:50:36
Dunno wieso so viele Leute massiv gesteigerte Boostclocks von Zen2 erwarten, rein vom Prozess her ist dies nämlich nicht gegeben.
Es ist ja nicht so dass die aktuelle Zen Architektur aufgrund der Leistungsaufnahme (welche mit 7nm ja die massgebliche Verbesserung darstellen wird) bei ihren aktuellen ~4.3Ghz ans Limit läuft

reaperrr
2019-05-09, 18:58:06
Dunno wieso so viele Leute massiv gesteigerte Boostclocks von Zen2 erwarten, rein vom Prozess her ist dies nämlich nicht gegeben.
Es ist ja nicht so dass die aktuelle Zen Architektur aufgrund der Leistungsaufnahme (welche mit 7nm ja die massgebliche Verbesserung darstellen wird) bei ihren aktuellen ~4.3Ghz ans Limit läuft
Es gab schon mehrfach die Info von ES (allerdings 8C und 4C), die mit 4.5 GHz liefen. Und es ist einfach extrem unwahrscheinlich, dass AMD die ES ans Maximum taktet.

Die höchsten ES-Taktraten von Zen1, an die ich mich erinnern kann, waren 2.8 base, 3.05 AllCore, 3.2 SC.

Ex3cut3r
2019-05-09, 19:30:18
Wenn keine 4,5 aufwärts möglich sind, hoffentlich haben sie dann wenigstens an den Latenzen gearbeitet, denn sonst wird man nicht mal an die Nähe eines 9900k kommen zumindest in der Gaming Leistung. Und nur diese interessiert mich. Ich warte noch die offiziellen Benchmarks ab, sonst wird es leider ein 9900k.

maximus_hertus
2019-05-09, 19:38:13
Wenn keine 4,5 aufwärts möglich sind, hoffentlich haben sie dann wenigstens an den Latenzen gearbeitet, denn sonst wird man nicht mal an die Nähe eines 9900k kommen zumindest in der Gaming Leistung. Und nur diese interessiert mich. Ich warte noch die offiziellen Benchmarks ab, sonst wird es leider ein 9900k.

Da brauchst du nicht abwarten, der 9900K bleibt, wenn man nur Gaming betrachtet, für AMD im Jahre 2019 wohl unerreichbar bzw. maximal ein fast-unentschieden wird wohl möglich sein. Der Vorsprung ist einfach zu groß, so viel besser kann der Ryzen 3000 nicht sein (zu 2000er).

basix
2019-05-09, 19:56:38
Wie man sowas mit absoluter Sicherheit einfach behaupten kann :facepalm:

Ein 9900K wird sicher immer noch eine sehr starke Gaming CPU bleiben. Ob sie die beste bleiben wird? Wer weiss. Abwarten und Tee trinken. Ausserdem: Auch wenn ein 9900K immer noch die beste Gaming-CPU bleibt, günstiger wird sie nach Zen 2 Release auf jeden Fall werden ;)

Ex3cut3r
2019-05-09, 19:59:35
So verrückt bin ich dann doch nicht, auf einmal überrascht der Ryzen 3000 doch, und ich Sitz dann mit einem überteuerten 9900k hier rum, ne, ich warte die paar Monate noch ab. X-D

rentex
2019-05-09, 20:07:07
Ebenso. Reviews abwarten. Bei 5% weniger Performance zum 9900K (ZEN2 8 Core), werd ich zu AMD wechseln. Sollte der 12 Core ZEN2 den 9900K schlagen, wird er es.

Setsul
2019-05-09, 20:15:29
Kommt darauf wie sich der I/O-Die auf die Latenzen auswirkt.
Bei Zen1 steigt die nötig Spannung über 3,3 GHz auch exponentiell an und das schränkt stark ein. Auf 7nm kann AMD durchaus höhere Taktfrequenzen anpeilen ohne sich im die Effizienz bei 2.5-3 GHz wo die großen Server-CPUs laufen Gedanken machen zu müssen, die sollte immernoch besser sein als bei Zen1.
Mit entsprechender IPC ist das dann schon möglich. Es müssen eben alle 3 Bedingungen auch eintreten.
Aber selbst dann wird das natürlich eine bis an die Kotzgrenze hochgeprügelte CPU sein und bei 5,0 GHz ähnlich saufen wie der 9900K.
Man hat ja schon bei Vega gesehen dass 7nm entweder 20% mehr Takt oder 50% weniger Verbrauch bringt, aber nicht beides. Wenn AMD rein auf Effizienz geht um die 64 Core EPYCs in der TDP unterbringen zu können wirds schwierig, wenn sie ein bisschen Effizienz für Takt opfern wärs machbar.
Aber natürlich wird das >4 GHz immernoch kein Effizienzwunder und bei 5 GHz fast genauso viel schlucken wie Coffee Lake. Also 8C mit 150-200W hat absolut Chancen.
Aber 95W 16C mit 4,8 GHz all core boost oder was sich vielleicht manche erhoffen sicherlich nicht.

Das Hauptproblem wird das Chiplet-Design sein. Kerne die bei 2,5-3,0 GHz möglichst effizient sein sollen lassen sich nicht so einfach auf 5,0 GHz bringen. Intel hat dafür verschiedene Chips, AMD nicht. AMD kann zwar immer gute Chiplets sammeln und damit relativ einfach 16 Kerne zusammenbringen die alle 4,5 GHz schaffen, aber gleichzeitig wird das mit dem Verbrauch trotzdem schwierig und weil das schon die besten Kerne sind, die Ausreißer nach oben von "4,0 und dann ist Schluss", kann man die nicht einfach noch weiter pushen.

Also zusammengefasst:
Intel hat Chips die 2,5-3,0 GHz als Effizienzoptimum anpeilen und Chips die eher 3,5-4,0 anpeilen weil nichtmal der Müll unter 3,0 Basistakt verkauft wird.
AMD braucht die Effizienz bei 2,5-3,0 weil sonst 64C EPYC nicht funktioniert. Gleichzeitig bei <3 extrem effizient sein und >5 erreichen ist sehr schwierig.
Mit Glück gehen die EPYCs etwas hoch und mit genügend IPC und guter Latenz vom I/O-Die kann man die auf >4,8 oder so hochprügeln und dann bei 150-200W kurz vorm Durchbrennen den 9900K schlagen.

][immy
2019-05-09, 20:51:47
Keine Ahnung ob es echt sein wird oder nicht
https://www.tomshardware.com/news/amd-ryzen-3000-series-16-core-cpu-specs,39304.html

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66547&stc=1&d=1557428101

Klingt aber irgendwie doch noch realistisch:
Ryzen 9 3850X 16 / 32 - 4.3 / 5.1 GHz 135W $499

Und dieser hier klingt sehr interessant
Ryzen 5 3600G 8 / 16 Navi (20 CU) 3.2 / 4.0 GHz 95W $199

Wenn sich das als wahr erweist, hätte Intel eine ganze Weile überhaupt nichts entgegen zu setzen. Höchstens bei der Single-Core Leistung.

6-Kerne als unterstes Segment, klingt aber schon nach reichlich viel. Kann aber gut sein, das dann noch ein Athlon nachgeschoben wird mit 3 Kernen und HT.

samm
2019-05-09, 20:57:46
Die Tom's HW US "News" ist keine, sie ist einfach von Engineering Sample Daten getriggert. Finde die ES Daten an sich relativ uninteressant, weil man ausser einem weiteren Hinweis, dass sich die Anzahl Kerne für AM4 verdoppeln kann, nichts Wesentliches erfahren hat. THG bringt nun einen Rehash vom Adored-TV-Leak, mit spezifisch dem 16-Kerner mit doch fraglichen Frequenzen, und Preisen, die sich ja vor Bekanntgabe sicherlich noch ändern können.

robbitop
2019-05-09, 21:21:46
Mit "Navi" in der Ryzen 3000 Serie hat sich das ganze IMO schon disqualifiziert. Navi kommt als APU frühestens mit Renoir. Die Ryzen 3000 APU ist aber Picasso und somit Vega. Renoir wird wahrscheinlich Ryzen 4000 Series.
20 CUs wären weiterhin kaum mit Bandbreite zu versorgen. Zumindest @DC @DDR4.

Linmoum
2019-05-09, 21:22:08
Diese Fake-Liste von Adored wird aber auch immer wieder von den Medien herangezogen. :rolleyes: Und am Ende ist dann jeder enttäuscht, weil es keine >5GHz werden.

MR2
2019-05-09, 21:28:35
Anyone expecting ~4.5GHz boost is gonna be very pleasantly surprised, that's all I'll say about that.
https://twitter.com/AdoredTV/status/1126508973106941953

Birdman
2019-05-09, 21:35:14
8Core mit 4.0/4.8Ghz haben 95W und 16Core mit 4.3/5.1Ghz dann 125W - ah ja, genau

Benutzername
2019-05-09, 21:42:24
8Core mit 4.0/4.8Ghz haben 95W und 16Core mit 4.3/5.1Ghz dann 125W - ah ja, genau


Wenn man die Spannung hochdrehen muss damit das läuft, dann schon. ;) Aber das ist doch alles Kaffeesatzleserei. die AMD-Ingenieure haben Verschwiegenheitsklauseln und werden nix erzählen und sonst weiß niemand was die neuen Chips können oder nicht. Hindert die Gerüchteküche aber nicht am köcheln. Und die Marketingabtielung wird vermutlich auch Gerüchte in Umlauf bringen, damit Ryzem im Gespräch bleibt.

Linmoum
2019-05-09, 21:47:23
Bitte, er soll sich einfach vom Internet abmelden bzw. zumindest davon, Unsinn zu posten den jeder glaubt und dann auch noch verbreitet. Aber hier sieht man mal wieder selbst, dass er seine (damalige) Liste selbst als Fake einstuft. Was ein Pausenclown.

Benutzername
2019-05-09, 21:51:47
Bitte, er soll sich einfach vom Internet abmelden bzw. zumindest davon, Unsinn zu posten den jeder glaubt und dann auch noch verbreitet. Aber hier sieht man mal wieder selbst, dass er seine (damalige) Liste selbst als Fake einstuft. Was ein Pausenclown.

Hauptsache die Leute klicken. ;(

Brillus
2019-05-09, 22:04:20
Da brauchst du nicht abwarten, der 9900K bleibt, wenn man nur Gaming betrachtet, für AMD im Jahre 2019 wohl unerreichbar bzw. maximal ein fast-unentschieden wird wohl möglich sein. Der Vorsprung ist einfach zu groß, so viel besser kann der Ryzen 3000 nicht sein (zu 2000er).
Mich würde es nicht wundern wenn der 9900K für die nächsten Jahre der schnellste CPU für Single Thread bleibt. Die Frequenzen lassen sich nichtmehr viel steigeren und wenn Intel ganz auf Mesh umzieht geht das evtl. auch auf die IPC. Ob ST Performance aber für zukünftige Spiele weiterhin so wichtig ist wird sich zeigen müssen. Die Richtung geht eher zu Multithreaded auch für Games, die nächsten Konsolen haben 16 Thread (lass mal 14 davon für Spiele nutzbar sein).

[immy;11990551']Keine Ahnung ob es echt sein wird oder nicht
https://www.tomshardware.com/news/amd-ryzen-3000-series-16-core-cpu-specs,39304.html

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66547&stc=1&d=1557428101

Klingt aber irgendwie doch noch realistisch:
Ryzen 9 3850X 16 / 32 - 4.3 / 5.1 GHz 135W $499

Und dieser hier klingt sehr interessant
Ryzen 5 3600G 8 / 16 Navi (20 CU) 3.2 / 4.0 GHz 95W $199

Wenn sich das als wahr erweist, hätte Intel eine ganze Weile überhaupt nichts entgegen zu setzen. Höchstens bei der Single-Core Leistung.

6-Kerne als unterstes Segment, klingt aber schon nach reichlich viel. Kann aber gut sein, das dann noch ein Athlon nachgeschoben wird mit 3 Kernen und HT.

Jeder "Leak" mit mehr als 105W würde ich schon mal von vorneherein anzweifeln da AMD schon gesagt hat das Zen2 den gleichen Powerbereich hat wie Zen+ (also max 105 Watt).

basix
2019-05-09, 22:37:00
50 Year Black Edition? ;)

Windi
2019-05-09, 22:37:18
Wie robbitob schon schrieb, die Ryzen 3000 APUs basieren auf Picasso in 12nm.

Damit ist das Ganze als frei erfunden enttarnt.
Eine APU mit 8 Kernen und 20CU ist einfach nicht möglich.

Piefkee
2019-05-09, 22:55:15
Wie robbitob schon schrieb, die Ryzen 3000 APUs basieren auf Picasso in 12nm.

Damit ist das Ganze als frei erfunden enttarnt.
Eine APU mit 8 Kernen und 20CU ist einfach nicht möglich.

Die in der Liste sind aber nicht Picasso sondern 95watt APU
Und sicherlich ist das möglich... gerade mit dem IO Die

Unicous
2019-05-09, 23:05:56
LOL, das mit den "APUs" wusste ich ja noch gar nicht.;D;D;D

Und hier gibt es weiterhin Leute, die den Typen für voll nehmen.:freak:

Windi
2019-05-09, 23:11:42
Lisa Su hat doch schon gesagt, das man mit Matisse erst einmal keine APUs sehen wird. Die kommen wahrscheinlich erst mit dem Nachfolger.
Und selbst wenn es später doch noch einmal Navi Chiplets geben wird, dann kennt man heute noch nicht die Preise dafür. Das ganze wäre auch Recht teuer, da Navi(20CU) ohne Interposer und HBM Speicher verhungern würde.

Linmoum
2019-05-09, 23:15:58
LOL, das mit den "APUs" wusste ich ja noch gar nicht.;D;D;D

Und hier gibt es weiterhin Leute, die den Typen für voll nehmen.:freak:
Hier geht's ja noch, im AMD-Reddit hingegen ist er eine unantastbare Gottheit. :D

Achim_Anders
2019-05-09, 23:21:36
Menschen glauben immer sehr gerne, woran sie sowieso glauben wollen... So starten dann hypetraines immer und immer wieder.

Piefkee
2019-05-09, 23:26:25
Lisa Su hat doch schon gesagt, das man mit Matisse erst einmal keine APUs sehen wird. Die kommen wahrscheinlich erst mit dem Nachfolger.
Und selbst wenn es später doch noch einmal Navi Chiplets geben wird, dann kennt man heute noch nicht die Preise dafür. Das ganze wäre auch Recht teuer, da Navi(20CU) ohne Interposer und HBM Speicher verhungern würde.

Gesagt wurde nur das es kein Matisse APU gibt. Heißt aber auch nur dass es keine cpu + gpu mit diesen matisse IO die gibt. Also kann es sehr wohl einen extra IO für die APU geben.

Piefkee
2019-05-09, 23:29:45
LOL, das mit den "APUs" wusste ich ja noch gar nicht.;D;D;D

Und hier gibt es weiterhin Leute, die den Typen für voll nehmen.:freak:

AdoredTV ist sicherlich ein Schwätzer der aus einen kleinen leak ein 40min Video macht. Aber mal ganz ehrlich welche der wirklich als leak und nicht als seine eigene Spekulation, deklariert war den nicht wahr? RTX / Chiplet / 8+1 Rome...
er hat schon seine Quellen aber die Vermarktung dieser ist halt nicht jedermanns Sache

Lehdro
2019-05-09, 23:34:18
Jeder "Leak" mit mehr als 105W würde ich schon mal von vorneherein anzweifeln da AMD schon gesagt hat das Zen2 den gleichen Powerbereich hat wie Zen+ (also max 105 Watt).
Nachher heißt das nur das dieselben TDPs in denselben Klassen bedient werden, also Ryzen 7 = max 105W. Da es Ryzen 9 vorher nicht gab, muss man da auch nix einhalten. Wenn Ryzen 9 als 16c wirklich später launched als ein evtl. Ryzen 7 mit 12c, hätte man nicht mal gelogen. Nur so als Gedanke.

edit: Wenn, wie gerüchteweise aufgetaucht, Intels 10c 14nm++ Chip 125W TDP haben wird, sehe ich keinen Grund warum AMD sich hier powerlimitieren lassen sollte - gerade beim absoluten Haloprodukt, dem Topmodell.

Windi
2019-05-09, 23:40:13
Gesagt wurde nur das es kein Matisse APU gibt. Heißt aber auch nur dass es keine cpu + gpu mit diesen matisse IO die gibt. Also kann es sehr wohl einen extra IO für die APU geben.

Wenn man schon für 129€ eine APU mit Navi bekommt, dann macht die ganze Existenz von Picasso überhaupt keinen Sinn.
AMD bringt einen neuen Chip mit 2C/3CU für den absoluten Billig Bereich, dann müsste Picasso von 80-180€ gehen und dann müsste die Navi-APU erst so ab 200€ starten. Um das zu rechtfertigen bräuchte sie aber auch eigenen HBM Speicher, um nicht zu verhungern.
Das alles macht überhaupt keinen Sinn, vor allem nicht die APU für 129€.

Unicous
2019-05-09, 23:57:25
Psssst, Logik interessiert ihn nicht. Er will, dass der "Angebete" (mal im Ernst wer nennt denn bitte seinen Youtube-Kanal so...:freak:) recht hat.

AMD wusste schon im letzten Jahr wie ihre Chips takten werden (noch bevor erste ES verfügbar waren, versteht sich) und hatte daher auch wie das jede Firma so macht eine Preisliste im HQ aushängen. Glücklicherweise ist da gerade jemand von einer Reinigungsfirma vorbeigegangen und der hat zufälligerweise auch noch ein photographisches Gedächtnis (Handys und Co. sind natürlich da nicht erlaubt). Adored ist ein alter Kumpel aus seiner schottischen Heimat, in der beide lange Zeit gemeinsam Klos geputzt haben. Deswegen kommt er auch immer wieder von Neuem an diese heißen Informationen direkt aus AMDs HQ.(y)

Was kann denn Adored dafür wenn AMD ihre Pläne völlig unverhofft ändern und erst viel später launchen.:rolleyes:

Bei Navi war das genauso, jeder weiß doch, dass Halbleiterfirmen es gar nicht abwarten können ein Preisschild an ihre Chips zu hängen obwohl sie erst viele Monde später als Produkt im Laden stehen werden. Man hat auch noch nie davon gehört, dass die Preise Wochen vor Start plötzlich umgeworfen werden, manchmal sogar nur Tage und Stunden. Das passiert einfach nicht.

Die Preise stehen Monate und Jahre im Voraus fest. Wenn die Konkurrenz im gleichen Zeitraum ein Produkt herausbringt ist das auch völlig egal, der Preis wurde festgelegt und daran gibt es dann auch nichts mehr zu rütteln. Deswegen sieht man auch nie einen Preisverfall oder gar -kampf bei GPUs. Man bleibt da einfach stur auch wenn man dadurch noch mehr Geld verliert.

Leonidas
2019-05-10, 10:12:38
Nett formuliert @ Unicous.

Für mich am irritierendsten an der ganzen Geschichte ist, das Hardware-Magazine, die für sich selbst eine gewisse Bedeutung in Anspruch nehmen, das ganze nicht vermögen sauber einzuordnen ... sondern immer wieder, wenn ein Einzelhändler aus Hinter-Timbuktu das ganze als kleine Eigenwerbung mißbraucht, die Daten immer und immer wieder bringen.

reaperrr
2019-05-10, 10:39:01
Nett formuliert @ Unicous.

Für mich am irritierendsten an der ganzen Geschichte ist, das Hardware-Magazine, die für sich selbst eine gewisse Bedeutung in Anspruch nehmen, das ganze nicht vermögen sauber einzuordnen ... sondern immer wieder, wenn ein Einzelhändler aus Hinter-Timbuktu das ganze als kleine Eigenwerbung mißbraucht, die Daten immer und immer wieder bringen.
Oder es bewusst bringen, weil sie genau wissen, dass es Klicks bringt, obwohl es Fake ist.

Lehdro
2019-05-10, 11:43:21
Oder es bewusst bringen, weil sie genau wissen, dass es Klicks bringt, obwohl es Fake ist.
This!

Verstehe die Aufregung um Adored sowieso nicht, weder ist das Spiel von ihm erfunden worden, noch ist es neu. Was ist an ihm so anders als an WccfTech und anderen? Man kann doch wie immer selber seine eigenen Schlüsse daraus ziehen...

Man hatte schon immer die Wahl beim Newsen - gebe ich etwas auf "verlässliche" Gerüchte ala ES CPUs und ähnliches, oder gehe ich voll Banane und mache aus jedem Furz eine News. Somit: Ich würde die Verantwortung für das ganze Drama um Leaks/Gerüchte/Spekulationstohuwabohu komplett auf den Schultern der eigentlichen Newsseiten abladen und nirgendwo sonst. Denn gerade die alteingesessenen Newsseiten MÜSSEN es besser wissen, aber es geht halt nur um Klicks, sonst nichts.

basix
2019-05-10, 12:07:25
Psssst, Logik interessiert ihn nicht. Er will, dass der "Angebete" (mal im Ernst wer nennt denn bitte seinen Youtube-Kanal so...:freak:) recht hat.

AMD wusste schon im letzten Jahr wie ihre Chips takten werden (noch bevor erste ES verfügbar waren, versteht sich) und hatte daher auch wie das jede Firma so macht eine Preisliste im HQ aushängen. Glücklicherweise ist da gerade jemand von einer Reinigungsfirma vorbeigegangen und der hat zufälligerweise auch noch ein photographisches Gedächtnis (Handys und Co. sind natürlich da nicht erlaubt). Adored ist ein alter Kumpel aus seiner schottischen Heimat, in der beide lange Zeit gemeinsam Klos geputzt haben. Deswegen kommt er auch immer wieder von Neuem an diese heißen Informationen direkt aus AMDs HQ.(y)

Was kann denn Adored dafür wenn AMD ihre Pläne völlig unverhofft ändern und erst viel später launchen.:rolleyes:

Bei Navi war das genauso, jeder weiß doch, dass Halbleiterfirmen es gar nicht abwarten können ein Preisschild an ihre Chips zu hängen obwohl sie erst viele Monde später als Produkt im Laden stehen werden. Man hat auch noch nie davon gehört, dass die Preise Wochen vor Start plötzlich umgeworfen werden, manchmal sogar nur Tage und Stunden. Das passiert einfach nicht.

Die Preise stehen Monate und Jahre im Voraus fest. Wenn die Konkurrenz im gleichen Zeitraum ein Produkt herausbringt ist das auch völlig egal, der Preis wurde festgelegt und daran gibt es dann auch nichts mehr zu rütteln. Deswegen sieht man auch nie einen Preisverfall oder gar -kampf bei GPUs. Man bleibt da einfach stur auch wenn man dadurch noch mehr Geld verliert.

Ich weiss nicht was du für einen Beruf hast, aber hier meine Sicht der Dinge als Ingenieur von Elektronikprodukten. Die folgenden Punkte gelten eigentlich für praktisch alle R&D-Arbeiten. Das soll dir nicht widersprechen, es dient eher als Ergänzung.

Wie hoch die Chips takten wissen sie nicht so früh, das ist richtig. Aber eine Zielvorgabe für die Performance hat man schon bei Projektstart. Den Rest nennt man dann Engineering, wo man versucht die Zielvorgabe zu erreichen oder gar zu übertreffen.
Die Zielpreise hat man ebenfalls schon bei Projektstart im Visier. Weil das bestimmt die Marge und die zulässigen Produktkosten. Die zulässigen Kosten beeinflussen das Engineering stark. Ob man den Preis oder besser gesagt die Marge erzielen kann, weiss man noch nicht genau. Das hängt zum einen vom Entwicklungsresultat als auch der Konkurrenz ab. Deswegen kann sich das Preisschild auch kurz vor Release nochmals deutlich ändern.
Das Ziel-Lineup ist ebenfalls bei Projektstart bekannt. Weil das bestimmt die Entwicklungstätigkeiten. Brauchen wir 1, 2, oder 3 Chips? Mit welchem Produktmix erreiche ich potentiell die beste Marge und/oder Marktanteil?


Die Liste von AdoredTV ist also nicht unbedingt falsch, kann aber drastischen Änderungen unterliegen. Aus meiner Sicht liest sich die Liste als Wunschliste des Produkt Managements wie ich sie häufig sehe (das nennt sich dann "Requirements Specification"), und diese Liste kann sehr wohl schon >1 Jahr vor Release irgendwo herumschwirren. Und es ist auch möglich, dass AdoredTV genau so eine Liste erhalten hat. Das schöne an Produkt Managern ist, dass sie sich viel wünschen können. Wir "arme" Ingenieure sollen dann gepusht werden, um diese Zielvorgaben zu erreichen. Meistens reicht es dann nicht ganz für das Vollprogramm, ausser man erzielt irgendwo einen Lucky Punch.

Um das ganze zusammenzufassen: Die Liste kann echt sein. Ich erwarte aber etwas weniger. Positive Überraschungen sind aber möglich. Im Endeffekt wissen wir also nichts, ausser Zen 2 > Zen 1. Deshalb noch ein paar Wochen mit Vorfreude auf neue und schnelle AMD Produkte warten ;)

amdfanuwe
2019-05-10, 12:50:56
als Ingenieur von Elektronikprodukten.
hast du beim Anblick der Liste sicher große Bedenken an der Umsetzbarkeit bekommen.
Und Adored preist sie unvoreingenommen an. Damit disquaifiziert er sich meiner Meinung nach und zeigt, dass er kein tieferes Verständnis der Materie hat. Also ein Schwätzer.

Relic
2019-05-10, 13:38:53
https://www.pc-better.com/amd-ryzen-3000-leak/

Neuer angeblicher Leak von der Gigabyte Homepage..

Zergra
2019-05-10, 13:41:21
https://www.pc-better.com/amd-ryzen-3000-leak/

Neuer angeblicher Leak von der Gigabyte Homepage..
Dann würde die Liste von Andored ja doch stimmen

robbitop
2019-05-10, 13:44:07
2. Januar....?

Linmoum
2019-05-10, 13:47:50
Nun komm, aufs Datum gucken ist zu viel verlangt. :D

X-Bow
2019-05-10, 13:50:52
Nun komm, aufs Datum gucken ist zu viel verlangt. :D

Muss aber auch zugeben das ich erst durch das lesen des Textes stutzig wurde und dann erst auf das Datum geachtet hab, kann also mal vorkommen wenn man nur Bilder anguckt :D

Linmoum
2019-05-10, 13:52:24
Also das zweite Wort ist "CES", spätestens da sollte einem was auffallen. Aber gut, wer nur Überschriften liest oder auf Bildchen guckt. :freak:

Knuddelbearli
2019-05-10, 14:29:56
Oder es bewusst bringen, weil sie genau wissen, dass es Klicks bringt, obwohl es Fake ist.

Klicks könnte man da umgekehrt wohl sogar besser bekommen. "10 Dinge die ihr noch nicht wusstest wieso Adored Spekulation falsch ist!" :freak:
Das würde erst richtig auffallen statt das es alle ident übernehmen.

BoMbY
2019-05-10, 14:42:58
Da würde man sich aber anstrengen müssen. Dumme Gerüchte für Klicks abschreiben kostet praktisch keine Zeit.

Unicous
2019-05-10, 14:57:23
@basix

Natürlich gibt es intern Vorgaben und natürlich gibt es auch Preisvorstellungen und ein Produktportfolio aber bitte erzähl mir nicht, dass man 6+ Monate vor Start ein komplettes lineup aufgestellt hat während man noch auf das erste Silizium wartet.:rolleyes:

AMD und Co. simulieren Jahre im Voraus wie sich der Chip verhalten könnte, sie kennen die Parameter der Fertigung, und daraus können sie grobe Taktziele vorgeben, aber daraus leiten sie keine komplette Produktserie ab, mit Preisen und Takten.

Wenn mich mein Gedächtnis nicht trügt ist das im Semiconductor-Bereich auch bislang so noch nicht passiert, dass über ein halbes Jahr im Voraus das komplette lineup samt Preisen und Specs geleaked wurde, eher ist es so, dass man wochenlang grübelt wie das Rumpelstilzchen doch heißen möge.

Du kannst mich dahingehend gerne eines Besseren belehren, aber ich bezweifele sehr, dass irgendjemand an interne Unterlagen gelangt ist die ein komplettes Produkt-Portfolio zeigen, insbesondere da AMD in den letzten Jahren seine leaks deutlich besser im Griff hatte.

Im Übrigen stelle ich gerade fest, dass der AM4-Sockel der iirc für 125 Watt ausgelegt ist laut Adored auf einmal "135" Watt für den Flaggschiff-Chip unterstützen, das ist ja mal eine tolle Überraschung und du als Ingenieur kannst mir sicherlich sagen, wie das möglich ist.:eek:
(edit: Ich bin mir gerade nicht mehr sicher, vllt. ist er wie die anderen Sockel doch für 140 ausgelegt, das ändert aber mMn nichts daran, dass es lachhaft ist den Chip so nah am Limit des Sockels zu betreiben wenn wir schon den anderen Chips wissen, dass Ryzen sich gerne auch mal etwas mehr genehmigt)

@Lehdro

Ich persönlich rege mich über jeden Clickbaiter auf der hier verlinkt wird, auch den Schmarrn von diesem Moore's Law Typen.:wink:

Und ich muss sagen WTFTech ist sich immerhin im Klaren, dass sie das nur für die clicks machen, Adored denkt er wäre der krasseste Leaker auf Erden und über jeden Fehler erhaben. Sieht man auch an seinem Auftreten bei Reddit und Twitter.:wink:

BlacKi
2019-05-10, 15:02:14
2. Januar....?
2.jan oder nicht, so ne fake liste kann jeder mal eben anfertigen. aber wenn adored sie postet ist sie legit:biggrin:

Lehdro
2019-05-10, 15:25:03
@Lehdro

Ich persönlich rege mich über jeden Clickbaiter auf der hier verlinkt wird, auch den Schmarrn von diesem Moore's Law Typen.:wink:

Und ich muss sagen WTFTech ist sich immerhin im Klaren, dass sie das nur für die clicks machen, Adored denkt er wäre der krasseste Leaker auf Erden und über jeden Fehler erhaben. Sieht man auch an seinem Auftreten bei Reddit und Twitter.:wink:
Ich mache null Unterscheidung zwischen Moores Law, Adored und WTF Tech. Sind im Endeffekt alle nur auf Klicks aus - was auch sonst. Persönlich interessant als Gedankenanstoß finde ich sie trotzdem (siehe zb Chiplets oder Zen Masterplan von Adored).
Wie es anders geht sieht man bei Tum Apisak (der mit den ES "Leaks") - dem bringen Klicks nichts, da er nur ES und deren Bezeichnung auf Twitter kundtut.

Aber trotzdem gehören beide Seiten hier rein - als Food for thought und Realitätsbasis (bzw. deren Einordnung). Dafür sind solche Freds wie dieser hier doch da, wenn wir nur 100% gesicherte Informationen hier reinpacken können wir das doch gleich lassen, dann gäbe es nichts zu diskutieren.
Auf eine sich selbst ernstnehmende Newsseite gehört aber nur letzteres (ES, neue BIOS Datamininggeschichten offizielle Ankündigungen wie zb CES Vorschau etc) - weil nur das sind Fakten, der Rest sind Leaks, Gerüchte und Spekulatius - das kann man gerne mal als gesammelte News bringen aber bitte nicht jeden Furz mit eigener News bedenken.

basix
2019-05-10, 15:26:48
hast du beim Anblick der Liste sicher große Bedenken an der Umsetzbarkeit bekommen.
Und Adored preist sie unvoreingenommen an.

Soweit würde ich nicht gehen. Es ist im Bereich des Möglichen, auch wenn eher an der oberen Grenze. Und so unvoreingenommen "preist" sie Adored nicht an. Dazu muss man aber jeweils das ganze Video schauen ;) Zumindest behauptet er, dass er jeweils mehrere Quellen hat, welche in die selbe Richtung deuten. Was wir halt nicht wissen: Wie gut sind seine Quellen? Sind es Fake Quellen? usw.

@Lehdro: Full Ack.

Ex3cut3r
2019-05-10, 15:41:35
Adored? Ja genau, der Typ dem seine 100% Quellen auch eine RTX 2070 mit 7,5 GB voraus gesagt haben, also bitte, der Typ ist ein Spinner (sry für die Ausdrucksweise)

Lehdro
2019-05-10, 15:51:43
Adored? Ja genau, der Typ dem seine 100% Quellen auch eine RTX 2070 mit 7,5 GB voraus gesagt haben, also bitte, der Typ ist ein Spinner (sry für die Ausdrucksweise)
Es waren 7 GiB und trotzdem:

Im übrigen entsprechen bisher alle klaren Informationen zu nVidia Turing ausgerechnet dem am stärksten als "unwahrscheinlich" angesehenen Gerücht seitens AdoredTV – so viel zum Thema, anhand von deren Wahrscheinlichkeit könnte man Gerüchte sicher beurteilen.
Quelle (https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1819-august-2018)

Er wird auch gute Quellen haben, von daher alles von ihm zu verteufeln nur weil es von ihm kam ist auch nur die halbe Miete. Selber hinterfragen, einschätzen und abwägen. Zusammen mit anderen Quellen kann man dann oft grob was vorhersagen. Ich sags auch nochmal: Wenn man 1:1 alles von ihm übernimmt sollte man sich immer im klaren darüber sein das er selbst seine Informationen mit seiner eigenen Einschätzung vermengt bevor ihr sie in seinen Videos seht. Von daher genau hinhören was er sagt, oft hat er nur einen Fitzel Information und spinnt sich daraus was zurecht - was sein gutes Recht ist. Das sollte man nur immer im Hinterkopf behalten, bei ausnahmslos jedem dieser Leaker.

Unicous
2019-05-10, 16:00:53
Bevor Adored das auch noch klaut:

I think it's time to start The maximum value of the frequency of RAM Zen 2 generation is 5000 MHz mode UCLK == MEMCLK / 2.

https://twitter.com/1usmus/status/1126843245093359616

Das kommt von dem Entwickler des DRAM Calculator und ihm vertraue ich deutlich mehr, zumal er ja auch schon einige andere Sachen bezüglich des Mem Controllers "geleaked" hat.

Im Endeffekt hat das natürlich nichts zu sagen, aber man kann davon ausgehen, dass RAM-OC bei Zen2 einen deutlichen Schritt nach vorne macht.

Lehdro
2019-05-10, 16:27:20
Im Endeffekt hat das natürlich nichts zu sagen, aber man kann davon ausgehen, dass RAM-OC bei Zen2 einen deutlichen Schritt nach vorne macht.
Das der RAM Takt vom IF Takt "entkoppelt" wird (https://www.techpowerup.com/forums/threads/amd-ryzen-3000-zen-2-bios-analysis-reveals-new-options-for-overclocking-tweaking.253954/#post-4017502) ist doch schon wieder 2 Monate alt, das ist aber natürlich wesentlich interessanter als ein völlig utopischer maximal Takt. Aber immer dran denken, 1usmus denkt immer noch das die "Formeln" für die Subtimingabstimmung in Stein gemeißelt sind - was definitiv nicht stimmt und mehrfach widerlegt wurde. Unfehlbar ist auch der nicht.

Unicous
2019-05-10, 16:37:41
Interessant, dass man bei ihm einen Disclaimer setzen muss, Adored jedoch immer wieder den benefit of the doubt bekommt, weil er ja zum Spekulieren 'anregt'.:freak:

Ich wüsste auch nicht, dass ich ihm Unfehlbarkeit attestiert hätte das dichtest du gerade hinzu, dass er zum Teil falsche Schlüsse aus den ihm gegebenen Informationen bzw. aus BIOS extrahierten Parametern zieht wurde ja schon erörtert. ¯\_(ツ)_/¯

Lehdro
2019-05-10, 16:54:27
Interessant, dass man bei ihm einen Disclaimer setzen muss, Adored jedoch immer wieder den benefit of the doubt bekommt, weil er ja zum Spekulieren 'anregt'.:freak:
Wo habe ich das geschrieben?

BlacKi
2019-05-10, 17:46:28
das problem das ich mit adored habe, ist wie er die gerüchte verbreitet, sowas von optimistisch das die quellen sich bestätigen werden, das seine jünger ihm glauben wollen. schon fast sektenartig.

samm
2019-05-10, 17:55:25
K.A. weshalb AdoredTV diese Art negativer Aufmerksamkeit auf sich zieht, die Person an sich ist easy, einige Videos gehaltvoll, andere zu spekulativ - kennt man von anderen tech-bezogen spekulierenden und/oder leakenden Menschen auch nicht anders *schulterzuck*

https://twitter.com/1usmus/status/1126843245093359616

Das kommt von dem Entwickler des DRAM Calculator und ihm vertraue ich deutlich mehr, zumal er ja auch schon einige andere Sachen bezüglich des Mem Controllers "geleaked" hat.

Im Endeffekt hat das natürlich nichts zu sagen, aber man kann davon ausgehen, dass RAM-OC bei Zen2 einen deutlichen Schritt nach vorne macht.Frage hier wäre noch, ob der vergleichsweise niedrige IF Takt in diesem Fall (1250 MHz) die Performance weniger verschlechtert, als sie durch die hohe RAM-Bandbreite verbessert wird. Da sich soweit ich gesehen habe der RAM-Controller an sich nicht gross verändert, werden ja auch keine geringen Timings möglich sein.

Unicous
2019-05-10, 18:07:58
Wie kommst du auf 1250MHz?:confused:

Müssten es nicht 2500MHz sein, memory clock /2 = fabric clock

The data fabric

The northbridge of Zeppelin is officially called as the data fabric (DF). The DF frequency is always linked to the operating frequency of the memory controller with a ratio of 1:2 (e.g. DDR4-2667 MEMCLK = 1333MHz DFICLK). This means that the memory speed will directly affect the data fabric performance as well. In some cases, it may appear that the performance of Zeppelin scales extremely well with the increased memory speed, however that is necessarily not the case.

In many of these cases the abnormally good scaling is caused by the higher data fabric clock (DFICLK) resulting from the higher memory speed, rather than the increased performance of the memory itself.

The highest officially supported memory speed for consumer (AM4) Zeppelin parts is 2667MHz (two single rank / sided modules in total) or 2400MHz (two dual rank / sided modules in total), however memory ratios for 2933MHz and 3200MHz speeds are available (not officially supported), at least on some motherboards.

https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/

Lehdro
2019-05-10, 18:11:45
das problem das ich mit adored habe, ist wie er die gerüchte verbreitet, sowas von optimistisch das die quellen sich bestätigen werden, das seine jünger ihm glauben wollen. schon fast sektenartig.
Er ist halt sehr von seiner Sicht der Dinge überzeugt und schätzt manche seiner Quellen sehr hoch ein. Kann man ihm zum Vorwurf machen oder es einfach so hinnehmen und für sich selber werten - so wie bei jeder anderen Quelle auch. Ich zb unterstelle ihm eine große Portion Optimismus und eine gewisse AMD-Nähe, als Fanboy würde ich ihn aber nicht betiteln. Mit dieser Einschätzung kann ich aber sehr wohl was aus seinen Leaks ziehen, denn bisher war ja nicht alles von ihm verkehrt, was gerne mal vergessen wird, vorallem hinsichtlich seines CES Fiaskos.

basix
2019-05-10, 18:36:28
Wie kommst du auf 1250MHz?:confused:

Müssten es nicht 2500MHz sein, memory clock /2 = fabric clock


Jepp, bei 5000 MHz MT/s RAM wären es 2500 MHz IF Clock bei /2 Teiler. Aber die Frage ist schon berechtigt, wenn man z.B. 4000er RAM laufen lassen will und man /2 IF clock laufen lassen muss, ob dann nicht 3600er RAM mit vollem IF clock schneller wäre.

BlacKi
2019-05-10, 19:46:06
Er ist halt sehr von seiner Sicht der Dinge überzeugt und schätzt manche seiner Quellen sehr hoch ein. Kann man ihm zum Vorwurf machen oder es einfach so hinnehmen und für sich selber werten - so wie bei jeder anderen Quelle auch. Ich zb unterstelle ihm eine große Portion Optimismus und eine gewisse AMD-Nähe, als Fanboy würde ich ihn aber nicht betiteln. Mit dieser Einschätzung kann ich aber sehr wohl was aus seinen Leaks ziehen, denn bisher war ja nicht alles von ihm verkehrt, was gerne mal vergessen wird, vorallem hinsichtlich seines CES Fiaskos.
er hat da seinen quellen 100% vertraut und hat sich da zu weit aus dem fenster gelehnt. gelernt hat er daraus anscheinend auch nicht.

Lehdro
2019-05-10, 20:16:54
er hat da seinen quellen 100% vertraut und hat sich da zu weit aus dem fenster gelehnt. gelernt hat er daraus anscheinend auch nicht.
Aber wir :wink:

samm
2019-05-10, 20:38:20
Jepp, bei 5000 MHz RAM wären es 2500 MHz IF Clock bei /2 Teiler. Aber die Frage ist schon berechtigt, wenn man z.B. 4000er RAM laufen lassen will und man /2 IF clock laufen lassen muss, ob dann nicht 3600er RAM mit vollem IF clock schneller wäre.OK, aber es gibt kein 5000 MHz RAM, bestenfalls 5000 MT/s, mit 2500 MHz... Darauf weist der Twitterer 1usmus selber hin, in seinem Beispiel zum Status Quo:For example, a stock Ryzen 7 1700 with 2400 MT/s DRAM will have a CClk = 3000 MHz, MemClk = FClk = UClk = 1200 MHz.Ich gehe deswegen davon aus, dass sein "5000 MHz" falsch ist und 5000 MT/s sein sollte.

basix
2019-05-10, 20:41:57
5000 MT/s ist natürlich die korrektere Bezeichnung, ich habe den Teil mit /2 gestrichen (das war falsch von meiner Seite)

dargo
2019-05-10, 21:18:09
Also ändert sich im Prinzip gar nichts. Ram-Takt = IF-Takt. Nur oben rum gibt es dann mit Ryzen 2 mehr Spielraum. Ob die höhere Bandbreite auch nennenswert was bringt muss sich auch erst zeigen. In der Regel sind die Timings bei hohen Frequenzen ziemlich lahm.

yummy_candy
2019-05-11, 03:58:18
Ich gehe deswegen davon aus, dass sein "5000 MHz" falsch ist und 5000 MT/s sein sollte.
Er sprach vom maximal einstellbaren Wert im Bios, nicht davon, daß der MC von Zen2 das auch wirklich unterstützt.
Und der RAM-Takt der IF kann zusätzlich nochmal durch 2 geteilt werden. Wahrscheinlich, um höhere RAM-Frequenzen zu ermöglichen.

Leonidas
2019-05-11, 06:39:38
und diese Liste kann sehr wohl schon >1 Jahr vor Release irgendwo herumschwirren.


Genau das eben nicht. Das ist dann eine interne Unterlage eines Special-Teams bei AMD, die geht nirgendwo hin. Leaks ergeben sich dann, wenn man anfängt, Infos zu teilen (zu den Partnern). Solche Infos werden aber nicht geteilt, die Partner bekommen zu diesem Zeitpunkt nur höchst grobe Vorgaben. AMD kann solche Listen gar nicht teilen, weil sie ja nur eine Ziel-Projektion darstellen, keine Produkt-Projektion. Sprich: Was man erreichen will - nicht was man erreicht hat. Das ist ergo eher in der Klasse "Gedankenspiel" - und das findet niemals den Weg nach draußen.

@Lehdro: Full Ack.

PS am Rande: Die ganze Diskussion über A...TV wird ja auch der Google-Suche auffallen. Die tolle KI dort kann natürlich nicht ermessen, in welche Richtung hier diskutiert wird, die erkennt nur den Diskussionsgegenstand. Ergo wird nachfolgend A...TV als "relevant" aufgewertet ;)

r3ptil3
2019-05-11, 12:04:15
Was ist nochmals der letzte Stand bezüglich möglichem Release und Freigabe der Reviews?

Linmoum
2019-05-11, 12:07:09
Zu Reviews gibt's noch gar nichts, wie auch? Zum Release gab es bisher auch nur das Gerücht 7.7. und das war es.

Alles andere sehr warhscheinlich zur Computex, die Keynote mit Lisa Su ist ja bereits Montag in 2 Wochen.

y33H@
2019-05-11, 12:12:07
Immer doof für das Forum wenn man nichts sagen darf ^^ weil ich hier ja auch viel Feedback sammle ... aber Ideen für das Review gerne, am Ende wird's eh zeitlich eng ;-)

w0mbat
2019-05-11, 12:20:42
Zu Reviews gibt's noch gar nichts, wie auch? Zum Release gab es bisher auch nur das Gerücht 7.7. und das war es.

Alles andere sehr warhscheinlich zur Computex, die Keynote mit Lisa Su ist ja bereits Montag in 2 Wochen.
7.7. war das Gerücht für Navi. Für Zen2 ist das Gerücht Computex.

Linmoum
2019-05-11, 12:26:39
Nein, auch für Zen gab/gibt es das Gerücht. Kam iirc von der Quelle, die damals bereits im Dezember Bilder der Radeon VII veröffentlicht hatte.

@y33h@
Gerne etwas ausführliche(re)s RAM-Testing, da dürfte das größte (Verbesserungs-)Potential für Zen2 liegen.

Knuddelbearli
2019-05-11, 12:39:11
Immer doof für das Forum wenn man nichts sagen darf ^^ weil ich hier ja auch viel Feedback sammle ... aber Ideen für das Review gerne, am Ende wird's eh zeitlich eng ;-)

Mehr Strategiespiele mit ordentlichen Lategame Saves! Gerne auch als Sondertest nur fürs Heft schreib mich dann nur bitte an damit ichs mir kauf ^^

Zumindest 1 sollte von Paradox dabei sein, ansonsten Anno, irgend ein indy ( factorio zB ) und ein klassisches RTS

Achim_Anders
2019-05-11, 12:43:30
Cities skylines mit Mods den Standardmods wie TPM und einer wirklichen großen Stadt ist da auch so ein Kandidat, wo man häufig auf irgendwelche Youtubevideos schauen muss, um ein leistungsbild zu erhalten..

dargo
2019-05-11, 12:47:57
@y33h@
Gerne etwas ausführliche(re)s RAM-Testing, da dürfte das größte (Verbesserungs-)Potential für Zen2 liegen.
Aber bitte mit genauen Screenshots @RTC zu Timings/Subtimings. Einfach nur DDR4 X gegen DDR4 Y bringt gar nichts außer mehr Fragezeichen und falsche Schlussfolgerungen. Und selbstverständlich muss dabei ein vollständiges CPU-Limit herrschen. Ansonsten kann man sich die Arbeit gleich sparen.

BlacKi
2019-05-11, 12:48:52
aber Ideen für das Review gerne, am Ende wird's eh zeitlich eng ;-)
gaming benchmarks ohne gpu limit setze ich mal als standard. und natürlich ganz wichtig mit memory OC!:biggrin:

SKYNET
2019-05-11, 12:51:30
Also ändert sich im Prinzip gar nichts. Ram-Takt = IF-Takt. Nur oben rum gibt es dann mit Ryzen 2 mehr Spielraum. Ob die höhere Bandbreite auch nennenswert was bringt muss sich auch erst zeigen. In der Regel sind die Timings bei hohen Frequenzen ziemlich lahm.

och, mit genug spannung gehen b-die auch CL12 bei 4000MHz :)

Linmoum
2019-05-11, 12:52:26
Aber bitte mit genauen Screenshots @RTC zu Timings/Subtimings. Einfach nur DDR4 X gegen DDR4 Y bringt gar nichts außer mehr Fragezeichen und falsche Schlussfolgerungen. Und selbstverständlich muss dabei ein vollständiges CPU-Limit herrschen. Ansonsten kann man sich die Arbeit gleich sparen.
Keine Sorge, Marc ist ja bei Golem und nicht CB. ;)

dargo
2019-05-11, 12:56:50
och, mit genug spannung gehen b-die auch CL12 bei 4000MHz :)
Als ob CL12 das wichtigste wäre. tsss

Und den Speicher mit 1,5 Volt zu kochen will ich auch nicht.

Keine Sorge, Marc ist ja bei Golem und nicht CB. ;)
Das ganze Thema @Speicher-(Sub)timings ist gar nicht mal so einfach. Es gibt bestimmte Kombinationen die im Endeffekt langsamer laufen obwohl die Subtimings schärfer eingestellt sind. Der Speichercontroller von Ryzen ist mir noch ein kleines Rätsel. :D

BlacKi
2019-05-11, 13:02:35
Und den Speicher mit 1,5 Volt zu kochen will ich auch nicht.
welche nachteile hast du mit 1,5v? wenn man halbwegs durchzug hat im gehäuse, sind 1,5v komplett unkritisch. aber die reichen auch nicht für 4000cl12 mit glück cl15

dargo
2019-05-11, 13:13:08
welche nachteile hast du mit 1,5v? wenn man halbwegs durchzug hat im gehäuse, sind 1,5v komplett unkritisch. aber die reichen auch nicht für 4000cl12 mit glück cl15
Kosten/Nutzen fraglich.

Bei hoher Speicherfrequenz brauchst du automatisch auch mehr SoC Voltage. Ergo mehr Verbrauch beim Speicher und CPU. Ein Beispiel... ich fahre aktuell DDR4-3200 mit Subtimings X @1,35 Vdimm. Für vergleichbare Performance @DDR4-3333 mit Subtimings Y brauche ich mindestens 1,375 Vdimm. Und wie gesagt... CL alleine ist wayne. Die Summe der Subtimings ist deutlich entscheidender.

PS: meine Beobachtungen mit Ryzen 1 müssen natürlich nicht 1:1 auf Ryzen 2 übertragbar sein. Erstens taktet meine CPU nur mit 3,8Ghz, Ryzen 2 wird da einiges höher takten. Zweitens wird die IPC von Ryzen 2 steigen. Kann also sein, dass bei Ryzen 2 wesentlich höhere Frequenzen als DDR4-3200 durchaus lohnenswert sind. Aber bis wir da einen vernünftigen Überblick haben ist das Jahr 2019 schon um.

Brillus
2019-05-11, 13:37:41
Immer doof für das Forum wenn man nichts sagen darf ^^ weil ich hier ja auch viel Feedback sammle ... aber Ideen für das Review gerne, am Ende wird's eh zeitlich eng ;-)

Den Bereich Latenzen, größe Auswirkung. Ein GTA war doch da sehr empfindlich.

BoMbY
2019-05-11, 14:21:54
Interessant wäre halt vor allem zu sehen wie sich die Verbindung zwischen I/O-Chiplet und CPU-Chiplet verhält (Bandbreite, Latenz, etc.), und welchen Einfluss auch RAM-Einstellungen (oder eventuell andere neue Einstellungen) darauf haben, und das im Vergleich zu den alten onChip-Versionen.

y33H@
2019-05-11, 14:25:51
Wer mir Savegames schicken möchte, bitte gerne 'ms@golem.de' - sowas wie Anno 1800 habe ich bereits viele Einwohner. Das besagte GTA5 werde ich definitiv benchen ... wie viel Zeit für ausführlich zum RAM bleibt, gilt es abzuwarten, zur Not als eigener Artikel.

BlacKi
2019-05-11, 14:30:41
wie viel Zeit für ausführlich zum RAM bleibt, gilt es abzuwarten, zur Not als eigener Artikel.
aber hohe ram takt testversuche sind sicher drinn. guten samsung b Die reinklatschen der 4400 mitmacht und schauen wo der neue amd zumacht.

ich hab ein schönes savegame für deus ex md, als worst case stelle.

BoMbY
2019-05-11, 14:36:06
Eventuell wäre es auch interessant zu sehen ob man die IF-Verbindung an die Kotzgrenze bringen kann wenn man gleichzeitig RAM-I/O und PCIe 4.0-I/O am Anschlag hat.

Zossel
2019-05-11, 14:52:52
Eventuell wäre es auch interessant zu sehen ob man die IF-Verbindung an die Kotzgrenze bringen kann wenn man gleichzeitig RAM-I/O und PCIe 4.0-I/O am Anschlag hat.

Da limitiert die Bandbreite des RAM.

Isen
2019-05-11, 14:54:34
welche nachteile hast du mit 1,5v? wenn man halbwegs durchzug hat im gehäuse, sind 1,5v komplett unkritisch. aber die reichen auch nicht für 4000cl12 mit glück cl15


Was die SR B-DIEs betrifft, magst du durchaus Recht haben, dass 1,5v gar 1,6v kein zu großes Problem darstellen, sofern genügend Airflow oder gar direkt eine Aktive Ram-Kühlung vorhanden ist. Das Problem sehe ich aber daran, dass die SR B-DIEs (meine zumindest) selbst bei aktiver Kühlung allein aufgrund der Temperatur selbst ziemlich empfindlich reagieren.

nur wenige Grad unterschied und schon liefen einige Sub-Timings nicht mehr. Das ist ein nicht gut zu kontrollierender Faktor, gerade wenn jetzt der Sommer vor der Tür steht. Auch halten sich die Zuwächse hinsichtlich der Performance in Grenzen. Bei 3600 @CL14 sehe ich schon die harte Grenze, wo für das, was man benötigt, nicht mehr soviel dafür bekommt, wie nüchtern 3466 mit schärferen Timings. Mal sehen was Zen2 da macht.

Zossel
2019-05-11, 14:54:53
gaming benchmarks ohne gpu limit setze ich mal als standard. und natürlich ganz wichtig mit memory OC!:biggrin:

Also in Auflösungen in denen kein Schwein spielt.

Zossel
2019-05-11, 15:01:20
nur wenige Grad unterschied und schon liefen einige Sub-Timings nicht mehr. Das ist ein nicht gut zu kontrollierender Faktor, gerade wenn jetzt der Sommer vor der Tür steht. Auch halten sich die Zuwächse hinsichtlich der Performance in Grenzen.

Was eigentlich klar zeigt das man man das nicht sinnvoll testen kann, unter solchen "Bedingungen" sind "Tests" einfach nur Kaffeesatzleserei.

Oder sollte man auch noch bei verschiedenen Mondphasen testen?

Linmoum
2019-05-11, 15:12:51
Also in Auflösungen in denen kein Schwein spielt.
Jetzt fangt nicht schon wieder diese sinnlose Diskussion an. Wir sind im Zen-Thread, also geht es um CPUs. Dementsprechend wird auch die CPU getestet und fertig.

Lehdro
2019-05-11, 15:20:35
Es gibt auch sicherlich ein paar Spiele die als Kompromiss für alle Unbelehrbaren auch mit 1080p und höher CPU limitiert sind - Anno im Lategame, einige Shooter mit seltsamer Multicore Unterstützung *hust*Far Cry*hust* oder sogar so Sachen wie Rundenzeiten bei 4X Games - dort hat man mit Total War, Civ und ähnlichem einige Auswahl - aber bitte darauf achten einen Lategame Spielstand zu nehmen um die Rundenzeiten deutlich zu strecken.

robbitop
2019-05-11, 15:27:01
Eine Komponente testet man, wenn man die Geschwindigkeit von ihr relativ zu einer anderen Komponente ermitteln will natürlich so, dass sie den Flaschenhals darstellt.

Isen
2019-05-11, 15:56:11
Was eigentlich klar zeigt das man man das nicht sinnvoll testen kann, unter solchen "Bedingungen" sind "Tests" einfach nur Kaffeesatzleserei.

Oder sollte man auch noch bei verschiedenen Mondphasen testen?


Haha... könnte man so sehen ja. ;D
Bedenken musst du aber, dass man sich an einem solchen Punkt - wie ich beschrieb - an der absoluten Grenze befindet, weit hinaus über dem, was der Hersteller noch für Okay betrachtet - man könnte Extreme OC dazu sagen, weil nichts anderes ist das, was ich getan habe. Der Aufwand wie bei CPUs ist beim Speicher nicht so hoch, daher kann das fast jeder machen.

Die Problematik aber ist bei beiden Szenarien die selbe: Die Temperatur.
Nur ist sie hier nicht zu hoch oder zu tief, sondern der Speicher selbst reagiert empfindlich bei so hohen Spannungen und scharfen Timings. Da spielt das Board, die Phasen, der SoC mit rein, wo einem eben die Grenze gezeigt wird. Nutzt man nur die Spannungskeule, 1,5, 1,6v usw und taktet das Teil einfach nur rauf und belässt die Timings & Sub-Timings in einem Moderaten Bereich, dann hat man solche Probleme eher gar nicht. Allerdings, würde man mit entsprechender Optimierung bei weniger Keule das gleiche Ergebnis bekommen. Letzteres frisst mehr Zeit.

Wir werden es ja bei Zen2 sehen, wie viel da mit dem Speicher zusätzlich rauszuholen ist und ob die investierte Zeit genauso viel bringt, wie schon bei Zen1.

Was ich Eingangs damit sagen wollte ist schlicht: Die Spannungskeule bringt nichts, da hier die CPU respektive SoC & oder IF dicht macht und es sich nicht lohnt, hier mit der Spannungskeule ranzugehen, da niedriger getaktet aber mit durchoptimierten Timings & Sub-Timings das gleiche Ergebnis bei 0 Nachteilen zu bewerkstelligen ist. Zumindest empfinde ich das bewusste unter die vom Hersteller genannten Maximalwerte zu bleiben, als sicheres und gutes OC, wo praktisch kein Nachteil herrscht, wenn man vom erhöhten Verschleiß mal absieht - bis das zum tragen kommt, hat man meist schon 2-3 neue Gens.

BlacKi
2019-05-11, 16:18:01
Was eigentlich klar zeigt das man man das nicht sinnvoll testen kann, unter solchen "Bedingungen" sind "Tests" einfach nur Kaffeesatzleserei.

Oder sollte man auch noch bei verschiedenen Mondphasen testen?
wenn die min fps aussagekräftig und nicht so massiv random wären, könnte man anhand jener auch die cpu leistungsunterschiede ablesen in praxisrelevanteren auflösungen. da das aber leider praktisch nie der fall ist, muss man eben die auflösung reduzieren.
Jetzt fangt nicht schon wieder diese sinnlose Diskussion an. Wir sind im Zen-Thread, also geht es um CPUs. Dementsprechend wird auch die CPU getestet und fertig.
marc ist schuld XD



Das ganze Thema @Speicher-(Sub)timings ist gar nicht mal so einfach. Es gibt bestimmte Kombinationen die im Endeffekt langsamer laufen obwohl die Subtimings schärfer eingestellt sind. Der Speichercontroller von Ryzen ist mir noch ein kleines Rätsel. :D
man kennt das doch aus der vergangenheit, das wird zeit brauchen, verm. monate bis man tools hat und die bios release optimiert sind. marc wird mit pre release bios und treibern arbeiten müssen, die sind erfahrungsgemäß richtig übel. selbst wenn marc da 20 stunden reinbuttert, sieht es nach 2 wochen verm. ganz anders aus. mit der pre release software sich stundenlang zu beschäftigen ist eigentlich vergebene liebesmühe.

dargo
2019-05-11, 16:28:27
man kennt das doch aus der vergangenheit, das wird zeit brauchen, verm. monate bis man tools hat und die bios release optimiert sind. marc wird mit pre release bios und treibern arbeiten müssen, die sind erfahrungsgemäß richtig übel. selbst wenn marc da 20 stunden reinbuttert, sieht es nach 2 wochen verm. ganz anders aus. mit der pre release software sich stundenlang zu beschäftigen ist eigentlich vergebene liebesmühe.
Guter Punkt und auch ich gehe davon aus, dass die ersten Biose nicht wirklich optimiert sind.

Zossel
2019-05-11, 17:52:32
als sicheres und gutes OC,

Wenn das nach einer Woche Dauerlast abkackt oder falsche Ergebnisse liefert ist das Resultat schlicht und einfach: Letzter Platz.

maximus_hertus
2019-05-11, 18:40:11
Ist das 99th Percentile in 1080p nicht ein besserer Indikator für die Leistung im CPU Limit statt im Treiberlimitiertem 720p? Zen ist ja nicht so selten in 1080p schneller (im Vergleich zu 720p), nV Treiber sei dank.

y33H@
2019-05-11, 18:52:47
Mit einer RTX 2080 Ti kann man schon Avg und P99 in 1080p machen finde ich ... werde schauen wie 720p vs 1080p vs 1440p aussieht. Weil einige wollen ja hohe fps in 1440p für 144 Hz, hab selbst so einen Samsung.

BlacKi
2019-05-11, 18:54:35
eigentlich gehts auch nicht um 720p oder 1080p, es geht darum im cpu limit zu benchen. wenn das geht, hab ich auch nichts gegen 1440p.

edit: manche zocken auch 1080p 240hz mit reduzierten details(esport).

Oddzz
2019-05-11, 19:40:32
@ y33H@: Neben dem schon genannten würde mich persönlich ein Vergleich von Single- vs Dual-Rank RAM interessieren.
Desweiteren wären Tests mit SMT off und wie es auf einem CCD läuft (so heißen die CCX doch jetzt, oder?). Dafür wär vielleicht CS:GO und FarCry New Dawn geeignet, da ersteres von SMT off profitiert, während letzteres bessere Ergebnisse mit SMT on erzielt. In den allermeisten Fällen macht es jedoch kaum einen Unterschied.

Ex3cut3r
2019-05-11, 19:41:26
Wieso sollte es keine optimalen Biose zum rls. geben? Zen ist Zen und seit 2017 draußen, was soll da groß anders sein beim Ryzen 3000? Und sicherlich arbeiten die Hersteller schon seit Monaten am Rls. Also bitte, wenn das rls. Bios richtig mies ist, wird es auch negative Reviews geben, und wenn Menschen ihr Urteil gefällt haben, ist es schwer diese umzustimmen. Ich hoffe nicht, dass es so ein typischer AMD Launch wird. :freak:

dargo
2019-05-11, 19:55:06
Also bitte, wenn das rls. Bios richtig mies ist, wird es auch negative Reviews geben, und wenn Menschen ihr Urteil gefällt haben, ist es schwer diese umzustimmen.
Ja... haben wir bei Ryzen schon gesehen. *hust*

Lehdro
2019-05-11, 20:11:58
Wieso sollte es keine optimalen Biose zum rls. geben? Zen ist Zen und seit 2017 draußen, was soll da groß anders sein beim Ryzen 3000? Und sicherlich arbeiten die Hersteller schon seit Monaten am Rls. Also bitte, wenn das rls. Bios richtig mies ist, wird es auch negative Reviews geben, und wenn Menschen ihr Urteil gefällt haben, ist es schwer diese umzustimmen. Ich hoffe nicht, dass es so ein typischer AMD Launch wird. :freak:
Ich bin da auch eher vorsichtig optimistisch: Schon alleine weil seit Monaten Beta BIOSe für Ryzen 3000 rumschwirren, das sieht nach ner ordentlichen Testphase aus und keinem mit einer heißen Nadel gestricktem Launch.

Brillus
2019-05-11, 20:14:03
Wieso sollte es keine optimalen Biose zum rls. geben? Zen ist Zen und seit 2017 draußen, was soll da groß anders sein beim Ryzen 3000? Und sicherlich arbeiten die Hersteller schon seit Monaten am Rls. Also bitte, wenn das rls. Bios richtig mies ist, wird es auch negative Reviews geben, und wenn Menschen ihr Urteil gefällt haben, ist es schwer diese umzustimmen. Ich hoffe nicht, dass es so ein typischer AMD Launch wird. :freak:

Kommt drauf an ob neuer Ram controller oder nicht.

y33H@
2019-05-11, 20:15:57
Schön bei Matisse für AMD ist: die Software sprich Anwendungen und Spiele sind mittlerweile für Zen optimiert, bei der Hardware folgt 7 nm mit besserer Architektur. Intel derweil muss mit quasi Skylake uArch und 14++ nm auskommen ...

reaperrr
2019-05-11, 20:17:57
Wieso sollte es keine optimalen Biose zum rls. geben? Zen ist Zen und seit 2017 draußen, was soll da groß anders sein beim Ryzen 3000?
Beim Bios ist nicht der Kern entscheidend, sondern der I/O-Bereich (MemController, PCIe, IF, USB/SATA usw.), 3rd-Party Zeugs (OnBoard Sound usw.) und Chipsatz.
Und an Zen2 ist quasi alles zumindest überarbeitet worden, bei den X570-Boards kommt auch noch ein neuer Chipsatz dazu.

Ich denke zwar auch, dass es weniger Probleme als 2017 geben wird, aber bugfrei und perfekt optimiert müssen die Biose und Boards deswegen noch lange nicht sein.
Der Unterschied zwischen Zen und Zen2 ist allein wegen des I/O-Chips und PCIe 4.0 vermutlich größer als bei Intel der zwischen Ivy Bridge (erster Core mit PCIe 3.0) + Z77 Chipsatz und den aktuellen CoffeeLake-R + 300er Chipsatz.

Linmoum
2019-05-11, 20:24:32
https://www.reddit.com/r/Amd/comments/bndli8/redgamingtech_12_core_matisse_is_5_ghz_according/

Ist derselbe Typ, der damals schon vorab Fotos von der Radeon VII veröffentlicht hat. Laut seinen Quellen ist der 12C "up to" 5.0GHz.

Mal schauen, ich kann's mir immer noch nicht vorstellen. Ich denke weiterhin, dass spätestens bei 4.6GHz AC/4.8GHz SC Schluss sein wird. Alles andere würde mich (positiv) überraschen.

Daredevil
2019-05-11, 20:32:34
Wieso nagelst du dich denn haargenau auf 4.8Ghz fest?
Ich meine...... es sind ja auch nur knapp 4% mehr bis 5Ghz und diese Grenze ist maximal Medienwirksam.
PR: AMD hat ja schließlich den Meilenstein der 5GHz Prozessoren eingeläutet.

Linmoum
2019-05-11, 20:45:45
200MHz sind 200MHz, versuch die mal noch auf 'nen 2700X oder bei SR auf 'nen 1800X zusätzlich draufzupacken. ;)

Hasenpfote
2019-05-11, 20:45:48
Ich bin da auch eher vorsichtig optimistisch: Schon alleine weil seit Monaten Beta BIOSe für Ryzen 3000 rumschwirren, das sieht nach ner ordentlichen Testphase aus und keinem mit einer heißen Nadel gestricktem Launch.Hab soeben ein neues BIOS für mein Asus B350 installiert. Selbst das wird Ryzen 3000 unterstützen.

Ex3cut3r
2019-05-11, 22:41:58
Hab soeben ein neues BIOS für mein Asus B350 installiert. Selbst das wird Ryzen 3000 unterstützen.
Ist doch super, wenn man sich die Foren in DE anschaut, wollen viele auf Ryzen 3000 wechseln, hoffentlich kann AMD die Nachfrage überhaupt bedienen.:biggrin:

Als Gamer weiß ich aber gar nicht ob man überhaupt wechseln muss, wenn einen Ryzen 1000/Skylake aufwärts hat. Vlt. als voraussichtliche Aufrüstung für die neuen Konsolen 2020/2021? :uponder: So ein 16/32T durfte wohl die komplette Konsolen Next Gen überleben (also 10 Jahre) ^^

BlacKi
2019-05-11, 23:16:13
Hab soeben ein neues BIOS für mein Asus B350 installiert. Selbst das wird Ryzen 3000 unterstützen.
direkt mit 3400 oder gleich mit 4400mhz ram unterstützung? ich wollte nicht sagen das ryzen 3000 nicht gleich laufen wird, aber "wie" wird die frage sein, denn zen1 ist nicht zen2. wir wissen nicht was kommt. ryzen 2000 ist auch nur ein optimierter ryzen 1000 gewesen, ryzen3000 ist ein kein optimierter ryzen 2000. das die leute nicht mit einer gewissen vorsicht an amd launches rangehen besorgt mich etwas, als hätten sie die vergangenheit vergessen. ich denke da nur an den letzten r7 launch, wo das overclocking 2 wochen + nicht wirklich performance brachte.

dargo
2019-05-11, 23:16:44
Als Gamer weiß ich aber gar nicht ob man überhaupt wechseln muss, wenn einen Ryzen 1000/Skylake aufwärts hat. Vlt. als voraussichtliche Aufrüstung für die neuen Konsolen 2020/2021? :uponder: So ein 16/32T durfte wohl die komplette Konsolen Next Gen überleben (also 10 Jahre) ^^
Müssen bestimmt nicht. Ich sehe es aus einer anderen Perspektive. Zen 2 wird bei mir die letzte CPU mit DDR4 sein. Danach kommt nur ein Brett samt CPU rein welches DDR5 unterstützt. Und natürlich auch PCIe 4.0. Ergo wird dann alles (CPU, Brett, Speicher) neu fällig.