PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 4. November 2019


Leonidas
2019-11-05, 09:53:15
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-4-november-2019

Platos
2019-11-05, 10:46:14
Die Übertaktungszeiten sind eig. mehr oder weniger vorbei. Selbt mit UV/OV wird vermutlich nicht grossartig was drinn liegen. Das Selbe bei AMD.

Grundsätzlich ja nicht verkehrt, dass ich nicht mehr selbst übertakten muss, aber zur höchsten CPU muss man ja trotzdem greifen, wenn man die Taktraten haben will.

Iscaran
2019-11-05, 11:06:34
Wie sich die drei Navi-2X-Chips letztlich einordnen lassen, dafür gibt es auch allgemein derzeit nur Vermutungen – wovon die allererste auf eine Abstammung von RDNA2 und damit dem Support von Hardware-RayTracing lautet.


Wenn die Konsolen alle noch 2019 zum X-Mas Marktstart haben sollen wäre doch eine Möglichkeit die, daß man die 3 Varianten so erklärt:

Navi 21 = Playstation 5 Chip
Navi 22 = XBox Chip
Navi 23 = Dekstop-Version der obigen

(Die 2x Nummern sind hier natürlich frei austauschbar bzw. zuordbar)

Meine Vermutung ist daß sich die PS5 und XBox Chips hier gar nicht sehr unterscheiden, und daß es möglich sein könnte mit wenig Aufwand eine entsprechende ähnlich gebaute Mid-Range + Raytracing GPU für Desktop-PCs mit zu releasen.

Das würde viel Synergie-Effekte beherbergen und könnte in der Entwicklung tatsächlich so gelaufen sein. Nicht zuletzt profitieren ja auch die Game-Developer für Konsolen und Konsolenhersteller von "standardisierter Hard-/und Software".

Dann könnte AMD außerdem mit einem "kleinen" RDNA2 - Chip auch erstmal die Fertigung ausloten und die "Big Chip" käme dann Ende Q1/2020.

Just my 2 cents.

Gast Ritis
2019-11-05, 12:54:50
Bitte Crossfire-AFR und mGPU nicht immer wiederg durcheianderbringen. Das führ zu Falschmeldungen.

Mit Vulkan wurde Strange Brigade im mGPU Betrieb von AMD beworben mit nahezu +100% Skalierung, auch andere Titel wurden ab und an genannt z.B. FarCry. Das war erst letztes Jahr.

Leonidas
2019-11-05, 12:57:48
Navi 21 = Playstation 5 Chip
Navi 22 = XBox Chip
Navi 23 = Dekstop-Version der obigen


Die SoCs der Spielekonsolen werden gewöhnlich nicht mit in die normalen Codenamen eingeordnet - wahrscheinlich schon allein deswegen, weil es sich hier ja um mehr dreht als nur einen Grafikchip.




Bitte Crossfire-AFR und mGPU nicht immer wiederg durcheianderbringen. Das führ zu Falschmeldungen.
Mit Vulkan wurde Strange Brigade im mGPU Betrieb von AMD beworben mit nahezu +100% Skalierung, auch andere Titel wurden ab und an genannt z.B. FarCry. Das war erst letztes Jahr.


Das fällt genau unter die "seltenen Ausnahmen", die ich notierte.

Iscaran
2019-11-05, 14:06:30
Die SoCs der Spielekonsolen werden gewöhnlich nicht mit in die normalen Codenamen eingeordnet - wahrscheinlich schon allein deswegen, weil es sich hier ja um mehr dreht als nur einen Grafikchip.



Auch die PS4 APU hat z.B. eine PCI ID :
https://pci-ids.ucw.cz/read/PC/1002/9920

Nennt sich Liverpool. Ähnlich kann ich mir die Nennungen für die 3 Navi Chips vorstellen.

Aber egal - wir werden sehen was das wird.

EDIT: Und wenn die PS5/XBOXen auf einem Linux-Derivat als OS aufsetzen erklärt das relativ simpel das auftauchen der IDs in Linuxtreibern

Gast_16
2019-11-05, 15:22:04
Auch die PS4 APU hat z.B. eine PCI ID :
https://pci-ids.ucw.cz/read/PC/1002/9920
[...]

EDIT: Und wenn die PS5/XBOXen auf einem Linux-Derivat als OS aufsetzen erklärt das relativ simpel das auftauchen der IDs in Linuxtreibern

Bei der XBOX halte ich das für ausgeschlossen.

pipin
2019-11-05, 16:45:27
Auch die PS4 APU hat z.B. eine PCI ID :
https://pci-ids.ucw.cz/read/PC/1002/9920

Nennt sich Liverpool. Ähnlich kann ich mir die Nennungen für die 3 Navi Chips vorstellen.

Aber egal - wir werden sehen was das wird.

EDIT: Und wenn die PS5/XBOXen auf einem Linux-Derivat als OS aufsetzen erklärt das relativ simpel das auftauchen der IDs in Linuxtreibern


Liverpool war aber imo der Codename für die PS4 selbst oder dann doch für den kompletten Chip von AMD? Das Gegenstück für die Xbox war damals Durango.


Interessanter sind ja erstmal die ganzen APU-Derrivate bzw Customlösungen mit den Bezeichnungen Dali und van Gogh, die ja auf jeden Fall auch auf Vega basieren. Dali soll ja angeblich eine Low Power APU sein, dann wahrscheinlich mit weniger Kernen als Renoir.

Was van Gogh dann ist erschließt sich mir nicht wirklich.

Aroas
2019-11-05, 17:45:00
Bei dem ganzen Gerede über Navi in den einschlägigen Medien, sollte man meinen, dass Grafikkarten auf dieser Basis massiv in den Markt fließen.
Aber Pustekuchen. Nicht einmal die längst vorgestellte RX 5500 gibt es zu kaufen.

Wie lange soll denn das alles noch dauern? Polaris ist mittlerweile so alt, dass die Chips schon Staub ansetzen.

Dino-Fossil
2019-11-05, 17:53:08
Ist zwar nicht schön mit der Release-Verzögerung, aber ob Polaris jetzt noch 2-3 Wochen länger einstaubt ist eigentlich auch egal.

Berniyh
2019-11-05, 18:20:31
Die SoCs der Spielekonsolen werden gewöhnlich nicht mit in die normalen Codenamen eingeordnet - wahrscheinlich schon allein deswegen, weil es sich hier ja um mehr dreht als nur einen Grafikchip.
Kann man ja auch schön an der Liste sehen, dass die Custom Chips spezielle Codenamen bekommen.
Scheinbar auch abseits der "normalen" Benennung, wie man an "Winston" (für MS) und "Fireflight" sehen kann.
Nicht zuletzt profitieren ja auch die Game-Developer für Konsolen und Konsolenhersteller von "standardisierter Hard-/und Software".
Ich glaube so viel ändert sich für die nicht, sie müssen ja am Ende immer noch in 3 verschiedenen APIs (inkl. PC) programmieren.
Wobei bei der PS5 glaube ich noch nicht klar ist, ob sie da wieder was eigenes machen, oder?
Wenn sie dort auf DX12 (unwahrscheinlich) oder Vulkan (wäre zumindest realistisch) setzen würden, dann würde es sich zumindest auf 2 APIs reduzieren.
Was van Gogh dann ist erschließt sich mir nicht wirklich.
Halt irgendeine Custom APU, z.B. so wie für das Surface Tablet.
Ich stolpere da ehrlich gesagt eher über den Begriff "Sparkman", was hat es denn damit auf sich?

Iscaran
2019-11-05, 18:37:07
Liverpool war aber imo der Codename für die PS4 selbst oder dann doch für den kompletten Chip von AMD? Das Gegenstück für die Xbox war damals Durango.


Sowohl, als auch.

Die CPU-Parts von AMD laufen under ID 1022
https://pci-ids.ucw.cz/read/PC/1022
Die GPUs bzw. GPU-Teile der APUs unter 1002
https://pci-ids.ucw.cz/read/PC/1002
Unter 1022/1436 findest du den Liverpool Root Complex.
https://pci-ids.ucw.cz/read/PC/1022/1436
D.h. das ist die Bezeichnung für den gesamten Liverpool Chipsatz. Die einzelnen Teile laufen dann unter 142e bis 1438.

Guckst du bei 1002 findest du mit 9920 die PS4 APU und bei 9921 den Audiochip des ensembles.
Vermutlich deswegen unter 1002er ID weil er formal Teil der GPU ist. (und damit logisch in die 1002er Schiene, die AMD quasi von ATI "geerbt" hat).

Suchst du in 1002 nach Navi findest du mehrere Einträge - darunter die 5700/5700 XT und die 5500 bzw. 5500 Mobile.

Gast
2019-11-05, 18:57:35
So erreichten 100% dieser Prozessoren eine dauerhafte Taktrate von 5.0 GHz – was aber angesichts eines nominellen AllCore-Turbos von 5.0 GHz eigentlich vorauszusetzen ist.

Das sollte vielleicht mal jemand von AMD lesen :D

Dies zeigt an, das jenes Taktraten-Niveau doch schon sehr exklusiv ist, insbesondere der Vorab-Test von Tom's Hardware somit ein glückliches Händchen (oder möglicherweise sogar eine unsichtbare Hand Intels) hatte.

Wobei man dazu sagen sollte, dass die CPUs hier bei vollem AVX-Takt laufen.

Mit AVX-Offset, wie die meisten wohl übertakten werden, sollte schon noch ein wenig mehr drinnen sein.

Das Spiel von Entwickler & Publisher "Rockstar Games" kommt auf Basis der Haus-eigenen RAGE-Engine ("Rockstar Advanced Game Engine") daher und trägt eher maßvolle Hardware-Anforderungen:

Das Spiel hat alles andere als maßvolle Anforderungen, laut Nvidia reicht selbst eine 2080Ti in 4k nur für Medium Details:

https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/red-dead-redemption-2-pc-game-ready-driver/red-dead-redemption-nvidia-geforce-recommended-graphics-cards.png]

Es scheint nur sehr gut skalierbar zu sein, ansonsten dürften die Anforderungen ganz schön hoch und noch eine Herausforderungen für kommende Hardwaregenerationen sein.

pipin
2019-11-05, 19:00:42
Halt irgendeine Custom APU, z.B. so wie für das Surface Tablet.
Ich stolpere da ehrlich gesagt eher über den Begriff "Sparkman", was hat es denn damit auf sich?

https://nintendo.fandom.com/wiki/Spark_Man ;)

https://twitter.com/chiakokhua/status/1181577204263612417





Sowohl, als auch.

Die CPU-Parts von AMD laufen under ID 1022
https://pci-ids.ucw.cz/read/PC/1022
Die GPUs bzw. GPU-Teile der APUs unter 1002
https://pci-ids.ucw.cz/read/PC/1002
Unter 1022/1436 findest du den Liverpool Root Complex.
https://pci-ids.ucw.cz/read/PC/1022/1436
D.h. das ist die Bezeichnung für den gesamten Liverpool Chipsatz. Die einzelnen Teile laufen dann unter 142e bis 1438.

Guckst du bei 1002 findest du mit 9920 die PS4 APU und bei 9921 den Audiochip des ensembles.
Vermutlich deswegen unter 1002er ID weil er formal Teil der GPU ist. (und damit logisch in die 1002er Schiene, die AMD quasi von ATI "geerbt" hat).

Suchst du in 1002 nach Navi findest du mehrere Einträge - darunter die 5700/5700 XT und die 5500 bzw. 5500 Mobile.

ah ok, danke. ich hatte mal angefangen ne Übersicht bei den Konsolenchips zu machen und war soweit gekommen:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=68147&stc=1&d=1572976646

Lehdro
2019-11-05, 19:59:12
Das sollte vielleicht mal jemand von AMD lesen :D
Vielleicht solltest du mal lesen was AMD für einen allcore Turbo verspricht. Oh wait, mit Fakten könnte man ja nicht haten. :redface:


Wobei man dazu sagen sollte, dass die CPUs hier bei vollem AVX-Takt laufen.

Mit AVX-Offset, wie die meisten wohl übertakten werden, sollte schon noch ein wenig mehr drinnen sein.
AVX offset ist "-2". Lesen lernen.
https://abload.de/img/avxoffset6jjoc.jpg

MiamiNice
2019-11-05, 20:14:37
Mal ein wenig Liebe zum Detail:

Wie Lehdro schon gepostet hat, gehen die KS bei SL mit einem AVX Offset von -2 durch die Qualitätskontrolle. Der 9900K ist ja jetzt nicht so neu, man könnte sagen wir kennen die Eigenheiten der CPU sehr gut. Das Problem beim OC des 9900K ist definitiv der AVX Workload. Läst man AVX komplett weg kommt man schon wesentlich höher als mit AVX. Der KS ist von Intel mit 5Ghz AVX spezifiziert und SL erhöht diesen nicht. 5,2 Ghz - AVX Offset von 2 sind genau 5Ghz. Das SL da nur 3% an CPU auf 5.2 Ghz bekommt, kann ich nicht glauben. Selbst der K machte das schon so mit, der KS ist wesentlich besser gebinnt. Im Prinzip habe ich einen besseren "K" als die 3% von "KS" von SL. Mein 9900K hat aber nur eine mittlere ASIC Quali, und ist ganz sicher kein Golden Sample.

Keine Ahnung was ich von den 3% von SL halten soll, plausibel scheint mir das nicht.

Gast
2019-11-05, 21:08:49
Vielleicht solltest du mal lesen was AMD für einen allcore Turbo verspricht. Oh wait, mit Fakten könnte man ja nicht haten. :redface:


Dummerweise schafft AMD aber auch bei Singlecore-Last nicht den angegebenen Maximal-Turbo, außer fürs Mitschreiben für Sekundenbruchteile.

Und wenn du über 80° CPU-Temperatur hast ist schon bei 4,2GHz Schluss.

Bei Intel bekommst du immer den angegebenen Turbo für die jeweils aktiven Kerne solange du unter Tjunction bist und kein Powerlimit dazwischenfunkt.

Bei AMD kannst du sogar PBO aktivieren und bekommst nicht den angeblichen maximal Turbo @ Stock.

Woher ich das weiß? Ich schreibe diese Zeilen gerade an einem Ryzen 3800X

Kulasko
2019-11-05, 21:29:17
Selbst der K machte das schon so mit, der KS ist wesentlich besser gebinnt.

Ist er das denn? Bedenke, dass die Redaktionen von Intel ausschließlich Qualification Samples und keine Retailexemplare bekommen haben.

Berniyh
2019-11-05, 21:49:41
https://nintendo.fandom.com/wiki/Spark_Man ;)

https://twitter.com/chiakokhua/status/1181577204263612417
Ok, also ist Van Gogh eine APU für eine Nintendo Konsole?

Gast
2019-11-05, 22:02:13
Das dauert alles viel zu lange bei AMD.

Wenn dann irgendwann nächstes Jahr Navi 21/22/23 oder was auch immer im Segment für Enthusiasten erscheint, dann kommt das wahrscheinlich gleichzeitig mit Nvidias 7nm Ampere auf den Markt.
Grundsätzlich nett, wenn Konkurrenz das Geschäft belebt, nur hab ich Zweifel daran, dass AMD im High-End Bereich wirklich überzeugen kann (Poor Volta, falls es jemand vergessen hat).

Was solls, abwarten und Tee trinken.

Gast
2019-11-05, 22:16:11
Die SoCs der Spielekonsolen werden gewöhnlich nicht mit in die normalen Codenamen eingeordnet - wahrscheinlich schon allein deswegen, weil es sich hier ja um mehr dreht als nur einen Grafikchip.


Das fällt genau unter die "seltenen Ausnahmen", die ich notierte.

Wenn die Konsolen im Chiplet Design könnte es doch sein...

... was spricht eigendlich gegen ein Chiplet Design?

Gast
2019-11-06, 00:35:30
Ja, leider braucht AMD zu lange... :( Ich würde gerne was anderes als Nvidia kaufen, nicht weil ich das Produkt für schlecht halte, aber sehr wohl für zu teuer. Ich hätte AMD / ATI ja seit sicher einem Jahrzehnt mal wieder eine Chance gegeben aber das was sie aktuell haben reizt mich jetzt nicht, besonders da inzwischen Raytracing ja doch in einigen Titeln zu finden ist... Jetzt überlege ich doch eine 2070 zu kaufen... Bis Mitte 2020 wollte ich nicht schon wieder warten, denn eigentlich warte ich seit der 1070 schon auf was tolles neues. Aber da VR ja auf die 970 optimiert ist, habe ich noch keinen Druck und die meisten neuen Games interessieren mich eh nicht. Metro Exodus kommt eh erst nächstes Jahr auf Steam, bis dahin könnte ich also noch getrost warten. ;)

Leonidas
2019-11-06, 03:12:41
Auch die PS4 APU hat z.B. eine PCI ID :
https://pci-ids.ucw.cz/read/PC/1002/9920
Nennt sich Liverpool. Ähnlich kann ich mir die Nennungen für die 3 Navi Chips vorstellen.
Aber egal - wir werden sehen was das wird.
EDIT: Und wenn die PS5/XBOXen auf einem Linux-Derivat als OS aufsetzen erklärt das relativ simpel das auftauchen der IDs in Linuxtreibern


Ich meinte das in diesem Sinne: Werden nichts als "Navi 2X" auftauchen - sondern mit eigenen, abweichenden Codenamen.




Wenn die Konsolen im Chiplet Design könnte es doch sein...
... was spricht eigendlich gegen ein Chiplet Design?


Ich denke, selbst dann gibt man dem Ding einen eigenen Codenamen - und benutzt nicht die Codenamen des PC-Bereichs.

Und was spricht gegen ein Chiplet-Design? Wahrscheinlich, das man ja sowieso den Grafikchip extra macht, insofern lohnt es sich nicht, da nicht gleich die CPU dranzuklatschen. Chiplets lohnen sich nur, wenn man sich grundsätzlich auf das beschränkt, was man sowieso im Chip-Portfolio hat. Muß man irgendwas extra designen, lohnt monolitisch wieder besser. Davon abgesehen will AMD sicherlich nicht gegen 2027 noch Zen-2-Chiplets herstellen müssen, nur weil jene für die dann auslaufenden Spielekonsolen gebraucht werden.





Keine Ahnung was ich von den 3% von SL halten soll, plausibel scheint mir das nicht.


Wenn Du es so sagst, kommt mir es auch immer mehr spanisch vor.

Berniyh
2019-11-06, 07:04:12
Wahrscheinlich, das man ja sowieso den Grafikchip extra macht, insofern lohnt es sich nicht, da nicht gleich die CPU dranzuklatschen.
Das kostet aber ordentlich Fläche und reduziert unter Umständen den Yield.
Eigentlich bringt das Chiplet Design an der Stelle nur Vorteile, zumal man nur die Bereiche redesignen und neu fertigen muss die es benötigen und den Rest aus der laufenden Produktion nehmen muss.

Als Nachteil besteht doch eigentlich nur die Latenz und ggf. das komplexere Packaging.
Chiplets lohnen sich nur, wenn man sich grundsätzlich auf das beschränkt, was man sowieso im Chip-Portfolio hat.
Ich verstehe nicht wieso. Gerade mit Chiplets ist doch das viel einfacher, da man einzelne Bereiche redesignen kann ohne die anderen signifikant zu beeinflussen.
Davon abgesehen will AMD sicherlich nicht gegen 2027 noch Zen-2-Chiplets herstellen müssen, nur weil jene für die dann auslaufenden Spielekonsolen gebraucht werden.
Das Argument verstehe ich nicht. Wieso macht das jetzt einen großen Unterschied, ob man 2027 noch Zen 2 Chiplets und Navi Chiplets für die Konsole fertigt oder einen kompletten Chip für die Konsole?
Beides will man ja eigentlich nicht haben, aber letztendlich macht es doch keinen sonderlich großen Unterschied ob das eine oder das andere?

Leonidas
2019-11-06, 09:04:33
Also flächenmäßig ist der Monolit immer im Vorteil: Es ist nur das drin, was man wirklich wollte. Yield ist schlechter, ergibt sich aber mit der Zeit - bei so einem langlaufenden Projekt interessiert der Yield nur am Anfang.

Wenn Du sagt, mit Chiplets würde man einzelne Bereiche redesignen, dann gehst Du weg vom Vorteil der Chiplets - weil das werden dann extra Chips, die extra aufgelegt werden, da kann man die dann auch gleich monolitisch machen. Chiplet macht nur Sinn, wenn alle benötigten Bauteile schon da sind man sie nur neu kombiniert.

Nur einen Konsolen-SoC im Jahr 2027 herzustellen statt einem Zen-2-Chiplet halte ich schon für vorteilhaft. Den Konsolen-SoC kann man inzwischen 2x schrumpfen, das Chiplet wird eigentlich nicht als geschrumpft benötigt, da es im PC-Bereich längst ersetzt wurde.

Gast Ritis
2019-11-06, 11:52:07
Poor Volta, falls es jemand vergessen hat
Man kann nicht abstreiten, dass Volta letztlich nicht in den Konsumermarkt gekommen ist, sondern erst eine Weiternetwicklung bzw. angepasste Alternative.


Das fällt genau unter die "seltenen Ausnahmen", die ich notierte.

Die Aussage geht dahingegen falsch, dass AMD gänzlich Treiber für Gaming nachrüsten müsste und deshalb keine dual GPUs für Gamer sinnvoll sind.

AMD hat mit Vulkan und DX12 damals klar gemacht hat, dass man AFR als Crossfire nicht mehr im Treiber optimiert. Schliesslich war das Ziel Vulkan und DX12 zu pushen und nicht die veraltete Technik.
Und genau seit dem hat AMD mit diversen Entwicklern für Multi-GPU unter DX12 und Vulkan optimiert und das wurde jeweils im Marketing sehr deutlich herausgestellt.

Deshalb ist Multi-GPU für AMD eben nicht so tot wie es dargestellt wird. Auch Stadia kann wohl die versprochenen 4k nur mit Mulit-GPU anbieten.
Ich sehe das eher als eine Frage der Zeit bis die alten API-Zöpfe abgeschnitten sind. Stadia kann bei AAA den Weg bahnen, sofern es erfolgreich wird. Im Sommer wissen wir mehr...

Gast
2019-11-06, 14:03:37
Wenn Du sagt, mit Chiplets würde man einzelne Bereiche redesignen, dann gehst Du weg vom Vorteil der Chiplets - weil das werden dann extra Chips, die extra aufgelegt werden, da kann man die dann auch gleich monolitisch machen. Chiplet macht nur Sinn, wenn alle benötigten Bauteile schon da sind man sie nur neu kombiniert.

Nur einen Konsolen-SoC im Jahr 2027 herzustellen statt einem Zen-2-Chiplet halte ich schon für vorteilhaft. Den Konsolen-SoC kann man inzwischen 2x schrumpfen, das Chiplet wird eigentlich nicht als geschrumpft benötigt, da es im PC-Bereich längst ersetzt wurde.
Du verstehst den Ansatz glaube ich nicht: Bei einem Chiplet kann man geziehlt einzelne Chips redesignen oder shrinken. Beim Monolithen muss man zwangsweise auch Chipteile redesignen/shrinken, die kaum von der teureren/kleineren Fertigung profitieren, denn diese müssen auch für die bessere Fertigung angepasst werden. Bei einem Chiplet kann man geziehlt einzelne Bereiche überarbeiten, z.B. den IO Die weiterhin in 12nm fertigen, die Zen2 Kerne in 7nm und die GPU von 7nm auf 5nm shrinken, um den Verbrauch zu senken (z.B. neue Konsolen Revision mit kleinerem Gehäuse).
Im Chiplet fall muss dann nur die GPU geshrinkt werden, beim Monolithen alles. Das kostet viel mehr Entwicklungsaufwand. Will man für eine neue Konsolen Revision z.B. einen besseren Video Decoder oder ein neues HDMI Interface, ist der Aufwand auch auf die GPU beschränkt, statt auf den kompletten Chip.

Bei den ZEN2 Chiplets muss AMD sowieso für die Ryzen Pro und EPICs relativ lange Chiplets verfügbar halten. Die könnte man dann auch für die Konsolen verwenden. Kann durchaus sein dass man die GPU Chiplets auch im Embedded verwendet, dann haben die auch lange Lebensdauer. Schrumpfen kann man die Chiplets natürlich trotzdem. Da man nicht alle Chips schrumpfen muss (wie eben z.B. den IO Die), spart man hier sogar gegenüber dem Monolithen Entwicklungskosten.

Ich sehe aktuell keinen Vorteil eines Monolithen außer es geht um den minimalen Verbrauch oder die minimale Baugröße (beides nicht in Konsolen nötig).

Gast
2019-11-07, 00:18:42
... was spricht eigendlich gegen ein Chiplet Design?

Eigentlich alles.

Der einzige Vorteil von Chiplets sind die Kosten, und da vor allem die Entwicklungskosten.

Die Entwicklungskosten werden aber immer weniger wichtig, je höher die Stückzahlen für ein Design sind und je länger dieses läuft.

Bei den Herstellungskosten ist es nicht mehr so eindeutig.

Chiplets können zwar zu besserem Yield führen. Dafür ist allerdings das Packaging aufwändiger und damit teurer, die Kühlung schwieriger.
Es wird auch insgesamt etwas mehr Silizium für ein Multi-Die-Design als für ein Monolithisches gebraucht, bei großen Dies sollte sich das aber durch geringeren Verschnitt am Wafer wieder ausgleichen.

Der Stromverbrauch eines Chiplet-Designs ist ebenfalls höher, Latenzen und damit allgemein die Performance schlechter.

AMD selbst hat indirekt ja auch schon gesagt, dass sich ein Chiplet-Design aktuell für APUs nicht auszahlt, da ist es relativ unwahrscheinlich, dass die Konsolen-SOCs derartig designt werden.

Der Hauptgrund für Chiplets bei AMD ist, dass man sehr einfach von 8 bis 64 Kernen skalieren kann.

Zumindest bei den 8 Kern CPUs dürfte hier kaum ein Vorteil der Herstellungskosten vorhanden sein, wenn es nicht sogar teurer ist, je nach dem wie gut der Yield der 7nm-Fertigung bereits ist.

Leonidas
2019-11-07, 03:48:09
Beim Monolithen muss man zwangsweise auch Chipteile redesignen/shrinken, die kaum von der teureren/kleineren Fertigung profitieren, denn diese müssen auch für die bessere Fertigung angepasst werden.




Guter Punkt, habe ich bisher nicht bedacht. Ich vermute allerdings, der insgesamte Vorteil des Monolithen ist höher. AMD will sicherlich im Jahr 2027 keine 4-6 Chips nur für die Konsolen pflegen, sondern nur 2 (für jede Konsole einen).

Gast
2019-11-07, 07:52:56
AMD will sicherlich im Jahr 2027 keine 4-6 Chips nur für die Konsolen pflegen, sondern nur 2 (für jede Konsole einen).
Was spricht denn dagegen, ein Chiplet zu pflegen?. Für Sony und MS das selbe Chiplet verwenden, welches auch für die Ryzen Pro vorgehalten wird...

@Gast:
Bezüglich Stromverbrauch, Latenzen und das letzte Stückchen an Performance:
Ob die jetzt 5W mehr verbraucht oder nicht macht kaum was aus und man kann ja wohl kaum behaupten, dass Ryzen3000 als Chiplet Design für Spiele ungeeignet ist (wegen schlechter Latenzen und generell niedrigerer Preformance). Das sehe ich nicht als Hinderniss.
Mehr Silizium ist klar, dafür aber in angepassten Fertigungsgrößen. AMD fertigt nicht umsonst den IO Die in 12nm. In 7nm wäre er kaum kleiner, aber viel teurer. Beim Monolithen sieht das ähnlich aus. Den IO Bereich bräuchte man trotzdem, dann aber in teurer Fertigung. Das gleicht das aufwändigere Packaging wieder etwas aus.
Generell würde man bei dem Ansatz natürlich auch deutlich höhere Stückzahlen in Chiplets fertigen, das würde die Kosten für's Packaging drücken und die Erfahrungen in dem Bereich steigern. Wenn man in Zukunft weiterhin auf Chiplets setzen will, wäre das quasi eine Investition in die Zukunft.
Sicherlich ist auch ein Monolith denkbar, aber gerade was Erfahrungsaufbau und Weiterentwicklung im Bereich Chiplet angeht, wäre es wohl sinnvoll, diesen Weg zu gehen.

Gast
2019-11-07, 19:09:20
Was spricht denn dagegen, ein Chiplet zu pflegen?. Für Sony und MS das selbe Chiplet verwenden, welches auch für die Ryzen Pro vorgehalten wird...

@Gast:
Bezüglich Stromverbrauch, Latenzen und das letzte Stückchen an Performance:
Ob die jetzt 5W mehr verbraucht oder nicht macht kaum was aus und man kann ja wohl kaum behaupten, dass Ryzen3000 als Chiplet Design für Spiele ungeeignet ist (wegen schlechter Latenzen und generell niedrigerer Preformance).


Bei Ryzen 3000 gibt es aber keine GPU. Für eine GPU braucht es bedeutend höhere Bandbreiten, insbesondere wenn es eine Spieletaugliche sein soll und keine einfacher IGP. Damit wird das Power-Penalty bedeutend höher.

Ein Design basierend auf 3 Chiplets, IO, Compute und GPU kann man eigentlich zu 100% ausschließen. Denkbar wäre evtl einen Compute Die und einen kombinierten IO-GPU Die. Nachdem man aber die GPU wohl sicher in 7nm fertigen will, heißt das zwangsweise auch IO in 7nm
Das sehe ich nicht als Hinderniss.


Mehr Silizium ist klar, dafür aber in angepassten Fertigungsgrößen. AMD fertigt nicht umsonst den IO Die in 12nm. In 7nm wäre er kaum kleiner, aber viel teurer.
Siehe oben, extra GPU DIE wäre zu stromfressend, und was spart man noch großartig wenn man mehrere DIEs in 7nm fertigen muss.


Generell würde man bei dem Ansatz natürlich auch deutlich höhere Stückzahlen in Chiplets fertigen, das würde die Kosten für's Packaging drücken und die Erfahrungen in dem Bereich steigern.

Stückzahlen drücken nur die Fixkosten pro Stück, die variablen Kosten, und damit jene fürs Packaging bleiben erhalten.

Chiplets drücken in erster Linie die Fixkosten und nicht unbedingt die variablen Kosten. Bei hohen Stückzahlen spielen die Fixkosten aber keine große Rolle mehr.

Gast
2019-11-08, 11:34:56
Bei Ryzen 3000 gibt es aber keine GPU. Für eine GPU braucht es bedeutend höhere Bandbreiten, insbesondere wenn es eine Spieletaugliche sein soll und keine einfacher IGP. Damit wird das Power-Penalty bedeutend höher.
Der IO Die von Ryzen 3k war nur ein Beispiel. Der müsste sowieso mit GDDR umgehen können, das ist bei dem von Ryzen3k nicht der Fall.

Ein Design basierend auf 3 Chiplets, IO, Compute und GPU kann man eigentlich zu 100% ausschließen. Denkbar wäre evtl einen Compute Die und einen kombinierten IO-GPU Die. Nachdem man aber die GPU wohl sicher in 7nm fertigen will, heißt das zwangsweise auch IO in 7nm
Das sehe ich nicht als Hinderniss.
Dann würde Chiplet wiederum keinen Sinn machen. Denn damit hätte man den Vorteil der Wiederverwendbarkeit und der unterschiedlichen Fertigungsmethoden verloren.

Stückzahlen drücken nur die Fixkosten pro Stück, die variablen Kosten, und damit jene fürs Packaging bleiben erhalten.
Wieso sind die Packaging Kosten nur variable Kosten? Wäre wohl der einzige Schritt in der Fertigungskette, der nur variable Kosten hat... Da hat man natürlich auch variable Kosten.

Nur um das klarzustellen: Ich will lediglich sagen, dass man Chiplet nicht einfach ausschließen sollte. Das heißt noch lange nicht, dass ich mir nicht auch vorstellen kann, dass es ein Monolith wird.

Gast
2019-11-08, 18:48:07
Der IO Die von Ryzen 3k war nur ein Beispiel. Der müsste sowieso mit GDDR umgehen können, das ist bei dem von Ryzen3k nicht der Fall.


Darum geht es nicht. Es macht einen riesigen Unterschied im Verbrauch ob 100GB/s, 500GB/s oder 1TB/s zwischen den Chiplets bewegen musst.

Die Kosten pro übertragenem Bit sind einfach viel höher. Bei CPUs spielt das keine so große Rolle, weil der Anteil des Datentransportes am Gesamtverbrauch eher gering ist.

Bei GPUs ist das ganz anders, da benötigst du Bandbreiten in Größenordnungen von Faktor 10 oder höher, mehr als bei einer CPU.

Was Nvidia GPUs ab Maxwell so effizient macht ist die Minimierung des nötigen Datentransportes über größere Strecken.


Dann würde Chiplet wiederum keinen Sinn machen. Denn damit hätte man den Vorteil der Wiederverwendbarkeit und der unterschiedlichen Fertigungsmethoden verloren.

Eben, darum machen Chiplets für die Konsolen-SoCs auch keinen Sinn.
Ein extra GPU Chiplet mit zentralem IO würde den Verbrauch in die Höhe treiben, und ein kombiniertes IO/GPU-Chiplet würde bedeuten, dass man für IO keine günstige ältere Fertigungsvariante verwenden kann.

Außer natürlich man verabschiedet sich wieder vom SoC-Gedanken und baut beispielsweise ein GPU-Chiplet dezidiertem HBM-Speicher + CPU + IO-Chiplet für den Systemspeicher und den ganzen Rest auf ein Substrat.

Das würde noch Sinn machen, wäre aber wohl deutlich teurer als ein einziger monolithischer DIE.


Wieso sind die Packaging Kosten nur variable Kosten? Wäre wohl der einzige Schritt in der Fertigungskette, der nur variable Kosten hat... Da hat man natürlich auch variable Kosten.

Die gesamte Fertigungskette besteht hauptsächlich aus variablen Kosten.
X Dies auf ein Package zu kleben wird immer mehr oder weniger gleich viel kosten. Das PCB für so ein Multi-Die-Package wird auch immer gleich aufwändig sein, egal wie viele du davon herstellst (wenn wir mal von einer gewissen Mindeststückzahl ausgehen, die mit Konsolen garantiert erreicht werden)


Was du mit Chiplets einsparen kannst ist R&D für die einzelnen DIEs, was jetzt bei großen Stückzahlen kein so großer Brocken ist, besonders wenn du pro Konsole nur 1 DIE benötigst.


Nur um das klarzustellen: Ich will lediglich sagen, dass man Chiplet nicht einfach ausschließen sollte. Das heißt noch lange nicht, dass ich mir nicht auch vorstellen kann, dass es ein Monolith wird.

Ganz ausschließen kann man es natürlich nicht, aber es ist schon sehr unwahrscheinlich.

Das Chiplets für die Konsolen Sinn machen müsste das einzelne DIE schon verdammt groß werden.