PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 20. März 2019


Leonidas
2019-03-21, 11:43:11
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-20-maerz-2019

Milchkanne
2019-03-21, 12:34:19
Wenn eine CPU mehrere GPUs versorgt ist vor allem spannend, wie das mit dem Speicher gelöst ist. Das soll ja shared HBM sein. Bei APUs wäre das noch einfach vorstellbar gewesen. Bei so einem System wirds schon komplizierter. Ist die CPU dann direkt an z.B. 4x16GB HBM angebunden oder hat die ein paar GB DDR4 für den Hypervisor und jede GPU hat dann dedizierten Speicher, die dann schnell an nur an einen CCX angeschlossen ist?

Gast Ritis
2019-03-21, 12:34:36
Wilde Spekulationen sollte man am besten von neuen Fakten klar trennen, am besten durch die Aufteilung in Absätzen.

Die 250W GPU sind doch wohl komplett aus der Luft gegriffen? Und eigentlich auch unrealistisch hoch für einen guten Business-Case.
Mit einem Vega1 in 7nm wäre das viel viel weniger. Bei dem AMD gepolter um neue 7nm Starts ist jedes neue Design grösser 7nm eher unwahrscheinlich.

Im letzten Artikel war auch vom kompletten PC geschrieben worden. Das ist doch gar nicht der Fall? Mit AMDs Virtualisierung in Vega kann das auch ein reserviertes PC Äquivalent auf einer sonst völlig virtuellen Cloud-Struktur sein, dimensioniert nach den jeweiligen Anforderungen.
Mit Elastic kontakariert Google die Aussagen zu den HW-Specs. Am Ende vielleicht nicht mehr als eine Minimum-Spec für den Anfang?

1 EPYC mit 8 Vegas ist die Plattform, die AMD in Cloud-Compute vorgestellt hat. Ähnliches könnte auch mit Xeons möglich sein, Google würde die PCIe Lanes sicher nicht so teuer bezahlen müssen wie der Rest der Welt.

Mit Vulkan wurde auch längst bewiesen, dass es hochtaktende CPUs gar nicht benötigt. Man muss halt den alten DualCore DX11 Code wegwerfen und ordentlich neu machen. Der Sweet-Spot in der Effizienz heutiger Chiptechnologie liegt eigentlich noch immer unter 3GHz. Siehe Konsolen, siehe Server. Lieber ein, zwei Kerne mehr als +500MHz mit zu viel Volt. Ich bin mir ziemlich sicher auch Google hat die Energieeffizienz und Flexibilität ganz oben auf der Kriterienliste.

Ein Knaller wäre natürlich Google würde nen China-x86 einsetzen, nur mal so um die Spekulationen voran zu treiben ;D

GSXR-1000
2019-03-21, 12:39:46
Ganz ehrlich, ich tue mir bisweilen sehr schwer damit, solche reinen Speku Artikel auf der Haupseite zu lesen. Vor allem wenn sie mit solchem Brustton der Überzeugung rausgehauen werden und zum Teil Schlüsse enthalten, die Ausschliesslich in der Annahme des Autors liegen, aber keineswegs objektivierbar sind.

Wie Gross die server am Ende sind, mit welcher Corezahl und mit welcher Anzahl Grafikbeschleuniger ist in keinster Weise vorherzusehen, einfach schon deshalb, weil man ja nichtmal die angedachte Infrastruktur vorherahnen kann, ja nichtmal das verwendete Ökosystem.
Es ist durchaus denkbar, das man einen vollkommen anderen Ansatz als bei herkömmlichen Systemen nimmt und rein auf many cores setzt. Auch ist die potentielle Bandbreite bei den Grafikbeschleunigern viel höher, da eben mit einer Bildberechnung eben nicht die dezidierte Ausgabe über einen Videoausgang verbunden ist und somit die reine Rechenpower viel flexibler und effizienter nutzbar ist.
Es ist durchaus denkbar das man sogar deutlich weniger Grafikbeschleunigerunits im Rack hat als virtuelle Server laufen.

Und eine Aussage wie diese: "Ob Stadia so aufgebaut ist, muß Google natürlich trotzdem eines Tages noch offenlegen", bitte, woher nimmt der Autor diese Weisheit???? Wieso MUSS Google das NATÜRLICH offenlegen? Ich sehe keinen Grund, aus welchem Google, die Serverinfrastruktur en detail offenlegen müsste. Im gegenteil, spricht vieles dafür das nicht zu tun. Zumal es auch für niemanden eine Rolle spielt, da in diesem Anwendungsfalle schlicht das gelieferte Ergebnis relevant ist, nicht dessen Zustandekommen.

Milchkanne
2019-03-21, 13:07:26
Wieso MUSS Google das NATÜRLICH offenlegen?
Frage ich mich auch. Ich könnte mir einzig vorstellen, dass Entwickler auch Dev-Kits bekommen können und von da leakt dann mal einer, wie die aussehen. Sowieso werden (große) Entwickler schon andere Informationen bekommen können. Aber so offiziell muss Google nichts offenlegen.

Zossel
2019-03-21, 20:31:47
Frage ich mich auch. Ich könnte mir einzig vorstellen, dass Entwickler auch Dev-Kits bekommen können und von da leakt dann mal einer, wie die aussehen. Sowieso werden (große) Entwickler schon andere Informationen bekommen können. Aber so offiziell muss Google nichts offenlegen.

Warum sollte google aus der Entwicklung ein Geheimnis machen? Damit es weniger Entwickler für die Plattform gibt?

GSXR-1000
2019-03-21, 22:25:37
Warum sollte google aus der Entwicklung ein Geheimnis machen? Damit es weniger Entwickler für die Plattform gibt?
War das die Frage? Leos Aussage war exakt folgende: "Ob Stadia so aufgebaut ist, muß Google natürlich trotzdem eines Tages noch offenlegen"

Sprich es wird eine natuerliche und unausweichliche Zwangshandlung suggeriert. die sehe ich nicht.
Und für welche "Plattform" sollen "Entwickler" genau entwickeln? Ich habe bisher nicht wirklich rausgehört, das "speziell durch entwickler angepasste" Versionen laufen sollen?
Wenn das der Fall wäre, wäre das ein absoluter weiterer Hemmschuh eines solchen Angebots.
Aber wo genau steht das?

Leonidas
2019-03-22, 05:13:35
Vorab: Ich hab es nochmal verbildlicht, wie ich mir das (als Hypothese!) vorstelle:

https://www.3dcenter.org/dateien/abbildungen/Google-Stadia-Hardware.png

Kriegsgeier
2019-03-22, 06:52:06
Im Endeffekt müssen wir uns einfach von der Vorstellung verabschieden, dass es bei STADIA um diskretaufgebaute Grafikkarten handelt.
Es wird wohl eine Rack-Platine sein, die auf einer Seite CPUs Sokel samt Speicher und SSDs beherbergt und die andere Seite der Platine einfach mit RADEON 7 Chips samt 16 GB HBM2 bestückt ist.
Alles wird schön mit einheitlichen Wassekühlung gekühlt...

Wie gesagt sehr wahrscheinlich 1-Platinen-Lösung ohne Steckbare physische GraKas...

Leonidas
2019-03-22, 07:25:44
Denke ich auch. Es könnten trotzdem diskrete Grafikkarten sein, muß es aber nicht. Wichtig ist die weitgehende Systemintegration und der ManyCore-Ansatz der CPU.

Zur den vorstehenden Anmerkungen: Ich sehe da leider nicht, das dies nicht ausreichend als Hypothese gekennzeichnet wäre. Was anderes als eine Hypothese wollte ich auch nie ausdrücken.

Gast
2019-03-22, 07:26:18
Es tut einem ja richtig in den Augen weh, wie viele das/dass Fehler in den News auftreten. Kann es sein dass der der Autor das ganz bewusst einfach missachtet? Quasi ein "dass-Leugner" :)

GSXR-1000
2019-03-22, 07:46:37
Denke ich auch. Es könnten trotzdem diskrete Grafikkarten sein, muß es aber nicht. Wichtig ist die weitgehende Systemintegration und der ManyCore-Ansatz der CPU.

Zur den vorstehenden Anmerkungen: Ich sehe da leider nicht, das dies nicht ausreichend als Hypothese gekennzeichnet wäre. Was anderes als eine Hypothese wollte ich auch nie ausdrücken.
Ein solcher Systemaufbau, beispielhaft für nur 4 Instanzen (ich glaube im übrigen das einzelne Racks deutlich mehr instanzen beheimaten werden, was über loadbalancing mit speziell hierfür aufgebauter Hardware ziemlich einfach sein duerfte). wäre absolut zu teuer, platzverschwendend und extrem ineffizient.
Aus welchem Grund sollte irgendwer bei dieser Anforderung auf die idee kommen, herkömmliche diskrete Grafikkarten zu verwenden? Auch auf der Grafikchipseite wird man ggf many cores Lösungen suchen. Denn die komplette Ausgabeeinheit einer diskreten Graka wäre verschwendung. Eine Graka in einem solchen Setup ist ausschliesslich zum Rechnen da. Um auch hier load balancing zu nutzen macht es absolut sinn auch hier speicheranbindung, Menge und Chipsatzanbindung flexibel zu teilen.
Ich weiss nicht, welche Vorstellung du davon hast, aber aus meiner Sicht wäre ein solcher Ansatz den du vorstellst für ein solches Problem der denkbar ineffizienteste Weg.

Gast
2019-03-22, 08:54:07
Es tut einem ja richtig in den Augen weh, wie viele das/dass Fehler in den News auftreten. Kann es sein dass der der Autor das ganz bewusst einfach missachtet? Quasi ein "dass-Leugner" :)

Ich suche immer noch den semantischen Unterschied zwischen "das" und "daß", kannst du mir bei der Suche helfen?

Milchkanne
2019-03-22, 10:57:38
Vorab: Ich hab es nochmal verbildlicht, wie ich mir das (als Hypothese!) vorstelle:

https://www.3dcenter.org/dateien/abbildungen/Google-Stadia-Hardware.png

Es sollte doch aber Shared HBM Speicher sein. Also dass die Spiele Instanz keinen DDR4 Speicher hat. Für den Hypervisor ist sicherlich auch normaler RAM dabei. Aber der Game Speicher wird sicherlich nicht per PCIe angebunden sein. Vielleicht ist auch einfach die Annahme falsch, es wäre geteilter Speicher und es sind in Wirklichkeit 8GB HBM + 8GB DDR4 Speicher...


*edit* Normale SSDs... einerseits würde ich erwarten, dass die wenig lokalen Speicher haben und alles aus dem Storage System kommt. Andererseits kann es schon synergieeffekte geben, wenn auf so einem System 4x das gleiche Spiel läuft (plus x mal noch Minesweeper, falls das Spiel nicht so anspruchsvoll ist). Dann kann es schon Sinn machen, die Daten auf ner SSD zwischenzuparken.

Rabiata
2019-03-22, 21:51:57
Ein solcher Systemaufbau, beispielhaft für nur 4 Instanzen (ich glaube im übrigen das einzelne Racks deutlich mehr instanzen beheimaten werden, was über loadbalancing mit speziell hierfür aufgebauter Hardware ziemlich einfach sein duerfte). wäre absolut zu teuer, platzverschwendend und extrem ineffizient.
Aus welchem Grund sollte irgendwer bei dieser Anforderung auf die idee kommen, herkömmliche diskrete Grafikkarten zu verwenden? Auch auf der Grafikchipseite wird man ggf many cores Lösungen suchen. Denn die komplette Ausgabeeinheit einer diskreten Graka wäre verschwendung. Eine Graka in einem solchen Setup ist ausschliesslich zum Rechnen da. Um auch hier load balancing zu nutzen macht es absolut sinn auch hier speicheranbindung, Menge und Chipsatzanbindung flexibel zu teilen.
Ich weiss nicht, welche Vorstellung du davon hast, aber aus meiner Sicht wäre ein solcher Ansatz den du vorstellst für ein solches Problem der denkbar ineffizienteste Weg.
Aber ob das Projekt groß genug angelegt ist, um die Entwicklung eines extra Chipdesigns aus AMDs Semi-Custom-Sparte finanziell zu rechtfertigen?

Daß AMD so etwas kann haben sie mit den Chips für PS4 und XBOx One gezeigt, aber die haben auch entsprechende Stückzahlen. Bei Stadia vermute ich eher daß Leo hier richtig liegt und es sich um geringfügig angepaßte Vegas handelt. Die alte Vega 56 vermutlich, die Vega VII dürfte zu teuer sein.
Als Anpassungen könnte ich mir vorstellen

daß die Karte etwas untertaktet und undervolted wird, das spart Energie und erlaubt eine billigere Kühlerkonstruktion
daß die Grafikausgänge stark dezimiert oder ganz abgeschafft werden. Maximal noch eine Buchse. Spart auch noch etwas Geld
Edit: Kriegsgeier könnte mit seiner Idee auch recht haben, daß alles auf einer Platine sitzt. An Vega VII-GPUs mit 16 GB glaube ich aber nicht.

Als CPU könnte ich mir einen der billigeren Epycs vorstellen, aber da will ich jetzt nicht nach dem passenden Modell googeln.

Lehdro
2019-03-22, 23:12:49
Bei Stadia vermute ich eher daß Leo hier richtig liegt und es sich um geringfügig angepaßte Vegas handelt. Die alte Vega 56 vermutlich, die Vega VII dürfte zu teuer sein.
Als Anpassungen könnte ich mir vorstellen

daß die Karte etwas untertaktet und undervolted wird, das spart Energie und erlaubt eine billigere Kühlerkonstruktion
daß die Grafikausgänge stark dezimiert oder ganz abgeschafft werden. Maximal noch eine Buchse. Spart auch noch etwas Geld
Edit: Kriegsgeier könnte mit seiner Idee auch recht haben, daß alles auf einer Platine sitzt. An Vega VII-GPUs mit 16 GB glaube ich aber nicht.


Schau mal hier: https://www.amd.com/de/products/professional-graphics/radeon-pro-v340

Dürfte alle Checkboxen erfüllt haben + krasser Mengenrabatt.

Rabiata
2019-03-22, 23:39:32
Schau mal hier: https://www.amd.com/de/products/professional-graphics/radeon-pro-v340

Dürfte alle Checkboxen erfüllt haben + krasser Mengenrabatt.
Wird krassen Mengenrabatt auch brauchen um überhaupt interessant zu werden. Viele Preisangaben gibt es nicht im Netz, aber bei HP kostet sie über 11000 Dollar (https://www.connection.com/product/hpe-amd-radeon-pro-v340-pcie-3.0-graphics-card-32gb-hbm2/q0y81a/36223951) :freak:

Lehdro
2019-03-23, 01:53:43
Wird krassen Mengenrabatt auch brauchen um überhaupt interessant zu werden. Viele Preisangaben gibt es nicht im Netz, aber bei HP kostet sie über 11000 Dollar (https://www.connection.com/product/hpe-amd-radeon-pro-v340-pcie-3.0-graphics-card-32gb-hbm2/q0y81a/36223951) :freak:
Naja, sagen wir mal so: Bei AMDs Teaser zu Googles "Project Stream", nun STADIA, der von Lisa Su selber gehalten wurde, wurde explizit von einer Radeon Pro gesprochen die quasi 100% identisch zur v340 aussieht.

https://cdn57.androidauthority.net/wp-content/uploads/2019/01/amd-project-stream.jpg

e: Knaps 8 GB HBM ab um Kosten zu sparen:

https://www.youtube.com/watch?v=jRCGsZCYowg

Egal was man von Adored hält, interessante Sichtweise die er da hat. Mal sehen wie das ganze in der Praxis von Google umgesetzt wird.

Leonidas
2019-03-23, 06:54:44
Laut HardOCP hat AMD schon gesagt, das es keine AMD-CPU wird:
https://www.hardocp.com/news/2019/03/22/amd_confirms_stadia_will_run_on_intel_cpus/

Ich vermutet etwas im Rahmen von Cascade Lake AP.

Lehdro
2019-03-23, 11:08:58
Laut HardOCP hat AMD schon gesagt, das es keine AMD-CPU wird:
https://www.hardocp.com/news/2019/03/22/amd_confirms_stadia_will_run_on_intel_cpus/

Ich vermutet etwas im Rahmen von Cascade Lake AP.
In den YT Untertiteln des Videos steht doch auch das es eine Intel CPU wird:

https://abload.de/img/intelcpu08jub.jpg

Gast
2019-03-23, 13:21:16
In den YT Untertiteln des Videos steht doch auch das es eine Intel CPU wird:


Das hat man auch mit einem kleinen Detail innerhalb der Folien schon indirekt bestätigt.

Hier steht unter CPU das Detail "Hyperthreaded".
Hyperthreading ist eine Intel-Markenbezeichnung für SMT. Wäre es also keine Intel-CPU würde Google damit eine Markenrechtsverletzung begehen.

Auch der Rest ist, wenn man auf die genaue Wortwahl achtet, ganz interessant.
Nachdem es definitiv getrennte CPUs und GPUs sind (vermutlich sogar von verschiedenen Herstellern) kann man eigentlich unified memory mit ziemlicher Sicherheit ausschließen.

Die 16GB total RAM dürften also der RAM von GPU und CPU sein, vermutlich 8 + 8 GB. Gleiches gilt für die Bandbreite, hier dürfte man jene von GPU und CPU einfach addiert haben, deshalb auch das "up to". Das würde auch zu Vega56 passen der ja alleine "nur" ~410GB/s hat. Klar könnte man höher getakteten HBM verwenden, ich vermute aber stark, dass der Rest zu den 484GB/s die CPU-Bandbreite darstellt.

Die GPUs dürften also ganz "normale" Vega56 sein, wahrscheinlich mit etwas angepassten Powertarget/Taktraten (wobei hier evtl. die Taktraten Priorität haben), und ohne Display-Ausgänge.

Interessant auch, dass bei der GPU einfach nur die Leistungswerte stehen, während bei der CPU "Custom x86 Processor" steht.

Vermutlich sind die Grafikkarten also wirklich "von der Stange", und nur die CPUs eine extra Entwicklung.

Man könnte jetzt noch ein wenig weiter über die Angaben von 9,5MB L2+L3 Cache spekulieren.

Wenn der Rest der Memory-Angaben tatsächlich die Kombination von von CPU + GPU sind liegt es natürlich nahe, dass dies für den Cache genauso gilt.

Wenn die Custom x86-CPU nun aus der Intel-Server-Sparte stammt würde das 0,5MB L2 + 1,375MB L3 pro Kern bedeuten.

Die Vega-GPU besitzt 4MB L2.

Mit 3 solchen CPU-Kernen würde man auf 5,625 MB für die CPU kommen + 4MB von der Vega wären jetzt zwar ein wenig zu viel, aber da es mit nur 56 CUs es sich schon um eine teildeaktivierte GPU handelt, könnte natürlich auch ein Teil vom L2 Cache deaktiviert sein.

Eine andere Variante wäre natürlich, da es sich um eine Custom-CPU handelt, dass hier die Cachekonfiguration angepasst wurde.

Damit wäre eine Stadia-Instanz also grob 3 Intel-Kerne + eine Vega56 mit 8 + 8 GB RAM.

Das klingt jetzt auf CPU-Seite, gerade mit nur 2,7GHz zwar etwas wenig, würde aber meiner Meinung durchaus passen weil:

- Die CPU-Leistung ist ausreichend, mehr CPU-Leistung braucht es nur für High-FPS-Gaming, nachdem man durch das Streaming aber schon auf 60FPS limitiert ist, ist mehr CPU-Leistung nicht notwendig.
- Es handelt sich hier um die Leistung die eine einzelne Stadia-Instanz zur Verfügung hat, also das Spiel vollkommen exklusiv, ohne es sich mit einem Betriebssystem/Hypervisor zu teilen.
- Wie Google bereits gezeigt hat, können mehrere Stadia-Instanzen kombiniert werden falls mehr Leistung benötigt wird. Nachdem hier die Granularität wohl "1 Stadia-Instanz" ist, ist es sogar sinnvoll dass diese nicht zu Leistungsfähig ausfällt, um die geforderte an die benötigte Leistung besser anpassen zu können.