Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
BoMbY
2018-04-01, 21:17:33
AMD's Interface-IP-Partner Synopsys hat jedenfalls auch schon PCIe 5.0 im Programm (https://www.synopsys.com/dw/ipdir.php?ds=dwc_pcie5_phy), und irgendwomit muss man ja mal anfangen.
Der_Korken
2018-04-01, 21:17:55
Soll V20 eigentlich auch wieder nur 64 CUs haben? Für 7nm ist das doch viel zu wenig, vor allem für die angegebenen 150-300W. Die schafft auch V10 quasi schon. Ich würde eher eine Verdopplung der Shader erwarten, während man das "Gaming-Gedöns" (TMUs, ROPs, Rasterizer) vielleicht sogar gleich lässt.
TheGood
2018-04-01, 21:25:13
Warum sollen die das Teil nicht auch als High End Gaming KArte rausbringen? Spricht ja nichts dagegen....
BoMbY
2018-04-01, 21:47:38
Da es ein neuer Prozess ist, macht es IMHO Sinn nicht gleich mit einem Monster-Chip zu starten, dann sind auch die Yields besser. Abgesehen davon soll es ja auch wohl 1/2 DP-Performance bringen, was es auch für andere Aufgaben neben AI interessant macht, plus der neue Bus und verbesserterter Interconnect zwischen mehreren Karten, und das wäre auf jeden Fall ein interessantes Produkt, vor allem mit nochmals verdoppelter Speicherbandbreite.
Und es dürfte dann auf jeden Fall mehr als 30 Half/15 Single/7.5 Double TFlop/s Rohleistung bringen, da wohl auch ein höherer Takt möglich sein sollte (1850-1950 sollten wohl mind. drin sein, wenn man von max. 1750 bei Vega10 ausgeht).
Der Prozess für Vega20 ist übrigens wohl TSMC 7nm den letzten Gerüchten nach.
Locuza
2018-04-01, 21:57:03
@ Der Korken
AMD hat vermutlich selber einen halbwegs realistischen Erwartungsrahmen, wo sie V20 platzieren und wie viel sie im aktuellen Konkurrenzmarkt gewinnen können.
128 CUs kann AMD ja auch nicht einfach hinpappen, dass wären 32 CUs pro Shader-Engine wenn es bei vier bleiben würde und ob das AMD mit ihrem aktuellen Netzwerk bzw. mit dem bei Vega hinbekommt, darf eher bezweifelt werden.
Vega20 scheint eher ein überfälliger Nachfolger von Hawaii zu sein, ein Chip der mit relativ hoher FP64-Leistung gewisse Marktsegmente wieder bedienen kann.
Zusätzlich gibt es PCIe4 und xGMI, letzteres um wohl ziemlich attraktive Gesamtpakete mit Zen2 zusammen zu schnüren und vermutlich auch HPC-APUs zu realisieren, wobei hier ein relativ kleiner Chip hilft wegen der benötigten Größe vom Interposer und auch bezüglich der Ausbeute bei 7nm.
Ich denke aufgrund dessen und AMDs mangelnden Ressourcen hat man sich von Anfang an darauf beschränkt keinen Monsterchip zu bauen und bleibt bei 64 CUs wie die geleakten Folien seit letztem Jahr aufzeigen.
V20 dürfte dank 7nm immerhin höher takten, dass ist ein Problem an dem V10 leidet, obwohl das Design deutlich mehr Takt schafft als früher limitiert AMD das Energiebudget, bevor sie den oberen Taktbereich überhaupt erreichen.
Und dann muss man sich Navi anschauen, je nachdem wann dieser erscheint mag es für AMD keinen Sinn ergeben, dass Produkt auch noch für Gamer zu veröffentlichen.
Digidi
2018-04-01, 22:06:56
@ Der Korken
AMD hat vermutlich selber einen halbwegs realistischen Erwartungsrahmen, wo sie V20 platzieren und wie viel sie im aktuellen Konkurrenzmarkt gewinnen können.
128 CUs kann AMD ja auch nicht einfach hinpappen, dass wären 32 CUs pro Shader-Engine wenn es bei vier bleiben würde und ob das AMD mit ihrem aktuellen Netzwerk bzw. mit dem bei Vega hinbekommt, darf eher bezweifelt werden.
Vega20 scheint eher ein überfälliger Nachfolger von Hawaii zu sein, ein Chip der mit relativ hoher FP64-Leistung gewisse Marktsegmente wieder bedienen kann.
Zusätzlich gibt es PCIe4 und xGMI, letzteres um wohl ziemlich attraktive Gesamtpakete mit Zen2 zusammen zu schnüren und vermutlich auch HPC-APUs zu realisieren, wobei hier ein relativ kleiner Chip hilft wegen der benötigten Größe vom Interposer und auch bezüglich der Ausbeute bei 7nm.
Ich denke aufgrund dessen und AMDs mangelnden Ressourcen hat man sich von Anfang an darauf beschränkt keinen Monsterchip zu bauen und bleibt bei 64 CUs wie die geleakten Folien seit letztem Jahr aufzeigen.
V20 dürfte dank 7nm immerhin höher takten, dass ist ein Problem an dem V10 leidet, obwohl das Design deutlich mehr Takt schafft als früher limitiert AMD das Energiebudget, bevor sie den oberen Taktbereich überhaupt erreichen.
Und dann muss man sich Navi anschauen, je nachdem wann dieser erscheint mag es für AMD keinen Sinn ergeben, dass Produkt auch noch für Gamer zu veröffentlichen.
Es hängt an Primitve Shaders. Wenn das fuktioniert reichen 4CUs locker aus. Im beyond3d forum geht man davon aus das dies das Feature ist welches die Barier durchbricht und Vega Skalierbar macht zumal die Daten im L2 Cach gespeichert werden können anstelle über eine Crossbar verteilt werden. Außerdem braucht man für Compute Anwendungen und Training kein Geometrie Frontend ;)
Locuza
2018-04-01, 22:22:40
Primitive-Shader kannst du schön vergessen, solange diese nicht die standardmäßige Geometrie-Pipeline unter Core APIs darstellt, genauso wie du sie nicht für Compute Anwendungen brauchst, aber dennoch eine Maschinerie, welche 128 CUs effizient partitioniert und auslasten kann.
Digidi
2018-04-01, 22:54:59
Von dir kommt immer nur Blabla alles mist. Das Featur ist dazu da, das steht auch so in den Patenten das AMD schwierigkeiten hat bei so einer großen Änderung ist verständlich aber sie wird kommen.
Wer sagt denn das es mit 128 Comnpute Units kommt? Wie gesagt für reines Computeaufgaben kann man den Chip ganz anderster designen, das hab ich doch oben geschrieben. AMD hat die Primitivie Shader deshalb eingebaut weil man eher auf Compute gesetzt hat und das ein sinvoller Ausweg ist.
Ich finde die Idee interessant wenn AMD will kann AMD für das Frontend jetzt einen eigenen Chip bauen und dann eine Shader Chip und sie dann per Speicherinterface verbinden
reaperrr
2018-04-01, 23:16:40
@ Der Korken
AMD hat vermutlich selber einen halbwegs realistischen Erwartungsrahmen, wo sie V20 platzieren und wie viel sie im aktuellen Konkurrenzmarkt gewinnen können.
128 CUs kann AMD ja auch nicht einfach hinpappen, dass wären 32 CUs pro Shader-Engine wenn es bei vier bleiben würde und ob das AMD mit ihrem aktuellen Netzwerk bzw. mit dem bei Vega hinbekommt, darf eher bezweifelt werden.
Vega20 scheint eher ein überfälliger Nachfolger von Hawaii zu sein, ein Chip der mit relativ hoher FP64-Leistung gewisse Marktsegmente wieder bedienen kann.
Zusätzlich gibt es PCIe4 und xGMI, letzteres um wohl ziemlich attraktive Gesamtpakete mit Zen2 zusammen zu schnüren und vermutlich auch HPC-APUs zu realisieren, wobei hier ein relativ kleiner Chip hilft wegen der benötigten Größe vom Interposer und auch bezüglich der Ausbeute bei 7nm.
Ich denke aufgrund dessen und AMDs mangelnden Ressourcen hat man sich von Anfang an darauf beschränkt keinen Monsterchip zu bauen und bleibt bei 64 CUs wie die geleakten Folien seit letztem Jahr aufzeigen.
V20 dürfte dank 7nm immerhin höher takten, dass ist ein Problem an dem V10 leidet, obwohl das Design deutlich mehr Takt schafft als früher limitiert AMD das Energiebudget, bevor sie den oberen Taktbereich überhaupt erreichen.
Und dann muss man sich Navi anschauen, je nachdem wann dieser erscheint mag es für AMD keinen Sinn ergeben, dass Produkt auch noch für Gamer zu veröffentlichen.
Ich habe vorhin eine fast fertige Antwort auf Der_Korken u. TheGood durch weg-klicken des falschen Tabs vernichtet, aber der Großteil wurde eh durch diese Antwort ge-ninja'd.
Nur zwei Ergänzungen:
1) Hawaii-Ersatz auch in der Hinsicht, dass AMD durch 4 HBM2-Stacks auch bei der Speicherbandbreite (und -menge) wieder auf Augenhöhe mit Nvidia liegen sollte (solange Ampere/GA100 nicht gleich auf 6 Stacks geht, was mit einem 7nm-Chip nicht unmöglich ist).
2) AMD hat selbst schon angedeutet, dass V20 zusätzlich auch als Test-Vehikel zum Erfahrung sammeln mit 7nm dient. Bei einem Chip der hautsächlich (oder sogar nur) fürs HPC-Segment gedacht ist, fallen schwache Yields auch weniger ins Gewicht, weil die Marge pro Chip normalerweise trotzdem hoch genug sein sollte.
Das dürfte auch einer der Gründe sein, warum man bei Vega geblieben ist. Im HPC-Segment spielt die relativ schwache Gaming-Performance keine Rolle, da zählt mehr die Rohleistung und Speicherbandbreite, und 7nm sollte eigentlich reichen, um bei Performance und Perf/Watt zumindest nah genug an GV100 ranzukommen um über den Preis ein paar Kunden zu gewinnen.
So konnte man sich auf den I/O-Kram (xGMI, PCIe 4.0) und eben das Einarbeiten ins Designen mit 7nm konzentrieren.
Hübie
2018-04-01, 23:23:51
IBM's Power9 soll es schon können: https://en.wikipedia.org/wiki/POWER9#I/O
Bei AMD soll es mit Zen2 (Matisse) kommen...
Iirc sind die jedoch nur mit CAPI bzw. NVLINK verbunden.
AMD's Interface-IP-Partner Synopsys hat jedenfalls auch schon PCIe 5.0 im Programm (https://www.synopsys.com/dw/ipdir.php?ds=dwc_pcie5_phy), und irgendwomit muss man ja mal anfangen.
Das wusste ich gar nicht. Ist das denn schon im Einsatz? Das die PCIE SIG zu langsam agiert und jetzt plötzlich schon 5.0 zertifiziert wo doch 4.0 nicht mal standardisiert ist verwundert irgendwie. Es tut dem Markt jedenfalls gut eine industrieweite Lösung zu haben, statt kleine Nischenlösungen aus der Not heraus (siehe NVLINK - sind letztendlich alles LVDS Busse die oftmals den gleichen PHY nutzen und ein Protokoll aufgesetzt bekommen).
Jedenfalls gut dass man vorwärts geht. Wie alt ist 3.0 doch gleich? :uponder::freak:
Digidi
2018-04-01, 23:24:53
Performance Per Watt hatte ich vor etwas längerer Zeit eine Dieskussion mit Gipsel es kahm heraus das Performance per Watt recht uninteressant ist wenn man auf die Kosten schaut. Viel wichtiger ist der Preis und da sieht es schlecht aus bei Nvidia mit GV100.
Das ist ein Mega Chip der kostet viel in der Herstellung da ist es Günstiger 2 günstige MI25 einzusetzen wenn man nciht gerade auf Training AI geht.
Locuza
2018-04-02, 00:23:05
Von dir kommt immer nur Blabla alles mist. Das Featur ist dazu da, das steht auch so in den Patenten das AMD schwierigkeiten hat bei so einer großen Änderung ist verständlich aber sie wird kommen.
Wer sagt denn das es mit 128 Comnpute Units kommt? Wie gesagt für reines Computeaufgaben kann man den Chip ganz anderster designen, das hab ich doch oben geschrieben. AMD hat die Primitivie Shader deshalb eingebaut weil man eher auf Compute gesetzt hat und das ein sinvoller Ausweg ist.
Ich finde die Idee interessant wenn AMD will kann AMD für das Frontend jetzt einen eigenen Chip bauen und dann eine Shader Chip und sie dann per Speicherinterface verbinden
Nein, von mir kam eine passend eingeordnete Aussage, von dir kommt meistens ein komischer Primitive Shader Fetisch, welchen du sehr früh entwickelt hast und nicht loslassen möchtest, um das Ganze rationaler einzuordnen.
Die 128 CUs Vorstellung kommt von Korkens Beitrag, wo er eher das doppelte an CUs für Vega @7nm erwartet, darauf bezogen kamen meine Ausführungen.
Ich habe vorhin eine fast fertige Antwort auf Der_Korken u. TheGood durch weg-klicken des falschen Tabs vernichtet, aber der Großteil wurde eh durch diese Antwort ge-ninja'd.
Nur zwei Ergänzungen:
1) Hawaii-Ersatz auch in der Hinsicht, dass AMD durch 4 HBM2-Stacks auch bei der Speicherbandbreite (und -menge) wieder auf Augenhöhe mit Nvidia liegen sollte (solange Ampere/GA100 nicht gleich auf 6 Stacks geht, was mit einem 7nm-Chip nicht unmöglich ist).
[...]
Im HPC-Segment spielt die relativ schwache Gaming-Performance keine Rolle, da zählt mehr die Rohleistung und Speicherbandbreite, und 7nm sollte eigentlich reichen, um bei Performance und Perf/Watt zumindest nah genug an GV100 ranzukommen um über den Preis ein paar Kunden zu gewinnen.
So konnte man sich auf den I/O-Kram (xGMI, PCIe 4.0) und eben das Einarbeiten ins Designen mit 7nm konzentrieren.
Ich habe meinen Beitrag auch schon losgeschrieben, als Bomby vordem absenden die meisten Kernpunkte schon vorweggenommen hat.
Was soll's. :redface:
Ein paar Kunden ist wortwörtlich auch das Einzige, was ich erwarte, denn AMD wird trotzt der ganzen Arbeit sehr wahrscheinlich nicht viel mehr schaffen, als die wichtige Grundlage für die Zukunft zu setzen.
Ob AMD jemals daraus gehörig Kapital schlagen wird ist eine andere Frage, ich würde meinen darauf wartet man mindestens seit der Fusion von AMD + ATI.
Performance Per Watt hatte ich vor etwas längerer Zeit eine Dieskussion mit Gipsel es kahm heraus das Performance per Watt recht uninteressant ist wenn man auf die Kosten schaut. Viel wichtiger ist der Preis und da sieht es schlecht aus bei Nvidia mit GV100.
Das ist ein Mega Chip der kostet viel in der Herstellung da ist es Günstiger 2 günstige MI25 einzusetzen wenn man nciht gerade auf Training AI geht.
Ja, Cost-of-Ownership ist sicherlich uninteressant, wenn man auf die Kosten schaut. ;)
Wer keine sehr gute Perf/Watt auf die Waage bringt und/oder absolute Leistung pro Chip und/oder wichtige Hardwarefeatures und/oder einen starken Softwarestack ist verdammt dazu nur die Krümmel aufzusammeln, welche die Anderen übrig lassen.
Und AMD ist praktisch überall im Verzug bzw. im Nachteil.
Der einzige Vorteil welchen AMD in der nahen Zukunft besitzen wird und ihnen hoffentlich eine Art von Erfolg bescheren kann, ist die Möglichkeit x86-64-Prozessoren mit den eigenen GPUs dank xGMI zu einem starken Rechenpaket zusammenzufassen.
Dafür muss der Vorteil aber all die anderen Nachteile überwiegen oder es bleibt eben weiterhin bei den Krümmel, wo es gewisse Nischen einfach nicht interessiert, ob die Konkurrenz in vielen anderen Aspekten voraus ist.
Digidi
2018-04-02, 00:40:56
@Locuza
Rechne die Stromkosten hoch. Wenn AMD einen Server nur 1000 Euro billiger anbietet hast du die Kosten für Strom für viele Jahre wieder drin. Hinzu kommt das große Unternehmen noch um einiges weniger für Strom bezahlen als Privat Personen. Das hohlt man nie wieder auf. Frag Gipsel ;)
Große Serverfarmen scheren sich einen Dreck um Software da das eh eine Sondersocke ist, nur mittlere und kleine Firmen die sich von Cuda kaufen Lassen Nuten Nvidia.
Leistung pro Chip ist egal denn die Karten werden per Cluster betrieben ob du jetzt die Leistung aus 1000 oder 2000 Chips Holst ist egal, Hauptsache der Preis stimmt.
Der_Korken
2018-04-02, 00:49:58
Da es ein neuer Prozess ist, macht es IMHO Sinn nicht gleich mit einem Monster-Chip zu starten, dann sind auch die Yields besser.
[...]
Und es dürfte dann auf jeden Fall mehr als 30 Half/15 Single/7.5 Double TFlop/s Rohleistung bringen, da wohl auch ein höherer Takt möglich sein sollte (1850-1950 sollten wohl mind. drin sein, wenn man von max. 1750 bei Vega10 ausgeht).
Dass man mit einem kleinen Die anfängt mit nur 64CUs ist für mich schon nachvollziehbar. Mich stört dann aber, dass auf der Folie von bis zu 300W die Rede ist. Bei 1900 Mhz wäre man bei 15,6 TFlops, also ungefähr das was GV100 in 12nm bei 250W schafft. Oder 30% mehr als V10 in 14nm bei 300W schafft. Das fände ich für einen neuen Prozess schon verdammt mies. Selbst auf Fiji wäre das nichtmal Faktor 2. Klar haben die letzten beiden Chips kein 1:2 DP-Verhältnis, aber das kostet bei AMD ja nun wirklich die Welt wie man an Hawaii sieht (sowohl von der Fläche als auch vom Verbrauch her).
Dazu wirken die 4 HBM-Stacks auch etwas oversized, da V10 bei gleicher CU-Anzahl und etwas weniger Takt nur 2 hatte. Aber ich habe auch keine Ahnung was man im angestrebten Markt so an Bandbreite braucht. Das Verhältnis Flops und Bandbreite entspricht ungefähr Hawaii.
128 CUs kann AMD ja auch nicht einfach hinpappen, dass wären 32 CUs pro Shader-Engine wenn es bei vier bleiben würde und ob das AMD mit ihrem aktuellen Netzwerk bzw. mit dem bei Vega hinbekommt, darf eher bezweifelt werden.
Auch wenn sie auf Gaming-Performance keine Rücksicht nehmen müssen? Müssen ja nicht gleich 128 sein, ich hatte gar nicht an höheren Takt gedacht.
Hübie
2018-04-02, 00:53:55
Performance Per Watt hatte ich vor etwas längerer Zeit eine Dieskussion mit Gipsel es kahm heraus das Performance per Watt recht uninteressant ist wenn man auf die Kosten schaut. Viel wichtiger ist der Preis und da sieht es schlecht aus bei Nvidia mit GV100.
Das ist ein Mega Chip der kostet viel in der Herstellung da ist es Günstiger 2 günstige MI25 einzusetzen wenn man nciht gerade auf Training AI geht.
Jein. Perf/W wird als Faktor für Neuanschaffungen im Lastenheft des Projekts berücksichtigt, aber eher im Zusammenhang mit Folgekosten für Kühlung und Betrieb. Da wo Gipsel arbeitet (wenn er denn noch da ist wo ich denke), hat man eine Verteilung der Rechen-Cluster auf mehrere Standorte und vergleichsweise wenig GPUs (<100 wenn ich das noch richtig weiß, beginnend mit K20 bis GP100 oder gar GV100). Das heißt (Betriebs-)Kosten werden Standort für Standort betrachtet. Des weiteren bucht man für "seine" Arbeit ein Cluster und da interessiert es wenig ob der jetzt 1500 oder 1700 Watt verbrät (plus die Tatsache dass nicht dauerhaft Volllast anliegt). Da wird die Nutzungsdauer und die Abschreibung angepasst, dann passt es meistens.
Edit: Und deine Aussage bzgl. CUDA stimmt natürlich vorn und hinten nicht. ;) Selbst da wo Gipsel ist nutzt man überwiegend NV und somit (auch) CUDA. DFKI, Frauenhofer, MIT, ORNL... Nutzen es alle. Die Liste ist ang und prestigeträchtig.
BoMbY
2018-04-02, 01:52:00
Das wusste ich gar nicht. Ist das denn schon im Einsatz?
Nein, davon gehe ich nicht aus - das hab ich heute auch zum ersten Mal gesehen. Die Chips die jetzt in der Mache sind nutzen maximal irgendwas mit PCIe 4.0, was heute bisher noch in der Entwurfsphase ist sollte nach Möglichkeit natürlich mit der neuesten Version laufen.
Für Zen2 hoffe ich auf einen DesignWare Multi-Protocol 25G PHY (https://www.synopsys.com/dw/ipdir.php?ds=dwc_multi_protocol_25g_phy) (oder eine bisher nicht veröffentliche Variante) als Ersatz für den DesignWare Enterprise 12G PHY (https://www.synopsys.com/dw/ipdir.php?ds=dwc_ether_enterprise12g) in Summit Ridge und Pinnacle Ridge.
Was genau Vega20 (und vermutlich dann auch in Navi10) drin ist, ist schwer zu sagen, aber ich würde davon ausgehen dass es idealerweise der identische IP-Block wie in Zen2 sein sollte, für möglichst hohe Kompatibilität, wenn der Plan ist kohärenten Speicherzugriff und eine schnellere Verbindung als PCIe-Standard, etc., zu ermöglichen irgendwann.
Locuza
2018-04-02, 02:00:50
@Locuza
Rechne die Stromkosten hoch. Wenn AMD einen Server nur 1000 Euro billiger anbietet hast du die Kosten für Strom für viele Jahre wieder drin. Hinzu kommt das große Unternehmen noch um einiges weniger für Strom bezahlen als Privat Personen. Das hohlt man nie wieder auf. Frag Gipsel ;)
Große Serverfarmen scheren sich einen Dreck um Software da das eh eine Sondersocke ist, nur mittlere und kleine Firmen die sich von Cuda kaufen Lassen Nuten Nvidia.
Leistung pro Chip ist egal denn die Karten werden per Cluster betrieben ob du jetzt die Leistung aus 1000 oder 2000 Chips Holst ist egal, Hauptsache der Preis stimmt.
Du meinst wenn dann 1000€ pro Chipkosten, nicht pro Server.
Die laufenden Stromkosten für viele HPC-Server belaufen sich auf mehrere Millionen pro Jahr und machen laut der Universität Hamburg im Schnitt 28% der Kosten aus, die Hardwareanschaffung alleine 36%, der Rest entfällt ungefähr gleichwertig auf die Wartung und die Personalkosten.
Und im Verlauf der Arbeitszeit stehen die Energiekosten im Buch ähnlich hoch wie die ganze Investitionssumme.
https://wr.informatik.uni-hamburg.de/_media/teaching/sommersemester_2014/tco-14-anna-lena_pdf.pdf
Den Anteil welche die GPUs und die nötige Stromversorgung und Kühlung haben, darf bei AMD entsprechend nicht gravierend schlechter ausfallen.
Und natürlich schert sich fast jeder um die Software, dass ist die größte Bastion auf welcher Nvidia steht und gedeiht.
Wäre das ganze so egal, hätte AMD in der Vergangenheit schon einen deutlich größeren Marktanteil genossen und damals (Tahiti/Hawaii) standen sie zeitlich, bei der Perf/Watt und der absoluten Leistung gut da, teilweise an der Spitze.
Ebenso ist die Perf/mm² wichtig ist, es ist sicher nicht egal ob du 2000 Chips holst, anstatt 1000, wenn du dafür dann mehr Komponenten benötigst und somit die Kosten auf eine andere Weise skalieren und der Platzverbrauch zunimmt.
Es ist leicht gesagt, wenn der Preis stimmt, dann passt das Ganze, aber für AMD bleibt im Zweifel nicht viel übrig, wenn sie preislich stark runter gehen müssen.
Dank Bulldozer hat AMD praktisch all ihre Marktanteile im Server-Bereich verloren, da es ihnen an der absoluten Leistung und der Perf/Watt gefehlt hat und sie den Preis auch nicht ausreichend genug nach unten setzen konnten, um attraktiv für die Kunden zu sein, denn AMD muss ja auch selber noch die Produktionskosten bezahlen, die Servicekosten und etwas verdienen.
Dass man mit einem kleinen Die anfängt mit nur 64CUs ist für mich schon nachvollziehbar. Mich stört dann aber, dass auf der Folie von bis zu 300W die Rede ist. Bei 1900 Mhz wäre man bei 15,6 TFlops, also ungefähr das was GV100 in 12nm bei 250W schafft. Oder 30% mehr als V10 in 14nm bei 300W schafft. Das fände ich für einen neuen Prozess schon verdammt mies. Selbst auf Fiji wäre das nichtmal Faktor 2. Klar haben die letzten beiden Chips kein 1:2 DP-Verhältnis, aber das kostet bei AMD ja nun wirklich die Welt wie man an Hawaii sieht (sowohl von der Fläche als auch vom Verbrauch her).
Dazu wirken die 4 HBM-Stacks auch etwas oversized, da V10 bei gleicher CU-Anzahl und etwas weniger Takt nur 2 hatte. Aber ich habe auch keine Ahnung was man im angestrebten Markt so an Bandbreite braucht. Das Verhältnis Flops und Bandbreite entspricht ungefähr Hawaii.
Auch wenn sie auf Gaming-Performance keine Rücksicht nehmen müssen? Müssen ja nicht gleich 128 sein, ich hatte gar nicht an höheren Takt gedacht.
Ich selber lasse mich da offen überraschen, wie groß der Vorteil dank 7nm bei V20 ausfallen werden.
Persönlich staple ich die Erwartungen niedrig, da ein GV100 zwar in "12nm" hergestellt wird, aber auch über 800mm² die size misst und keinen hohen Takt aufweist, entsprechend schwer bzw. "unnötig" ist es für AMD mit einem effektiv deutlich kleineren Chip damit 1:1 konkurrieren zu müssen.
Vier HBM-Stacks sind aber auf jeden Fall eine gute Sache, dass BW/FLOP-Verhältnis ist die letzten Jahre nur gesunken.
Dank Delta-Color-Compression und Tiled-Caching-Tricks leidet die Performance bei Spielen kaum bzw. nur unwesentlich, anders sieht das bei reinen Compute-Berechnungen aus.
Nicht sehr akademisch, aber wenn man eine RX 480 mit einer 390 vergleicht, dann ist erste unter Spielen praktisch gleich schnell, unter Compute-Aufgaben wo die Bandbreite interessiert, kann letztere aber auch mal 20 oder gar 40% schneller sein, obwohl die RX480 mehr L2$ besitzt, aber ohne entsprechende Rohbandbreite kommt man dann leider dennoch nicht soweit:
https://www.computerbase.de/2016-06/radeon-rx-480-test/7/#diagramm-luxmark
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/8/#diagramm-luxmark
Bei Pascal sieht es im Grunde gleich aus, auch bezogen auf die Rubrik Memory-OC, wo selbst in Spielen das OC immerhin zur Hälfte skaliert.
-----
Das Problem an 128 CUs ist, dass AMD am Ende dennoch mit der IP bzw. den entwickelten Arbeitsblöcken arbeiten muss, welche sie als Vega bezeichnen, mit den entsprechenden Einschränkungen.
AMD hat bisher keinen GCN-Chip gebaut, der mehr als 16 CUs pro Shader-Engine verwendet hat und es stellt sich einfach die Frage, wie viele AMD zusätzlich anhängen könnte, bevor das Netzwerk und die Arbeitsverteilung aufgibt bzw. richtig mies skaliert.
Dabei kann AMD auch von der GFX-Pipeline limitiert sein, wenn sie am Ende eben nicht einen reinen Compute-Chip bauen können.
Jedenfalls außer bei einer Ausnahme ist AMD bei den Grenzen geblieben, welche sie auf den Folien bezüglich ihrer Architektur angegeben haben:
https://www.3dcenter.org/dateien/abbildungen/Limits-of-AMD-GCN.jpg
Vega hat zum ersten mal etwas verändern, indem der I$ und K$ nicht mehr maximal pro 4 CUs geteilt wird, sondern nur noch von maximal 3 CUs.
Diese zusätzliche Restriktion wurde scheinbar notwendig, um höhere Taktraten zu erreichen, da sonst der Pfad an der Stelle limitiert hätte.
Scalability ist ein Stichwort unter Navi und Lisa Su hat in einem Interview mit Anandtech darüber gesprochen, dass man es sich gut vorstellen kann Grafik-Produkte mehr von Professionellen in der Entwicklung trennen zu können.
Zusammen mit den geleakten Folien bei Vega20 ergibt sich das Bild, dass AMD sehr wahrscheinlich erst ab Navi entweder die Shader-Engines auf über 4 hinausskalieren kann/wird und/oder die CUs pro Shader-Engine ebenfalls weiter skalieren wird.
reaperrr
2018-04-02, 03:09:13
Klar haben die letzten beiden Chips kein 1:2 DP-Verhältnis, aber das kostet bei AMD ja nun wirklich die Welt wie man an Hawaii sieht (sowohl von der Fläche als auch vom Verbrauch her).
Wenn es wirklich so wenig wäre, würde sich aber eben die Frage stellen, warum sie es dann so selten verbaut haben. Ich weiß nicht, wie wichtig die Speicherbandbreite für DP ist, aber mit Vega10 hätte man schon (mindestens) 15 Monate früher das DP-Niveau von GP100 erreichen können.
Es gibt m.W. ja noch immer keinen Die-Shot von Hawaii (extrem schade, da mMn einer von AMDs interessanteren Chips), aber bei Tahiti mit 1:4 DP sind die CUs jedenfalls bereits etwa 5,5mm² gegenüber den 4,5mm² von Pitcairn, packen wir für 1:2 DP noch wenigstens 0,2mm² drauf, würden schon knapp 53mm² von Hawaiis Fläche nur auf den 1:2-DP-Support entfallen (gegenüber 1:16 DP).
Das wären 12% der gesamten Chip- und über 20% der CU-Fläche. Das ist sogar verdammt viel, finde ich. Und ich kann mir gut vorstellen, dass die CUs dadurch auch entsprechend mehr Saft pro MHz ziehen.
Dass man mit einem kleinen Die anfängt mit nur 64CUs ist für mich schon nachvollziehbar.
Ich glaube nicht, dass der überhaupt so klein wird.
Weniger wegen 1:2 DP (wobei ich wie gesagt schon denke, dass es nicht ganz so wenig ist), sondern mehr wegen dem ganzen I/O-Zeug, das für gewöhnlich schlecht bis gar nicht mit dem Prozess skaliert, und gerade davon wird V20 deutlich mehr haben als V10 (xGMI, verdoppeltes HBM-SI, PCIE4.0).
Ich wäre nicht überrascht, wenn V20 trotz 7nm bei ~300-350mm² landet. Das wäre vielleicht klein im Vergleich zu einem Monster wie GV100, aber die Kosten pro mm² für Design und Wafer sind vermutlich in 7nm auch ca. doppelt so hoch wie in 14LPP/12FFN.
fondness
2018-04-02, 10:09:46
...Es macht auch durchaus Sinn Vega für HPC zu verwenden. Dort zählen Dinge wie Frontend/Backend, etc. nicht. Es braucht viele möglichst flexible ALUs und viel Bandbreite. Beides kann Vega20 wohl sehr viel transistoreffizienter liefern als Navi oder eine andere mehr auf Spiele ausgelegte Architektur. Und technologisch ist Vega ohnehin nach wie vor Top-of-the-hill. Dazu noch 1/2 DP rate, 2xFP16, PCIe4.0 und xGMI und man hat eigentlich den idealen number cruncher. Dazu wird das Ding wohl auf einen Sockel mit Zen2 wandern und so auch neue Anwendungsfälle ermöglichen.
TheGood
2018-04-02, 10:23:41
Wer sagt denn dass da alles gleich bleibt ? DEr Punkt ist doch, dass Vega 20 mindestens ein Jahr zusätzliche Entwicklungszeit hat in der offensichtliche Limitation von Vega 10 ggf. beseitigt werden könnten.
Dran glauben tue ich aber auch nicht so recht. Wobei AMD es ja irgendwann mal lernen müsste...
fondness
2018-04-02, 10:30:51
Das ist ja genau mein Punkt, wenn das Ding nur für HPC kommt kann man sich das sparen. Besser darauf achten, dass man diese Probleme bei Navi nicht mehr hat, dann kann man auch wieder besser konkurrieren.
Skysnake
2018-04-02, 10:37:21
Iirc sind die jedoch nur mit CAPI bzw. NVLINK verbunden.
Also zumindest bei GP100 waren die Karten auch über PCI-E Angebunden. Darüber lief wohl auch die Initialisierung und die Programmierung der Kernels etc.
Über NVLink rein die Copy Operationen zwischen Speichern mit CuMemCopy und halt die Shared Memory Zugriffe. Wobei da noch immer nicht klar ist, wie die Granularität da ist.
Für GV100 habe ich nichts Neues dazu gelesen, gehe also davon aus, dass das noch immer so ist.
Das wusste ich gar nicht. Ist das denn schon im Einsatz? Das die PCIE SIG zu langsam agiert und jetzt plötzlich schon 5.0 zertifiziert wo doch 4.0 nicht mal standardisiert ist verwundert irgendwie. Es tut dem Markt jedenfalls gut eine industrieweite Lösung zu haben, statt kleine Nischenlösungen aus der Not heraus (siehe NVLINK - sind letztendlich alles LVDS Busse die oftmals den gleichen PHY nutzen und ein Protokoll aufgesetzt bekommen).
PCI-e 4 gibt es nur bei IBM und Mellanox aktuell. NVidia verzichtet ja wie es scheint darauf, damit NVLink besser aussieht....
Intel arbeitet an PCI-E 4 und bringt wohl dieses JAhr Testchips für Storage Partner.
Und nVlink ist wirklich ein verdongelter Mist an sich, wobei nicht wirklich schlimm, da IBM den Link ja offen lässt. NVLink ist an sich nichts anderes als BlueLink. Gab da auf der letzten oder vorletzten HotChips einen Vortrag dazu. Wenn man sich das mal genau anschaut und mit BlueLink vergleicht, dann ist NVLink nichts anderes als BlueLink. Wenn unterscheidest es sich höchstens auf der Protokollebene.
LinkLayer sollten aber identisch sein. Geschweige denn Physical Layer
Jein. Perf/W wird als Faktor für Neuanschaffungen im Lastenheft des Projekts berücksichtigt, aber eher im Zusammenhang mit Folgekosten für Kühlung und Betrieb.
Da wo Gipsel arbeitet (wenn er denn noch da ist wo ich denke), hat man eine Verteilung der Rechen-Cluster auf mehrere Standorte und vergleichsweise wenig GPUs (<100 wenn ich das noch richtig weiß, beginnend mit K20 bis GP100 oder gar GV100). Das heißt (Betriebs-)Kosten werden Standort für Standort betrachtet. Des weiteren bucht man für "seine" Arbeit ein Cluster und da interessiert es wenig ob der jetzt 1500 oder 1700 Watt verbrät (plus die Tatsache dass nicht dauerhaft Volllast anliegt). Da wird die Nutzungsdauer und die Abschreibung angepasst, dann passt es meistens.
Ja den "Endanwender" interessiert das überhaupt nicht, was die Dinger verbraten. Auch wenn es inzwischen Projekte gab, bei denen man geschaut hat, ob sich ein niedriger Energieverbrauch der Nutzer durch effiziente Programmierung, bzw durch nutzen niedriger Taktraten, wenn man eh Memory Bound ist, belohnen lässt. DAs ist aber Forschung und absolut nicht verbreitet.
Die Betreiber von HPC Systemen interessiert es überwiegend aber schon sehr, denn sehr oft ist dein Powerbudget beschränkt. Das heist selbst wenn du dir eine schnelle Kiste leisten könntest, die mehr Verbraucht, wirst du Sie nicht kaufen, einfach weil du die Energie nicht hast. Z.B. bei meinem alten Arbeitgeber. War man bei 3MW limitiert für die große Maschine. Mehr hat einfach weder die Stromanbindung noch die Kühlung hergegeben. Wobei Kühlung eventuell sogar noch gegangen wäre, aber Strom haste knicken denn dafür hätte man wohl neue HV Stromtrassen ziehen müssen und ein neues Umspannwerk etc bauen...
Edit: Und deine Aussage bzgl. CUDA stimmt natürlich vorn und hinten nicht. ;) Selbst da wo Gipsel ist nutzt man überwiegend NV und somit (auch) CUDA. DFKI, Frauenhofer, MIT, ORNL... Nutzen es alle. Die Liste ist ang und prestigeträchtig.
Ja CUDA wird sehr viel verwendet, egal wo man hinschaut. Und ja die Libs, bzw schon fast fertige Lösungen wie bei Tensorflow machen natürlich nVidia sehr beliebt.
nVidia ist da, wie ich finde, inzwischen wie Intel fast schon mehr ein Software-Hersteller als ein Hardware Hersteller. Denn bei der Hardware gibt es an sich brauchbare Konkurrenz, aber nicht bei der Software in manchen Teilbereichen.
Man sollte vielleicht noch beachten bei der V20-Diskussion, dass V20 auch SpezialALUs mitbringen könnte, wie das bei NV ist. Das würde den Chip u.U. aufblähen und die hohe TDP-Varianz erklären.
Hübie
2018-04-02, 11:04:13
Also zumindest bei GP100 waren die Karten auch über PCI-E Angebunden. Darüber lief wohl auch die Initialisierung und die Programmierung der Kernels etc.
Über NVLink rein die Copy Operationen zwischen Speichern mit CuMemCopy und halt die Shared Memory Zugriffe. Wobei da noch immer nicht klar ist, wie die Granularität da ist.
Für GV100 habe ich nichts Neues dazu gelesen, gehe also davon aus, dass das noch immer so ist.
PCI-e 4 gibt es nur bei IBM und Mellanox aktuell. NVidia verzichtet ja wie es scheint darauf, damit NVLink besser aussieht....
Intel arbeitet an PCI-E 4 und bringt wohl dieses JAhr Testchips für Storage Partner.
Und nVlink ist wirklich ein verdongelter Mist an sich, wobei nicht wirklich schlimm, da IBM den Link ja offen lässt. NVLink ist an sich nichts anderes als BlueLink. Gab da auf der letzten oder vorletzten HotChips einen Vortrag dazu. Wenn man sich das mal genau anschaut und mit BlueLink vergleicht, dann ist NVLink nichts anderes als BlueLink. Wenn unterscheidest es sich höchstens auf der Protokollebene.
LinkLayer sollten aber identisch sein. Geschweige denn Physical Layer
Ja den "Endanwender" interessiert das überhaupt nicht, was die Dinger verbraten. Auch wenn es inzwischen Projekte gab, bei denen man geschaut hat, ob sich ein niedriger Energieverbrauch der Nutzer durch effiziente Programmierung, bzw durch nutzen niedriger Taktraten, wenn man eh Memory Bound ist, belohnen lässt. DAs ist aber Forschung und absolut nicht verbreitet.
Die Betreiber von HPC Systemen interessiert es überwiegend aber schon sehr, denn sehr oft ist dein Powerbudget beschränkt. Das heist selbst wenn du dir eine schnelle Kiste leisten könntest, die mehr Verbraucht, wirst du Sie nicht kaufen, einfach weil du die Energie nicht hast. Z.B. bei meinem alten Arbeitgeber. War man bei 3MW limitiert für die große Maschine. Mehr hat einfach weder die Stromanbindung noch die Kühlung hergegeben. Wobei Kühlung eventuell sogar noch gegangen wäre, aber Strom haste knicken denn dafür hätte man wohl neue HV Stromtrassen ziehen müssen und ein neues Umspannwerk etc bauen...
Ja CUDA wird sehr viel verwendet, egal wo man hinschaut. Und ja die Libs, bzw schon fast fertige Lösungen wie bei Tensorflow machen natürlich nVidia sehr beliebt.
nVidia ist da, wie ich finde, inzwischen wie Intel fast schon mehr ein Software-Hersteller als ein Hardware Hersteller. Denn bei der Hardware gibt es an sich brauchbare Konkurrenz, aber nicht bei der Software in manchen Teilbereichen.
Sicher dass es nicht nur SMBUS und JTAG waren? Es gibt zwar GP100 als PCIE, aber in Kombination mit dem Power9 in Sierra und Summit sollten die doch per NVLink verbunden sein? :uponder:
Und ja PHY und DataLinkLayer sind gleich. Es war ja auch eine Zusammenarbeit mit IBM und war aus der Not heraus geboren, da PCIE einfach zu arg die Ende-zu-Ende Anbindung begrenzt. Protokollebene ist auch nicht weit voneinander entfernt.
robbitop
2018-04-02, 11:15:20
Auf welcher Basis vermutest du das alles? :|
Zur Erinnerung: Volta (GV100) ist demnächst mit 32 GB HBM2 verfügbar und mit besseren binning Prozessen könnten durch 7nm 200 Watt oder weniger herauskommen. Ich bin mir aber gerade nicht über die Zahlen zu dem Prozess von GloFo im Klaren.
PCIE4: Gibt afaik noch keine zertifizierten Systeme. Ist da was für dieses Jahr angekündigt?
Vega 10 hatte IIRC nur 2x Stacks. GV100 hatte IIRC 4x Stacks. Wenn sich das zu Vega 20 nicht ändert, ist es sicherlich schwieriger 32 GB mit 2x Stacks als mit 4x Stacks zu realisieren, oder? :)
Hübie
2018-04-02, 12:12:05
GV100 gibt's doch auch mit 4- und 8-Hi-Stacks. Sind da die Abmessungen anders (8=kompakt wie 4-Hi)?
Sind gleich gross, zur Erinnerung: https://images.nvidia.com/content/pdf/tesla/whitepaper/pascal-architecture-whitepaper.pdf
S.17/Abb. 10
Der oberste Chip wurde nur bisher nicht oder nur so wenig abgeflacht, dass der gesamte Stack gleich hoch ist wie die GPU. Platz ist da also noch genug. Das Ding wurde von Nvidia anfangs auch "spacer" genannt, obwohl es ein funktionaler Speicherchip ist.
Achill
2018-04-02, 14:04:02
Was hier bisher unter gegangen ist und m.E. auch eine wirklich falsche Annahme ist: Den Verbrauch von Vega von Games auf Compute zu übertragen!
Nach meiner Beobachtung verbraucht Vega bei Compute (wie MrH OpenCL-Mark oder AIDA GPGPU) im Vergleich zu Gaming deutlich weniger / ist effizienter.
Als Indiz (kein Fakt da zu spezifisch) kann man auch die Effizienz von Mining heran ziehen ... leider gibt es keine Tests (hab nichts auf die schnelle Gefunden) im Netz wo Perf/W betrachtet wird hinsichtlich echter Workloads aus Industrie und Wirtschaft.
--
Edit: Typo fixed für Kruemel ... :)
kruemelmonster
2018-04-02, 14:14:06
Gameing
Sei du jetzt bitte nicht der Nächste, der nach dildo4u die Schreibweise des Wortes "Gaming" nicht beherrscht.
robbitop
2018-04-02, 15:13:40
GV100 gibt's doch auch mit 4- und 8-Hi-Stacks. Sind da die Abmessungen anders (8=kompakt wie 4-Hi)?
Ich meine nicht den vertikalen Ausbau sondern die Anzahl der HBM Chips. GP100 und GV100 haben 4x hbm Chips auf dem Träger und Vega nur 2. Ergo kann MV doppelt so viel vram bei gleichen Stacks verbauen.
fondness
2018-04-02, 15:22:24
Ich meine nicht den vertikalen Ausbau sondern die Anzahl der HBM Chips. GP100 und GV100 haben 4x hbm Chips auf dem Träger und Vega nur 2. Ergo kann MV doppelt so viel vram bei gleichen Stacks verbauen.
Richtig, und V20 wird ebenfalls 4 HBM2 Stacks haben.
Hübie
2018-04-02, 16:38:49
Ich meine nicht den vertikalen Ausbau sondern die Anzahl der HBM Chips. GP100 und GV100 haben 4x hbm Chips auf dem Träger und Vega nur 2. Ergo kann MV doppelt so viel vram bei gleichen Stacks verbauen.
Ja klar, hätte ich auch drauf kommen können. :redface:
Es sollte aber kein großes Problem sein ein weiteres PHY auf der anderen Seite anzubinden und auch vier Stacks zu verbauen. Daher gehe ich ebenfalls von 32 GB VRAM aus (neben einer Variante mit vielleicht 16 GB).
Locuza
2018-04-02, 16:46:07
[...]
Es gibt m.W. ja noch immer keinen Die-Shot von Hawaii (extrem schade, da mMn einer von AMDs interessanteren Chips), aber bei Tahiti mit 1:4 DP sind die CUs jedenfalls bereits etwa 5,5mm² gegenüber den 4,5mm² von Pitcairn, packen wir für 1:2 DP noch wenigstens 0,2mm² drauf, würden schon knapp 53mm² von Hawaiis Fläche nur auf den 1:2-DP-Support entfallen (gegenüber 1:16 DP).
Das wären 12% der gesamten Chip- und über 20% der CU-Fläche. Das ist sogar verdammt viel, finde ich. Und ich kann mir gut vorstellen, dass die CUs dadurch auch entsprechend mehr Saft pro MHz ziehen.
Ich glaube nicht, dass der überhaupt so klein wird.
Weniger wegen 1:2 DP (wobei ich wie gesagt schon denke, dass es nicht ganz so wenig ist), sondern mehr wegen dem ganzen I/O-Zeug, das für gewöhnlich schlecht bis gar nicht mit dem Prozess skaliert, und gerade davon wird V20 deutlich mehr haben als V10 (xGMI, verdoppeltes HBM-SI, PCIE4.0).
Ich wäre nicht überrascht, wenn V20 trotz 7nm bei ~300-350mm² landet. Das wäre vielleicht klein im Vergleich zu einem Monster wie GV100, aber die Kosten pro mm² für Design und Wafer sind vermutlich in 7nm auch ca. doppelt so hoch wie in 14LPP/12FFN.
1. Hawaii wäre wirklich interessant.
Neben Hawaii gibt es noch Carrizo mit Half-Rate FP64, wovon AMD einen die-shot veröffentlicht hat, aber ein genauer Vergleich wird aufgrund unterschiedlicher Herstellungsprozesse schwer.
Teilweise muss man auch bedenken, wann ein entsprechendes Projekt hergestellt wurde und für welche Arbeitspunkte optimiert wurde.
Vermutlich hat jeder Hersteller da einen gewissen Spielraum, was die Parameter bei den Tools angeht.
Tahiti z.B. könnte auch etwas konservativer hergestellt worden sein als Pitcairn, jedenfalls bei den Memory-Controllern hat AMD übertrieben, die sind deutlich größer als bei Pitcairn, verkraften auch höhere Taktraten, aber die Flächeneffizienz ist merklich schlechter.
Neben Quarter-Rate FP64 alleine blasen die zusätzlichen ECC-Bits für den SRAM/Register die ALUs auf.
2. Beim I/O wäre ich optimistischer, HBM ist sparsam und beim GP100 kann man sich auch anschauen, wie viel ungefähr NVLINK1.0 unter 16nm wegnimmt:
http://i.imgur.com/OYcznNU.png
Und das I/O skaliert ganz ordentlich mit einem Shrink, dass sieht man beim die-shot Vergleich zwischen einem 65nm und 55nm GT200:
https://www.flickr.com/photos/130561288@N04/24044300875/
...Es macht auch durchaus Sinn Vega für HPC zu verwenden. Dort zählen Dinge wie Frontend/Backend, etc. nicht. Es braucht viele möglichst flexible ALUs und viel Bandbreite. Beides kann Vega20 wohl sehr viel transistoreffizienter liefern als Navi oder eine andere mehr auf Spiele ausgelegte Architektur. Und technologisch ist Vega ohnehin nach wie vor Top-of-the-hill. Dazu noch 1/2 DP rate, 2xFP16, PCIe4.0 und xGMI und man hat eigentlich den idealen number cruncher. Dazu wird das Ding wohl auf einen Sockel mit Zen2 wandern und so auch neue Anwendungsfälle ermöglichen.
Möglichst viele ALUs und Bandbreite kann AMD auch sicherlich mit Navi liefern und ich denke kaum, dass AMD dort die Verhältnisse im Vergleich zu Vega verschlechtern wird.
Was genau an Vega Top-of-the-Hill darstellt kann ich zwar nicht gewissenlos behaupten, außer bei der Kombination mit Zen2 für x86-Server, ansonsten sehe ich nirgendwo AMD in Führung, außer bei PCIe4.
Man sollte vielleicht noch beachten bei der V20-Diskussion, dass V20 auch SpezialALUs mitbringen könnte, wie das bei NV ist. Das würde den Chip u.U. aufblähen und die hohe TDP-Varianz erklären.
Laut Gerüchteküche soll Navi extra Zeug für Machine Learning implementieren, bei V20 erwarte ich nur Standard Double-Rate FP16 und nicht mehr.
Was hier bisher unter gegangen ist und m.E. auch eine wirklich falsche Annahme ist: Den Verbrauch von Vega von Games auf Compute zu übertragen!
Nach meiner Beobachtung verbraucht Vega bei Compute (wie MrH OpenCL-Mark oder AIDA GPGPU) im Vergleich zu Gameing deutlich weniger / ist effizienter.
Als Indiz (kein Fakt da zu spezifisch) kann man auch die Effizenz von Mining heran ziehen ... leider gibt es keine Tests (hab nichts auf die schnelle Gefunden) im Netz wo Perf/W betrachtet wird - auch hinsichtlich echter Workloads aus Industrie und Wirtschaft.
Wurde soweit ich gelesen habe von niemanden 1:1 übertragen und ich selber würde gerne wissen, wie das Verhältnis bei reinem Compute zwischen AMD und Nvidia aussieht.
Mittlerweile dank GP100 und Volta würde ich aber auch erwarten, dass sich AMD nennenswert im Rückstand befindet.
CB hat Mining-Benchmarks unter Ethereum, Zcash und Monero durchgeführt, jeweils mit Stock und optimierten Einstellungen:
https://www.computerbase.de/2018-02/mining-gpu-benchmarks-ethereum-monero-zcash/3/
Bei Ethereum liegt Nvidia 30% in Führung (1060/70 vs. Vega/Polaris) bei ZCash 14% bis über 70% (1060 vs 570 und 1070/80(Ti) vs. Vega).
In Monero liegt AMD so 4-7% effizienter, als eine 1060/70 im Vergleich.
Dass V20 vier Stacks bekommt, steht fuer mich eigentlich ausser Frage. Das wird ja als Nachfolger fuer Hawaii gehandelt, dementsprechend sollte man sogar bis zu 32 GiB mit 4x8Hi Stacks sehen koennen, bestenfalls mit ECC. Die S9150 hat das bekanntlich auch und bis V20 kommt ist das Ding schon ueber 4 Jahre ohne Nachfolge auf dem Markt gewesen.
Hübie
2018-04-02, 17:24:43
ECC bei GDDR-RAM? Oder meinst du die Caches? Die S9150 hat immer noch eine hervorragende FP64-Leistung.
@Locuza: Mittlerweile dürfte I/O nicht mehr so gut mit skalieren, da der Spannungsbedarf von VRAM (IMC) nicht proportional zur Spannungssenkung der GPU steht und nach wie vor hohe Ströme fließen (plus relativ hohe Taktraten, Abstände gegen Signalinterferenzen usw.). Ich schätze statt 1:1 eher 1:0,8-0,75. Skysnake hat iirc mal ein PHY designt und kann evtl. was dazu sagen.
Ja, selbstverstaendlich gibt es GDDR5 mit ECC. Haben sowohl AMD als auch Nvidia auf Profi-Karten verbaut.
Die FP64 Leistung war damals ueberragend, klar, ist aber heute eben nur noch meh, nachdem Pascal und Volta heute das 2-3-fache davon im selben power budget unterbringen. Das ist halt der Unterschied, ob man nahezu jaehrlich nachlegen kann oder eben nicht.
Complicated
2018-04-02, 17:35:52
HBM kann ECC aktivieren oder deaktivieren nach Bedarf. Konfigurierbar. HBM ist kein GDDR-RAM.
https://www.design-reuse.com/articles/41186/design-considerations-for-high-bandwidth-memory-controller.html
The ECC generation function can be enabled/disabled in MRS register 4 OP[0] by user. However, as per HBM specification, if ECC is enabled data masking is disabled and vice-versa is followed. If user enables ECC and data masking then ECC shall be disabled and data masking shall be enabled. The HBM specification does not define any ECC polynomial for ECC generation it is user specific, HBM memory does not perform ECC checks, just stores the ECC alongside data and sends out ECC during reads. ECC correction is done on read data path by memory controller. 8 bit ECC value for every 64 bits is generated on write data path. Likewise 32 bit ECC is generated for 256 bits of write data in SDR mode by memory controller.
Achill
2018-04-02, 17:37:04
[..]
Wurde soweit ich gelesen habe von niemanden 1:1 übertragen und ich selber würde gerne wissen, wie das Verhältnis bei reinem Compute zwischen AMD und Nvidia aussieht.
Mittlerweile dank GP100 und Volta würde ich aber auch erwarten, dass sich AMD nennenswert im Rückstand befindet.
Naja, es werden Annahmen ohne Fakten ausgesprochen.
[..]
CB hat Mining-Benchmarks unter Ethereum, Zcash und Monero durchgeführt, jeweils mit Stock und optimierten Einstellungen:
https://www.computerbase.de/2018-02/mining-gpu-benchmarks-ethereum-monero-zcash/3/
Bei Ethereum liegt Nvidia 30% in Führung (1060/70 vs. Vega/Polaris) bei ZCash 14% bis über 70% (1060 vs 570 und 1070/80(Ti) vs. Vega).
In Monero liegt AMD so 4-7% effizienter, als eine 1060/70 im Vergleich.
Den Test von CB haben wir doch schon auseinander genommen, wenn man sich die Ergebnisse aus dem Crypto-Thread anschaut, dann sieht das schon anders aus: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11552086#post11552086
Macht ein Vergleich von einer 1060 oder 1070 Sinn? (außer man betrachtet die Effizienz beim Mining). Die kleineren Chips von NV werden bestimmt nicht im RZ für Compute eingesetzt werden. Wenn man jetzt aber Algo. (wie Ether) hat, die wenig Compute-Power aber gut Bandbreite brauchen, dann sind Karten wo kleine Chips im Verhältnis zur zur Brandbreite im Vorteil. Aber ob man jetzt daraus Rückschlüsse ziehen kann was echten Compute-Workloads angeht, das ist in meinen Augen nicht faktisch genug.
SKYNET
2018-04-02, 17:47:23
Auf welcher Basis vermutest du das alles? :|
Zur Erinnerung: Volta (GV100) ist demnächst mit 32 GB HBM2 verfügbar und mit besseren binning Prozessen könnten durch 7nm 200 Watt oder weniger herauskommen. Ich bin mir aber gerade nicht über die Zahlen zu dem Prozess von GloFo im Klaren.
PCIE4: Gibt afaik noch keine zertifizierten Systeme. Ist da was für dieses Jahr angekündigt?
mhhh, gut dan nkönnte es natürlich gut sein, das AMD da entsprechend 32GB draufklatscht, wobei ich mich frage ob das einen allzugrossen nutzen hat, selbst im professionellen bereich?
Hübie
2018-04-02, 17:56:02
Ja, selbstverstaendlich gibt es GDDR5 mit ECC. Haben sowohl AMD als auch Nvidia auf Profi-Karten verbaut.
Stimmt K20x hat das offenbar schon damals gehabt. Ist an mir vorbei gezogen. :redface: In dem Slide hier wird das erwähnt: https://t.co/H0X99rfika Interessant ist übrigens das die Temp ein wichtiger Faktor für DPR-Fehler (http://docs.nvidia.com/deploy/dynamic-page-retirement/index.html) ist.
Die FP64 Leistung war damals ueberragend, klar, ist aber heute eben nur noch meh, nachdem Pascal und Volta heute das 2-3-fache davon im selben power budget unterbringen. Das ist halt der Unterschied, ob man nahezu jaehrlich nachlegen kann oder eben nicht.
Steht außer Frage und es wird Zeit für einen Nachfolger, klar. :smile:
Zum Thema compute / Perf pro Watt: Es ist nicht ganz trivial es zu beziffern, da workloads stark schwanken und man mit NVSMI ja nun auch noch viele Parameter verdrehen kann. Der Tenor, dass AMD hier mittlerweile (in einem sehr schnelllebigen Markt) ins Hintertreffen geraten ist kommt aber nicht von ungefähr. Igor @THG hat iirc einige Messungen mit professionellen Anwendungen simuliert, hab leider gerade wenig Zeit.
Skysnake
2018-04-02, 21:51:21
Sicher dass es nicht nur SMBUS und JTAG waren? Es gibt zwar GP100 als PCIE, aber in Kombination mit dem Power9 in Sierra und Summit sollten die doch per NVLink verbunden sein? :uponder:
Und ja PHY und DataLinkLayer sind gleich. Es war ja auch eine Zusammenarbeit mit IBM und war aus der Not heraus geboren, da PCIE einfach zu arg die Ende-zu-Ende Anbindung begrenzt. Protokollebene ist auch nicht weit voneinander entfernt.
Nein GP100 ist immer auch per PCI-E angebunden.
Ich hatte mir das mal angeschaut. Steht aber alles unter NDA...
Wer GP100 mit Power und NVLink hat kann ja mal gerne das Ding vermessen.
Skysnake
2018-04-02, 22:22:39
ECC bei GDDR-RAM? Oder meinst du die Caches? Die S9150 hat immer noch eine hervorragende FP64-Leistung.
@Locuza: Mittlerweile dürfte I/O nicht mehr so gut mit skalieren, da der Spannungsbedarf von VRAM (IMC) nicht proportional zur Spannungssenkung der GPU steht und nach wie vor hohe Ströme fließen (plus relativ hohe Taktraten, Abstände gegen Signalinterferenzen usw.). Ich schätze statt 1:1 eher 1:0,8-0,75. Skysnake hat iirc mal ein PHY designt und kann evtl. was dazu sagen.
I/O skaliert deutlich schlechter als Logik.
Er zwar überrascht was man von 65 auf 28nm rausholen kann, aber bei 28 nm bin ich schon heftig in die Elektromigration gerannt beim Designen. Das war bei 65 eigentlich noch kein Problem.
Zudem skalieren Wells zum isolieren der Schaltungsblöcke recht schlecht.
Elektromigration und Variation sind aber halt echte Probleme die immer schlimmer werden. Das limitiert echt die Skalierbarkeit heute.
Man gibt sich aber auch mehr Mühe bzw macht die Margen kleiner... Ist also nicht ganz einfach zu sagen was am Ende noch möglich ist. Aber auf jeden Fall nicht mehr so viel wie früher. Da killt dich einfach schon die Elektromigration
pixeljetstream
2018-04-02, 22:29:28
mhhh, gut dan nkönnte es natürlich gut sein, das AMD da entsprechend 32GB draufklatscht, wobei ich mich frage ob das einen allzugrossen nutzen hat, selbst im professionellen bereich?
In dem Bereich gibt's nie genug, darum hat das top sku auch immer so viel (m6000 hatte auch schon 24 Gig), und Skalierung via nvlink/nvswitch. Irgendwas ähnliches wird AMD wohl auch bieten müssen.
BoMbY
2018-04-03, 21:34:12
Ahh, bezüglich Vega20 und I/O gab es noch dieses Slide auf der CES:
https://i.imgur.com/2iwamYR.jpg
Zu sehen u.A. bei Anandtech (https://www.anandtech.com/show/12233/amd-tech-day-at-ces-2018-roadmap-revealed-with-ryzen-apus-zen-on-12nm-vega-on-7nm/9).
Edit: Das "New DL Ops" ist natürlich auch eine Ansage ...
AMDoderNvidia
2018-04-03, 22:13:54
Mag einer von Euch vielleicht mal im Diskussionsthread zur Vega-News von heute reinschauen (Link --> Diskussion zu: Hardware- und Nachrichten-Links der Osterfeiertage 2018 (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587639))? Würde mich freuen, wenn der ein oder andere was auf meinen Kommentar antworten würde.
Liszca
2018-04-06, 17:29:39
Ist Vega12 nicht der Ryzen "3400G" refresh?
reaperrr
2018-04-06, 17:53:59
Ist Vega12 nicht der Ryzen "3400G" refresh?
Äußerst unwahrscheinlich, dann müsste Vega11 die IGP von Raven Ridge sein und die separaten Chips außer Vega10/20 hätten allesamt keinen internen Code-Namen, das wäre schon arg seltsam.
BoMbY
2018-04-06, 20:55:04
Die iGPUs der kommenden Generationen dürften wie bisher unter dem Codenamen für den Chip laufen, aktuell war "Raven Ridge", die nächste Generation ist "Picasso" gefolgt von "Renoir". Die Frage ist: Ist Picasso noch Vega, oder ist das bereits Navi?
Edit: Außer natürlich es geht in Richtung Chiplets auf Interposer o.Ä. bei AMD ...
reaperrr
2018-04-06, 21:01:15
Die iGPUs der kommenden Generationen dürften wie bisher unter dem Codenamen für den Chip laufen, aktuell war "Raven Ridge", die nächste Generation ist "Picasso" gefolgt von "Renoir". Die Frage ist: Ist Picasso noch Vega, oder ist das bereits Navi?
Edit: Außer natürlich es geht in Richtung Chiplets auf Interposer o.Ä. bei AMD ...
Also mein letzter Stand ist, dass Picasso zu RR nur das sein soll, was PR zu SR ist, also ein 12nm-Shrink mit maximal leichten Verbesserungen.
Möglich wäre aber auch noch, dass Picasso der Chip mit (beim Topmodell) 16 CUs und HBM ist, von dem vor längerer Zeit mal die Rede war.
BoMbY
2018-04-07, 14:47:19
Aktuell: Work Is Underway To Upstream LLVM Clang's CUDA Toolchain For AMDGPU/HIP (https://www.phoronix.com/scan.php?page=news_item&px=LLVM-CUDA-To-AMD-HIP)
Das war übrigens mal für kurze Zeit auf Github: https://webcache.googleusercontent.com/search?q=cache:_PtJOhWKtbIJ:https://github.com/RadeonOpenCompute/cudaclang-rt/blob/master/patches/README.md
vinacis_vivids
2018-04-09, 17:24:26
Ggf werden bei Semicustom Chips die Entwicklungskosten dem Kunden aufgebrummt.
Wenn der Chip nachher seitens des Kunden nicht geordert wird, hat AMD immer noch was dran verdient.
Der Vega Mobile ist von der Höhe und Fläche her interessant. Fehlt nur noch ein "Mobile" Ryzen 8/6/4 Core und es sollten sich vergleichbare günstigere AMD Syteme wie mit Intels MCM Lösung bauen lassen.
Sowas wäre möglich:
https://www.ixbt.com/news/2018/04/01/ryzen-threadripper-gpu.html
https://www.ixbt.com/img/n1/news/2018/3/0/123123123123123_large.jpg
Achill
2018-04-09, 18:01:42
Sowas wäre möglich:
https://www.ixbt.com/news/2018/04/01/ryzen-threadripper-gpu.html
https://www.ixbt.com/img/n1/news/2018/3/0/123123123123123_large.jpg
Ich glaube du weißt das selbst, aber der Artikel ist vom 1. April ... Ein TR hat doch schon genug Verbrauch. Eine Vega iGPU mit zu integrieren nimmt doch nur Power-Budget weg und Systeme mit einen TR brauchen keine iGPU oder brauchen große (mehrere) Vega/Pascal/... GPUs - alle andere, die nur eine kleine GPU brauchen, kaufen einfach eine aus der prof. Line von AMD/NV um 2+ DP Anschlüsse zu haben.
Dino-Fossil
2018-04-11, 10:55:17
Angeblich Vega @7nm nur als KI-Beschleuniger, keinerlei Ambitionen für eine Gaming-GPU.
Der Artikel ist etwas schrottig, aber sie beziehen sich zumindest auf Aussagen von AMD.
https://fudzilla.com/news/graphics/46014-vega-7nm-is-not-a-gpu
Der_Korken
2018-04-11, 11:27:34
Nicht wirklich überraschend, dass V20 kein Gaming-Produkt wird. Damit adaptiert AMD wohl die Strategie von Nvidia, für Compute und Gaming unterschiedliche Chips zu entwickeln. Das kann für Navi eigentlich nur positiv sein, denn wenn AMD den Compute-Chip als Vega statt als Navi bringt, könnte man unterstellen, dass Navi im Bereich Compute keine großen Fortschritte bringt, sondern sich stattdessen auf Gaming-Performance konzentriert. Ist natürlich doof, dass 2018 für Gamer nichts mehr kommt, aber angesichts der kommenden 7nm-Fertigung würden die Leute vermutlich eh lieber noch warten, als 2018 noch einen Vega-Refresh in 12nm zu kaufen.
Dino-Fossil
2018-04-11, 11:47:55
Ja, eigentlich war es relativ klar, dass 2018 nichts wirklich neues für Gamer kommt.
Selbst wenn Vega@7nm auch als Gaming-Karte käme, wäre damit so bald nicht zu rechnen, da vermutlich Compute-Karten den Vorrang hätten.
Und AMDs Roadmap für 2018 hatte eigentlich im Gaming-Bereich sowieso nur Polaris + Vega56/64 angegeben.
Also ich würde schon darauf tippen, dass V20 auch als Gaming-Karte in 2019 erscheinen wird (mit nur zwei Stapeln), dann aber nicht bevor Navi erscheint. Vorher wird nur der Profimarkt bedient.
Der_Korken
2018-04-11, 13:47:55
Also ich würde schon darauf tippen, dass V20 auch als Gaming-Karte in 2019 erscheinen wird (mit nur zwei Stapeln), dann aber nicht bevor Navi erscheint. Vorher wird nur der Profimarkt bedient.
Die Frage ist nur, welche Daseinsberechtigung so eine Karte hätte. Die aktuellen Spekulationen gehen von weiterhin 64CUs aus. Die hohe DP-Rate und Features wie Tensor-Cores oder was auch immer sich AMD noch für V20 ausdenkt, bringen in Games nichts. Das wäre also lediglich ein V10 in 7nm mit gepimpter Taktrate. Man kann davon ausgehen, dass N10 auch mindestens 64 CUs haben wird, nur dass der zugehörige Chip kleiner und sparsamer wird.
AlterSack
2018-04-11, 18:26:13
Vega in 12nm wäre schon nicht schlecht, wenn man endlich das rauskitzelt,
was man sich von Vega versprochen hat. Vega64 ist gut 50% schneller als
RX580, sollten eher 90-100% sein und da sind die Architekturverbesserungen
noch nichtmal drin. Der Mehrtakt in Bezug auf Polaris ist auch mager, so
wie behauptet wurden ja mindestens 100mm² verbraten um Vega auf
Mhz-Touren zu bringen. Wären diese Aufgaben gelöst, lohnte sich neben
einem Vega64II auch ein Vega32 oder Vega40 o.Ä.
Dino-Fossil
2018-04-11, 18:39:18
Es ist aber unwahrscheinlich, dass man sowas rein über die Fertigung lösen kann.
Bei Vega hakt es irgendwo ein wenig im Design, wodurch viele der geplanten/erhofften Verbesserungen wohl nicht ganz greifen.
Man könnte es natürlich mit einem zusätzlich fehlerbereinigten Design unter 12nm neu auflegen, aber zum einen wird das nicht so einfach möglich sein und zum anderen bleibt auch fraglich, ob das echtes Potential bietet, bzw. es sich für AMD lohnen würde.
robbitop
2018-04-11, 18:49:58
12nm bringt irgendwo zwischen 5-10% mehr Takt. Nichts kriegsentscheidendes. Vega kostet dank hbm und großen die sicherlich ähnlich viel wie gp102. In die Region müsste die Leistung, damit es sinnvoll wäre und man auch mit gt104 konkurrieren können würde. Auch ist die Verfügbarkeit des hbms und der gpu offenbar problematisch.
AMD wird V10 sicherlich abgeschrieben haben und sich hoffentlich auf eine konkurrenzfähiges Navi Lineup konzentrieren. Man braucht Produkte, die mit gt108, 107, 106, 104 und 102 konkurrieren können und dabei gleichzeitig nicht wesentlich teurer zu produzieren sind, damit man gesunde Gewinnspannen erzielen kann. Insbesondere 106 und 104 sind Marktsegmente die umsatz- und margenstark sind. Polaris hat das 2016 eigentlich ganz gut gemacht (gegen gp106 und 108). Vega war wie gesagt zu teuer zu produzieren und musste sich mit 104 abmühen...
AlterSack
2018-04-11, 18:58:20
Es ist aber unwahrscheinlich, dass man sowas rein über die Fertigung lösen kann.
Bei Vega hakt es irgendwo ein wenig im Design, wodurch viele der geplanten/erhofften Verbesserungen wohl nicht ganz greifen.
Man könnte es natürlich mit einem zusätzlich fehlerbereinigten Design unter 12nm neu auflegen, aber zum einen wird das nicht so einfach möglich sein und zum anderen bleibt auch fraglich, ob das echtes Potential bietet, bzw. es sich für AMD lohnen würde.
So in etwa meinte ich das. Taktbereinigt wäre ein Vega36
langsamer als ein Polaris10. Mit Fehlerbereinigung lohnte es sich
vllt., zumal es sicher bis Herbst 2019 dauert, bis 7nm Navis verfügbar sind.
Bleibt zu hoffen, dass die Navi-Architektur einen grösseren Fortschritt
bietet, denn 7nm alleine werden es nicht reissen!
AlterSack
2018-04-11, 18:59:42
12nm bringt irgendwo zwischen 5-10% mehr Takt. Nichts kriegsentscheidendes. Vega kostet dank hbm und großen die sicherlich ähnlich viel wie gp102. In die Region müsste die Leistung, damit es sinnvoll wäre und man auch mit gt104 konkurrieren können würde. Auch ist die Verfügbarkeit des hbms und der gpu offenbar problematisch.
AMD wird V10 sicherlich abgeschrieben haben und sich hoffentlich auf eine konkurrenzfähiges Navi Lineup konzentrieren. Man braucht Produkte, die mit gt108, 107, 106, 104 und 102 konkurrieren können und dabei gleichzeitig nicht wesentlich teurer zu produzieren sind, damit man gesunde Gewinnspannen erzielen kann. Insbesondere 106 und 104 sind Marktsegmente die umsatz- und margenstark sind. Polaris hat das 2016 eigentlich ganz gut gemacht (gegen gp106 und 108). Vega war wie gesagt zu teuer zu produzieren und musste sich mit 104 abmühen...
...genauso!
Langlay
2018-04-11, 20:43:02
Der Mehrtakt in Bezug auf Polaris ist auch mager, so
wie behauptet wurden ja mindestens 100mm² verbraten um Vega auf
Mhz-Touren zu bringen.
Naja Vega taktet >1.75GHz allerdings bei einem Verbrauch jeseits von Gut und Böse. Mit Taktraten auf Polaris Niveau ist Vega allerdings spätestens nach dem UV recht sparsam.
An sich is Vega nicht schlecht nur wahrscheinlich zu teuer in der Herstellung. Für 400€ is die Vega56 ne gute Karte und für 500€ wäre auch Vega64 ein faires Angebot.
reaperrr
2018-04-11, 22:38:38
So in etwa meinte ich das. Taktbereinigt wäre ein Vega36 langsamer als ein Polaris10.
Kaum bis gar nicht. Vega10 leidet einfach wie schon Fiji darunter, dass alles über 10 CUs je Shader-Engine zunehmend schlecht skaliert, zudem sind 4 Geometrie-Pipelines mittlerweile generell etwas wenig für einen GCN-Performance-Chip, da GP104 viel höher taktet und GP102 zusätzlich 50% mehr Durchsatz je Takt hat.
Vega36 hätte dank höherem Takt sogar mehr(!) Geometrie-/Tesselation-Leistung als V64.
Das Problem ist viel mehr, dass Vega36 einen 8GB, 1GHz HBM2-Stack bräuchte und durch die viel größeren CUs auch noch viel größer wäre als P10, und Karten somit für die Leistung viel zu teuer in der Herstellung wären. An einer RX580 für 270$/€ verdient AMD wahrscheinlich mehr, als sie an so einer Vega 36 für 350 verdienen würden.
Die einzige halbwegs sinnvolle Spezifikation für einen Vega-basierten P10-Ersatz wäre mMn
- 40-44 CUs
- 64 ROPs
- ~1.55-1.6 GHz Durchschnittstakt
- 2 MB L2$
- 8GB GDDR6 @ 12-14Gbps @ 256bit SI
Damit sollten sie nämlich zumindest GTX 1070 FE-Niveau erreichen können (RX580+35-40%), und mit den Specs sollte der Chip auch "nur" ca. 350-360mm² haben, was die Perf/mm² zumindest noch halbwegs nah an RX580 und GTX 1070 halten würde.
Dino-Fossil
2018-04-11, 23:07:33
Die einzige halbwegs sinnvolle Spezifikation für einen Vega-basierten P10-Ersatz wäre mMn
[...]
Damit sollten sie nämlich zumindest GTX 1070 FE-Niveau erreichen können
Dann könnten sie sich aber Vega56 auch sparen, ist nämlich teils nur wenig schneller.
Sinn würde das also nur geben (und technisch machbar sein), wenn schon V10 auf höherem Niveau herausgekommen wäre (Vega56~1080 OC, Vega64~1080Ti).
Aber ja, ich denke auch, dass ein kleiner Vega zu nah an Polaris wäre, als dass er sich bei den vermutlich höheren Fertigungskosten lohnen würde.
Interessant wäre er höchstens, wenn die Effizienz dabei deutlich besser wäre als bei den hochgepeitschten P20 Chips. Aber auch da fehlt ohne ordentliches Leistungsplus ein wenig das richtige Verkaufsargument.
Tarkin
2018-04-13, 07:25:42
plz delete
Locuza
2018-04-13, 07:27:56
Das ganze ist nach wie vor Kaby-Lake G mit eig. einer Vega M GL.
Wieso das ganze jetzt auch RX Vega 870 heißt ist mir ein Rätsel.
Die Frage ist nur, welche Daseinsberechtigung so eine Karte hätte. Die aktuellen Spekulationen gehen von weiterhin 64CUs aus. Die hohe DP-Rate und Features wie Tensor-Cores oder was auch immer sich AMD noch für V20 ausdenkt, bringen in Games nichts. Das wäre also lediglich ein V10 in 7nm mit gepimpter Taktrate. Man kann davon ausgehen, dass N10 auch mindestens 64 CUs haben wird, nur dass der zugehörige Chip kleiner und sparsamer wird.
HighEnd, denn V10 ist es dann nicht mehr, ist doch einfach.
Dann bringt man halt V20, der weniger Flaschenhälse und dafür 3 Stacks mitbringt, als 12GB HBM, der dann auf fast 2GHz takten kann (bei entsprechend hohem Verbrauch versteht sich). Damit erkauft man sich Zeit bis ins nächste Jahr. Wichtig ist halt nur, dass man mit dem GT104 Full zumindest gleichzieht. Das geht halt mit V10 sicher nicht. Und 12nm bringt gar nix, das passiert nicht. Man wird V20 einfach so lange nutzen, bis man was besseres hat und fertig. V10 und P10 laufen halt dann in 2019 ab.
reaperrr
2018-04-14, 04:06:42
V10 und P10 laufen halt dann in 2019 ab.
V10 definitiv, aber bei P10 habe ich meine Zweifel.
P10 wird mMn nur dann ersetzt, wenn AMD bei Navi wirklich schon (wie Intel bei Arctic Sound) auf den Multi-Chiplet-Ansatz setzt und die kleinste Konfiguration P10-Performance oder weniger bietet.
Falls nicht und Navi10 einfach nur flächenmäßig P10, performancemäßig aber V10 ersetzt, wird P10 erstmal weiter produziert werden, bloß dann halt vermutlich für den Bereich 149-199$ (P11 für <=99$ und P12 für <=69$).
Soll heißen, ich denke es kommt dann auch deshalb in 2019 nur ein Navi, weil AMD den Performance-Bereich unter Navi10 erstmal weiter mit Polaris abdecken wird.
Navi-basierte 7nm-Nachfolger für P10, 11 und evtl. 12 kommen wahrscheinlich erst, wenn die Waferpreise runter, Yields rauf, und EUV zu Vermeidung von Quad-Pattering verfügbar ist (sowie GDDR6 etwas günstiger und/oder schneller), weil die Design-, Masken- und Produktionskosten in 2019 und 1st-Gen-7nm noch zu hoch wären.
Und Polaris könnte zumindest im Desktop mit GT107 und GT108 bei allem außer Perf/W und Perf/mm² über den Preis konkurrieren.
AMD hat dann zwar schlechtere Margen, aber schlimmer als Pitcairn vs. GM107 (370 vs. 750 Ti) und Tonga vs. GM106 (380 vs. 960) wär's jetzt auch nicht.
Nein, P10 ist unhaltbar gegen Turing. Die werden den auf jeden Fall auch ersetzen. Ob jetzt mit einem oder mit 2 Chips spielt da keine Geige. Und dieser Multi-Chip-Ansatz ist denke ich einfach Träumerei, so machen die das nicht. Ich wette, dass damit bessere interne Skalierbarkeit mit gemeint war, sodass kleinere Chips effizienter sind. Das macht viel mehr Sinn bei einer Mainstreamgeneration.
Locuza
2018-04-22, 09:47:53
Keine Ahnung wohin damit, auf GPUOpen gibt es einen neuen Blog-Eintrag in Bezug auf die Verwendung von Double-Rate FP16 unter Vega:
https://gpuopen.com/first-steps-implementing-fp16/
Da geht man auf mögliche Anwendungsfälle ein, wo man aufpassen muss das man FP16--> FP32-Konvertierung nicht sogar mehr Performance verliert.
Es ist ein Gastbeitrag von Tom Hammersley der bei Codemasters arbeitet, ein möglicher Hinweis darauf, dass in der Zukunft ein Rennspiel mit RPM-Support kommen könnte, am Ende des Beitrags heißt es:
Conclusion
FP16 is a valuable additional tool in the programmer’s toolbox for obtaining peak shader performance. We have observed gains of around 10% on AMD RX Vega hardware. This is an attractive and lasting return for a moderate investment of engineering effort.
reaperrr
2018-04-22, 22:47:58
Hab anhand von Die-Shots von P10 und Raven Ridge sowie den bekannten Die-Flächen mal versucht, so genau wie möglich die Größenunterschiede der CUs rauszubekommen.
Ergebnis: Polaris CU ~3.1 mm², Vega CU ~4.15 mm².
Skaliert auf denselben Maßstab (ohne Gewähr, leichte Abweichung sehr wahrscheinlich da Polaris-Dieshot nur jpg war und auch noch hochskaliert wurde) sieht das dann bildlich etwa so aus:
https://i.imgur.com/KwjFn3L.png
BoMbY
2018-04-26, 09:20:26
https://twitter.com/AMDNews/status/989258151345229825:
"7nm @RadeonInstinct product for machine learning is running in our labs. http://bit.ly/2vRDOl4"
https://pbs.twimg.com/media/DbqNC34WAAI6Axc.jpg:large
basix
2018-04-26, 09:49:52
Das ging aber schnell. Das lässt auf einen frühen Start von 7nm Navi hoffen.
AffenJack
2018-04-26, 09:55:30
Das ging aber schnell. Das lässt auf einen frühen Start von 7nm Navi hoffen.
Es hat sich nix geändert, Samples 2018. Produktionsstart wahrscheinlich Q4. Auslieferung Anfang 2019. Würde Navi immernoch 6 Monate später erwarten. Aber schonmal gut, dass V20 im Plan ist. Vielleicht sehen wir Mitte des Jahres doch etwas davon und können mal sehen, was 7nm so bringt.
basix
2018-04-26, 10:08:34
Es hat sich nix geändert, Samples 2018. Produktionsstart wahrscheinlich Q4. Auslieferung Anfang 2019. Würde Navi immernoch 6 Monate später erwarten.
Es geht darum, dass man lauffähige 7nm HW schon im April 2018 hat. Deswegen ist Navi 12 Monate später wohl im Bereich des möglichen. Vor Frühling 2019 erwarte ich nichts, aber Herbst 2019 für Navi wäre schade. Wenn es extrem gut läuft machen sie vielleicht einen Stunt à la HD7970, weil Vega momentan gegen die Pascals und kommenden Turings relativ schlecht aussieht. Das wären aber sehr geringe Mengen etc. aka Paper Launch. Daran glaube ich aber eher nicht.
AffenJack
2018-04-26, 10:29:53
Man hat lauffähige V20 Hardware, aber Navi kommt später. Ich glaube nicht dran, dass man 3 Monate nach V20 Chips schon Navi in den Händen haben wird, denn dann macht V20 keinerlei Sinn. Da sollte man lieber 3 Monate warten und einen Navi20 direkt bauen. Der einzige Grund das zu machen, wäre wenn Navi architektonisch sogut wie gar nichts zu bieten hat. Ich hab lieber einen späteren Navi, wo sich vielleicht was tut, als praktisch nur einen Vega Aufguss.
Mangel76
2018-04-26, 10:39:18
Man hat lauffähige V20 Hardware, aber Navi kommt später. Ich glaube nicht dran, dass man 3 Monate nach V20 Chips schon Navi in den Händen haben wird, denn dann macht V20 keinerlei Sinn. Da sollte man lieber 3 Monate warten und einen Navi20 direkt bauen. Der einzige Grund das zu machen, wäre wenn Navi architektonisch sogut wie gar nichts zu bieten hat. Ich hab lieber einen späteren Navi, wo sich vielleicht was tut, als praktisch nur einen Vega Aufguss.
Diese Argumentation würde nur Sinn machen, wenn beide für gleiche Aufgaben vorgesehen wären. Vielleicht hat NAVI aber Änderungen, die lediglich einer besseren Gaming-Performance dienen. V20 wäre aber die dringend benötigte Ablösung von HAWAII mit FP64-Fähigkeiten, während die Änderungen in NAVI keine Verbesserungen im professionellen Bereich bringen. Dann wäre so ein Vorgehen durchaus nachzuvollziehen.
w0mbat
2018-04-26, 10:55:08
Man muss auch bedenken, dass AMD aktuell wieder Geld verdient und seit einer Weile neue Leute einstellt. D.h., langsam sollten sich die Dinge wieder schneller bewegen. AMD war vor allem so langsam, weil sie wenig manpower hatten.
Ich kann mir gut vorstellen, dass wir Produkte früher sehen als gedacht.
mboeller
2018-04-26, 12:49:54
passt doch gut dazu:
https://www.anandtech.com/show/12677/tsmc-kicks-off-volume-production-of-7nm-chips
Jedenfalls ist da die Katze jetzt schon aus dem Sack, dass V20 sehr sicher von TSMC kommt. Kann man quasi als bestätigt ansehen.
BoMbY
2018-04-30, 06:30:23
Scheint jedenfalls schon lauffähig zu sein:
https://videocardz.com/76076/early-amd-vega-20-3dmark11-benchmark-result-emerges
fondness
2018-04-30, 09:43:29
Scheint jedenfalls schon lauffähig zu sein:
https://videocardz.com/76076/early-amd-vega-20-3dmark11-benchmark-result-emerges
Hm, trotz nur 1 Ghz Takt und einem sehr frühen Engineering Sample mit sehr frühen Treibern kaum langsamer als eine Vega Frontier? Dazu sind die 32Gb HBM2 wohl bestätigt.
M4xw0lf
2018-04-30, 09:46:36
Hm, trotz nur 1 Ghz Takt und einem sehr frühen Engineering Sample mit sehr frühen Treibern kaum langsamer als eine Vega Frontier? Dazu sind die 32Gb HBM2 wohl bestätigt.
Der Takt wird nicht richtig ausgelesen, steht zumindest im Text.
AffenJack
2018-04-30, 09:53:29
Wie skaliert V10 eigentlich mit HBM Übertaktung, insbesondere bei 3d mark 11? Ich meine das Ding hier hat, wenn der ramtakt richtig ausgelesen wird 1,25 TBit/s Bandbreite im Vergleich zu den 500Gbit/s bei V10. Mit der Bandbreite und 128 ROPs statt 64 ROPs könnten durchaus einige Handbremsen von Vega gelöst werden. 3d Mark 11 ist auch nicht so Shaderlastig, da könnten die 4k Shader vielleicht weniger limitieren und es wäre wirklich deutlich niedriger. Gerade mal so rumgestöbert bei 3dmark 11, aber stimmt schon, die Taktraten da sind oftmals falsch. Übertaktungen überhaupt nicht angezeigt.
X-Bow
2018-04-30, 10:00:56
Scheint jedenfalls schon lauffähig zu sein:
https://videocardz.com/76076/early-amd-vega-20-3dmark11-benchmark-result-emerges
Wenn V20 nur als Instinct kommen soll, müsste das Ergebnis doch theoretisch von einer passiv gekühlten Karte sein, oder? Dann könnte Temperaturlimitiert die 1000 Mhz schon hin kommen auch wenn die korrekte Zahl nicht richtig ausgelesen sein könnte.
AffenJack
2018-04-30, 10:03:04
Wenn V20 nur als Instinct kommen soll, müsste das Ergebnis doch theoretisch von einer passiv gekühlten Karte sein, oder? Dann könnte Temperaturlimitiert die 1000 Mhz schon hin kommen auch wenn die korrekte Zahl nicht richtig ausgelesen sein könnte.
Nein, das ist ein Sample. Das ist definitiv aktiv gekühlt. Das Ding läuft niemals passiv. Auch eine Instinctkarte läuft niemals wirklich passiv. Wenn die passiv laufen, dann in einem Gehäuse mit so einem Luftstrom, dass das genauso wie ein normaler Kühler ist.
dildo4u
2018-04-30, 10:06:45
Bei den MI25 steht auch passive Kühlung trotz 300 Watt die sind halt rein für Server Racks gedacht.
http://abload.de/img/mi25hakru2.png
X-Bow
2018-04-30, 10:17:56
@Dildo: Ja die MI25 ist passiv gekühlt, deshalb die Frage. Aber es kann auch durchaus sein das ein Sample eben aus Gründen der Sicherheit/Standfestigkeit immer erst mal aktiv gekühlt betrieben werden.
@AffenJack: Danke, gut zu wissen das Samples definitiv aktiv gekühlt werden.
die MI25 wird von starken Lüftern angeblasen, das ist nicht wirklich passiv, der Lüfter ist nur nicht auf der Karte
BoMbY
2018-05-01, 11:10:41
Vega12 und Vega20 LLVM patches: https://www.phoronix.com/scan.php?page=news_item&px=Vega-12-20-AMDGPU-LLVM
So it's not too surprising these patches do confirm new deep learning GPU instructions being present for Vega 20. The deep learning intrinsics added are fdot2, sdot2, udot2, sdot4, udot4, sdot8, and udot8.
Auch interessant, eine weitere Bestätigung:
+def FeatureISAVersion9_0_6 : SubtargetFeatureISAVersion <9,0,6,
+ [FeatureGFX9,
+ HalfRate64Ops,
+ FeatureFmaMixInsts,
+ FeatureLDSBankCount32,
+ FeatureDLInsts]>;
+
mboeller
2018-05-01, 12:25:34
Vega12 und Vega20 LLVM patches: https://www.phoronix.com/scan.php?page=news_item&px=Vega-12-20-AMDGPU-LLVM
So it's not too surprising these patches do confirm new deep learning GPU instructions being present for Vega 20. The deep learning intrinsics added are fdot2, sdot2, udot2, sdot4, udot4, sdot8, and udot8.
??? 2bit, 4bit und 8bit? Ich wusste gar nicht das DL mit 2bit geht?
basix
2018-05-01, 20:04:23
Wieso nicht? Die Genauigkeit und allgemein die Möglichkeiten sind einfach sehr beschränkt. Eigentlich könnte ja 1 Bit schon reichen um zu entscheiden, ob man nun links oder recht rum muss (sehr einfach ausgedrückt).
BoMbY
2018-05-01, 22:10:51
Wenn ich das richtig sehe werden mit sdot2 und fdot2 2x 16bit pro 32bit Register übergeben, bei sdot4 und fdot4 4x 8bit pro 32bit Register, und bei sdot8 und fdot8 8x 4bit pro 32bit Register.
mboeller
2018-05-02, 08:20:22
Wenn ich das richtig sehe werden mit sdot2 und fdot2 2x 16bit pro 32bit Register übergeben, bei sdot4 und fdot4 4x 8bit pro 32bit Register, und bei sdot8 und fdot8 8x 4bit pro 32bit Register.
Danke! So macht das mehr Sinn.
Locuza
2018-05-06, 14:58:27
Ethernity hat sich die Linux-Patches für Vega20/12 genauer angeschaut:
https://forum.beyond3d.com/posts/2030532/
Der Vega20 code ist erst im frühem Stadium, es gibt ein paar neue Funktionen, einen neuen Data Fabric (xGMI laut alten Leaks).
Vega12 hat neuen Microcode bei der SMU (System Management Unit) welche sich um das Power Management kümmert.
https://bilder.pcwelt.de/3455328_original.jpg
Es gibt nun soweit ich weiß erstmalig 16 Power-Stages für Taktraten.
Ganz früher und bei GCN Gen 1 waren es 4, ab Bonaire hat AMD dann 8 implementiert, wobei ich nicht mehr weiß ob der GCN Gen 1 (2xx) Refresh eine neue Firmware bekommen hat, der ebenso mehr DPM-Stages implementiert hat.
Jedenfalls besitzt Vega12 nun 16 und sollte damit viel feinkörniger arbeiten.
Noch so ein paar Infos, wie eine vereinfachte thermische Kontrolle und es gibt keine Schnittstelle für eine LED-Kontrolle mehr.
Es gibt eine Schnittstelle für eine Lüfterregelung, entsprechend könnte man es auch für den Desktop verwenden.
Die maximale Taktrate die hinterlegt ist beträgt satte 1,98 Ghz, dass könnte darauf hindeuten, dass Vega12 effektiv einen höheren Takt schafft bzw. höher boosten könnte, als die bisherigen Vegas.
aufkrawall
2018-05-06, 15:05:33
Es gibt eine Schnittstelle für eine Lüfterregelung, entsprechend könnte man es auch für den Desktop verwenden.
Er sagt auch, dass diese wohl wieder dem Pre-Vega 10 Stand ähnlicher ist. Vega 10 war dahingehend seltsam und etwa Afterburner hatte auch Anpassungen dafür gebraucht.
Dino-Fossil
2018-05-07, 11:04:04
Womit sich die Frage stellt, wo ein potentieller Desktop-Vega12 hin soll.
Wenn Vega nicht deutlich gefixt wurde (vorausgesetzt da ist "genug kaputt" dafür), wäre ein P10-Ersatz vermutlich nicht wesentlich schneller oder billiger. Bestenfalls effizienter - womit man evtl. ggü Turing etwas besser da stünde? Aber ob das alleine reicht, um einen weiteren Chip zu rechtfertigen?
Zumal dann wieder die Frage nach der Positionierung von Navi aufkommt.
Ein Ersatz für P11/12 macht eigentlich auch keinen Sinn, da man in dem Preis/Performancebereich vermutlich keinen großen Druck hat, schon wieder modernere Chips aufzulegen.
Einen Oland-Ersatz deutlich unter 100mm^2 mag ich auch nicht so recht glauben.
Bleibt wohl erstmal nur, abzuwarten.
Hm... doch ne Ablöse für V10? Weiterhin 64CUs, aber eben deutlich effizienter, in 12nm und mit GDDR6-RAM? Denkbar wärs ja, da man ja schon Ende 2016 gewusst haben muss, dass das mit V10 nix wird. Die restlichen V10 kann man dann ja noch als Nano verbraten.
Dino-Fossil
2018-05-07, 11:54:35
Oder doch nur ein Chip, der primär für den Mobilbereich gedacht ist, für den man sich aber den Einsatz am Desktop offenhalten will?
V10 Reloaded halte ich für unwahrscheinlich, da man mit V20 noch einen weiteren 64Cu Vega-Chip in der Mache hat (wenn auch in 7nm).
Zockerfrettchen
2018-05-07, 12:05:45
Ich tippe auch auf Vega-mobil. Das Produkt wurde angekündigt, neue Desktop-Modelle hingegen nicht. Auch die höhere Anzahl an Power-stages macht im mobilen Berreich deutlich mehr Sinn. Vega ist im Desktop Perfomance/Watt ja nur so schlecht, weil das Teil an der Kotzgrenze läuft. Was allerdings nicht passt sind die 1980Mhz... Evtl wird ne verbesserte Fertigung genutzt? Oder man wechselt zu TSMC?
Grüße,
Zockerfrettchen
amdfanuwe
2018-05-07, 12:14:20
V12 als 12nm Version der V10 mit kleinen Tweaks halte ich schon für denkbar.
Durch höheren Takt auf 1080 Ti Level.
Kleinere Versionen, Vega48/56, könnten das 8GB Segment abrunden.
Für die kleinen GPUs mit Leistung bis 570 Level könnte Vega Mobile mit 4GB herhalten.
Schon hätte man ein neues Produktportfolio für Desktop 2018.
Ob es so kommt, wird aber an der HBM Verfügbarkeit und den Preisen hängen.
Wenn es sich nicht lohnt, sitzt AMD das mit Polaris aus.
Vega 20 7nm ist eine ganz andere Baustelle und für den Konsumer eher was fürs 2019er Portfolio, wenn überhaupt.
anddill
2018-05-07, 12:33:48
Ich denke mal das Vega-Polaris Zwitterding das Intel bekommen hat sollte so oder ähnlich auch als mobile Lösung und als Desktop-Mittelklasse kommen. Aber da der HBM-Preis durch die Decke gegangen ist lohnt sich das jetzt kaum noch.
dargo
2018-05-07, 12:37:45
doppelpost
dargo
2018-05-07, 12:38:10
Ethernity hat sich die Linux-Patches für Vega20/12 genauer angeschaut:
https://forum.beyond3d.com/posts/2030532/
Der Vega20 code ist erst im frühem Stadium, es gibt ein paar neue Funktionen, einen neuen Data Fabric (xGMI laut alten Leaks).
Vega12 hat neuen Microcode bei der SMU (System Management Unit) welche sich um das Power Management kümmert.
https://bilder.pcwelt.de/3455328_original.jpg
Es gibt nun soweit ich weiß erstmalig 16 Power-Stages für Taktraten.
Ganz früher und bei GCN Gen 1 waren es 4, ab Bonaire hat AMD dann 8 implementiert, wobei ich nicht mehr weiß ob der GCN Gen 1 (2xx) Refresh eine neue Firmware bekommen hat, der ebenso mehr DPM-Stages implementiert hat.
Jedenfalls besitzt Vega12 nun 16 und sollte damit viel feinkörniger arbeiten.
Was willst du da noch feinkörniger gestalten? :freak: Schon bei Vega hat praktisch jedes Mhz eine eigene Spannung. Das einzige was nur bei Vega etwas seltsam ist sind diese relativ starken Sprünge in der Spannung per Default. Was sich aber zum Glück problemlos umgehen lässt. Möglicherweise ist dies dann Geschichte per Default.
AffenJack
2018-05-07, 13:12:16
Ich denke mal das Vega-Polaris Zwitterding das Intel bekommen hat sollte so oder ähnlich auch als mobile Lösung und als Desktop-Mittelklasse kommen. Aber da der HBM-Preis durch die Decke gegangen ist lohnt sich das jetzt kaum noch.
Man hat doch auf der CES dieses Jahr Vega Mobile angekündigt und gezeigt. Da wird also noch was kommen dieses Jahr. Ich glaube nicht, dass Intels Vegateil dem entspricht, sondern erwarte da schon einen vollen Vega.
Wenn der GFX 9.04 entspricht, kann das ja schon nicht "Intels Teil" sein, da dieser noch GFX 8.x ist. Zudem ist der Name für das Ding ja auch bekannt: Polaris22.
Nichts desto trotz könnte Vega Mobile trotzdem Polaris 22 sein.
Locuza
2018-05-08, 23:13:44
Timothy Lottes von AMD hat auf der GDC eine Präsentation darüber gehalten, wie man GCN am Besten auslasten sollte und welche Faktoren beachtet werden müssen.
Es ist ziemlich low-level, jedenfalls für einen Laien.
https://32ipi028l5q82yhj72224m8j-wpengine.netdna-ssl.com/wp-content/uploads/2018/05/gdc_2018_sponsored_engine_optimization_hot_lap.pptx
Weitere Präsentationen sind auf GPUOpen zu finden:
https://gpuopen.com/gdc-2018-presentations/
Kleine Zusammenfassung:
- Man sollte natürlich darauf achten das die Daten in den Caches gehalten werden und Misses soweit wie möglich vermieden.
Es gibt durchschnittliche Angaben dazu, wie viele Zyklen vergehen wenn die Daten sich in den jeweiligen Caches sich befinden bzw. es nicht tun.
- Es wird auf die Problematik vom kaltem Start eingegangen, wenn zum ersten mal was gemacht werden soll und sich noch keine Daten in den Caches befinden.
Die GPU kann lange in solch einen Zustand sich befinden.
- Wenn der Vertex Cache zum Beispiel leer ist, kann es schon einmal 4000 Zyklen dauern, bis die Pixel-Shader drankommen.
Hier wäre es interessant zu wissen, wie lange der Delay bei anderen Herstellern ausfällt.
- Delta Color Compression kann Bandbreite sparen, aber auch Performance kosten, da es die Latenzen erhöht, weil zusätzliche Meta-Daten abgerufen werden müssen.
Es werden ein paar Beispiele genannt, wo die Performance negativ beeinflusst wird und wo es Gewinne gibt.
Als Entwickler soll man jeden Case am Besten begutachten und dann selektiv schauen, wo man DCC verwendet und wo nicht.
- Dann wird darauf eingegangen, auf die Abhängigkeiten der Arbeit zu achten und welche Queues man für welche Laufzeit an Arbeit verwenden sollte, um Idle-Times zu minimieren.
- Auf "Die GCN Schwäche" bezüglich der Skalierung von mehreren Shadern wird eingegangen.
Je mehr CUs an einer SE hängen, desto länger dauert es eben bis die Maschine gefüllt ist und entsprechend kann die Skalierung leiden.
https://abload.de/img/amdrate7nuxr.jpg
Das Problem haut auch bei Async Compute rein, da GCN nicht gleichzeitig PixelShader- und Compute-Waves launchen kann, wenn eine PS-Wave zum Starten noch andauert, muss ein Compute-Dispatch solange warten.
Wichtig ist es dann darauf zu achten, welche Arbeit man als Pixel-Shader oder Compute-Shader umsetzt und wie lange die Laufzeit der Arbeit beträgt, um nicht unnötig oft vor Idle-Times zu stehen.
- Dann gibt es noch eine weiteres Chapter bezüglich Cache-Lokalität, Wave-Launch-Rates und Semi-Persitent-Waves.
OBrian
2018-05-08, 23:36:09
Also ich als Vollnoob würde jetzt sagen, baut doch einfach mehr Shaderengines auf die fetten Chips. Aber die Idee hatten sie sicherlich auch als erstes und haben sie verworfen, warum?
Locuza
2018-05-08, 23:55:39
Du stehst dann natürlich vor anderen Herausforderungen.
Es erhöht die Chip-Komplexität, erfordert ein größeres Front-End, macht die Arbeitsverteilung komplexer, die Geometrie muss z.B. bei der Rasterizierung teilweise zwischen den SEs synchronisiert werden, werden es mehr SEs wird das komplexer und bringt selber mehr Idle-Times an anderer Stelle.
Mal als Vergleich der GP102, der hat 3840 Shader-Cores, verteilt auf 6-GPCs (Shader-Engine Äquivalent) und die SIMD-Units bestehend aus den Shader-Cores sind auch doppelt so groß mit 128 Cores vs. 64.
Da hängen nur 5 SIMD-Units pro Fixed-Function-Frontend gegenüber 16 bei einem vollen Vega10.
Der Vergleich ist super krude, da die Durchsatzraten und die Arbeitsweise zwischen den Chips unterschiedlich ist, aber als grober Richtwert kann man wohl davon ausgehen, dass Nvidia bei ihrer Aufteilung deutlich weniger an den genannten Problemen leidet, als AMD.
Volta hat 14 SIMD-Units pro GPC (64 Shader Cores wie bei GCN), aber da sie es auf 6 GPCs verteilen, dennoch weniger als bei Vega mit mehr Shader-Cores insgesamt.
Es ist eben eine Kunst, ein effizientes Netzwerk aufzubauen, wo intelligente Verteilungsmechanismen für einen sehr guten Durchsatz sorgen, mit möglichst wenig Leerlauf.
Das Ganze muss mit etlichen anderen Faktoren ausbalanciert werden und je nach Verwendungszweck ist ein Kompromiss besser, als der andere.
Digidi
2018-05-09, 00:33:57
Es gibt hier verschieden Ansätze und es beschreibt schon das was ich schon seit Jahren sage das beide GPUs Vendors schon sehr speziell sind und man deshalb gesondert darauf programmieren muss. Hinzu kommen noch die unterschiede in den GPU Generationen und den unterschieden in den einzelnen GPU abstufungen.
Es ist viel Arbeit die sich hier die Entwickler sparen indem sie sich halt auf eine Marke versteifen und das wird mit noch mehr Komplexität immer schlimmer. Das dürfte mit ein Grund für das fast Monopol von Nvidia sein.
Locuza
2018-05-09, 00:54:06
Ja, überhaupt nicht das geringe R&D Budget von AMD und dessen schwache GPU-Sparte.
Das GCN Konsolenmonopol ignoriert auch jeder Entwickler und fixiert sich nur darauf seinen Workload optimal für Nvidia GPUs anzupassen, weil der PC ist der almighty ruler.
Fragman
2018-05-09, 07:49:25
Das GCN Konsolenmonopol ignoriert auch jeder Entwickler und fixiert sich nur darauf seinen Workload optimal für Nvidia GPUs anzupassen, weil der PC ist der almighty ruler.
das will ich mal bezweifeln.
amd hat dieses design so entwickelt. wenn sie also probleme haben, das richtig aus zu lasten, dann haben sie schon beim entwickeln mist gebaut. zeit genug bei gcn hatten sie ja mittlerweile.
und das problem mit der "schlechten" performance dieser arch haben sie ja auch erst seit vega. es wurde entschieden dran fest zu halten, obwohl sies besser wussten. wenn sie nichts anderes hatten, ok, dann sollen sies auch sagen. dieses rumeiern dagegen immer...
die werden sicher seit 2 jahren an was anderem arbeiten. ob navi diese aenderungen schon bringt, werden wir sehen. letzten endes hat man sich verkalkuliert mit vega. will man nur aktuell (noch) nicht sagen.
StefanV
2018-05-09, 08:20:55
Also ich als Vollnoob würde jetzt sagen, baut doch einfach mehr Shaderengines auf die fetten Chips. Aber die Idee hatten sie sicherlich auch als erstes und haben sie verworfen, warum?
Weil das den Verbrauch vom Chip deutlich angehoben hätte.
Die Leute heulen doch jetzt schon wg. Stromverbrauch hin, den noch weiter zu erhöhen scheint mir nicht sehr sinnvoll...
Die 4 Shaderengines von Hawaii sind schon sehr komplex. Ich denke, NV löst das einfach anders. Mehr als 4 sehe ich bei GCN nicht, da müsste man schon ne neue µArchitektur auspacken. Das wird auch die Archillesverse sein, die AMD dazu veranlasst hat, nach Navi was Neues zu bringen. Tahiti ist maximalausbau für 2 Shaderengines, Fiji für 4 und Vega ist Fiji @ 14nm mit modernem Featureset. Wär jetzt natürlich schön, wenn V12 64CUs mit GDDR verbinden würde. Es war ja immer wieder von Redesign und Optimierung der CUs die Rede. Wenn man das umgesetzt hat, wär mehr Takt denkbar.
V12 und 20 werden da sicherlich noch mals was an der Effizienz tun, aber mehr als 64CUs sind offenbar einfach nicht sinnvoll machbar.
Dino-Fossil
2018-05-09, 09:19:25
amd hat dieses design so entwickelt. wenn sie also probleme haben, das richtig aus zu lasten, dann haben sie schon beim entwickeln mist gebaut.
Kann man so auch nicht sagen. Es gab dazu ja auch ein paar Kommentare unseres Forum-eigenen Spiele-Entwicklers (hat unter anderem an Wolfenstein 2 TnC oder idtech6 gearbeitet? - ich komme gerade nicht auf den Namen)
Demnach kann man auch GCN (wie man an den Resultaten ja sieht) recht effizient auslasten, man muss es aber richtig machen und es erfordert teils mehr Aufwand als bei nVidia-Karten.
Fragman
2018-05-09, 09:35:00
Kann man so auch nicht sagen. Es gab dazu ja auch ein paar Kommentare unseres Forum-eigenen Spiele-Entwicklers (hat unter anderem an Wolfenstein 2 TnC oder idtech6 gearbeitet? - ich komme gerade nicht auf den Namen)
Demnach kann man auch GCN (wie man an den Resultaten ja sieht) recht effizient auslasten, man muss es aber richtig machen und es erfordert teils mehr Aufwand als bei nVidia-Karten.
ja, aber sorry, amd kann sowas nicht ernsthaft erwarten.
die diskussion ist aber sowieso alt und egal wie man dazu steht, die realitaet, sprich logik, sorgt dann fuer den rest. ;)
pixeljetstream
2018-05-09, 09:50:53
das will ich mal bezweifeln.
Locuzas Antwort hätte ich als Ironie interpretiert. Eben weil AMD bei den Konsolen noch gut dabei ist, ist Digidis Aussage fragwürdig.
Fragman
2018-05-09, 10:11:17
Locuzas Antwort hätte ich als Ironie interpretiert. Eben weil AMD bei den Konsolen noch gut dabei ist, ist Digidis Aussage fragwürdig.
ok, das ist dann was anderes. :D
Dino-Fossil
2018-05-09, 10:20:29
ja, aber sorry, amd kann sowas nicht ernsthaft erwarten.
Vielleicht ist es nicht so erstaunlich, wenn man bedenkt, dass sie Dank Konsolen eigentlich recht verbreitet sind - da hatten sie vielleicht mal die Hoffnung, dass das reichen würde um den Entwicklern das nötige Know-how zu vermitteln.
Es wäre vielleicht eine interessantere Diskussion warum trotz allem so wenige Entwickler wirklich gut mit GCN umgehen können. Was haben sie (AMD) an dem Punkt falsch gemacht?
Aber abgesehen von der softwareseitigen Problematik ist es wohl schon so, dass GCN das eine oder andere Hardware-Defizit hat, dass angegangen werden muss (gerade in der Skalierung).
Mangel76
2018-05-09, 10:32:06
Locuzas Antwort hätte ich als Ironie interpretiert. Eben weil AMD bei den Konsolen noch gut dabei ist, ist Digidis Aussage fragwürdig.
Was heißt "fragwürdig"? Ich würde eher sagen, dass die Wahrheit irgendwo dazwischen liegt.
Wenn ich die Aussagen von Locuza richtig verstehe, muss je nach SE:CU-Ratio anders optimiert werden bzw. muss bei den großen Chips wegen der größeren "Fill"-Dauer deutlich mehr Optimierungsaufwand betrieben werden als bei den kleineren GPUs.
Die Konsolen haben eher kleinere GPUs mit weniger CUs pro SE (max 1:10 bei XBOX 1X). Natürlich wird hier viel Optimierungsaufwand betrieben. Das bedeutet aber noch lange nicht, dass auch die 64CU-Flaggschiffe (FIJI, VEGA) damit perfekt laufen. Wegen fehlender Marktrelevanz wird es wohl kaum einen Spielehersteller geben, der für diese kleine Zielgruppe noch besonders hohen Aufwand betreibt, der jedoch notwendig wäre, hier die beste Leistung herauszuholen. So entsteht ein sich selbst verstärkender Prozess: Die großen GPUs enttäuschen in der Leistung durch geringeren Optimierungsaufwand, also werden sie weniger gekauft. Und weil sie weniger gekauft werden, wird weniger optimiert und Spiele laufen daher nicht so, wie sie es anderenfalls durchaus könnten. In diesem Sinne hat Digidi durchaus Recht, denn für die wesentlich größere Zielgruppe der NVIDIA-Nutzer wird natürlich deutlich mehr Optimierungsaufwand betrieben, da er sich auch ökonomisch auszahlt.
Das VEGA durchaus sehr leistungsfähig sein kann, sieht man in einigen "Leuchtturmprojekten", wie etwa Wolfenstein 2. Wenn wirklich der Aufwand betrieben wird, kann sich VEGA durchaus mit GP102 anlegen. Aber ökonomisch macht sich so ein Aufwand natürlich kaum bezahlt, da zu wenige VEGAs im Umlauf sind.
VEGA verlangt also besonderen Optimierungsaufwand (wohl mehr als GP102) und könnte in vielen Spielen bei entsprechendem Aufwand deutlich besser abschneiden. Er tut es aber nicht, weil sich der enorme Optimierungsaufwand finanziell einfach nicht lohnt.
Die Diskussion führt mMn zu nichts. Die meisten PC-Umsetzungen werden ja durch mehr oder weniger externe Studios durchgeführt, die Entwickler selbst interessiert nur Konsolen-GCN. Bei der Umsetzung für den PC wird dann eben offenbar noch einiges für NV optimiert. Kann sein, dass die GCN-Umsetzung dann darunter leidet.
pilzsammler2002
2018-05-09, 12:48:56
VEGA verlangt also besonderen Optimierungsaufwand (wohl mehr als GP102) und könnte in vielen Spielen bei entsprechendem Aufwand deutlich besser abschneiden. Er tut es aber nicht, weil sich der enorme Optimierungsaufwand finanziell einfach nicht lohnt.
Ich meine mich zu erinnern (Glaube das war ne Aussage von Gravitationsfeld) das der Aufwand fürs "optimieren" bei Wolfenstein 2 für Nvidia größer war als der für AMD... :freak:
Ich finde den Beitrag aber nicht mehr ;(
Das ist ja kein Wunder, weil das Ressoucenmanagement unter Vulkan/DX12 auf Maxwell/Pascal sehr viel schwieriger zu handhaben ist, da die Hardware hier limitiert ist. GCN hat hier einfach keine Limits, der Entwickler kann machen was er will.
Digidi
2018-05-09, 13:15:40
Was heißt "fragwürdig"? Ich würde eher sagen, dass die Wahrheit irgendwo dazwischen liegt.
Wenn ich die Aussagen von Locuza richtig verstehe, muss je nach SE:CU-Ratio anders optimiert werden bzw. muss bei den großen Chips wegen der größeren "Fill"-Dauer deutlich mehr Optimierungsaufwand betrieben werden als bei den kleineren GPUs.
Die Konsolen haben eher kleinere GPUs mit weniger CUs pro SE (max 1:10 bei XBOX 1X). Natürlich wird hier viel Optimierungsaufwand betrieben. Das bedeutet aber noch lange nicht, dass auch die 64CU-Flaggschiffe (FIJI, VEGA) damit perfekt laufen. Wegen fehlender Marktrelevanz wird es wohl kaum einen Spielehersteller geben, der für diese kleine Zielgruppe noch besonders hohen Aufwand betreibt, der jedoch notwendig wäre, hier die beste Leistung herauszuholen. So entsteht ein sich selbst verstärkender Prozess: Die großen GPUs enttäuschen in der Leistung durch geringeren Optimierungsaufwand, also werden sie weniger gekauft. Und weil sie weniger gekauft werden, wird weniger optimiert und Spiele laufen daher nicht so, wie sie es anderenfalls durchaus könnten. In diesem Sinne hat Digidi durchaus Recht, denn für die wesentlich größere Zielgruppe der NVIDIA-Nutzer wird natürlich deutlich mehr Optimierungsaufwand betrieben, da er sich auch ökonomisch auszahlt.
Das VEGA durchaus sehr leistungsfähig sein kann, sieht man in einigen "Leuchtturmprojekten", wie etwa Wolfenstein 2. Wenn wirklich der Aufwand betrieben wird, kann sich VEGA durchaus mit GP102 anlegen. Aber ökonomisch macht sich so ein Aufwand natürlich kaum bezahlt, da zu wenige VEGAs im Umlauf sind.
VEGA verlangt also besonderen Optimierungsaufwand (wohl mehr als GP102) und könnte in vielen Spielen bei entsprechendem Aufwand deutlich besser abschneiden. Er tut es aber nicht, weil sich der enorme Optimierungsaufwand finanziell einfach nicht lohnt.
Genau so hab ich es gemeint. Danke für die Ausführliche Erklärung.
Locuza
2018-05-09, 14:32:07
Die Mehrheit der Entwickler wird kaum speziell auf die Fill-Time bei Nvidia GPUs optimieren, die Hardware muss primär mit dem zurecht kommen, was dank den Konsolen als Ausgangspunkt herausgespuckt wird.
Achill
2018-05-09, 18:32:36
Die Mehrheit der Entwickler wird kaum speziell auf die Fill-Time bei Nvidia GPUs optimieren, die Hardware muss primär mit dem zurecht kommen, was dank den Konsolen als Ausgangspunkt herausgespuckt wird.
Diese Vermutung muss man aber erstmal beweisen, denn sie fußt darauf, dass es das gleich Team (PC) ist, welches auch an der Engine für die Konsole(n) gearbeitet hat.
Und ich denke hier liegt der Hund begraben, der Unterschied von den APIs und OS ist bei einer/den Konsolen doch größer (schon wegen shared Mem) als wir hier vermuten - im Vergleich zum Win/Mac/Linux PC - und es kümmern sich unterschiedliche Teams/Studios (ggf. auch externe) um die jeweilige Anpassung.
Assets und Game-Logic sollten stark unabhängig sein und daher geshared auf den Plattformen verwendet werden können.
Wenn ich mich recht entsinne, dann wurde der neue Tomb Rider für den PC exclusiv mit einen spezifischen Studio sowie Zusammenarbeit mit NV + GameWorks angekündigt. Damit ist m.E. völlig offen ob nicht wer anderes die Umsetzung auf den Konsolen übernimmt und was z.B. mit GW auf der Konsole passiert und damit auch in wie fern Optimierungen für GCN der Konsolen überhaupt beim PC ankommen / in welchen Umfang / ...
aufkrawall
2018-05-09, 18:38:13
Conspiracy Theory? Selbst PB haben doch diesmal Elex selbst portiert...
Kriton
2018-05-09, 19:31:04
Conspiracy Theory? Selbst PB haben doch diesmal Elex selbst portiert...
Mal abgesehen, davon, dass das ein Begriff der CIA ist, welcher "entworfen" wurde um Menschen, die die offizielle Version des Kennedy-Attentats nicht akzeptieren wollten, zu diskreditieren und letztlich nichts anderes als ein argumentum ad hominem darstellt:
Z.B. Destiny 2 ist nicht von Bungie für den PC portiert worden, sondern von Vicarious Visions.
Locuza
2018-05-09, 20:01:36
Diese Vermutung muss man aber erstmal beweisen, denn sie fußt darauf, dass es das gleich Team (PC) ist, welches auch an der Engine für die Konsole(n) gearbeitet hat.
Und ich denke hier liegt der Hund begraben, der Unterschied von den APIs und OS ist bei einer/den Konsolen doch größer (schon wegen shared Mem) als wir hier vermuten - im Vergleich zum Win/Mac/Linux PC - und es kümmern sich unterschiedliche Teams/Studios (ggf. auch externe) um die jeweilige Anpassung.
Assets und Game-Logic sollten stark unabhängig sein und daher geshared auf den Plattformen verwendet werden können.
Wenn ich mich recht entsinne, dann wurde der neue Tomb Rider für den PC exclusiv mit einen spezifischen Studio sowie Zusammenarbeit mit NV + GameWorks angekündigt. Damit ist m.E. völlig offen ob nicht wer anderes die Umsetzung auf den Konsolen übernimmt und was z.B. mit GW auf der Konsole passiert und damit auch in wie fern Optimierungen für GCN der Konsolen überhaupt beim PC ankommen / in welchen Umfang / ...
Man sieht praktisch bei jeder GDC/Siggraph mindestens eine Präsentation, die auf Optimierungen bei der Rechenlast bezüglich GCN eingeht, wie z.B. grundlegende Arbeitsgruppen damit der Algorithmus gut mappbar auf die Threadgroup Size von 64 ist.
Assets und Game-Logic werden stark vom Konsolen-Target beeinflusst, die Vertex-Last darf auch nicht zu hoch ausfallen.
Natürlich gibt es auf dem PC bisher fast nur DX11 und viele Funktionen können nicht von den Konsolen übernommen werden, aber es wird ja wohl kaum der Fall sein das die meisten Entwickler und Studios den Konsolen-Code ignorieren und stattdessen die Rechenlast und die meisten Algorithmen spezifisch neu für den PC schreiben, um optimal für Nvidia GPUs zu laufen.
Bei Square Enix hilft bei den PC-Versionen Nixxes aus, z.B. Deus Ex Human Revolution (Mit AMD kooperiert), bei Tomb Raider 2013 (AMD), Rise of the Tomb Raider (Nvidia), Deus Ex Mankind Divided (AMD) und jetzt bei Shadow of the Tomb Raider ist es wieder Nvidia.
Nixxes schreibt aber sicherlich nicht die PC-Version vollständig neu und losgelöst von den Arbeiten, die Crystal Dynamics oder Eidos Montreal als Hauptentwickler machen.
Ich würde behaupten bei vielen Spielen kommt irgendetwas bei GCN dank dem Konsolen-Deal an.
In einigen Fällen ist es sicherlich nur wenig, in anderen mehr.
Ich persönlich will mir gar nicht vorstellen, wie die Situation für AMD effektiv aussehen würde, wenn Nvidia in den Konsolen gelandet wäre.
Spiele hätten vermutlich die Geometrie-Last höher gewählt, weniger Compute-Shader verwendet und mehr Pixel-Shader, Tessellation wäre wahrscheinlich häufiger und mit größeren Faktoren verwendet worden.
Data-Layouts wären pro Nvidia, die Entwickler hätten sich alle Nvidia Dokumentationen gegeben und nicht von GCN, womit aktuell die meisten Entwickler eine ganz gute Idee haben wie GCN wenigstens prinzipiell funktioniert und worauf man im Grundsatz achten sollte.
Auch die Spezifikation von DX12 und Vulkan hätten möglicherweise anders aussehen können.
Microsoft hat mit dem SM6.0 Update für DX12 mit den Wave-Operations nicht nur AMD's Nomenklatur übernommen, sondern auch die Funktionen mappen effizient auf GCN, neben der Thematik global ordered atomics was laut Andrew für Intel schlecht zu implementieren wäre, ich weiß nicht ob die Spec jetzt anders aussieht, aber woher der Startpunkt kam ist damit offensichtlich.
Andrew Lauritzen (Ex Intel, now EA SEED): "Word of warning - these docs probably got posted by accident and are certainly not finalized. Ordered atomics (they are really more fences) as in GCN in particular are something I doubt we can support efficiently, and I certainly haven't heard that NVIDIA can either although I have no firm info on that one."
Sebbbi (Ex Ubisoft Render Lead at RedLynx, now Claybook developer and Indie): I do agree that SM 6.0 feature list looks highly GCN centric (WavePrefixSum is also a single instruction on GCN and WaveBallot returns a 64 bit mask, which efficiently maps to a single 64 bit scalar register on GCN) . Console developers (us included) have given plenty of feedback to get these features included to PC DirectX. These features make it much easier to port console games to PC.[...]
https://forum.beyond3d.com/posts/1934741/
Achill
2018-05-10, 11:27:54
Conspiracy Theory? Selbst PB haben doch diesmal Elex selbst portiert...
Ich habe meine Betrag nochmal gelesen. Es ist alles im Konjunktiv geschrieben und damit sollte auch klar sein, dass dies eine reine Vermutung von mir ist. Ich zielte einfach auf den Umstand ab, dass "wir" "gefühlt" die Optimierungen die für GCN von den Konsole nicht auf den PC sehen/bekommen - eine mögliche Erklärung die aber falsch sein kann.
--
Man sieht praktisch bei jeder GDC/Siggraph mindestens eine Präsentation, die auf Optimierungen bei der Rechenlast bezüglich GCN eingeht, wie z.B. grundlegende Arbeitsgruppen damit der Algorithmus gut mappbar auf die Threadgroup Size von 64 ist.
Assets und Game-Logic werden stark vom Konsolen-Target beeinflusst, die Vertex-Last darf auch nicht zu hoch ausfallen.
Natürlich gibt es auf dem PC bisher fast nur DX11 und viele Funktionen können nicht von den Konsolen übernommen werden, aber es wird ja wohl kaum der Fall sein das die meisten Entwickler und Studios den Konsolen-Code ignorieren und stattdessen die Rechenlast und die meisten Algorithmen spezifisch neu für den PC schreiben, um optimal für Nvidia GPUs zu laufen.
Bei Square Enix hilft bei den PC-Versionen Nixxes aus, z.B. Deus Ex Human Revolution (Mit AMD kooperiert), bei Tomb Raider 2013 (AMD), Rise of the Tomb Raider (Nvidia), Deus Ex Mankind Divided (AMD) und jetzt bei Shadow of the Tomb Raider ist es wieder Nvidia.
Nixxes schreibt aber sicherlich nicht die PC-Version vollständig neu und losgelöst von den Arbeiten, die Crystal Dynamics oder Eidos Montreal als Hauptentwickler machen.
Ich würde behaupten bei vielen Spielen kommt irgendetwas bei GCN dank dem Konsolen-Deal an.
In einigen Fällen ist es sicherlich nur wenig, in anderen mehr.
Man wird natürlich nicht das ganze Spiel umschreiben, Assets, Game-Logic werden mit hoher Wahrscheinlichkeit gleich bleiben, selbst große Teile der Game-Engine. Wenn es aber in Richtung der OS spezifischen Graphic-API sowie Shader-Code und -Funktionen geht, werden diese für die Konsolen optimiert sein und Funktionen nutzen, die man auf dem PC nicht hat.
Diese Teile müssen angepasst werden und wenn man einmal dabei ist, dann wird man auch prüfen, wie dies auf dem PC läuft - und dann kommt es darauf an, auf welche Marke man sich stärker (aus den verschiedensten Gründen) fokussiert.
Ich persönlich will mir gar nicht vorstellen, wie die Situation für AMD effektiv aussehen würde, wenn Nvidia in den Konsolen gelandet wäre.
Spiele hätten vermutlich die Geometrie-Last höher gewählt, weniger Compute-Shader verwendet und mehr Pixel-Shader, Tessellation wäre wahrscheinlich häufiger und mit größeren Faktoren verwendet worden.
Data-Layouts wären pro Nvidia, die Entwickler hätten sich alle Nvidia Dokumentationen gegeben und nicht von GCN, womit aktuell die meisten Entwickler eine ganz gute Idee haben wie GCN wenigstens prinzipiell funktioniert und worauf man im Grundsatz achten sollte.
Auch die Spezifikation von DX12 und Vulkan hätten möglicherweise anders aussehen können.
Microsoft hat mit dem SM6.0 Update für DX12 mit den Wave-Operations nicht nur AMD's Nomenklatur übernommen, sondern auch die Funktionen mappen effizient auf GCN, neben der Thematik global ordered atomics was laut Andrew für Intel schlecht zu implementieren wäre, ich weiß nicht ob die Spec jetzt anders aussieht, aber woher der Startpunkt kam ist damit offensichtlich.
https://forum.beyond3d.com/posts/1934741/
Aber das würde doch heißen, dass bis zur Einführung von DX12 bzw. SM6 CGN bzw. Vulkan es gar nicht möglich war diese Optimierungen von den Konsolen auf den PC mit zu übernehmen - hier ja konkret die XBox. Ähnlich ist es wahrscheinlich auch bzgl. der PS4 mit PSSL. Zur Einführung wurden auch dort die Unterschiede bei der Shading-Funktionen genannt: https://www.gdcvault.com/play/1019252/PlayStation-Shading-Language-for
Und wie viele Spiele gibt es, die nur auf DX12 (mit Feature-Set DX12+) bzw. Vulkan laufen/setzen. Dann (so meine Vermutung) wäre der PC-Port deutlich näher an der Version der Konsolen.
fondness
2018-05-10, 11:49:07
Data-Layouts wären pro Nvidia, die Entwickler hätten sich alle Nvidia Dokumentationen gegeben und nicht von GCN, womit aktuell die meisten Entwickler eine ganz gute Idee haben wie GCN wenigstens prinzipiell funktioniert und worauf man im Grundsatz achten sollte.
Welche Nvidia Dokumentationen?^^
Auch die Spezifikation von DX12 und Vulkan hätten möglicherweise anders aussehen können.
AMD hat mit Mantle defacto den Standard gesetzt. Die Spezifikationen hätten anders aussehen können, wenn sich MS und Nvidia nichts ins gemachte DX11 Nest gesetzt hätten.
Locuza
2018-05-10, 14:34:49
Ich habe meine Betrag nochmal gelesen. Es ist alles im Konjunktiv geschrieben und damit sollte auch klar sein, dass dies eine reine Vermutung von mir ist. Ich zielte einfach auf den Umstand ab, dass "wir" "gefühlt" die Optimierungen die für GCN von den Konsole nicht auf den PC sehen/bekommen - eine mögliche Erklärung die aber falsch sein kann.
Das "Gefühl" hängt dann aber von der subjektiven Erwartungshaltung ab.
Viele in den Foren haben auch nicht das Gefühl das AMD vom Konsolendeal profitiert, weil AMD ja nicht X Nvidia GPU deutlich schlägt, obwohl die Rechenleistung X so aussieht und AMD in den Konsolen ist.
Wie es wohl ohne Konsolendeal aussehen würde, die Vorstellung kommt irgendwie deutlich seltener an und dann stellen sich einige auch noch vor, dass es dann auch keinen Unterschied machen würde.
Man wird natürlich nicht das ganze Spiel umschreiben, Assets, Game-Logic werden mit hoher Wahrscheinlichkeit gleich bleiben, selbst große Teile der Game-Engine. Wenn es aber in Richtung der OS spezifischen Graphic-API sowie Shader-Code und -Funktionen geht, werden diese für die Konsolen optimiert sein und Funktionen nutzen, die man auf dem PC nicht hat.
Diese Teile müssen angepasst werden und wenn man einmal dabei ist, dann wird man auch prüfen, wie dies auf dem PC läuft - und dann kommt es darauf an, auf welche Marke man sich stärker (aus den verschiedensten Gründen) fokussiert.
Die Optimierungen müssen aber so extrem und verbreitet ausfallen, damit das grundsätzliche Template was von den Konsolen kommt und entsprechend GCN freundlich ausfällt im Hintergrund verblasst und wir deswegen fast ein Nvidia Monopol vor uns haben, was der Ursprungskontext ist, auf welchen mein Beitrag sich bezogen hat.
Und ich sage einfach Quatsch dazu.
Aber das würde doch heißen, dass bis zur Einführung von DX12 bzw. SM6 CGN bzw. Vulkan es gar nicht möglich war diese Optimierungen von den Konsolen auf den PC mit zu übernehmen - hier ja konkret die XBox. Ähnlich ist es wahrscheinlich auch bzgl. der PS4 mit PSSL. Zur Einführung wurden auch dort die Unterschiede bei der Shading-Funktionen genannt: https://www.gdcvault.com/play/1019252/PlayStation-Shading-Language-for
Und wie viele Spiele gibt es, die nur auf DX12 (mit Feature-Set DX12+) bzw. Vulkan laufen/setzen. Dann (so meine Vermutung) wäre der PC-Port deutlich näher an der Version der Konsolen.
Jep, dass gilt auch allgemeiner schon für Funktionen nach DX11.0.
Prinzipiell ist es auch nicht so, dass all die Funktionen besonders GCN spezifisch sind oder nur der Hardware liegen, auch Nvidia und Intel würden von vielen Funktionen sicherlich ebenso profitieren, dank API/OS-Beschränkungen geht das leider nicht (so schnell).
Welche Nvidia Dokumentationen?^^
Die welche es unter NDA gibt bzw. es geben würde, wenn Nvidia ein Konsolenmonopol damals erreicht hätte.
(Ich weiß du meinst es sarkastisch, weil Nvidia sehr verhalten ist, was die Herausgabe von Architekturdetails angeht)
AMD hat mit Mantle defacto den Standard gesetzt. Die Spezifikationen hätten anders aussehen können, wenn sich MS und Nvidia nichts ins gemachte DX11 Nest gesetzt hätten.
Welche Tragweite hätte das Projekt Mantle ohne Konsolendeal gehabt und wie stark wäre AMDs Einflusskraft dann bei der DX12/Vulkan Spezifikation ausgefallen?
Brillus
2018-05-10, 18:00:43
Welche Tragweite hätte das Projekt Mantle ohne Konsolendeal gehabt und wie stark wäre AMDs Einflusskraft dann bei der DX12/Vulkan Spezifikation ausgefallen?
Ähnlich würde ich sagen, das Projekt als solches wurde von Spieleentwicklern angestossen, Nvidia hat aber abgelehnt hörte sich sogar so an als wären die als erstes gefragt worden.
Die haben da ein paar Infos ausgegraben bei Guru3D. Es ist die Rede von einem Die-Shrink gewesen, das kann aber eigentlich nicht V20 sein. Von daher denke ich, kann man sich doch mal ein Bild zusammenspinnen, wie das ablaufen könnte nächstes Jahr.
Zudem hat GloFo ja Verzögerungen ggü. TSMC eingeräumt und eine recht düstere Zukunftsprognose abgegeben, da Abu Dhabi offenbar den Geldhahn etwas zudreht.
Ich denke, die Rede dabei war eben nicht V20, denn V20 ist kein Die-Shrink. Ein echter Shrink wird aber auch V12 nicht sein, der wird V10 nur stark gleichen mMn. Ich denke, die Vegas, die noch kommen, sind auch alle mit Codenamen versehen, die schon bekannt sind.
V10 -> 14LPP -> 2 HBM
V11 -> 14LPP Design @12LP (Wie PR) -> 1 HBM, auch Vega mobile genannt
V20 -> N7 -> 3-4HBM -> alle Profiprodukte: Instinct, Pro und Frontier-Edition, Spezial-CUs, knapp 500mm²
V12 -> N7 -> 384Bit GDDR6 -> V10-Shrink, Bugfixing, Schwachstellen beseitigt, knapp 300mm²
N10/11 -> 7LP -> 80-200mm²-Produkte, H2 2019
Neues high-End-Produkt in N7+ dann in 2020
Dino-Fossil
2018-05-15, 17:47:01
Vega20 Open Source Treiber Support veröffentlicht:
https://www.phoronix.com/scan.php?page=news_item&px=AMDGPU-Vega-20-Patches
BoMbY
2018-05-15, 21:36:16
Teilweise interessante Sachen, nicht ganz das was wir schon hatten.
Was ich mich Frage ist eher wofür sowas (https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next&id=789e626b481fc7319f1b8314c64431c6d3139049) gut sein soll:
Vega20 has dual-UVD.
Außerdem ist es UVD 7.2, und kein VCN 1.0 ...
Digidi
2018-05-18, 03:06:46
Interessantes neues Patent, konnte sich um einen Teil der neuen Renderpipline handeln.
https://patents.justia.com/patent/20180137676
Konnte wichtig sein hierfür;
http://www.freepatentsonline.com/y2018/0061124.html
Hübie
2018-05-18, 08:01:36
;D Was wäre 3DC ohne eine HOT-Prognose und einen Digidi-PrimShader-Beitrag?
Warum sollte man Vega noch großartig lange leben lassen? GCN sollte mMn verabschiedet werden.
Digidi
2018-05-18, 08:08:17
;D Was wäre 3DC ohne eine HOT-Prognose und einen Digidi-PrimShader-Beitrag?
Warum sollte man Vega noch großartig lange leben lassen? GCN sollte mMn verabschiedet werden.
Und vor alledingem deinen Geistreichen Kommentaren. :usad:
Ich weiss nicht, aus irgendeinem unerfindlichen Grund führt Hübie halt weiterhin seine Vendette :D. Ich amüsier mich da eber eher darüber.
Hey es ist langweilig geworden. Da wird man doch mal so ne Prognose raushauen dürften?!
Ich erhebe ja keinen Anspruch auf die Wahrheit sondern traue mich zu schreiben was ich denke. Diese gesellschaftliche Tendenz zur ständigen Selbstzensur ertrag ich halt nicht. Das ist ein Speku-Thread, da wird man ja wohl auch mal spekulieren dürfen. Und ich denke schon, dass man einen davon im Consumer-Markt sehen wird, sei es ein Consumer-Spinoff von V20 oder eben ein Ersatzchip, eins von beidem ist schon sehr wahrscheinlich.
BoMbY
2018-05-18, 09:13:35
Wie oft muss man eigentlich noch sagen, dass Vega11 (was vermutlich ein größerer Chip mit GDDR6 war) zu 99% eingestellt wurde, und das Vega12 zu 99% die bereits angekündigte Mobile dGPU sein wird?
Thunder99
2018-05-18, 10:45:04
Sicher? Alles nur Spekulationen. Was ist dann Vega in der CPU?
deekey777
2018-05-18, 11:04:08
Irgendwo war zu lesen, dass die Zahlen angeben, in welcher Reihenfolge die Vegas entwickelt/veröffentlicht werden.
Dino-Fossil
2018-05-18, 11:44:57
Wie oft muss man eigentlich noch sagen, dass Vega11 (was vermutlich ein größerer Chip mit GDDR6 war) zu 99% eingestellt wurde, und das Vega12 zu 99% die bereits angekündigte Mobile dGPU sein wird?
So lange man keine offiziellen Daten hat wird eben weiter spekuliert.
Wobei nicht alle Spekulationen immer sinnig sind.
Interessant ist in Bezug auf V12 jedenfalls, dass der Linux-Treiber auch auf eine mögliche Verwendung im Desktop hinweist, also ist da durchaus noch offen, in welcher Form wir V12 dann am Ende sehen werden.
Brillus
2018-05-18, 13:10:55
Irgendwo war zu lesen, dass die Zahlen angeben, in welcher Reihenfolge die Vegas entwickelt/veröffentlicht werden.
Entwicklungsstart.
amdfanuwe
2018-05-20, 00:18:37
das Vega12 zu 99% die bereits angekündigte Mobile dGPU sein wird?
Sollte ja kein Problem sein die auf ein AIB zu pflanzen und für den Desktop anzubieten. Wird mit Ryzen Mobile ja auch gemacht, der dann im Desktop als RavenRidge auftritt. Leistungsklasse bis 570 / 1060 3GB. Wäre ein Ersatz für die 4GB Klasse.
reaperrr
2018-05-20, 01:13:57
Sollte ja kein Problem sein die auf ein AIB zu pflanzen und für den Desktop anzubieten. Wird mit Ryzen Mobile ja auch gemacht, der dann im Desktop als RavenRidge auftritt. Leistungsklasse bis 570 / 1060 3GB. Wäre ein Ersatz für die 4GB Klasse.
Die Frage ist, ob das Sinn macht. Außer geringerem Verbrauch gäbe es dann keine Vorteile, und der ist im Desktop zweitrangig (und an GP106 würde man von der Perf/W trotzdem nicht rankommen).
Ich glaube/fürchte, Polaris10 wird uns noch weit ins Jahr 2019 hinein erhalten bleiben, das ist mMn auch von der Langlebigkeit her der neue Pitcairn.
amdfanuwe
2018-05-20, 02:42:37
Außer geringerem Verbrauch gäbe es dann keine Vorteile, und der ist im Desktop zweitrangig (und an GP106 würde man von der Perf/W trotzdem nicht rankommen).
Wie kommste denn darauf, dass die Perf/W nicht besser ist?
Außerdem wär das für Desktop eh egal, wie du selbst schreibst.
Sinn ergibt es wenn AMD dadurch besser fährt.
Lohnt es nicht, wirds eben mit Polaris ausgesessen bis AMD was besseres hat.
Für AMD gehts schließlich auch nur ums Geschäft.
Denke aber immer noch, dass das Hauptproblem für AMD in den hohen Speicherpreisen und der noch schlechten Verfügbarkeit von HBM liegt.
G3cko
2018-05-21, 10:26:35
und der noch schlechten Verfügbarkeit von HBM liegt.
Tja und deswegen boykotiert Nvidia diese Technologie bzw setzt sie nicht im Massenmarkt ein, sondern nur im absoluten HPC HighEnd.
amdfanuwe
2018-05-21, 10:52:17
Naja, wenn GDDR 6 nur von Nvidia eingestzt wird, könnten sie damit auch Problem bekommen, wenn zugunsten von HBM für Intel, Xilinx und AMD Kapazitäten benötigt werden.
BlacKi
2018-05-21, 11:41:58
kommt dieses jahr eigentlich von amd irgendwas neues für die gamer? und welcher wäre das? sowas wie v12 mit gddr6 das Hot projeziert hat?
Brillus
2018-05-21, 13:56:41
kommt dieses jahr eigentlich von amd irgendwas neues für die gamer? und welcher wäre das? sowas wie v12 mit gddr6 das Hot projeziert hat?
Ja wobei ich gddr6 noch fraglich finde. Ich geh bei Vega 12 von Vega mobile aus und da Performance um P10 rum mit entsprechendem besseren Verbrauch da für mobile.
Agent117
2018-05-21, 14:27:11
Würde auch sagen, dass Vega 12 Vega Mobile ist. Dann sehr wahrscheinlich auch mit HBM (gabs da nicht mal Einträge über V12, die HBM bestätigt hatten??).
Auch 7nm kann ich mir gut vorstellen, quasi als ersten kleinen Testchip im Zuge mit dem größeren, schwerer zu fertigen V20, den man aber auch im Profibereich sehr teuer verkaufen kann.
Der hohe geleakte max Takt von 1980 Mhz spricht auch für 7 nm, außer sie passen jetzt wirklich ihre Labs nochmal für 14 /12 nm an, dann aber ja auch nur für einen Chip, denn V20 ist ja bestätigt 7 nm. Fände ich doch sehr überraschend.
Btw: Weiß eigl. jemand, was bei V10 unter VEGA??_ENGINECLOCK_HARDMAX
steht? Nicht dass da auch was sehr hohes steht und der Chip in der Praxis nur 1700 macht.
Bucklew
2018-05-21, 15:11:06
Tja und deswegen boykotiert Nvidia diese Technologie bzw setzt sie nicht im Massenmarkt ein
Der Satz nach dem "bzw" negiert den Satz vorher vollständig.
Um den Sprung zu Vega zurück zu schaffen: AMD benötigt dringend die Einsparung der Leistungsaufnahme, während Pascal auch problemlos mit Standard-GDDR eine deutlich bessere Perf/Watt schafft.
kommt dieses jahr eigentlich von amd irgendwas neues für die gamer? und welcher wäre das? sowas wie v12 mit gddr6 das Hot projeziert hat?
Hm, eigentlich meinte ich, dass AMD was bringen müsste um auch ein Produkt zu haben und damit was zu verdienen. Aber die Praxis hat uns ja ein paar mal gelehrt, dass man sowas nicht unbedingt bringt, weil ganz einfach die Ressourcen zu knapp sind. Das nur als Ergänzung dazu. Das erhebt keinen Anspruch auf Wahrheit sondern ist lediglich ne Einschätzung. Kann auch sein, dass AMD neben V20 gar nix mehr bringt bis Navi und da eben auch nur das bisherige Portfolio ersetzt und das wars. Dann würds erst 2. HJ 2020 weitergehen bei AMD. Klar ist alledings, wenn es ein Produkt über V10 gibt oder dieses ersetzt dann wird das auch GDDR haben. Ansonsten eben nicht. V20 wirds sicherlich auch geben, aber maximal als FrontierEdition.
horn 12
2018-05-21, 15:38:37
AMD wird Vega 56/64 im Preis senken zum Turing Release
und dann wohl effektiv bei 379 bis 499 Euro das Dasein fristen müssen bis was Neues kommt.
Mit Vega 64 ist man noch halbwegs gut dabei, ausser dem Stromverbrauch und auch eine GTX 1x70 wird nicht weniger als 500 kosten,- bei absolut! max. knapper GTX 1080 TI FE Performance.
Man hat Vega zu tief angepriesen bei Release, Ohne wirklich liefern zu können um 399 und 499 Euro und hat nun das daraus resultierende Problem.
Bucklew
2018-05-21, 16:03:41
Mit Vega 64 ist man noch halbwegs gut dabei, ausser dem Stromverbrauch und auch eine GTX 1x70 wird nicht weniger als 500 kosten,- bei absolut! max. knapper GTX 1080 TI FE Performance.
Eine GTX xx70 mit Leistung der heutigen 1080Ti bedeutet, dass Vega64 mit der 60er Reihe darunter konkurriert. Die könnte dann auch für 400€ verkauft werden und wäre ein wahres Schnäppchen.
Grendizer
2018-05-21, 16:14:25
...
Man hat Vega zu tief angepriesen bei Release, Ohne wirklich liefern zu können um 399 und 499 Euro und hat nun das daraus resultierende Problem.
Ja da waren die Preise für ein Palit Dual Fan 1070 (billigste Custom 1070) teilweise bei 369 Euro. AMD konnte gar keine höheren Preise aufrufen.
horn 12
2018-05-21, 16:18:29
Dafür war auch AMD RX 56 schneller, sprich Referenz mit Referenz verglichen.
Grendizer
2018-05-21, 16:23:20
Dafür war auch AMD RX 56 schneller, sprich Referenz mit Referenz verglichen.
Im Test bestimmt, in freier Wildbahn gibt es bestimmt auch 10 User die den Nachweis antreten könnten.
BlacKi
2018-05-21, 19:35:43
Hm, eigentlich meinte ich, dass AMD was bringen müsste um auch ein Produkt zu haben und damit was zu verdienen. Aber die Praxis hat uns ja ein paar mal gelehrt, dass man sowas nicht unbedingt bringt, weil ganz einfach die Ressourcen zu knapp sind. Das nur als Ergänzung dazu. Das erhebt keinen Anspruch auf Wahrheit sondern ist lediglich ne Einschätzung. Kann auch sein, dass AMD neben V20 gar nix mehr bringt bis Navi und da eben auch nur das bisherige Portfolio ersetzt und das wars. Dann würds erst 2. HJ 2020 weitergehen bei AMD. Klar ist alledings, wenn es ein Produkt über V10 gibt oder dieses ersetzt dann wird das auch GDDR haben. Ansonsten eben nicht. V20 wirds sicherlich auch geben, aber maximal als FrontierEdition.
was? nichts neues bis 2020? kommt navi 7nm erst 2020? die folie zeigte doch schon navi deutlich vor 2020.
die machen den reibach ihres lebens und dann kommen nur alle 2-3 jahre neue architekturen? bisher kam wenigstens jedes jahr eine neue architektur, wenn auch nicht für jedes segment.
nächstes jahr erwarte ich vega10 in 7nm, sonst wird das ja lächerlich.
Mancko
2018-05-22, 10:07:43
Naja, wenn GDDR 6 nur von Nvidia eingestzt wird, könnten sie damit auch Problem bekommen, wenn zugunsten von HBM für Intel, Xilinx und AMD Kapazitäten benötigt werden.
Nvidia hat auch als einziger auf GDDR5x gesetzt. Probleme gab es damit nicht. Nvidia ist groß genug und hat sehr gute Geschäftsbeziehungen zu TSMC und den ganzen DRAM Herstellern. Bei der Masse und Marge die Nvidia an GPUs absetzt können sie auch alleine GDDR6 nutzen und bei HBM dank extrem profitablem HPC Bereich die Preise hochhalten indem sie dort ordentlich Speicher absaugen bzw. abnehmen.
was? nichts neues bis 2020? kommt navi 7nm erst 2020? die folie zeigte doch schon navi deutlich vor 2020.
die machen den reibach ihres lebens und dann kommen nur alle 2-3 jahre neue architekturen? bisher kam wenigstens jedes jahr eine neue architektur, wenn auch nicht für jedes segment.
nächstes jahr erwarte ich vega10 in 7nm, sonst wird das ja lächerlich.
Na deswegen schrieb ich ja, dass es einen V12 geben könnte der V10 beerebt und erweitert. Das ist aber einfach nicht sicher. Es kann eben genauso sein, dass Navi in 2019 nur bis Mainstream abdeckt (wie kommst auf Navi 2020?), so wie Polaris, und alles weitere der neuen µArchitektur überlässt, da es sich einfach nicht lohnt, noch in GCN zu investieren.
Edit: vllt. ist GDDR6 doch einfach nicht nötig:
https://www.computerbase.de/2018-05/micron-hbm-hmc-3d-xpoint/
HBM verbreitet sich weiter.
amdfanuwe
2018-05-24, 12:56:39
AMD wird Vega 56/64 im Preis senken zum Turing Release
...
Man hat Vega zu tief angepriesen bei Release, Ohne wirklich liefern zu können um 399 und 499 Euro und hat nun das daraus resultierende Problem.
Wann hat AMD denn die Preise erhöht?
Kam doch nur durch den Mining Wahn, dass die Preise hochzogen bzw. nichts lieferbar war. Und anscheinend ist die Nachfrage aktuell hoch genug das die Händler es nicht für nötig halten die Preise zu senken.
DrFreaK666
2018-05-24, 23:24:43
du hast schon mitbekommen dass Speicher teurer geworden ist? Es ist nicht nur dank Mining teurer geworden :(
amdfanuwe
2018-05-25, 00:35:05
du hast schon mitbekommen dass Speicher teurer geworden ist? Es ist nicht nur dank Mining teurer geworden :(
Klar, deshalb kostet ne 580 ja auch 299,- statt 248 wie vor dem Mining. Aber eben keine 400+ wie während der Mining Zeit.
Vega ist aber noch 200€ über dem angekündigtem Ausgabepreis. Denke nicht, dass das allein auf HBM zurückzuführen ist.
DrFreaK666
2018-05-25, 01:10:49
vielleicht ist HBM prozentual teurer geworden im Vergleich zu GDDR. Keine Ahnung.
Oranje7
2018-05-25, 03:34:41
Die Speicherpreise fallen natürlich auch nicht wenn alles was Produziert wird gleich auf einer Graka landet und diese Praktisch auch sofort schon einen abnehmer hat.
Aber genug OT darüber gibt es hier ja schon zwei Fäden
vielleicht ist HBM prozentual teurer geworden im Vergleich zu GDDR. Keine Ahnung.
Momentan wird einfach mehr Nachfrage da sein und die Speicherherstellung erhöhen die Produktion nur langsam. Hinzu kommt, dass auch Intel als Abnehmer hinzu kommt mit P22 und sicherlich großflächig auf HBM setzen wird mit ArcticSound, da die ja keinen Interposer benötigen. Die setzen sicher nicht auf GDDR sondern kaufen den HBM direkt bei Micron ein.
Hinzu kommt, dass die erste Generation HBM2 schwer zu produzieren war und damit recht teuer. Das ändert sich mit der 2.HBM-Generation.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/45956-zweite-generation-hbm2-von-sk-hynix-und-samsung-sind-kein-kompromiss-mehr.html
Die ist von Grund auf neu designt wurden und deutlich kosteneffizienter.
vinacis_vivids
2018-05-25, 13:28:42
Mal Spekulazius was Max-CLK: 1,98Ghz und V12 angeht. Höherer Takt spart halt viel Fläche ein, daher weniger CUs. 1.7-1.75Ghz ist bei Vega10 14nm das Limit. Mit 12nm und Vega CUs sind 1.8-2.0Ghz im Bereich des möglichen.
GPU|Shader|Takt|TFLOPs|Bandbreite
P20|2304|1.2-1.4Ghz|5.529-6.451|256GB/s
P20|2048|1.1-1.3Ghz|4.505-5.324|224GB/s
P10|1792|1.1-1.2Ghz|3.942-4.300|211GB/s
V12|1792|1.7-2.0Ghz|6.092-7.168|288GB/s
V12|1536|1.6-1.9Ghz|4.915-5.836|256GB/s
V12|1280|1.5-1.8Ghz|3.840-4.608|224GB/s
Da Polaris (Desktop) sehr gut läuft, ist eher mobile anzugehen.
Hübie
2018-05-25, 13:46:29
Bei gleichem Prozess braucht man mehr Transistoren, da diese wie ein Repeater wirken, um zuverlässig mehr Takt zu erreichen. Chips die vorher bei GF gefertigt wurden, werden wohl nicht zu TSMCs Libs portiert...
Brillus
2018-05-25, 13:56:42
Mal Spekulazius was Max-CLK: 1,98Ghz und V12 angeht. Höherer Takt spart halt viel Fläche ein, daher weniger CUs. 1.7-1.75Ghz ist bei Vega10 14nm das Limit. Mit 12nm und Vega CUs sind 1.8-2.0Ghz im Bereich des möglichen.
GPU|Shader|Takt|TFLOPs|Bandbreite
P20|2304|1.2-1.4Ghz|5.529-6.451|256GB/s
P20|2048|1.1-1.3Ghz|4.505-5.324|224GB/s
P10|1792|1.1-1.2Ghz|3.942-4.300|211GB/s
V12|1792|1.7-2.0Ghz|6.092-7.168|288GB/s
V12|1536|1.6-1.9Ghz|4.915-5.836|256GB/s
V12|1280|1.5-1.8Ghz|3.840-4.608|224GB/s
Da Polaris (Desktop) sehr gut läuft, ist eher mobile anzugehen.
Sehe ich nicht so, ich gehe eher von breiter und dafür zahmer getaktet aus. Da soviel wir wissen es für mobile ist. Meine Erwartungen ist P10 Performance bei klar niedrigerem Verbrauch. Soviel kostest die paar CUs nicht im Gesamtpaket, da würde es mich nicht wundern wenn HBM teuerer ist als der eigentliche Chip. Bessere Effizienz kann im mobile Bereich aber den Absatz stark steigern.
Conclusion: P10 breite und Takt und dafür klar sparsamer.
dildo4u
2018-05-28, 20:25:39
Predator Helios 500 mit Vega und Ryzen+.
https://www.acer.com/ac/en/US/content/predator-series-features/predatorhelios500
Brillus
2018-05-28, 22:57:19
Predator Helios 500 mit Vega und Ryzen+.
https://www.acer.com/ac/en/US/content/predator-series-features/predatorhelios500
Wieder so ein Teil wenn es 15 zoll wäre wäre es bestellt.:mad::mad::mad:
horn 12
2018-06-02, 11:50:51
Denke ist ne Ente aber dies waere es mal wieder
Und AMD waere in Aller Munde, auch bei einem Paperlaunch und September Hard Launch
https://www.tweaktown.com/news/62105/amd-launching-vega-20-7nm-32gb-hbm2-computex-2018/index.html
Fragman
2018-06-02, 11:54:36
das ist schon laenger bekannt, wird aber keine consumerkarte sein.
SKYNET
2018-06-02, 11:54:44
Denke ist ne Ente aber dies waere es mal wieder
Und AMD waere in Aller Munde, auch bei einem Paperlaunch und September Hard Launch
https://www.tweaktown.com/news/62105/amd-launching-vega-20-7nm-32gb-hbm2-computex-2018/index.html
will die gesichter von manchen sehen, wenn das ding nächsten monat in den regalen steht ;D
Locuza
2018-06-02, 11:58:29
Was für Launching, AMD hat von Anfang an selber gesagt das 7nm Vega Ende des Jahres nur an ausgewählte Partner gesampeled wird.
Brain.exe not found by author.
AffenJack
2018-06-02, 12:16:06
Was für Launching, AMD hat von Anfang an selber gesagt das 7nm Vega Ende des Jahres nur an ausgewählte Partner gesampeled wird.
Brain.exe not found by author.
Paperlaunch ist möglich. HPC Produkte werden oft ein halbes Jahr vor Release gelauncht und vielleicht schafft man es Ende Q4 die ersten an ausgewählte Partner auszuliefern.
Locuza
2018-06-02, 12:21:16
Eine Vorstellung, manchmal auch mit Spezifikationen != Launch.
vinacis_vivids
2018-06-02, 13:00:39
Präsentation mit *ausgewählten Benches und jemand, der n Dummy Vega20 hochhält
XD
Klevapalis
2018-06-03, 15:27:01
Präsentation mit *ausgewählten Benches und jemand, der n Dummy Vega20 hochhält
Kurz: Den die letzten Generationen üblichen Paperlauch von AMD :up:
Man sollte überlegen als Synonym für Paperlaunch einfach AMD-Launch zu nehmen ;D
anddill
2018-06-03, 17:13:58
Kurz: Den die letzten Generationen üblichen Paperlauch von AMD :up:
Man sollte überlegen als Synonym für Paperlaunch einfach AMD-Launch zu nehmen ;D
Na, wieder zu viel von den selbstgedrehten Fakenews geraucht?
Schritt 1: Ich suche mir irgend ein Gerücht aus dem Netz.
Schritt 2: Ich blase es zu einer "wahren" Geschichte auf
Schritt 3: Ich wichs mir einen drauf
unl34shed
2018-06-03, 17:38:50
Zu jung für Fermi?
Lassen wir und Mal überraschen, was da kommt.
gravitationsfeld
2018-06-03, 18:58:44
Zu jung für Fermi?
Lassen wir und Mal überraschen, was da kommt.
Fermi hat viele der Grundlagen gelegt, warum NVIDIA heute so dominant ist.
Von Vega 20 erwarte ich nicht viel mehr Performance als die jetztigen Vegas, aber weniger Stromverbrauch.
Gipsel
2018-06-04, 00:34:06
Leute! Fallt doch nicht immer auf die gleichen Trolle rein!
Nicht füttern sondern nur melden ist die Devise.
BoMbY
2018-06-04, 11:08:01
Ich denke schon das Vega20 in 7nm auch bis ca. 2 GHz takten wird, und trotzdem leicht weniger Strom verbraucht. Also etwa 32 HP/16 SP/8 DP TFlop/s bei 250W TDP vielleicht? Ich denke das wäre eine realistische Erwartung.
basix
2018-06-04, 12:19:42
Ich denke schon das Vega20 in 7nm auch bis ca. 2 GHz takten wird, und trotzdem leicht weniger Strom verbraucht. Also etwa 32 HP/16 SP/8 DP TFlop/s bei 250W TDP vielleicht? Ich denke das wäre eine realistische Erwartung.
7nm soll entweder 2.5x Energieeffizienz oder 1.4x Frequenz gegenüber 14nm LP bringen. 2 GHz könnten also passen. Ich hoffe aber auf mehr oder zumindest eine stärker bessere Energieeffizienz (z.B. 150-180W anstatt 250W bei 2 GHz). Wenn ich anschaue was V100 bei 250W leistet (7 TFLOPs DP) muss man einen grösseren Sprung hinlegen, sonst wird Nvidia mit einer 12-15 TFLOPs DP Karte in 7nm kontern und man ist wieder weit hinten nach.
Fragman
2018-06-04, 12:23:23
amd sollte mal die treiber in den griff bekommen, das ist, aus meiner sicht, deren prioritaet nummer eins. ansonsten werden sie selbst mit 50 tflops keine karten verkaufen, wenn sie alle nase lang crashen. preislich halten sie ja sehr gut mit. man stelle sich eine fe vor, deren treiben laufen wie die von nv.
StefanV
2018-06-04, 13:15:54
1. Ist das Thema VEGA und wir sind im Spekulationsthread. Seitenhiebe auf AMDs Treiber sind hier etwas OT.
2. Solange ein Großteil der Leute AMD nur als Preisdrücker für nVidia sieht und im Traum nicht dran denkt, bei denen zu kaufen, kannst das vergessen.
3. Können wir mal weiter über VEGA sprechen und mit der bashing aufhören?!
=Floi=
2018-06-04, 13:26:59
versteh den 7nm hype eh nicht, wenn es keine consumer karten gibt.
tesla karte kaufe ich mir auch nicht.
Gibts doch spätestens mit Navi.
Elite_Warrior
2018-06-04, 13:48:13
Da der V20 eine ähnliche Architektur wie V10 besitzt kann man durch ein Direktvergleich Rückschlüsse auf den 7nm Prozess schließen. Dadurch kann man sicherlich Leistungsdaten zu Navi erahnen wenn wir die genaue Anzahl der CUs kennen.
Ich denke Hauptpunkte von V10 vs V20 wären Taktbarkeit und Stromverbrauch.
AffenJack
2018-06-04, 13:52:22
Da der V20 eine ähnliche Architektur wie V10 besitzt kann man durch ein Direktvergleich Rückschlüsse auf den 7nm Prozess schließen. Dadurch kann man sicherlich Leistungsdaten zu Navi erahnen wenn wir die genaue Anzahl der CUs kennen.
Ich denke Hauptpunkte von V10 vs V20 wären Taktbarkeit und Stromverbrauch.
Jupp, seh ich auch so. Taktraten und TDP von V20 würde einen schon ziemlich gut drauf schließen lassen, was wir von Navi erwarten können (architekturverbesserungen mal beiseite), daher ist das dadurch schon alleine interessant.
Der_Korken
2018-06-04, 13:55:28
7nm soll entweder 2.5x Energieeffizienz oder 1.4x Frequenz gegenüber 14nm LP bringen. 2 GHz könnten also passen. Ich hoffe aber auf mehr oder zumindest eine stärker bessere Energieeffizienz (z.B. 150-180W anstatt 250W bei 2 GHz).
Bei der Gegenüberstellung halte ich die 1.4x Frequenz aber für den schlechteren Deal. Das ist ja im Prinzip nur eine Verbesserung der Perf/W um 40%. Damit würde AMD bestenfalls zu Pascal aufschließen, d.h. sie würden hinter Volta/Turing (bei den spekulierten Effizienzverbesserungen) zurückfallen - trotz 14nm vs 7nm! Bei CPUs ist Takt natürlich wichtig, weil ST-Leistung durch nichts zu ersetzen ist, aber bei GPUs ist das Bugdet in der Breite imho besser angelegt.
=Floi=
2018-06-04, 14:04:13
Jupp, seh ich auch so. Taktraten und TDP von V20 würde einen schon ziemlich gut drauf schließen lassen, was wir von Navi erwarten können (architekturverbesserungen mal beiseite), daher ist das dadurch schon alleine interessant.
das ging bei polaris auch nach hinten los. :rolleyes:
AMD könnte bei der 7 nm version auch wieder die bessere aber teurere spannungsversorgung verbauen. (die polaris)
200mhz takt können 100 watt ausmachen. :wink: Es gibt auch noch besseres binning.
edit
ich finde gerade nix besseres
http://www.3dcenter.org/news/der-real-erreichte-energieeffizienz-gewinn-bei-amds-polaris
es gab sehrwohl eine ankündigung mit folien und benchmarks.
Mit dem WX pcb können die daten schon eher hinkommen. Wurde nur nicht so kummuniziert und als konsumer müsste man eine WX kaufen.
AffenJack
2018-06-04, 14:09:20
das ging bei polaris auch nach hinten los. :rolleyes:
AMD könnte bei der 7 nm version auch wieder die bessere aber teurere spannungsversorgung verbauen. (die polaris)
200mhz takt können 100 watt ausmachen. :wink: Es gibt auch noch besseres binning.
Bei Polaris? Bei Polaris gab es 0 Anhaltspunkte was da kommt, es gab vorher noch nix auf dem Finfet Prozess von AMD.
Da der V20 eine ähnliche Architektur wie V10 besitzt kann man durch ein Direktvergleich Rückschlüsse auf den 7nm Prozess schließen. Dadurch kann man sicherlich Leistungsdaten zu Navi erahnen wenn wir die genaue Anzahl der CUs kennen.
Ich denke Hauptpunkte von V10 vs V20 wären Taktbarkeit und Stromverbrauch.
möglw. ist bei V10 aber doch was kaputt
Adam D.
2018-06-04, 17:00:25
möglw. ist bei V10 aber doch was kaputt
Wenn bei V10 alles funktioniert wie gedacht, würden auch 7nm die Architektur nicht retten.
OBrian
2018-06-05, 06:06:54
AMD muss eben jede noch so kleinste Andeutung unbedingt vermeiden, dass da was nicht funktioniert wie es sollte, sonst wäre Vega sofort als "kaputter Müll" verschrien. Aber ganz sicher läuft da was nicht rund, Vega 10 kriegt seine Leistung ja irgendwie nicht auf die Straße. Der Vega in Ryzen funktioniert aber gut, es liegt also eher an der Größe.
Aber sagt mal, gibt es irgendwas zu Vega 12? Wenn der leistungmäßig im Bereich einer 570 zu liegen kommt (aber sparsamer), wäre es echt schade, wenn daraus keine Desktopkarte gemacht würde.
Vega hat doch Probleme mit dem Frontend, da sich offenbar das Backend problemlos per Compute auslasten lässt, und das mit sehr hohen Taktraten. Ich denke AMD musste da einige fiese Stellen, die höhere Taktraten verhindern, bei 7nm neu designen.
Locuza
2018-06-06, 05:27:59
Vega 7nm Update von der Computex 2018.
Auch wenn es sich absolut unmöglich anhört, aber AMD hat es geschafft (Das erste mal in der Geschichte des Unternehmens?) das öffentlich angegebene Zeitfenster nach vorne zu verschieben. :freak:
Die Aussage zuvor lautete das man 7nm Vega am Ende des Jahres sampeln möchte, wobei es aktuell heißt das man schon jetzt sampled und in H2 2018 den Launch vollziehen möchte.
Sollte es AMD schaffen, ganz großer Clap.
Auch schön das AMD Vega20 in die Kamera gehalten hat, somit kann man die Chipgröße abschätzen, wenn gute Bilder hochgeladen werden.
Gamer vertröstet AMD mit Informationen in der Zukunft, ich denke das heißt dann eher 7nm Navi zu einem späteren Zeitpunkt.
Zum heutigen Zeitpunkt hat auch AMDs neuer RTG Chef bestätigt, dass die bisher gezeigte Roadmap bestand hat, man also Navi 2019 launchen möchte und im Jahr darauf "Next-Gen", was auch immer das darstellen wird.
StefanV
2018-06-06, 05:42:42
Mal 'ne blöde Idee (eher für Navi):
Aber wäre es nicht möglich, die Geforce G80/GF1xx Idee aufzugreifen, diesesmal aber fürs Frontend und nicht die Shader und das Frontend einfach höher zu takten?ß
Nightspider
2018-06-06, 06:13:28
Was schätzt ihr wie groß der 7nm Chip war, den Lisa da in der Hand hielt?
Sah schon recht groß aus oder? 400mm² ?
Wenn dann wird man bestimmt mit stark teildeaktivierten Chips starten bei dieser Größe.
Locuza
2018-06-06, 06:25:09
@ StefanV
Nicht unbedingt etwas, was ich unter Skalierbarkeit deuten würde.
Der Effizienz zutragend wäre das wahrscheinlich auch nicht.
@NightSpider
Vega 20 sieht relativ schon üppig aus, trotz 7nm:
https://abload.de/img/vega208gu5x.jpg
Loeschzwerg
2018-06-06, 06:31:40
Wann immer bisher die Vega-GPU in 7 nm von AMD angesprochen wurde, war zugleich auch von der Radeon-Instinct-Umsetzung und damit verbundenen Datacenter-Relevanz die Rede. Auf der Computex 2018 ließ AMD eine kleine Bombe platzen, denn Dr. Lisa Su, CEO von AMD erwähnte eine Verwendung dieser GPU für Gamer.
Abgehen von der Fertigung in 7 nm ist bisher recht wenig zur Vega-20-GPU bekannt.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/46620-amd-vega-in-7-nm-kommt-doch-fuer-spieler.html
Noch für 2018 sind Grafikkarten mit Vega 20 angesetzt, so heißt AMDs in 7 nm gefertigte GPU mit vier HBM2-Stacks für 32 GByte Videospeicher. Die darauf basierenden Radeon Instinct sind primär für den professionellen Sektor gedacht und können per Infinity Fabric zusammen geschaltet werden. AMD-Chefin Lisa Su sagte aber, dass auch Gaming-Ableger mit 7 nm geplant sind. Damit kann Vega 20 gemeint sein, muss aber nicht.
https://www.golem.de/news/amd-threadripper-v2-und-vega-in-7-nm-erscheinen-noch-018-1806-134785.html
Ja was denn nun? :uponder:
---
So gigantisch scheint der Sprung hinsichtlich Größe nicht gerade. Hat man sich evtl. für mehr Takt entschieden als höhere Packdichte?
Klar kommt der fürs Gaming. Produzier da Ding mit 3 4-GB-Stacks und du hast die Gaming-Veriante.
Ich hätte aber gedacht, dass man Spezialhardware verbaut für den Profimarkt, den NV-Weg scheint AMD hier aber überhaupt nicht gegangen sein. Man scheint einfach nur das Maximale aus der Vega-Architektur herausgeholt zu haben und ist irgendwo 350mm²+ gelandet, wie vorausgesagt. Zudem hat man ja vorher schon gesagt, dass man bei 7nm sehr viel taktoptimierter arbeiten wollte, das ist dann jetzt das Resultat.
Locuza
2018-06-06, 06:51:51
Das von Golem stimmt, Lisa Su hat nicht explizit gesagt das von Vega20 auch was für Gamer abfällt, sondern für Gamer auch 7nm Produkte erscheinen werden, wo man auf zukünftige Informationen vertröstet hat.
Navi erscheint offiziell auch in 7nm 2019, je nachdem ergibt es für AMD vielleicht auch keinen Sinn Vega20 für Gamer zu veröffentlichen.
reaperrr
2018-06-06, 07:24:36
@NightSpider
Vega 20 sieht relativ schon üppig aus, trotz 7nm:
https://abload.de/img/vega208gu5x.jpg
Also wenn der Maßstab halbwegs passt, ist V20 kaum mehr als halb so groß wie V10, würde ihn jedenfalls auf unter 300mm² schätzen, und das trotz verdoppeltem HBM-SI. Wie kommen hier einige auf 350-400mm²?
Nein der ist sehr sicher annähernd 350mm². Ein komplettshrink wär ca. 250mm², Speicherinterfaces haben sich verdoppelt, CUs sind größer geworden, Frontend wird massiv optimiert worden sein und kostet sicher ebenfalls einige zusätzliche Transistoren. Der ist genau da rausgekommen, wo ich das gedacht hab und ist damit klein genug geblieben für eine Consumer-Variante.
Einen zusätzlichen Navi mit 64CUs zu designen ist sicher teurer als die 50mm², die man damit hätte sparen können. Einen 64CU-Navi kann man denke ich anhand der Tatsachen hier wirklich ausschließen. AMD hat bis auf Apples Wunschchip Tonga nie was doppelt designt. Die fangen im GCN-Endgame sicher nicht damit an.
mczak
2018-06-06, 08:20:47
Nein der ist sehr sicher annähernd 350mm². Ein komplettshrink wär ca. 250mm², Speicherinterfaces haben sich verdoppelt, CUs sind größer geworden, Frontend wird massiv optimiert worden sein und kostet sicher ebenfalls einige zusätzliche Transistoren. Der ist genau da rausgekommen, wo ich das gedacht hab und ist damit klein genug geblieben für eine Consumer-Variante.
So auf die Schnelle noch etwas entzerrt, und ich komme auch bloss auf etwa 55% Fläche des V10. Das wären deutlich unter 300mm². Die HBM2-Stacks müssten ja die gleiche Grösse haben also kann es eigentlich nicht so falsch sein?
Das SI ist wohl gar nicht so gross (sollte ja bei HBM relativ platzsparend sein auch wenn es sehr breit ist). Die CUs sind vermutlich kaum messbar grösser, denn gross sind die Unterschiede zu V10 ja offenbar nicht nach dem was bisher bekannt ist (diese 8bit/4bit Ops brauchen ja nicht wirklich extra ALUs, die kriegt man fast gratis). Frontend-Aenderungen wären zwar nett aber ob die wirklich kommen mit dem Chip habe ich meine Zweifel, dafür gibt es bisher keine Indizien...
mboeller
2018-06-06, 08:25:57
also mit dem Bild auf heise.de und den HBM2-Abmessungen aus dem anandtech Artikel komme ich so auf 350-360mm² (in 7nm also sehr groß und teuer!)
https://www.heise.de/imgs/18/2/4/3/7/6/6/2/IMG_2354-ae63f6b47971a8d6.jpeg
https://www.anandtech.com/show/9969/jedec-publishes-hbm2-specification
HBM2 = 7.75 mm × 11.87 mm (91.99 mm2)
Ach ja:
Heise:
AMD verspricht eine doppelt so hohe Effizienz sowie eine um 35 Prozent höhere Performance
Also bei gleicher Performance nur noch 150w statt 300w, oder doch 35% schneller und nur 150w?
https://www.heise.de/newsticker/meldung/AMD-Radeon-Instinct-mit-Vega-7-nm-FreeSync-fuer-Samsung-TVs-4069573.html
BoMbY
2018-06-06, 09:06:13
Fiji hat 596 mm², Vega10 hat 484 mm², Vega20 hat mit mehr Recheneinheiten als Vega10 (1/2 DP + 2 zusätzliche MC + Neue AI-Instructions) nur sagen wir 356 mm² - dürfte als ziemlich im Plan liegen. Und 35% mehr Performance ausgehend von der MI25 würde für etwa 2050 MHz Takt sprechen, was dann vielleicht bei 225W raus kommt.
Locuza
2018-06-06, 09:21:09
Mhh neben dem riesigen EPYC Package sieht es doch so aus, als ob AMD theoretisch auch einen Vega20 mit zwei Zepplin dies für eine HPC-APU unterbringen können sollte.
Ich bin gespannt, ob bzw. wann AMD das Konzept umsetzt.
lowkres
2018-06-06, 09:36:57
Hat AMD nicht gesagt das sie etwas noch nie dagewesenes präsentieren wollen?????
Also das bis jetzt, was gezeigt worden ist war doch jetzt nicht wirklich neu als Information.
Locuza
2018-06-06, 09:38:11
Vega20 hat man noch nie gezeigt, genauso wenig 7nm EPYC, auch wenn dank dem Package das natürlich etwas witzlos ist.
AffenJack
2018-06-06, 09:39:25
also mit dem Bild auf heise.de und den HBM2-Abmessungen aus dem anandtech Artikel komme ich so auf 350-360mm² (in 7nm also sehr groß und teuer!)
https://www.heise.de/imgs/18/2/4/3/7/6/6/2/IMG_2354-ae63f6b47971a8d6.jpeg
https://www.anandtech.com/show/9969/jedec-publishes-hbm2-specification
HBM2 = 7.75 mm × 11.87 mm (91.99 mm2)
Ach ja:
Heise:
Also bei gleicher Performance nur noch 150w statt 300w, oder doch 35% schneller und nur 150w?
https://www.heise.de/newsticker/meldung/AMD-Radeon-Instinct-mit-Vega-7-nm-FreeSync-fuer-Samsung-TVs-4069573.html
Anandtech stimmt mit deinen Werten in etwa überein und sagt auch min 336 mm². Die Performance von Vega wurde nicht beschrieben, sondern nur der 7nm Node allgemein. Der AMD Typ hat da zwar "and" gesagt, aber damit ist bei den Foundries eigentlich immer das eine oder andere gemeint. Nur das passt auch zu den Angaben der Foundries.
lowkres
2018-06-06, 09:49:40
@locuza: Ja das stimmt, aber bei solchen Aussagen denkt man immer an etwas besonderes.
Ob wir Vega20 für Gamer Ende dieses Jahres schon sehen werden???
https://www.notebookcheck.net/AMD-demonstrates-Radeon-Instinct-7nm-Vega-GPU-platform-with-32-GB-HBM2-memory.307988.0.html
mit Cinema4D-Renderzeitangabe
aso, gabs vom luxx schon
Complicated
2018-06-06, 10:41:01
Hat AMD nicht gesagt das sie etwas noch nie dagewesenes präsentieren wollen?????
Also das bis jetzt, was gezeigt worden ist war doch jetzt nicht wirklich neu als Information.
Das haben sie bei CPUs gezeigt. 32 Kerne auf Desktop gab es bisher nicht.
Gipsel
2018-06-06, 10:48:19
Anandtech stimmt mit deinen Werten in etwa überein und sagt auch min 336 mm².Ich bin beim Pixelzählen auch auf 336mm² gekommen. Plusminus vermutlich 10% bei den doch recht schlecht aufgelösten Fotos.
@Complicated:
Das öffentliche Vorzeigen einer 7nm GPU wohl auch noch nicht.
BoMbY
2018-06-06, 10:49:09
Ob wir Vega20 für Gamer Ende dieses Jahres schon sehen werden???
Die Frage ist, ob es das überhaupt gibt? Da haben wieder mal einige geschlafen. Lisa hat gesagt, dass es 7nm GPUs für Gamer geben wird irgendwann, aber sie hat nicht explizit gesagt Vega20 ...
Abgesehen davon steht auf AMD's Folien H2/2018 für die MI-Version, was ziemlich sicher immer heißt Q4/2018, weil sonst würde man Q3/2018 schreiben.
Korvaun
2018-06-06, 11:03:15
Wenn was dran ist an den Gerüchten das NAVI der Polaris-Nachfolger (aka "Mainstream") sein soll dann braucht AMD Vega20 für die "HighEnd/Enthusiast"-Leute um 2019 nicht komplett den anschluß an nV zu verlieren. Könnte dann so aussehen, alles natürlich in 7nm:
Navi 8GB (GDDR6) --> Mainstream
Vega20 12GB (3*HBM2) --> HighEnd
Vega20 16GB (4*HBM2) --> Enthusiast
Vega20 32GB --> als Titan Gegner
mal sehen was passiert ;)
AffenJack
2018-06-06, 11:13:48
Navi könnte bei fast der gleichen Geschwindigkeit von Vega20 viel kleiner sein. Mit Mainstream würde ich 256Bit mit 14-16Gbps GDDR6 erwarten. Ein direkter Vega10 Shrink sollte so 250 mm² sein, Vega 20 hat aber ~340mm². Da ist also ganz schön viel HPC Zeug drinne. Ich kann mir daher gut einen 200-250 mm² Navi10 mit 4k Shadern vorstellen. Da ist dann kein Platz mehr für V20, weil Navi alleine schon zu nah dran kommt und Vega viel zu viel kostet.
Hoffentlich bringen sie eine Frontier Edition mit Gaming-Pro-Hybridtreiberei, das wäre schon was (gegen die Ödnis am Markt). =)
MfG,
Raff
BlacKi
2018-06-06, 11:16:05
Vega 20 sieht relativ schon üppig aus, trotz 7nm:
[/URL]
dabei ist das rechte bild sogar noch 8,6% kleiner wenn man beide hbm speicher dazu ausmisst.
ich komme auf 316mm² für v20. amd wird dafür bekannter maßen nur die belichtete fläche und damit weniger angeben. also ca 290mm².
https://abload.de/img/v10vsv20iuqoc.jpg
Der_Korken
2018-06-06, 11:35:25
Mich stimmt die große Die Size nicht sehr optimistisch. Wenn man davon ausgeht, dass die Packdichte um sagen wir mal 70% zunimmt gegenüber 14nm, entspräche das knapp 15 Mrd. Transistoren** für V20. Bei 100% besserer Packdichte (wie auf den Folien angegeben) wären es sogar über 17 Mrd. Transistoren, also doppelt so viel wie Fiji.
Ja, V20 hat ein doppelt so großes HBM-Interface und 1:2 DP, aber die PHYs sind bei HBM deutlich kleiner als bei GDDR und bei Hawaii hat 1:2 DP auch nicht viel gekostet (hatte sogar mehr CUs/Transistor als Tonga, Fiji und Polaris, nur Tahiti war leicht besser). Da frage ich mich schon, wo die ganzen Transistoren geblieben sind. An ein neues Über-Frontend glaube ich bei einem auf Compute ausgelegten Chip auch nicht so recht, da das hauptsächlich für Gaming gebraucht würde.
Edit: ** mit 336mm² als Berechnungsgrundlage
fondness
2018-06-06, 12:34:06
Mich stimmt die große Die Size nicht sehr optimistisch. Wenn man davon ausgeht, dass die Packdichte um sagen wir mal 70% zunimmt gegenüber 14nm, entspräche das knapp 15 Mrd. Transistoren** für V20. Bei 100% besserer Packdichte (wie auf den Folien angegeben) wären es sogar über 17 Mrd. Transistoren, also doppelt so viel wie Fiji.
Ja, V20 hat ein doppelt so großes HBM-Interface und 1:2 DP, aber die PHYs sind bei HBM deutlich kleiner als bei GDDR und bei Hawaii hat 1:2 DP auch nicht viel gekostet (hatte sogar mehr CUs/Transistor als Tonga, Fiji und Polaris, nur Tahiti war leicht besser). Da frage ich mich schon, wo die ganzen Transistoren geblieben sind. An ein neues Über-Frontend glaube ich bei einem auf Compute ausgelegten Chip auch nicht so recht, da das hauptsächlich für Gaming gebraucht würde.
Edit: ** mit 336mm² als Berechnungsgrundlage
V20 hat zusätzlich zu V10 zumindest:
- xGMI-Interface
- doppelt so breites SI
- 1:2 DP
- Irgendwelche Special-Einheiten für Deep Learning.
Das Zeug dürfte nicht ganz billig sein. Zusätzlich können auch noch weitere Änderungen vorhanden sein, die man heute noch nicht kennt.
basix
2018-06-06, 12:36:51
Bei der Gegenüberstellung halte ich die 1.4x Frequenz aber für den schlechteren Deal. Das ist ja im Prinzip nur eine Verbesserung der Perf/W um 40%.
Da gebe ich dir definitiv recht. Deswegen hoffe ich bei V20 auf ein UND anstatt ein ODER bei +Perf und +Effizienz - erreicht über die Architektur oder Behebung von Bottlenecks / intelligentem Chipdesign. Die Folie von AMD sagt 2x Effizienz und 1.35x Performance. Das sagt mir: 2 GHz bei ca. 180-200W. Mit 2x 6p PCIe und somit max. 225W wäre das schon ein schönes Ding. Das macht auch Sinn, wenn man zumindest Performance mässig auf Höhe oder gar ein bisschen über V100 landen will. Dann spendiert man halt ein wenig Energieeffizienz und nimmt dafür mehr Takt mit. Laut TSMC sind es im guten Fall fast 3x höhere Energieeffizienz zwischen 16nm und 7nm. Davon bleiben jetzt noch 2x übrig. Das finde ich gar nicht schlecht, wenn man auch noch das verdoppelte SI und die stark erhöhte FP64 Leistung miteinbezieht.
Bei Gaming Karten (Navi) wünsche ich mir dann aber mehr Fokus auf möglichst hohe Energieeffizienz. Ohne DL Zeugs etc. sind wohl 8k Shader mit ca. 400-450mm2 möglich, wenn man von fast 0.3x Flächenskalierung ausgeht. Das verbunden mit 1.5 GHz Takt und hoffentlich verbesserter Architektureffizienz hätte schon ziemlich Wumms in Spielen. 25 TFLOPs @ 225W bei Pascal FPS-Output-Effizienz pro FLOP wären nice. Das wäre doppelt so schnell wie eine 1080 Ti.
Also bei gleicher Performance nur noch 150w statt 300w, oder doch 35% schneller und nur 150w?]
Siehe oben. Ich erwarte 2 GHz bei ca. 200W. Also +35% Performance und entsprechend noch die bessere Energieeffizienz.
BlacKi
2018-06-06, 12:48:48
edit: gelöscht, hab mich verlesen
dildo4u
2018-06-06, 12:56:43
Sie sprechen von zwei Facher Effizienz aber nur 35% mehr Performance natürlich rennt das Ding nicht mit über 20 SP Tflops.
https://youtu.be/mhEu3RiCLpg?t=1h20m11s
dargo
2018-06-06, 13:03:19
auf der anderen seite, wenn die karte wirklich deutlich effizienter wird, werden die preise wieder einmal wegen den minern jenseits von gut und böse sein. 2x leistung einer 1080ti halte ich bei dem kleinen chip nicht für möglich.
Schon putzig die Schwarzmalerei wieder wo V20 überhaupt nicht fürs Gaming vorgesehen ist. :freak: Ich bezweifle auch etwas, dass Miner die Karte bei einem Preis von paar tausend Euro interessiert.
dildo4u
2018-06-06, 13:07:43
Jup zur Einschätzung MI25 kostet so viel wie P100 um 8000$.
https://www.gamepc.com/shop/products?sku=AMD-INSTINCT-MI25
BkcrYSt9NjM
basix
2018-06-06, 13:16:05
2x leistung einer 1080ti halte ich bei dem kleinen chip nicht für möglich.
Bitte richtig lesen. Dabei spreche ich von einem 8k Shader Navi Chip, welcher entsprechend auch grösser sein wird. Ich habe nur Bezug auf die V20 Energieeffizienz und Flächenskalierung auf einen potentiellen Navi Gamer Chip genommen.
Bei V20 @ 2Ghz könnte man sich eine Karte ein bisschen überhalb einer 1080 Ti erhoffen, ausser sie erhöhen die fps/FLOP über irgendwelche Architektur-Fatures, welche V10 noch nicht unterstützte. Ich denke aber, dass die nächste Gamer Generation vor allem auf GDDR6 setzen wird.
BoMbY
2018-06-06, 13:31:35
Jup zur Einschätzung MI25 kostet so viel wie P100 um 8000$.
Die AMD Radeon Pro WX 9100 kostet ca. 1.700,- Euro, und die Radeon Instinct MI25 bekommst Du für knapp unter 10.000,- Euro - der einzige Unterschied ist das SR-IOV auf letzterer per Software/BIOS freigeschaltet ist, glaube ich.
dildo4u
2018-06-06, 13:37:17
Das geht da beide Karten 16GB haben ich glaube nicht an 2000€ 32GB Karten in 2018.
Piefkee
2018-06-06, 14:30:04
https://videocardz.com/76487/amds-7nm-vega-is-much-smaller-than-14nm-vega
Vega 7nm ist kleiner als 300mm² :biggrin:
BlacKi
2018-06-06, 14:37:54
https://videocardz.com/76487/amds-7nm-vega-is-much-smaller-than-14nm-vega
Vega 7nm ist kleiner als 300mm² :biggrin:
sehe ich genauso, aber ist das nicht eher was für den vega fred?
Screemer
2018-06-06, 14:40:45
Die Leute werden wieder bis in die Puppen behaupten, dass v20 als gaming gpu kommt und dann rumkrakelen wenn es nicht so ist. Gleiches jetzt wieder bei der Größe mit bis zu 25% unterschiedlichen "Ergebnissen".
=Floi=
2018-06-06, 14:45:23
die frage ist auch, ob es überhaupt die kapazität für vega @7nm gibt.
ich glaub noch immer an in25 deals, weswegen die karten überhaupt gebaut werden.
Käsetoast
2018-06-06, 14:57:59
https://videocardz.com/76487/amds-7nm-vega-is-much-smaller-than-14nm-vega
Vega 7nm ist kleiner als 300mm² :biggrin:
Ich hatte mich da mal auf die Computerbase Schätzung von 350 mm² berufen...
https://www.computerbase.de/2018-06/vega-20-instinct-7nm/
tm0975
2018-06-06, 15:06:11
8GB Powercolor RX VEGA 56 NANO Edition HBM2 (Retail)
nur € 449,-*
gerade bei MF gefunden.
https://www.mindfactory.de/product_info.php/8GB-Powercolor-RX-VEGA-56-NANO-Edition-HBM2--Retail-_1252745.html
wenn der preis bleibt und tests zufriedenstellend sind, löst sie meine nano ab.
Linmoum
2018-06-06, 15:57:16
Die 7nm-Fertigung bei TSMC scheint auf jeden Fall schon gut zu laufen, wenn man den Launch um u.U. mehrere Monate vorziehen kann.
Und keine Ahnung, warum scheinbar so viele an einen Gaming-Ableger denken. Den früheren Launch von V20 betrachtet könnte auch Navi früher als ursprünglich geplant dran sein und dann würde es noch weniger Sinn als ohnehin ergeben, einen V20 in der Form zu bringen.
kann auch erst 12/18 sein mit fragwürdiger Verfügbarkeit
Linmoum
2018-06-06, 16:05:02
Miese Verfügbarkeit hätte man auch vorher schon haben können, siehe die Frontier Edition kurz vor knapp.
Dafür muss man den Launch nicht vorziehen. Die Vermutung liegt einfach nah, dass 7nm bei TSMC besser läuft als erwartet.
mboeller
2018-06-06, 16:09:55
Miese Verfügbarkeit hätte man auch vorher schon haben können, siehe die Frontier Edition kurz vor knapp.
Dafür muss man den Launch nicht vorziehen. Die Vermutung liegt einfach nah, dass 7nm bei TSMC besser läuft als erwartet.
sehe ich auch so. Ursprünglich hieß es mal: Sampling in Q4/18. Da ist AMD sehr viel früher dran. Siehe zB.:
https://wccftech.com/amd-7nm-vega-20-ai-gpu-leaked-in-linux-patch/
Ich warte jetzt nur noch auf die "Turing in 7nm in Q3/18" Meldungen im entsprechenden Thread. Nvidia war ja bisher immer früher dran als AMD (zumindest in den letzten 5 Jahren AFAIR).
Edit: HA! hat schon begonnen. :)
dildo4u
2018-06-06, 16:12:48
Wenn sie ein 16GB Modell bringen dann haben sie eine vernünftige Stückzahl.
Nvidia hatte schon 2016 HBM2 16 GB Karten aber ebend nur weil sie Absurd teuer waren.
AffenJack
2018-06-06, 17:05:55
https://videocardz.com/76487/amds-7nm-vega-is-much-smaller-than-14nm-vega
Vega 7nm ist kleiner als 300mm² :biggrin:
Ich bin da eher bei der 340 mm² Schätzung. Man sieht doch, dass der HBM bei der Skalierung von Videocardz rechts und links nicht gleich ist. Rechts ist größer, aber real sind die gleich.
Gipsel
2018-06-06, 17:53:48
V20 hat zusätzlich zu V10 zumindest:
- xGMI-Interface
[..]
xGMI beschreibt einfach nur ein anderes Protokoll über die PCIe-Express-Schnittstelle, genau wie auch bei Epyc die Sockel per xGMI zusammengeschaltet werden. Das kostet minimalst (wohl kaum meßbar) Diefläche, da dafür schlicht die PCIe-PHYs genutzt werden.
Sie sprechen von zwei Facher Effizienz aber nur 35% mehr Performance natürlich rennt das Ding nicht mit über 20 SP Tflops.
https://youtu.be/mhEu3RiCLpg?t=1h20m11sWie schon von anderen bemerkt, geht es in der Folie lediglich allgemein um die 7nm Node (im Vergleich zu 14/16nm). Die enthält keine Aussage zur Performance von Vega20.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.