PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 [56] 57 58 59 60 61

deekey777
2018-08-24, 16:21:25
Fielen bei Vega Mobile nicht gar 28 CUs?

crux2005
2018-08-24, 18:09:11
Ok das mit NGG wird nichts mehr.

https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html

Was ist NGG? :confused:

Ok, nvm. Habs gefunden.

Next-generation geometry engine
https://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

Was eine Dumme Abkürzung :P

iuno
2018-08-24, 18:29:49
Fielen bei Vega Mobile nicht gar 28 CUs?
Keine Ahnung.
Vega mobile laesst eh schon lange auf sich warten. Es gibt ja nicht mal eine richtige Ankuendigung. Vielleicht haben sie das Ding auch eingestampft, auf 7nm verschoben und dazu noch etwas billiger gemacht (nur 20 CUs). Dann haetten sie naechstes Jahr zumindest wohl mal wieder eine richtig gute Notebook GPU.

Vega20 ist auch schon lange im consumer-Treiber aufgetaucht und der ist sicher ein 7nm Chip der erstmal nur als instinct kommt.

gravitationsfeld
2018-08-24, 18:53:06
Nein NV ist nach wie vor Fabless (ohne Fabrik) sprich auch die FE wird nicht von NV gefertigt. 3DFX hat damals eine Fabrik gekauft und die Produktion in die eingene Hand genommen, was sicherlich ein Fehler war. NV macht nur Design und den Vertrieb selbst.
3Dfx hat eine PCB-Fabrik gekauft, keine Chip-Herstellung.

Screemer
2018-08-24, 18:58:08
Viva la Mexico.

mironicus
2018-08-27, 11:36:50
AMD ist nicht untätig: https://www.computerbase.de/2018-08/amd-radeon-pro-v340-release-spezifikationen/

iuno
2018-08-27, 12:13:01
mal gespannt ob/wann die das auch fuer Consumerkarten bringen. Waere fuer mich vermutlich ein Kaufgrund mehr. Nur dafuer eine Pro zu holen, lohnt sich halt nicht.

Kriton
2018-08-27, 12:43:29
Wieso sollten sie dieses Feature im Consumerbereich bringen? Dort braucht man es nicht und man kannibalisiert den Pro-Bereich.

iuno
2018-08-27, 12:49:35
Weil es konsumentenfreundlich ist und weil Intel es auch hat. Einige "brauchen" es eben doch. Und die Alternative ist dann eine IGP zu nutzen (moeglicherweise von Intel) oder eine zweite GPU zu kaufen (moeglicherweise von Nvidia). Oder gleich zwei Nvidias. Oder vielleicht auch eine Intel, 2020 dann.
Als ob deswegen das professionelle Rechenzentrum auf Gamer-Karten umsteigen wuerde. Zumal man auch weiterhin Beschraenkungen einfuehren koennte wie z.B. nur einer statt gleich 16 Gaesten.

Fragman
2018-08-27, 13:17:25
AMD ist nicht untätig: https://www.computerbase.de/2018-08/amd-radeon-pro-v340-release-spezifikationen/


mmh, eigentlich nicht schlecht. schickt man gleich 2 oder mehr previewframes gleichzeitig auf die karte, wenn es denn so funktioniert. koennte man direkt ueber die chunksize steuern. fuer low res playblasts sicher ganz nett.

Der_Korken
2018-08-27, 14:05:28
Ich fände Virtualisierung auf Hardware-Ebene auch als Anwender ganz praktisch. Damit könnte man z.B. ein Linux mit einer Windows-VM betreiben und in beiden System die volle GPU-Power nutzen. Das Gefrickel mit einer zweiten Graka würde dann entfallen. Aber ich würde auch nicht damit rechnen, dass sowas für Consumer kommt.

HOT
2018-08-27, 14:59:51
Was ist NGG? :confused:

Ok, nvm. Habs gefunden.

Next-generation geometry engine
https://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

Was eine Dumme Abkürzung :P

Das wird deshalb nix, weil Navi da schon gravierend weiter ist und dessen NGG Teil der DX-Spezifikation werden wird, nachdem man Navi ja auch für die neue XBox Scarlett verwenden wird. Vega kann diese Spec aber sicher nicht erfüllen, also lässt man das gesamte Featureset einfach hinten runterfallen. Find ich ziemlich logisch, dass das so passiert.

Vega ist das Experimentierstadium für diese neuen Technologien (NGG, HBCC), Navi wird es dann final umsetzen als Teil der Konsolenspec.

Nosferatu1
2018-08-27, 19:20:11
Hallo gibts vega in laptops auf mindestens 1060 speed?

Digidi
2018-09-01, 00:41:48
Das mit NGG und primitive shaders wird immer konfuser:

https://forum.beyond3d.com/posts/2041497/

horn 12
2018-09-01, 01:10:03
Wie meinst dies, kommen die echt noch in den AMD Treiber rein.

iuno
2018-09-01, 01:27:05
Was genau soll daran konfus sein?

Locuza
2018-09-01, 01:40:47
Der Stand ist nach wie vor der gleiche.
Vega hat intern weniger unterschiedliche Hardware-Stages und hat ein paar zusammengefasst, meinetwegen als Primitive Shader, allerdings hat AMD die explizite Programmierbarkeit von Primitive Shadern beworben, welche vermutlich niemals für Vega kommen wird und Rys von AMD hat sogar noch implizite Beschleunigung in Aussicht gestellt, welche auch niemals für Vega umgesetzt wird.
Das einzige was Vega insofern anders tut ist die logische Shader-Pipeline von DX intern durch weniger unterschiedliche Hardwarezustände umzusetzen, ohne ersichtliche Vorteile aus der Performancesicht.

TheGood
2018-09-01, 09:58:44
Was sind denn die NGG ?

Locuza
2018-09-01, 10:12:52
Next Generation Geometry (NGG), wie der Name sagt einer neuer Geometrie-Pfad, welcher laut AMD Dreiecke ~3 schneller verwerfen kann, als die klassische Pipeline.

-----

Ein anderes Thema, wie Rome werden auch die GPUs von AMD in 7nm HPC gefertigt, zumindest für Vega20 sollte das gelten.
Ich bin da gespannt auf den möglichen Taktbereich.
I have confirmed with @amd that the 7nm GPU product portfolio will also be on N7 HPC.
https://twitter.com/Ashraf__Eassa/status/1035687084487581696

iuno
2018-09-01, 11:24:57
Dennoch bin ich auch gespannt darauf. Auch allgemein auf N7. Wir haben seit es gcn gibt ja erst ein Mal einen Fortschritt in der Fertigung gesehen, von 28 auf 14nm. Dabei stieg der Takt gleich Mal von ~1 auf ~1,6 (oder wie viel schafft Vega?) GHz. Wobei erst spätere Chips jeweils das Taktpotential voll ausnutzen konnten. Die ersten gcn Chips lagen unter 1 GHz und Polaris bei 1,3. Vielleicht wiederholt sich das mit Vega20 und Navi.

AffenJack
2018-09-01, 11:40:13
Haben wir eigentlich irgendeine Annahme, wann V20 vorgestellt wird? Ich hatte ja gehofft schon auf der Siggraph was zu sehen, aber da gabs leider nix. Pro-Produkte werden ja oft auf Konferenzen vorgestellt, die Supercomputing 2018 am 11-16 November würde sich da z.B. anbieten. Oder was gibts sonst noch so?

Wäre einfach gespannt mal zu sehen, was uns 7nm bei GPUs bringen kann, nachdem man bei Huawei schon die Entwicklung bei SoCs sieht.

fondness
2018-09-01, 11:45:20
Gerade da AMD bei 14nm auf den GF/Samsung-Prozess gegangen ist, der ja bekanntlich nicht so taktfreudig ist (siehe Pascal@14nm Samsung), erwarte ich mir von 7nm schon eine deutlichen Sprung mal sehen. Offiziell gibt es bei Vega20 weiterhin nur die offiziell aussagen das man noch 2018 verkaufen möchte. Aber AMD verhält sich aktuell ohnehin sehr ruhig, auch zu Zen2 weiß man noch nichts.

Raff
2018-09-01, 11:48:49
Wurde das mit dem Prozess nicht längst widerlegt? Aus meiner Sicht ist es das. GTX-1050er lassen sich genauso hoch takten wie die großen (dito GT 1030), wenn sie nicht powerlimitiert sind (was die "kleinsten" Varianten immer sind). Vega 20 ist aber so und so spannend. Mit Frequenzen zwischen 2 und 2,5 GHz wäre die Kiste angenehm schnell. Ein Überraschungslaunch als Frontier Edition vor Weihnachten, zusammen mit den Pro-Lösungen, das hätte was ... :D

MfG,
Raff

|MatMan|
2018-09-01, 13:19:04
Wurde das mit dem Prozess nicht längst widerlegt? Aus meiner Sicht ist es das. GTX-1050er lassen sich genauso hoch takten wie die großen (dito GT 1030), wenn sie nicht powerlimitiert sind (was die "kleinsten" Varianten immer sind). Vega 20 ist aber so und so spannend.
Vielleicht was den Maximaltakt betrifft, dazu habe ich keine Erfahrung. Wo es aber ganz klare Unterschiede gibt, ist der "Sweetspot". Meine beiden GTX 1050 Ti schaffen bei 1,0V beide nur geradeso 1,8 GHz. Bei meinen GTX 1070 und der 1080 sind da 2 GHz drin. Die GTX 1070 schaffen die 1,8 GHz sogar mit 0,8V - das ist absolut unmöglich mit den GTX 1050 Ti.
Mag sein, dass die GTX 1050 Ti mit viel Spannung auch die 2 GHz knacken, das hab ich mir nicht angeschaut (dann hätte man auch Probleme mit dem Powerlimit).
Soll heißen: wenn es nicht am Design der kleineren GPU liegt, ist das Taktverhalten bzw. das Verhältnis aus benötigter Spannung und Takt bei den TSMC GPUs besser. Kann natürlich sein, nVidia hat bei TSMC mehr Aufwand in die Anpassung an den Prozess gesteckt, da dort gleich mehrere GPUs davon profitieren.

aufkrawall
2018-09-01, 13:30:06
Mit GCN dürfte die Takt-Mauer allerdings trotzdem wesentlich härter sein, Pascal hat offenbar unabhängig vom Prozess extrem gute Takt-Optimierungen erhalten.

|MatMan|
2018-09-01, 13:42:24
Naja Vega lässt sich schon auch gut takten, säuft halt nur zu viel um das wirklich nutzen zu können.

Der_Korken
2018-09-01, 20:53:12
Dennoch bin ich auch gespannt darauf. Auch allgemein auf N7. Wir haben seit es gcn gibt ja erst ein Mal einen Fortschritt in der Fertigung gesehen, von 28 auf 14nm. Dabei stieg der Takt gleich Mal von ~1 auf ~1,6 (oder wie viel schafft Vega?) GHz. Wobei erst spätere Chips jeweils das Taktpotential voll ausnutzen konnten. Die ersten gcn Chips lagen unter 1 GHz und Polaris bei 1,3. Vielleicht wiederholt sich das mit Vega20 und Navi.

Eigentlich war es eher so, dass die ersten GCN-Chips ziemlich gut abgingen und dann nachgelassen haben. Tahiti ging mit OC oft >1,1Ghz, auch 1,2Ghz war nicht selten. Tonga und Fiji hatten schon Probleme überhaupt 1,1Ghz zu erreichen. Aber vielleicht trübt mich hier auch meine Erinnerung, da ich keine GCN 1.1 und 1.2 Chips besessen habe. Der einzige Taktsprung, der auf Fertigung zurückzuführen ist, war P10 mit ca. 1,4Ghz max OC. Die 1,6Ghz+ von Vega kommen laut AMD vom Design.

horn 12
2018-09-02, 00:08:13
https://wccftech.com/amd-confirms-new-7nm-radeon-graphics-cards-launching-in-2018/

Fake News oder was soll man davon halten …


@edit
http://ir.amd.com/news-releases/news-release-details/expanding-our-high-performance-leadership-focused-7nm

w0mbat
2018-09-02, 00:14:59
Das ist schon lange bekannt, nur nicht als gamer Karte.

Langlay
2018-09-02, 01:29:36
Eigentlich war es eher so, dass die ersten GCN-Chips ziemlich gut abgingen und dann nachgelassen haben. Tahiti ging mit OC oft >1,1Ghz, auch 1,2Ghz war nicht selten.

Es gab von der 7970 sogar Karten die 1.2 GHz ab Werk hatten.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Sapphire-HD-7970-Toxic-6GB-993816/

iuno
2018-09-02, 03:15:17
https://wccftech.com/amd-confirms-new-7nm-radeon-graphics-cards-launching-in-2018/
Die wollen eine Quelle fuer 20,9 TFLOPS haben. Das waeren aus heutiger Sicht abartige >2,5 GHz. Wuerde natuerlich zur gesteigerten Bandbreite passen. Auch ohne die von WCCF genannten 1250 MHz HBM, wo auch immer die her kommen.
Waere natuerlich nice, wenn man solche Taktraten hin bekaeme, auch gutes Zeichen fuer Navi und neue Zen CPUs. Aber ich bleibe vorsichtshalber mal skeptisch :wink:

Digidi
2018-09-02, 03:22:19
@Iuno

Es wird vermutet das Vega20 mehr Shader hat. Deshalb muss der Takt nicht unbedingt so hoch sein.

Locuza
2018-09-02, 04:16:24
Die wollen eine Quelle fuer 20,9 TFLOPS haben. Das waeren aus heutiger Sicht abartige >2,5 GHz. Wuerde natuerlich zur gesteigerten Bandbreite passen. Auch ohne die von WCCF genannten 1250 MHz HBM, wo auch immer die her kommen.
Waere natuerlich nice, wenn man solche Taktraten hin bekaeme, auch gutes Zeichen fuer Navi und neue Zen CPUs. Aber ich bleibe vorsichtshalber mal skeptisch :wink:
Die verlinken auch die Quelle, eine japanische Seite ist mit einem hypothetischen Gedankengang vom 9. Juli:
https://translate.google.de/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fascii.jp%2Felem%2F000%2F001%2F706%2F1706234%2Findex-2.html&edit-text=

Die 20,9TF werden einfach aus mehr CUs und mehr Takt spekuliert:
" That is, assuming that the die with Vega 7 nm is manufactured at 14 LPP, it is considered that the size corresponding to 720 mm 2 is obtained.

Although there are various reservation conditions, if the number of CUs and the die size are almost proportional, it is calculated to be equivalent to 89.6 CU, but of course such an incomplete CU is impossible, of course, it is per 88 CU, actually the die size is larger 96 CU ."

"It would be a good choice to lower the power consumption while slightly increasing the operating frequency. The image below is 20% up case, which will save about 40% of power. In this case, it is possible to slightly improve the performance while absorbing the increment of CU. In this case, the total performance improvement rate is about 65%."

"Although it feels like "Does not it manage a little more?", It seems that this area is a reasonable balance point as a reality problem. In this case, the theoretical performance of 7 nm Vega is 20.9 TFlops (Single Precision)."

Also die nehmen grob an das die 7nm ~360mm² die size von Vega20 ungefähr 720mm² unter 14nm darstellen würden, dass wird dann krude weitergeführt mit der Annahme das es für ungefähr 88 CUs/5632 Shader reichen würde und AMD einen Arbeitspunkt wählen würde, welcher von der Energiebilanz die Erhöhung der CUs kompensieren würde und noch 20% höhere Taktraten erlauben, pi mal Daumen landen die dann auf 21TF.

@Iuno

Es wird vermutet das Vega20 mehr Shader hat. Deshalb muss der Takt nicht unbedingt so hoch sein.
Der Takt wird auch niemals so hoch sein und die Shaderanzahl bleibt bei 4096. :P

dargo
2018-09-02, 08:47:10
Der Takt wird auch niemals so hoch sein und die Shaderanzahl bleibt bei 4096. :P
Was macht dich da so sicher?

Dural
2018-09-02, 09:27:17
Ihr habt wider wunsch vorstellungen...

Es gab von der 7970 sogar Karten die 1.2 GHz ab Werk hatten.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Sapphire-HD-7970-Toxic-6GB-993816/

Es gab aber karten, gerade am anfang die keine 1050mhz stabil hinbekommen haben. Das wird oft vergessen wenn es um den takt von tahiti geht.

Dural
2018-09-02, 09:28:27
Nix

Locuza
2018-09-02, 09:34:03
Was macht dich da so sicher?
Der ursprüngliche Plan von AMD, wo ich keine Veränderungen erwarte.
Mehr Shader-Engines werden höchstwahrscheinlich nicht mit Vega20 umgesetzt, 4 wie bisher sind zu erwarten.
Bei der aktuellen Vega Cache-Hierarchie teilen sich bis zu 3 CUs den Instruction Cache und Scalar Data Cache, bei 16 CUs pro Shader Engine wird es wahrscheinlich 4x3 CUs geben + 2x2 CUs, eine relativ einfache Erweiterungen um 2 CUs pro Shader-Engine würde sich anbieten, um 18 CUs pro SE anzubinden (6x3 CUs) und insgesamt 72 CUs/4608 Shader zu besitzen.
Ein weiterer möglicher Schritt wären 20 CUs, dass wäre mit mehr Kosten verbunden und allgemein stellt sich die Frage, ob es von der Effizienz und Komplexität für AMD Sinn ergibt.
Die Fill-Time ist schon mit 16 CUs nicht gut für eine kurze Rechenzeit pro Threadgroup.

HOT
2018-09-02, 09:34:28
20,9 TFLOPs sind 2,5GHz. Da waren wohl die CPU-Leute an der Optimierung dran - da gabs ja entsprechend Gerüchte - und die haben Fläche für Takt geopfert. Immer vorausgesetzt das das kein BS ist.

dildo4u
2018-09-02, 09:35:38
Ich dachte Vega 20 hat extra Einheiten für AI.
Ihr rechnet so als wenn die kein Platz brauchen.

HOT
2018-09-02, 09:39:07
Wir reden hier von einem Fertigungsprozess, der 70% mehr Platz bringt - ggü. 14nm vllt 65%. Der Chip könnte in 14nm 720-850mm² groß sein. Da ist mehr als genug Platz. Turing hat mehr Shader. Und RT-Core sind obendrein noch unwahrscheinlich, nur Integration von AI in die CUs ist zu erwarten. NV packt das ja, auch, wieso sollte AMD das nicht packen?


Mit der Rechenleistung knackt das Teil die 2080ti. Sowas muss einfach auch auf den Consumer Markt.

Ein Lineup könnte dann so aussehen:

P12
V12
P30 = 12nm P20 -> 7,5TFLOPs -> 1070
V30(?) = 12nm V10 -> ca. 14TFLOPs -> 2070/80
V20 -> 20,9 TFLOPs -> 2080 Ti

dargo
2018-09-02, 09:48:40
Der ursprüngliche Plan von AMD, wo ich keine Veränderungen erwarte.

Nun... ich sehe aktuell Schätzungen von 336mm² bei einer 7nm Vega20. Da Vega10 in 14nm 486mm² groß ist habe ich meine Zweifel ob es weiterhin 4096 Shader bleiben. Denn dafür wäre Vega20 viel zu groß.

Dural
2018-09-02, 09:49:36
Schon mal was von massetransistoren gehört, schon mal davon gehört das man für mehr takt auch mehr transistoren verwendet?

Die zusätzlichen 2048bit werden auch nicht gratis sein. :rolleyes:


Wie so wird eigentlich bei jeder gpu von amd irgend welche einheiten dazu gedichtet :P

dargo
2018-09-02, 10:00:44
Schon mal was von massetransistoren gehört, schon mal davon gehört das man für mehr takt auch mehr transistoren verwendet?

V10 ist schon ein high-frequenz-design, wüsste jetzt nicht warum man da bei V20 erheblich mehr investieren müsste.


Die zusätzlichen 2048bit werden auch nicht gratis sein. :rolleyes:

Weiß jetzt zwar nicht ob die Anbindung 1:1 skaliert. Sollte das aber der Fall sein müsste der Flächenbedarf bei 4 Stacks @7nm grob gleich zu 2 Stacks @14nm sein.

http://cdn01.hardwareluxx.de/razuna/assets/1/0FD112D6C8694DD893BF544D6C7254CF/img/AD75B7DF17524F40BF64A6B90C87B683/OC_Burner_Dieshot_07_AD75B7DF17524F40BF64A6B90C87B683.jpg

HOT
2018-09-02, 10:05:00
Selbst wenn nicht, wir reden hier von Peanuts bei den Die-Größen. Die potenziellen 200mm²+ mehr wird mehr Masse, mehr IF, mehr AI und mehr Speicher draufgehen, also eine Kombination.

dargo
2018-09-02, 10:06:39
Kannst du eigentlich aus den V10 Bildern den Flächenbedarf der HBM2 Anbindung ausrechnen? Ich bin da zu faul zu. :redface:

HOT
2018-09-02, 10:09:44
Wenn du dir das Die anguckst verdopple einfach den I/O-Bereich. Dann bis vllt. bei 570mm² mit mehr RAM/IF/PCIe. Der Rest geht dann für mehr Masse und für die mit AI-Fähigkeiten erweiterten CUs draufgehen. Was nicht stark geshrinkt werden kann sind die PHYs.

dildo4u
2018-09-02, 10:13:53
Wir reden hier von einem Fertigungsprozess, der 70% mehr Platz bringt - ggü. 14nm vllt 65%. Der Chip könnte in 14nm 720-850mm² groß sein. Da ist mehr als genug Platz. Turing hat mehr Shader. Und RT-Core sind obendrein noch unwahrscheinlich, nur Integration von AI in die CUs ist zu erwarten. NV packt das ja, auch, wieso sollte AMD das nicht packen?


Mit der Rechenleistung knackt das Teil die 2080ti. Sowas muss einfach auch auf den Consumer Markt.

Ein Lineup könnte dann so aussehen:

P12
V12
P30 = 12nm P20 -> 7,5TFLOPs -> 1070
V30(?) = 12nm V10 -> ca. 14TFLOPs -> 2070/80
V20 -> 20,9 TFLOPs -> 2080 Ti
Ohne Umbau der CU wirste im Gameing Bereich nicht viel von den 20 Tflop haben.
Siehe das grottie Skaling von Fury zu Vega 64 im neuen Computerbase Test.Nvidia und AMD wissen das sie die Architektur für Consumer umbauen müssen,daher bekommen wir jetzt Turing und 2019 Navi.

Locuza
2018-09-02, 10:19:33
Grob aus meinem Gedächtnis war eine Tahiti CU ungefähr 10% größer, als von Pitcairn.
Hauptsächlich weil Tahiti eine FP64-Rate von 1/4 anbot gegenüber 1/16 und noch ECC-Bits für den SRAM hatte.
Vega20 wird 1/2 FP64 bieten und ebenso ECC beim SRAM, V10 dagegen hat nur 1/16 und kein ECC in der Hinsicht.
Die CUs könnten alleine deswegen 10-15% größer sein.

Nun wird auch das Interface doppelt so breit ausfallen, bei Vega10 verbraucht das HBM2-Phys alleine mindestens 5% bzw. 24mm² ausgehend von 484mm² (aus dem die-shot abgemessen).
Zum Speichercontroller gehört aber noch etwas mehr, dass kann ich aus dem die shot allerdings nicht herauslesen.
Ein Shrink bei I/O skaliert soweit ich das mitbekommen habe auch nicht 1:1 aber beim GT200 war eine Skalierung von ungefähr 70% zu sehen.
Zusätzlich investiert Vega20 noch in PCIe4 und xGMI.
Und Vega20 hat noch zwei UVDs (Video Decode) gegenüber einem.
Es gibt noch neue Instruktionen für AI, aber wenn es bei dem bleibt, was man aus den letzten Linux-Patches herauslesen konnte, dann wird das wenig Fläche kosten.

Allgemein könnte man vielleicht ganz grob 20-25% auf V10 draufrechnen was in 580-605mm² unter 14nm resultieren würden.
Bei der grotesken Vereinfachung könnte man sich natürlich dennoch noch ~600 CUs zusätzlich vorstellen können, aber wie gesagt ich bin im 4096 CUs Boot.

basix
2018-09-02, 10:23:53
Mal daran gedacht, dass für HPC und AI die Caches grösser werden könnten? Siehe GV100. Dann ist man schnell bei mehr Fläche. Vega 20 wird eher nicht mehr als 4k Shader haben, denn das wird ja als Architekur-Limit von GCN genannt. Im wccftech Artikel sind so viele Fehler drin, da würde ich nicht viel darauf geben. Am ehesten werden es dann doch 2.5 GHz Takt.

Locuza
2018-09-02, 10:24:57
Jetzt bitte nicht die 2,5Ghz als halbwegs realistisch darstellen. :redface:

reaperrr
2018-09-02, 10:44:09
Nun... ich sehe aktuell Schätzungen von 336mm² bei einer 7nm Vega20. Da Vega10 in 14nm 486mm² groß ist habe ich meine Zweifel ob es weiterhin 4096 Shader bleiben. Denn dafür wäre Vega20 viel zu groß.
Die HBM-Interfaces werden aus Gründen der Signalqualität wohl nicht übermäßig schrumpfen und davon gibt's jetzt doppelt so viele.
Dann noch 1:2 DP, PCIe4, und vermutlich breite IF/xGMI-Anbindungen.

Würde mich nicht überraschen, wenn der "Uncore" (also alles, was nichts mit CUs/ROPs/L2/Frontend zu tun hat) größer als bei V10 ausfällt, trotz 7nm.

Mal ganz abgesehen davon: Die Limits liegen auch bei Vega immer noch bei max. 4 SEs und 16CU je SE, wenn sich daran was ändern würde wäre es im Grunde nicht mehr Vega.

V20 ist einfach halb 7nm-Testchip, halb HPC-Nachfolger für Hawaii (1:2 DP und Support für 32+ GB VRAM) mit nur ein paar kleineren Bugfixes und DL-Instruktionen sowie breiteren Interconnects (PCIe4, xGMI) gegenüber V10. Bei dem Chip ging es einfach auch um Time-to-Market und möglichst geringes Risiko (möglichst wenig R&D-Kosten, damit sich der Schaden in Grenzen hält falls der Chip floppt oder sich 7nm zu sehr verzögert hätte).


Bei der aktuellen Vega Cache-Hierarchie teilen sich bis zu 3 CUs den Instruction Cache und Scalar Data Cache, bei 16 CUs pro Shader Engine wird es wahrscheinlich 4x3 CUs geben + 2x2 CUs, eine relativ einfache Erweiterungen um 2 CUs pro Shader-Engine würde sich anbieten, um 18 CUs pro SE anzubinden (6x3 CUs) und insgesamt 72 CUs/4608 Shader zu besitzen.
Ein weiterer möglicher Schritt wären 20 CUs, dass wäre mit mehr Kosten verbunden und allgemein stellt sich die Frage, ob es von der Effizienz und Komplexität für AMD Sinn ergibt.
Die Fill-Time ist schon mit 16 CUs nicht gut für eine kurze Rechenzeit pro Threadgroup.
Ich bezweifle, dass Vega schon mehr als 16 CUs je SE unterstützt.
Was allerdings sein könnte ist, dass sich in V20 jetzt immer nur noch 2 CUs den I$/SC$ teilen (also 8 Cache-Blöcke je SE statt bisher 6), das würde die IPC einen Tick steigern.

dargo
2018-09-02, 10:51:42
Ohne Umbau der CU wirste im Gameing Bereich nicht viel von den 20 Tflop haben.
Siehe das grottie Skaling von Fury zu Vega 64 im neuen Computerbase Test.Nvidia und AMD wissen das sie die Architektur für Consumer umbauen müssen,daher bekommen wir jetzt Turing und 2019 Navi.
Jetzt müsste nur noch geklärt werden was CB da testet? :ulol:

https://abload.de/img/witcher3_1txcbo.jpg https://abload.de/img/witcher3_2zrikj.jpg

Ob das alleine auf Kosten vom high-preset welches CB im Vergleich der Radeons nimmt geht mag ich nicht beurteilen. Der Test ist eh ein Witz. Man nimmt hier außer FC5 nur Altschinken an Games. Einerseits kann ich es nachvollziehen, schließlich kann eine HD5870/6970 kein low level. Bei solchen Altschinken braucht man sich dann aber nicht wundern wenn eine moderne GPU-Architektur kaum ausgelastet wird.

Das finde ich auch recht interessant.

https://abload.de/img/fc5_1cfc5x.jpg https://abload.de/img/fc5_2fud54.jpg

Liegts jetzt daran, dass der Durchsatz bei geringerer Pixellast @Vega verbessert wurde oder läuft die Vega @1080p nur nicht ins TT-Limit? Oder eine Kombination von beidem? :D Eine Vega LCE wäre hier echt besser geeignet wenn man schon eine Fury X im Vergleich hat.

basix
2018-09-02, 10:54:51
Jetzt bitte nicht die 2,5Ghz als halbwegs realistisch darstellen. :redface:

2.5 GHz ist wohl etwas viel. Keine Ahnung wie wccftech auf 20 TFLOPs kommt. Und dann noch 400W, WTF? ;)

So 16 TFLOPs und 2.0 GHz wäre OK. Ausser man hätte mit 7nm so viel TDP und Takt Spielraum, dass man den Chip dann doch wieder auf 250W prügelt. Grundsätzlich die beste Angabe für eine Leistungsabschätzung sind die von AMD angegebenen 2x Energieffizienz.

Falls es aber tatsächlich sehr hohe Taktraten werden, umso besser. Das lässt einiges für die Gaming Chips erhoffen ;)

Achill
2018-09-02, 11:09:27
@Locuza und @reaperrr - woher kommt das Limit der 4 SE? Habt ihr ein Link wo man sich einlesen könnte?

Über wie viel Aufwand redet man, wenn man dies aufheben möchte?

Würde das Beseitigen dies Limits nicht Skalierbarkeit bedeuten aka (eventuell) Navi?

Locuza
2018-09-02, 11:17:15
[...]
Ich bezweifle, dass Vega schon mehr als 16 CUs je SE unterstützt.
Was allerdings sein könnte ist, dass sich in V20 jetzt immer nur noch 2 CUs den I$/SC$ teilen (also 8 Cache-Blöcke je SE statt bisher 6), das würde die IPC einen Tick steigern.
Ein entsprechendes Hardware-Limit würde ich nicht als gesichert annehmen.
Früher hat AMD bei der GCN Crashcourse Präsentation 1-16 CUs angegeben, aber das war noch zur GCN Gen 2 Zeit, aber wie gesagt, ich erwarte auch nicht mehr als 16 CUs bzw. 4096 CUs insgesamt.

Und 2 CUs für 8-Cache-Blöcke erscheinen mir als nicht sinnvolle Änderung, es kostet mehr und bietet sehr wahrscheinlich keine nennenswerte Vorteile.

2.5 GHz ist wohl etwas viel. Keine Ahnung wie wccftech auf 20 TFLOPs kommt. Und dann noch 400W, WTF? ;)

So 16 TFLOPs und 2.0 GHz wäre OK. Ausser man hätte mit 7nm so viel TDP und Takt Spielraum, dass man den Chip dann doch wieder auf 250W prügelt. Grundsätzlich die beste Angabe für eine Leistungsabschätzung sind die von AMD angegebenen 2x Energieffizienz.

Falls es aber tatsächlich sehr hohe Taktraten werden, umso besser. Das lässt einiges für die Gaming Chips erhoffen ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11788436#post11788436

Kurzversion, eine japanische Webseite hat sich grob ausgemalt das wenn Vega20 ungefähr 360mm² groß ist, dass ungefähr 720mm² unter 14nm darstellen würden, bezogen auf Vega10 mit 4096 ALUs würde das laut grober Umrechnung für 88-96 CUs ausreichen, dann wird noch die Effizienzkurve von Global Foundries hergenommen und zusätzlich 20% mehr Takt draufgepackt, der Rest der Verbesserungen soll den Energiebedarf der CUs decken.
Und dann landen die bei 21TF.

Weil das aber nicht grob genug war, haben wir im Forum den Gedanken weiter verfeinert und nehmen an es gibt ein 64 CUs Limit unter Vega und die 21TF müssen dann rein über eine Takterhöhung kommen, also easy peasy 2,5 Ghz. ;)

iuno
2018-09-02, 11:23:22
Die verlinken auch die Quelle, eine japanische Seite ist mit einem hypothetischen Gedankengang vom 9. Juli:
https://translate.google.de/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fascii.jp%2Felem%2F000%2F001%2F706%2F1706234%2Findex-2.html&edit-text=

Die 20,9TF werden einfach aus mehr CUs und mehr Takt spekuliert:
Sorry das hatte ich in der Nacht nicht mehr gelesen :redface:

Der Takt wird auch niemals so hoch sein und die Shaderanzahl bleibt bei 4096. :P
Das denke ich auch.

Vega20 wird 1/2 FP64 bieten und ebenso ECC beim SRAM, V10 dagegen hat nur 1/16 und kein ECC in der Hinsicht.
Die CUs könnten alleine deswegen 10-15% größer sein.
Doch, die MI25 (Vega10) hat auch ECC: http://instinct.radeon.com/_downloads/radeon-instinct-mi25-datasheet-15.6.17.pdf
Edit: ok, footnotes sollte man lesen...
ECC support is limited to the HBM2 memory and ECC protection is not provided for internal GPU structures

Zusätzlich investiert Vega20 noch in PCIe4 und xGMI.
Und Vega20 hat noch zwei UVDs (Video Decode) gegenüber einem.
Das ist richtig. Hat sich eigentlich schon mal jemand Gedanken darueber gemacht, was das soll? Wieso fuehrt man eine zweite UVD Instanz bei einer Instinct ein?

So 16 TFLOPs und 2.0 GHz wäre OK. Ausser man hätte mit 7nm so viel TDP und Takt Spielraum, dass man den Chip dann doch wieder auf 250W prügelt.
Ich persoenlich faende "lockere" 2 GHz, d.h. dass die Karte auch standardmaessig dort hin boostet ohne abartige Spannungen schon top. Sehe aber keinen Grund, warum die Karte nicht mit 250 Watt (oder gar mehr) laufen soll. Das Ding ist primaer mal eine Instinct, kommt also ins Rack da juckt es doch nicht ob das 200 oder 250 Watt sind. Wuerde aber natuerlich nicht automatisch aus den 250 W schliessen dass der Takt exorbitant hoch wird. Die MI25 hat eine TDP von 300 Watt.

Locuza
2018-09-02, 11:33:47
@Locuza und @reaperrr - woher kommt das Limit der 4 SE? Habt ihr ein Link wo man sich einlesen könnte?

Über wie viel Aufwand redet man, wenn man dies aufheben möchte?

Würde das Beseitigen dies Limits nicht Skalierbarkeit bedeuten aka (eventuell) Navi?
Das kommt als begründete Vermutung.
Hawaii war das erste mal wo AMD das Front-End auf vier Shader-Engines aufgestockt hat und das ist bis Vega10 auch so geblieben.
Bei Nvidia hatte der GK110 5 GPCs als grobes Äquivalent, GM200 brachte es auf 6 und bis Turing bleibt es nach wie vor bei 6.
Es ist sicherlich sehr kompliziert mehrere Front-Blöcke miteinander zu verschalten und eine effiziente Lastverteilung hinzubekommen.
Dazu skalieren die Hersteller das Front-End mit unterschiedlichen Units, bei AMD sind es Rasterizer + Geometry-Engines, was natürlich dann auch entsprechend Fläche kosten würde.
Vega20 ist laut Leak-Folien von VZ nur mit 4096 ALUs geplant und soll sowieso nur als Pro/Instinct Produkt erscheinen, wo die Anwendungsfelder nicht beim Gaming liegen.
AMD wird sich entsprechend wohl kaum die Mühe gemacht haben, ausgerechnet hier das Front-End skaliert zu haben.
Bezüglich Navi ist es eine mögliche Spekulation das AMD hier das Limit weiter anhebt, aber Skalierbarkeit kann so pauschal echt alles bedeuten.

@ iuno

Laut Finanzbericht macht AMD mit Vega10 Produkten im Datacenter/Cloud-Bereich Geld, also wenn dort Video-Streaming für mehrere Nutzer gefragt ist, gibt es möglicherweise deswegen den zweiten UVD für eine bessere Skalierung?

Bezüglich der alten VZ-Folien hat AMD für V20 150-300W angegeben und wie du sagst, die MI25 liegt ja schon selber bei 300W.
Nehmen wir einfach großzügig 1,6Ghz für V10 an + 35% laut AMD Folie und voila ~2,2 Ghz.
Ich glaube das war genug quick maths für Heute, jedenfalls für mich. ;D

fondness
2018-09-02, 11:54:59
20,9 TFLOPs sind 2,5GHz. Da waren wohl die CPU-Leute an der Optimierung dran - da gabs ja entsprechend Gerüchte - und die haben Fläche für Takt geopfert. Immer vorausgesetzt das das kein BS ist.

Die CPU-Leuten wurden erst nach dem Abgang von Raja eingesetzt, dazu gab es sogar mal ein offizielles Interview AFAIK. Ziel sind Optimierungen für die "Next-Gen"-Architektur, also nach Navi. Navi soll laut Aussagen am Rande noch ein wenig profitieren, aber wohl kaum V20.

Dural
2018-09-02, 12:27:27
2ghz wären für amd ziemlich gut, mehr wäre top aber kaum realistisch.

iuno
2018-09-02, 12:52:15
Laut Finanzbericht macht AMD mit Vega10 Produkten im Datacenter/Cloud-Bereich Geld, also wenn dort Video-Streaming für mehrere Nutzer gefragt ist, gibt es möglicherweise deswegen den zweiten UVD für eine bessere Skalierung?
Ja, ich hatte schon auch an Datacenter gedacht. Aber idR. liegen beim Streaming die Inhalte ja schon kodiert vor, re-encoding pro Nutzer waere auch ziemlich unsinnig. Anderer Fall waere Streaming von Anwendungen mit Virtualisierung, aber selbst da macht es wenig Sinn, weil die UVD ja der decoder ist. Kann mir darunter also gerade irgendwie nichts viel vorstellen. :redface:

Ansonsten kann ich mir auch nicht vorstellen, dass das frontend aufgebohrt wird. Nach allem was wir wissen ist das Ding ja hauptsaechlich ein compute Ableger, also wozu auch. Zumal die Gesamtleistung ja auch automatisch mit dem Takt steigt. Ist in Relation zu den kleineren Chips mit weniger CU pro SE halt nicht so effizient in Grafik-Workloads aber das wird dann ja mit Navi hoffentlich angegangen.

unl34shed
2018-09-02, 14:30:21
Ein monolytischer dual Vega via IF um das Shader Limit zu umgehen?
Würde die 2 UVDs erklären, wäre aber denke ich Schwachsinn :freak:

Digidi
2018-09-02, 15:12:12
Vega20 ist laut Leak-Folien von VZ nur mit 4096 ALUs geplant und soll sowieso nur als Pro/Instinct Produkt erscheinen, wo die Anwendungsfelder nicht beim Gaming liegen.
AMD wird sich entsprechend wohl kaum die Mühe gemacht haben, ausgerechnet hier das Front-End skaliert zu haben.
Bezüglich Navi ist es eine mögliche Spekulation das AMD hier das Limit weiter anhebt, aber Skalierbarkeit kann so pauschal echt alles bedeuten.



Das gibt aber alles keinen Sinn. Wenn der Chip wirklich 360mm2 hat Wo gehen dann die ganzen Transistoren hin?

M4xw0lf
2018-09-02, 15:13:14
Ein monolytischer dual Vega via IF um das Shader Limit zu umgehen?
Würde die 2 UVDs erklären, wäre aber denke ich Schwachsinn :freak:
*monolithisch

mironicus
2018-09-02, 15:24:07
Das gibt aber alles keinen Sinn. Wenn der Chip wirklich 360mm2 hat Wo gehen dann die ganzen Transistoren hin?

Die werden verwendet für die AMD-eigene Raytracing-Einheit? :freak:
"Raydeon" :freak:

Locuza
2018-09-02, 15:33:02
Ja, ich hatte schon auch an Datacenter gedacht. Aber idR. liegen beim Streaming die Inhalte ja schon kodiert vor, re-encoding pro Nutzer waere auch ziemlich unsinnig. Anderer Fall waere Streaming von Anwendungen mit Virtualisierung, aber selbst da macht es wenig Sinn, weil die UVD ja der decoder ist. Kann mir darunter also gerade irgendwie nichts viel vorstellen. :redface:
[...]
Ich kann es mir auch nicht genau vorstellen, denke aber dennoch das es die richtige Richtung darstellt. :freak:

Ein monolytischer dual Vega via IF um das Shader Limit zu umgehen?
Würde die 2 UVDs erklären, wäre aber denke ich Schwachsinn :freak:
Lisa Su hat schon Vega20 präsentiert, es ist ein Chip mit 4 HBM-Stacks (Links 7nm EPYC Rome, Rechts 7nm Vega20):
https://pics.computerbase.de/8/3/2/8/9/1-1080.279389675.jpg

Das gibt aber alles keinen Sinn. Wenn der Chip wirklich 360mm2 hat Wo gehen dann die ganzen Transistoren hin?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11788494#post11788494

Screemer
2018-09-02, 15:39:24
Die werden verwendet für die AMD-eigene Raytracing-Einheit? :freak:
"Raydeon" :freak:
Juhu. Ich freu mich über #raydeon.

maguumo
2018-09-02, 15:49:09
Kostet das denn zwangsläufig so viel Fläche? Hawaii war doch im Vergleich zu Tahiti auch recht kompakt, trotz FP64 Rate von 1:2 und breiterem SI.

unl34shed
2018-09-02, 15:53:45
Lisa Su hat schon Vega20 präsentiert, es ist ein Chip mit 4 HBM-Stacks (Links 7nm EPYC Rome, Rechts 7nm Vega20):
https://pics.computerbase.de/8/3/2/8/9/1-1080.279389675.jpg

Deswegen steht da ja auch monolytisch... bzw richtig monolithisch. Wenn man ein mal die Autokorrektur braucht :D

Locuza
2018-09-02, 15:55:54
@ maguumo

Tahiti selber bot allerdings schon eine FP64-Rate von 1/4 und ECC beim SRAM.
Wie ausgeführt waren die CUs bei Tahiti ungefähr 10% größer, als bei Pitcairn mit einer FP64-Rate von 1/16 und ohne ECC beim SRAM.
Tahiti hatte auch ein größeres Speicherinterface als Hawaii, jedenfalls bezogen auf den Flächenverbrauch.
Zwar war es nur 384-Bit breit, aber mit stärkeren Takttreibern versehen, sodass die 512-Bit bei Hawaii sogar 20% weniger Fläche verbraucht haben.
https://thinkcomputers.org/amd-radeon-r9-290-hawaii-gpu-block-diagram-pictured-and-detailed/amd-hawaii-memory-interface/

@unl34shed

Du meintest eine chipinterne Verdopplung?
Ja das wäre dämlich und hätte keinen Sinn ergeben. :smile:

dargo
2018-09-02, 16:16:20
Die werden verwendet für die AMD-eigene Raytracing-Einheit? :freak:
"Raydeon" :freak:
Juhu. Ich freu mich über #raydeon.
Passt auf denn morgen steht das bestimmt bei Wccftech als Fakt. ;D

btw.
Wie wärs mit Rajdeon? Ach nee... der ist ja zu Intel. :D

unl34shed
2018-09-02, 17:17:18
@unl34shed

Du meintest eine chipinterne Verdopplung?
Ja das wäre dämlich und hätte keinen Sinn ergeben. :smile:

Sag ich ja selbst, dass es Schwachsinn ist. Aber es würde halt alles erklären, doppelte UVD, man kommt über das angebliche 4k Shader limit etc. Und wenn man nicht von einer kompletten Vega64 ausgeht, sondern nur 2x48 oder 56CUs, dann passt das auch mit der Fläche etc. und selbst der Takt und damit der Verbrauch wäre damit im Rahmen der 300W die AMD angegeben hat möglich.

Multichip sollte für HPC eher egal sein und mit einer breiten IF Verbindung zwischen den Chips hätte man sogar einen Testballon für eventuelle zukünftige McM GPUs.

Raff
2018-09-02, 17:22:14
Raydeon finde ich großartig! Sagt mal jemand AMD, dass das ein guter Markenname wäre? :biggrin:

MfG,
Raff

Brillus
2018-09-02, 17:36:55
Raydeon finde ich großartig! Sagt mal jemand AMD, dass das ein guter Markenname wäre? :biggrin:

MfG,
Raff
Find ich nicht ist zu nah an Gaydeon.

M4xw0lf
2018-09-02, 17:52:06
Das gibt aber alles keinen Sinn. Wenn der Chip wirklich 360mm2 hat Wo gehen dann die ganzen Transistoren hin?
Schon bei Vega hat AMD bekannt gegeben, dass ein Haufen der zusätzlichen Transistoren gegenüber Fiji exklusiv zum Erzielen höherer Taktraten nötig waren. Das könnte also auch bei kommenden AMD-GPUs zutreffen.

basix
2018-09-02, 19:56:54
Find ich nicht ist zu nah an Gaydeon.

Dann ist es wohl auch Gaytracing oder was? Irgendwie ist dein Kommentar Fehl am Platz ;)

Zu 150-300W: Ich sehe hier eigentlich realistisch, dass es bei 300W 2x GPUs sind.

Peicy
2018-09-02, 20:08:58
Dann ist es wohl auch Gaytracing oder was? Irgendwie ist dein Kommentar Fehl am Platz ;)

Zu 150-300W: Ich sehe hier eigentlich realistisch, dass es bei 300W 2x GPUs sind.
Ich lese hier ja seit langem nur noch mit. Aber da musste ich echt herzlich lachen ;D

Matrix316
2018-09-02, 22:23:01
Weiß nicht, obs hier schonmal diskutiert wurde, aber im Konkurrenz Thread wurde vorhin genannt, dass die Preise niedriger wären, wenn AMD eine Konkurrenzkarte hätte.

Warum machen die nicht das, was sie immer machten, wenn sie nix schnelleres hatten, in dem sie einfach zwei Chips auf eine Karte packten? Wie damals mit 3870X2, 4870X2, 5970, 6990 oder 295 X2?

VegaX2 wäre zwar sehr stromhungrig, aber Balken haben schon immer Stromverbrauch besiegt. ;)

Brillus
2018-09-02, 22:25:33
Weiß nicht, obs hier schonmal diskutiert wurde, aber im Konkurrenz Thread wurde vorhin genannt, dass die Preise niedriger wären, wenn AMD eine Konkurrenzkarte hätte.

Warum machen die nicht das, was sie immer machten, wenn sie nix schnelleres hatten, in dem sie einfach zwei Chips auf eine Karte packten? Wie damals mit 3870X2, 4870X2, 5970, 6990 oder 295 X2?

VegaX2 wäre zwar sehr stromhungrig, aber Balken haben schon immer Stromverbrauch besiegt. ;)

Weil mit aktuellen Techniken das nichtmehr so einfach geht. Vulkan/Dx12 muss das vom Spieleentwickler implementiert werden und auch DX11 gibts einige Probleme mit dual Chips(Inter-Frame Abhänigkeiten etc.)

unl34shed
2018-09-02, 22:26:39
VegaX2 wäre zwar sehr stromhungrig, aber Balken haben schon immer Stromverbrauch besiegt. ;)

Nein, das war eigentlich nie bei AMD so ;)

Matrix316
2018-09-02, 22:32:05
Nein, das war eigentlich nie bei AMD so ;)
Och naja, das Label "schnellste Karte auf dem Markt" wurde damals schon öfters den Dual GPU Karten gegeben.

Daredevil
2018-09-02, 22:32:50
AMD hat zudem ja schon eine Dual Vega, aber halt nur im Profi Segment.
Vega ist aktuell leider eher nieschig, so das eine Dual Karte noch weniger Sinn macht.

Das muss einem ja trotzdem nicht davon abhalten, Crossfire mit zwei Karten zu nutzen, da bekommt man es mit der Abwärme eh besser geregelt. :)
Wenn jetzt jedes neue Spiel mit RTX Unterstützung ein DX12 Titel ist, könnte MGPU wieder für AAA Titel interessant werden.

Tomb Raider z.B. läuft butterweich im Crossfire.

Digidi
2018-09-03, 00:26:17
Ich kann es mir auch nicht genau vorstellen, denke aber dennoch das es die richtige Richtung darstellt. :freak:


Lisa Su hat schon Vega20 präsentiert, es ist ein Chip mit 4 HBM-Stacks (Links 7nm EPYC Rome, Rechts 7nm Vega20):
https://pics.computerbase.de/8/3/2/8/9/1-1080.279389675.jpg


https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11788494#post11788494

Das pass trotzdem nicht 300w 360mm2 und dann die gleiche Anzahl an Shader und nur etwas mehr Takt bei 7nm ?... Da passt etwas hinten und forne nicht.

Dino-Fossil
2018-09-03, 12:58:49
Wenn du den Chip nur an die Kotzgrenze treibst geht auch die TDP kräftig hoch.
Bzw. scheint 300W in dem Bereich nicht so unüblich zu sein. Entscheidend ist, wie der Chip dann hinterher taktet.

vinacis_vivids
2018-09-03, 20:08:58
88NCUs (salvage) -> 5632SP -> 1,85Ghz (air) -> 20,83Tflops
96NCUs (full-chip) -> 6144SP -> 2,00Ghz (H²O) -> 24,5Tflops

basix
2018-09-03, 20:46:01
Also AMD sagt selber 1.35x Performance für 7nm im Kontext von V20 ;D
https://www.anandtech.com/show/12910/amd-demos-7nm-vega-radeon-instinct-shipping-2018

Also die Wahrscheinlichkeit für 4096 Shader @ 2.0 GHz ist deutlich am grössten (MI25 * 1.35 = 2.02 GHz), ergo "World's first 2 GHz GPU" Marketing Geblubber ;)

Die 1.35x Performance verrechnet mit 2x Energieffizienz (ebenfalls AMD Statement) ergibt 200W für den MI25 Nachfolger. Alles unter der Annahme es geht um rohe TFLOPs. Die 150-300W sind dementsprechend alle SKUs inkl. Doppel-GPU. Meines Erachtens ist dieses Szenario einfach am Wahrscheinlichsten.

iuno
2018-09-03, 21:11:07
1.35x bezieht sich nicht auf Vega20 sondern auf den 7nm Prozess.

AffenJack
2018-09-03, 21:14:23
1.35x bezieht sich nicht auf Vega20 sondern auf den 7nm Prozess.

Und man hat entweder Leistungssteigerung oder Effizienzsteigerung, aber nicht beides bei den Prozessangaben.

basix
2018-09-03, 21:15:34
1.35x bezieht sich nicht auf Vega20 sondern auf den 7nm Prozess.

Richtig, aber im Kontext von GPUs und V20. Ist nämlich im Foliensatz dort eingegliedert. Etwas in diese Richtung wird es mit einiger Wahrscheinlichkeit nach sein. Deutlich wahrscheinlicher als 96 CUs oder 2.5 GHz.

Ex3cut3r
2018-09-03, 21:22:51
88NCUs (salvage) -> 5632SP -> 1,85Ghz (air) -> 20,83Tflops
96NCUs (full-chip) -> 6144SP -> 2,00Ghz (H²O) -> 24,5Tflops

Na klar, und ich heiße Fritz. Bitte realistische Einschätzungen und keine Träumereien.

Digidi
2018-09-03, 23:01:26
Na ja die Leistung soll ja bei 300 bleiben. Density ist 2 Fach Leistungssteigerung 1,35 bei 2 Fächer Effizienz. Da schlummern noch Shader.

vinacis_vivids
2018-09-04, 03:53:14
Die NCUs werden um fp64-Fähigkeiten reserviert, da wo Vega10 im Pro-Bereich (HPC, AI,DL usw.) zurzeit hinterher hinkt. Ein Gaming-Ableger ala Navi verzichtet auf fp64/breites SI und bekommt dafür fp32 Shader/schmales SI und kommt mit deutlich weniger Fläche aus.

GPU|Vega 20|TU102|GV100|GP100|Vega 10|Fiji|Polaris10
NCU|64?|72|80|56|64|64|36
Shader Cores|4096?|4608|5120|3584|4096|4096|2304
fp32 Tflops|~16,588?|~16,128|~15,700|~10,322|12,228|8,192|5,714
fp64 Tflops|~8,294?|~8,064|~7,850|~5,161|0,768|0,512|0,358
Speicher SI bit|4096|384|4096|4096|2048|4096|256
Bandbreite|1024-1228GB/s(Samsung Auqabolt)|672GB/s|900GB/s|717GB/s|484GB/s|512GB/s|224GB/s
VRAM|16/32GB HBM2|24/48GB GDDR6|16/32GB HBM2|16GB HBM2|8/16GB HBM2|4GB HBM1|4/8/16GB GDDR5
GPU-CLK|~2025Mhz?(1.5Ghz*1.35)|~1750Mhz|~1533Mhz|~1440Mhz|~1500Mhz|~1000Mhz|~1240Mhz
TDP|~225-300W?|250W|250W|235W|300W|175W|150W
fp32 Mflops/Watt|~??|64|62,79|43,8|47,8|40,7|38,1
DIE-Size/Node|~290-340mm² 7nm|754mm² 12nm|815mm² 12nm|610mm² 16nm|484mm² 14nm|596mm² 28nm|232mm² 14nm
Transitoren|16-20Mrd?|18,6Mrd|21,1Mrd|15,3Mrd|12,5Mrd|8,9Mrd|5,7Mrd
Dichte Mio/mm²|???|24,668|25,889|25,082|25,826|14,932|24,569

Locuza
2018-09-04, 04:40:29
GCN reserviert keine Shader für FP64, alle Cores werden um die entsprechende Logik für Half-Rate FP64 erweitert.

HOT
2018-09-04, 16:44:49
Jo das stimmt. Auch das KI-Tensor-Gedöns wird mMn direkt in der CU zuhause sein, wenn man sowas implementiert. Die Schätzungen in der Tabelle für V20 sind mMn ziemlich realistisch.
Kann ja sein, dass die 20,9TFLOPs trotzdem stimmen für eine Instinct mit 400W. Aber 2 GHz wird man für RadeonPro sicherlich auch packen bei normalen TDPs. Man sieht ja bei Maxwell -> Pascal was da geht bei einem richtigen Sprung mit einem neuen Fertigungsprozess.

Brillus
2018-09-04, 17:28:23
Jo das stimmt. Auch das KI-Tensor-Gedöns wird mMn direkt in der CU zuhause sein, wenn man sowas implementiert. Die Schätzungen in der Tabelle für V20 sind mMn ziemlich realistisch.
Kann ja sein, dass die 20,9TFLOPs trotzdem stimmen für eine Instinct mit 400W. Aber 2 GHz wird man für RadeonPro sicherlich auch packen bei normalen TDPs. Man sieht ja bei Maxwell -> Pascal was da geht bei einem richtigen Sprung mit einem neuen Fertigungsprozess.

400watt wirst du nicht sehen, die Racks(Kühlung) und Rest sind auf 300 Watt ausgelegt. Im professionellen Bereich wird keiner die Specs reißen.

Leonidas
2018-09-05, 03:19:26
Raydeon finde ich großartig! Sagt mal jemand AMD, dass das ein guter Markenname wäre? :biggrin:


Wird zurückgepfiffen, sobald jemand auf die Verunglimpfung "Gaydeon" kommt ...



Ernsthafte Frage: Was ist hiervon zu halten:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47231-next-generation-geometry-fuer-vega-offenbar-geschichte.html
Ist diese Next-Generation Geometry (NGG) Engine was extra - oder ist das faktisch dasselbe wie die Primitive Shader?

Locuza
2018-09-05, 04:32:37
Da kannst du vermutlich bis Navi auf Aufklärung warten, falls AMD es überhaupt auflöst.
NGG hätte das Shader-Array für beschleunigte Geometrie-Verarbeitung genutzt bzw. Primitive Shader für das Culling, allerdings nennt AMD schon jetzt einen kombinierten Hardware-Zustand von GCN5 als Primitive Shader und einen anderen als Surface Shader.
Beschleunigt wird hier aber nichts, sondern die API-Shader nur intern anders gehandhabt.

Den vollen Durchblick kann man sich kaum zusammenstellen, vor allem dank widersprüchlicher Aussagen von AMD selber.
Im besten Fall ist man ein Softwareentwickler und versteht den bisherigen NGG-Code von AMD und kann sich ein Bild zusammenreimen, wie das Ganze hätte funktionieren sollen/können.

Leonidas
2018-09-05, 09:30:53
Also ich sehe hohe Schwierigkeiten beim Takt. Es handelt sich immer noch um eine Architektur, die für 14nm gedacht war. Da jetzt plötzlich viel mehr als die real 1500 MHz von RX Vega herauszuholen, ist nicht so einfach - ganz egal des Fertigungsverfahrens. Möglicherweise benutzt AMD ja viele Massetransitoren, damit dies machbar wird. 2000 MHz wäre toll - aber so wie dies bei Ziel und Realität bei AMD in letzter Zeit war, würde ich nicht so hoch schätzen. Bei einer Architektur, welche direkt für 7nm gedacht war, würde ich dies anders beurteilen.

Dino-Fossil
2018-09-05, 09:41:07
Die ersten GCN-Chips kamen mal für 28nm, ist GCN jetzt für 28nm gedacht?
Ich meine, kann man das denn so sagen? Vega20 wurde vermutlich recht früh auf 7nm geplant.
Andererseits scheint GCN an sich nicht so taktfreudig wie Pascal, trotz Fortschritten bei Polaris und Vega. So gesehen würde ich vorerst auch nicht erwarten, dass Vega20 so viel besser wird als Vega10.

Der_Korken
2018-09-05, 09:59:12
14nm brachte ca. 20-30% mehr Takt für AMD, ohne dass da groß Änderungen an der Architektur vorgenommen wurden. Das könnte ein realistisches Plus für 7nm Vega sein. Man sollte aber nicht vergessen, dass eine V10-Referenz nicht mit 1,6Ghz+ taktet, sondern eher mit 1,4Ghz. Deswegen halte ich Spekulationen mit 2Ghz (oder noch mehr) für viel zu hoch. AMD muss auch gucken, dass die Karten effizient werden. Wenn die jetzt den ganzen 7nm-Vorteil für 40% Takt verblasen und die Karte dann wieder bei knapp 300W rauskommt, wird man sich selbst gegen Nvidias 12nm-Gen schwer tun bei der Effizienz.

HOT
2018-09-05, 10:00:56
Also ich sehe hohe Schwierigkeiten beim Takt. Es handelt sich immer noch um eine Architektur, die für 14nm gedacht war. Da jetzt plötzlich viel mehr als die real 1500 MHz von RX Vega herauszuholen, ist nicht so einfach - ganz egal des Fertigungsverfahrens. Möglicherweise benutzt AMD ja viele Massetransitoren, damit dies machbar wird. 2000 MHz wäre toll - aber so wie dies bei Ziel und Realität bei AMD in letzter Zeit war, würde ich nicht so hoch schätzen. Bei einer Architektur, welche direkt für 7nm gedacht war, würde ich dies anders beurteilen.
Sry, das ist mMn BS. AMD konnte den Takt suksessive immer weiter steigern bei 14nm auch mit GCN1. Wir sind bei 1,35-1,4GHz Serientakt, wohingegen bei Hawaii bei 1GHz schluss war. Sind also 35-40% mehr bei weniger Verbrauch (und weniger Shader). NV schaffte höhere Takte, kamen aber auch von höheren Takten. Zudem ist das NV-Design mehr auf höhere Takte ausgelegt als es GCN1 ist. Und Vega gibts nur in 14LPP. Wie der auf anderen Fertigungsprozessen performt ist schlicht unbekannt - und wie "fertig" die Maske ist eben auch. Wir erinnern uns an den Streit zwischen Lisa Su und Raja; Lisa zog etliche Entwickler aus der RTG ab um Zen zu optimieren - das fällt exakt in den Zeitraum, in dem Vega fertiggestellt wurde. Das geht nicht ohne Blessuren. Vega 7nm scheint jedoch alle Bemühungen abbekommen zu haben, sogar CPU-Entwickler (dazu gabs mal ne Meldung, find die leider nicht wieder). Bei AMD mangelt es eher am direkten Design, nicht an der Architektur mMn. Die haben bislang einfach deutlich weniger Geld in so einen Grafikchip gesetzt als NV das tut. V20 ist allerdings ein extrem wichtiger Chip für AMD, der lange Zeit halten muss.

dargo
2018-09-05, 10:26:45
Also ich sehe hohe Schwierigkeiten beim Takt. Es handelt sich immer noch um eine Architektur, die für 14nm gedacht war. Da jetzt plötzlich viel mehr als die real 1500 MHz von RX Vega herauszuholen, ist nicht so einfach - ganz egal des Fertigungsverfahrens.
Die ~1,5Ghz von Vega ist keine Limitierung vom Chipdesign sondern reine Powerlimiterung.

Dino-Fossil
2018-09-05, 11:25:24
AMD konnte den Takt suksessive immer weiter steigern bei 14nm auch mit GCN1.

Es gibt eigentlich kein GCN1 auf 14nm. Nur Polaris(GCN4) und Vega(GCN5). Jedenfalls wenn man bei den offiziellen Bezeichnungen bleiben will. Ansonsten, woran machst du fest was noch dein GCN1 ist und was schon dein GCN2?

SKYNET
2018-09-05, 11:41:49
Also ich sehe hohe Schwierigkeiten beim Takt. Es handelt sich immer noch um eine Architektur, die für 14nm gedacht war. Da jetzt plötzlich viel mehr als die real 1500 MHz von RX Vega herauszuholen, ist nicht so einfach - ganz egal des Fertigungsverfahrens. Möglicherweise benutzt AMD ja viele Massetransitoren, damit dies machbar wird. 2000 MHz wäre toll - aber so wie dies bei Ziel und Realität bei AMD in letzter Zeit war, würde ich nicht so hoch schätzen. Bei einer Architektur, welche direkt für 7nm gedacht war, würde ich dies anders beurteilen.

naja, wenn ich mir anschaue wieviele die spannung senken und den takt auf 1700+ ziehen konnten dabei, halte ich sogar 2200MHz für realistisch wenn AMD da kein schmu baut... und mit 2200MHz sollte Vega 7nm auch locker die 2080 händeln können, sofern kein RT zum einsatz kommt, weil das wird bei vega 7nm sicherlich noch kein thema sein.

und 300W leistungsaufnahme werden dank touring nun ja auch massentauglich...

iuno
2018-09-05, 12:15:40
Die ~1,5Ghz von Vega ist keine Limitierung vom Chipdesign sondern reine Powerlimiterung.
Wo ist bei Vega eigentlich Schluss, wenn man PT und TT ausschliesst?

Locuza
2018-09-05, 12:23:18
1,6-1,7 Ghz, falls man noch bei einer halbwegs realistischen Kühllösung mit Max-Settings bleiben möchte.
https://img.purch.com/amd-radeon-rx-vega64-water-cooled/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS80L0kvNzAyNTk0L29yaWdpbmFsLzIwLUNsb2NrLVJh dGUtT3ZlcnZpZXcucG5n
https://www.tomshardware.com/reviews/radeon-rx-vega-64-water-cooling,5177-3.html

dargo
2018-09-05, 12:28:30
Wo ist bei Vega eigentlich Schluss, wenn man PT und TT ausschliesst?
Hatte afaik schon 1,8+Ghz gesehen.

1,6-1,7 Ghz, falls man noch bei einer halbwegs realistischen Kühllösung mit Max-Settings bleiben möchte.
https://img.purch.com/amd-radeon-rx-vega64-water-cooled/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS80L0kvNzAyNTk0L29yaWdpbmFsLzIwLUNsb2NrLVJh dGUtT3ZlcnZpZXcucG5n
https://www.tomshardware.com/reviews/radeon-rx-vega-64-water-cooling,5177-3.html
Die von Igor ist nichts weiter als eine stinknormale Air auf Wasser umgebaut. Andere PP-Table als eine LCE und natürlich auch stärker limitiertes PT.

Air = max. 330W ASIC
LCE = max. 396W ASIC

Locuza
2018-09-05, 12:52:29
Bei PCPerspective kam die Vega 64 Liquid Edition auf 1,66 Ghz bei Unigine Heaven, also sogar ein Tick weniger, als Toms Hardware:
https://www.pcper.com/files/imagecache/article_max_width/review/2017-08-13/rxvegaclocks-avg.png
https://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-Vega-Review-Vega-64-Vega-64-Liquid-Vega-56-Tested/Clocks-Power-

Und wir reden hier ja schon über die praktische Kotzgrenze was mit Boardmitteln möglich ist.
Darüber hinaus würde ich keine Messlatte als Ausgangspunkt für ein 7nm-Design setzen.

Ein kurzer Ausflug mit LN²:
Does it scale with temperature?

Kinda. My card on stock volts on water does 1680/1100 at best for 3Dmark timespy while bouncing of the power limit. Under LN2 at stock Vcore I was perfectly stable at 1800/1100. I was in a rush due to the card not being properly insulated so I didn't try 1850/1100 but 1900/1100 crashed. 2000/1100 would pass Timespy but the score was lower than at stock clock so it look like VEGA can pull that same stunt like Pascal where it seems to run at very high clocks while under performing horrifically. I'm sure extra Vcore will solve this as evidently I didn't have enough Vcore to run 1900 properly. Another intresting side effect of the LN2 is that VEGA's power draw fell of a cliff. Like 100W less than air cooled on +50% power limit. So the GPU core evidently is very happy with LN2 and could probably go well in excess of 2GHz with more voltage(I did all my testing at stock which is 1.2V).
http://cxzoid.blogspot.com/2017/08/first-impressions-of-vega-fe-on-ln2.html

dargo
2018-09-05, 13:09:22
Bei PCPerspective kam die Vega 64 Liquid Edition auf 1,66 Ghz bei Unigine Heaven, also sogar ein Tick weniger, als Toms Hardware:
https://www.pcper.com/files/imagecache/article_max_width/review/2017-08-13/rxvegaclocks-avg.png
https://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-Vega-Review-Vega-64-Vega-64-Liquid-Vega-56-Tested/Clocks-Power-

Du brauchst mir eine RX Vega LCE nicht erklären, ich habe sie selbst und kenne sie auswendig. ;) Die LCE bei pcper lief mit balanced Profil welches 264W ASIC bei 100% PT entspricht. Da der Treiber max. 150% PT erlaubt kann du dir grob vorstellen wo der Takt liegen würde.

vinacis_vivids
2018-09-05, 13:17:17
Vega's Grenze liegt bei Spielen um ~1700-1750Mhz, das ist aber keine neue Erkenntnis. Pascal macht 2000-2100Mhz. Das bedeutet ~20% Taktvorsprung für Nvidia. Die erste 14nm Iteration mit Polaris macht max. ~1450-1500Mhz.

HOT
2018-09-05, 15:33:30
Es gibt eigentlich kein GCN1 auf 14nm. Nur Polaris(GCN4) und Vega(GCN5). Jedenfalls wenn man bei den offiziellen Bezeichnungen bleiben will. Ansonsten, woran machst du fest was noch dein GCN1 ist und was schon dein GCN2?
Ich bezeichne alles bis Polaris als GCN1 und alles danach als GCN2. Es gibt diese Bezeichnungen nicht, ist also frei. Es gibt nur GCN gen1 (Tahiti, Cap Verde, Pitcairn, Oland) und gen2 (Hawaii, Kaveri, Kabini, Bonaire, Konsolen).

vinacis_vivids
wobei allen GloFos Prozessoptimierung die 1,5 mittlerweile sicher erriechbar machen. Anfangs hatte man Schwierigkeiten 1,4 zu schaffen - das lag also definitiv am Prozess. Mit 12nm und einem Metalspin (P30) ist bei Polaris sicherlich noch deutlich mehr drin - und mit V10 erst recht. V20 ist ein komplett neues Design, das schon sehr früh in die Tapeoutphase ging (letztes Jahr schon AFAIK) und man hat sich recht viel Zeit gelassen damit. Das wird sicher was Rundes, zumal der Chip für AMD wirklich wichtig ist und nicht wie V10.

reaperrr
2018-09-05, 16:36:27
Ich bezeichne alles bis Polaris als GCN1 und alles danach als GCN2. Es gibt diese Bezeichnungen nicht, ist also frei. Es gibt nur GCN gen1 (Tahiti, Cap Verde, Pitcairn, Oland) und gen2 (Hawaii, Kaveri, Kabini, Bonaire, Konsolen).
Das ist schlicht falsch:
http://developer.amd.com/wordpress/media/2013/12/AMD_GCN3_Instruction_Set_Architecture_rev1.1.pdf

http://radeon.com/_downloads/polaris-whitepaper-4.8.16.pdf

Iceland, Tonga, Fiji und Carrizo sind GCN3. Polaris zumindest ISA-mäßig im Grunde auch noch, da sich die technischen Verbesserungen hauptsächlich auf mehr Cache je CU, taktfreudigeres SI und sowie verbesserte Tesselation und DCC beschränkt, wobei AMD aber eindeutig von 4th-Gen GCN spricht.

Und Vega ist dann eindeutig GCN5 (ISA-technisch meinetwegen 4, wenn wir Polaris eher als 3.1 sehen wollen).

HOT
2018-09-05, 16:40:24
Da steht GCN Generetion 3. Müssen wir über so ne Scheisse diskutieren? Reicht jetzt.

Unicous
2018-09-05, 16:41:08
Danke fürs Heraussuchen, reaperrr, was man hier manchmal für einen Müll lesen muss.:freak:

Ich mach mir die Welt wie sie mir gefällt und benenne es so wie ich es mag.;D

HOT
2018-09-05, 16:41:27
Jep, das tu ich auch.

Unicous
2018-09-05, 16:43:44
:facepalm::facepalm::facepalm:


The Polaris architecture features AMD’s 4th generation Graphics Core Next (GCN) architecture, a next-generation display engine with support for HDMI® 2.0a and DisplayPort 1.3, and next-generation multimedia features including 4K h.265 encoding and decoding.
https://www.amd.com/en-us/press-releases/Pages/amd-demonstrates-2016jan04.aspx

Dino-Fossil
2018-09-05, 17:13:59
Wir könnten auch die GFX-X.X Nomenklatur verwenden ;) :rolleyes: , auch wenn die außerhalb der AMD-internen Treiberarbeit eher unüblich zu sein scheint. Da wäre z.B. Pitcairn GFX6, Tonga GFX8, Polaris GFX8.1 und Vega GFX9. Aber wenigstens wäre es offiziell.

horn 12
2018-09-06, 01:03:38
HIER
https://opendata.blender.org/

für Vega und RayTracing :-= )

gravitationsfeld
2018-09-06, 03:06:37
Ich bezeichne alles bis Polaris als GCN1 und alles danach als GCN2. Es gibt diese Bezeichnungen nicht, ist also frei. Es gibt nur GCN gen1 (Tahiti, Cap Verde, Pitcairn, Oland) und gen2 (Hawaii, Kaveri, Kabini, Bonaire, Konsolen).
Es ist komplizierter. Selbst Xbox One und PS4 haben Unterschiede. Wenn man alle durchnummerieren wuerde wenn es irgend welche Veraenderungen zum anderen Chip gab kommt man bestimmt auf 10. Alles Marketing-Kacke.

Es gibt FP16 oder nicht, color compression oder nicht, ob die load units komprimierte render targets lesen koennen, wie die async compute pipes konfiguriert sind, ob es conservative rasterization gibt, Aenderungen am Rasterizer etc. Und dann noch die Optimierungen die man nach aussen nicht sieht, z.B. hat Vega laengere ALU-Pipelines. Die Liste ist ziemlich lang.

Complicated
2018-09-06, 08:01:44
Semi-Custom Chips würde ich hier nicht mit zählen.

Leonidas
2018-09-06, 08:30:56
Also ich nehm die 1,8-2,0 GHz gern mit, wenn ich mich da bezüglich Vega 20 irrren würde. Sehr gern sogar.

Dural
2018-09-06, 10:22:42
Immer noch der Meinung das der Chip zu gross ist? ;)


https://www.computerbase.de/2018-09/amd-vega-20-xgmi/

HOT
2018-09-06, 10:44:47
Ist das ganze nicht mit einem Kombi-PHY, wie in Zen machbar? Also bräuchte V20 2x 16x PCIe dafür - ich sag ja, V20 braucht 2x das komplette I/O von V10.
64CUs mit KI-Erweiterung, verdoppeltes I/O und Taktoptimierung wird als Kombination die Chipgröße ausmachen.

Daredevil
2018-09-06, 10:53:11
Ist das nicht dieser Kram? Ab 0:55
eSbJx81N5dQ

HOT
2018-09-06, 10:56:01
Virtualisierung gibts AFAIK ab Tonga.

Daredevil
2018-09-06, 10:59:19
Ney, ich meinte den Kollegen zwischen den beiden Vega GPUs.
Oder ist das nicht so etwas wie eine Bridge?
https://www.ginjfo.com/wp-content/uploads/2018/08/RadeonPro340-01-1024x462.jpg

Screemer
2018-09-06, 11:01:22
das beste an der news ist das FETTE Nvidia bild im titel. :up:

Virtualisierung gibts AFAIK ab Tonga.
nicht in hardware. vega hat hw virtualisierung. leider ist die bei den consumer karten deaktiviert. hab da auch mal ne offizielle aussage im amd board gelesen. muss ich mal suchen ob ich die finde.

€dit: habs gefunden: https://community.amd.com/thread/218846

Ney, ich meinte den Kollegen zwischen den beiden Vega GPUs.
Oder ist das nicht so etwas wie eine Bridge?
https://www.ginjfo.com/wp-content/uploads/2018/08/RadeonPro340-01-1024x462.jpg
das sieht wie ein plx-chip aus.

HOT
2018-09-06, 11:14:56
Hätt ich jetzt auch gesagt, einfach ein PCIe-Switch.

Dural
2018-09-06, 11:16:46
@Daredevil

Das ist eine PCI-E Brücke, die teilt das 1x 16 Signal in 2x 8 auf (oder eventuell sogar in 2x 16)

Daredevil
2018-09-06, 11:52:52
Oh okay, danke.
Dachte das wäre irgendein Fancy Chip, der magischerweise aus zwei eins macht. :D

HOT
2018-09-06, 12:10:26
Na jo, V10 hatte eher einen Fertigungsnachteil, V20 hat diesmal einen saftigen Fertigungsvorteil.

Locuza
2018-09-06, 12:13:48
[...]
nicht in hardware. vega hat hw virtualisierung. leider ist die bei den consumer karten deaktiviert. hab da auch mal ne offizielle aussage im amd board gelesen. muss ich mal suchen ob ich die finde.
[...]
Doch, auch in Hardware.
https://www.golem.de/news/firepro-s7150-amds-profi-grafikkarten-virtualisieren-in-hardware-1602-118874.html

iuno
2018-09-06, 12:43:54
nicht in hardware. vega hat hw virtualisierung.
Doch, Tonga hats eingefuehrt (SR-IOV/MxGPU).

Immer noch der Meinung das der Chip zu gross ist? ;)
Naja. Wie viel Platz wird das brauchen? Zeppelin hat auch 4(?) GMI links, wenn ich mich nicht taeusche. Jeweils eins, also insgesamt drei, fuer GMI innerhalb des package bei Epyc und eins fuer xGMI zum jeweiligen Gegenstueck bei dual socket Epyc. Ist Zeppelin deswegen jetzt herausragend gross geworden?
Klar, es summiert sich halt alles.

edit: jo, die Dinger sind hier sogar markiert. Wer Lust hat kann es ja mal vermessen ;)

https://fuse.wikichip.org/wp-content/uploads/2018/03/zeppelin_face_down4annotated.png

Da muesste man mal schauen, was dual socket Epyc fuer Bandbreiten hat, auch verglichen mit NVLink. Spaeter vielleicht :P

Screemer
2018-09-06, 15:47:13
Doch, auch in Hardware.
https://www.golem.de/news/firepro-s7150-amds-profi-grafikkarten-virtualisieren-in-hardware-1602-118874.html
Stimmt natürlich. Hatte Tahiti und Tonga verwurstelt...

vinacis_vivids
2018-09-06, 16:20:27
Vega20 für Tesla?
https://appuals.com/amd-tesla-semiconductor-deal/

Die fp64 Leistung wird hier wohl mehr denn je gebraucht.

btt: Vega20 als "Frontier Edition" mit 16/32GB HBM² hätte womöglich mehr Anhänger als gedacht :tongue:

Pirx
2018-09-06, 16:41:00
Vega20 für Tesla?
https://appuals.com/amd-tesla-semiconductor-deal/

Die fp64 Leistung wird hier wohl mehr denn je gebraucht.

btt: Vega20 als "Frontier Edition" mit 16/32GB HBM² hätte womöglich mehr Anhänger als gedacht :tongue:
Zur Steuerung eines Teslas mit mehreren Anhängern?:upara:

Dino-Fossil
2018-09-06, 17:28:54
zumal eh schon feststeht das navi und auch vega 7nm beide auf GDDR6 setzen werden :smile:

Vega20 kommt doch mit 4 HBM2 Chips, darüber hinaus sind keine weiteren Pläne für Vega-Chips bekannt.
Auf die Navi Sache braucht man aber aktuell gar nicht eingehen, ist doch offensichtlich, dass er nur bissl trollen wollte.

gravitationsfeld
2018-09-07, 06:20:19
Semi-Custom Chips würde ich hier nicht mit zählen.
Das ist auch ausserhalb von den Konsolen nicht anders. Selbst innerhalb einer Karten-Generation gibt es Unterschiede.

vinacis_vivids
2018-09-07, 11:07:08
Vega20 FE Air - 3584SP@2,1Ghz - 16GB HBM² - 15,1Tflops - 1024GB/s
Vega20 FE H²O - 4096SP@2,3Ghz - 32GB HBM² - 18,8Tflops - 1228GB/s

Mit solchen SemiPro-Karten könnte AMD schön viele hervorlocken. Letztere wäre für ein Premiumpreis von ~2000€ locker machbar, analog zur TitanV ~ 3000€, rein als Prestigeobjekt in niedriger Stückzahl. Erstere wäre im Bereich ~ 1200€ wie TitanXp/2080Ti einzuordnen, aber eben mit mehr VRAM/Bandbreite.


Fiji - 8,9Mrd|Vega10 - 12,5Mrd|Vega20 ~ 20,0Mrd
GP102 - 12,0Mrd|Tu102 - 18,6Mrd|GV100 - 21,1Mrd
Vega20 wird auf jeden Fall gut Transistoren hinzupacken.

Ankündigung kurz nachdem Turing released wurde und launch im Dezember 2018 wäre optimal.

mboeller
2018-09-07, 13:08:08
Fiji - 8,9Mrd|Vega10 - 12,5Mrd|Vega20 ~ 20,0Mrd
G

etwas hoch gegriffen...

12,5 Mrd * 336/510 *2 = 16,5 Mrd Transistoren (sehr theoretisch und wahrscheinlich sehr falsch)

Der_Korken
2018-09-07, 13:22:00
Vega20 FE Air - 3584SP@2,1Ghz - 16GB HBM² - 15,1Tflops - 1024GB/s
Vega20 FE H²O - 4096SP@2,3Ghz - 32GB HBM² - 18,8Tflops - 1228GB/s

Fiji - 8,9Mrd|Vega10 - 12,5Mrd|Vega20 ~ 20,0Mrd
GP102 - 12,0Mrd|Tu102 - 18,6Mrd|GV100 - 21,1Mrd
Vega20 wird auf jeden Fall gut Transistoren hinzupacken.

Wenn V20 wirklich 20 Mrd. Transistoren hätte für popelige 4096SPs wäre das imho ein Desaster. Mehr als doppelt so viele Transistoren wie Fiji, wofür? Mal abgesehen davon, dass selbst eine Verdopplung der Packdichte das nicht hergibt, wie von mboeller berechnet.

Genauso sind 2,3Ghz doch reinstes Wunschdenken. Außer, AMD scheißt komplett auf den Verbrauch und trimmt die Fertigung auf maximalen Takt. Unter 300W kommen die dann aber nicht mehr raus. Wenn AMD Faktor 2 bei Perf/w erreichen will, sehen wir vllt. 1,8Ghz bei hoffentlich <=200W.

HOT
2018-09-07, 14:15:01
Der wird auf jeden Fall 18-20 Mrd haben, aber eben aufgrund der ganzen Zusätze. Und ein Desaster ist das definitiv nicht, da ja zusätzliche Transistoren ja auch dazu genutzt werden können, die Taktbarkeit zu erhöhen. Aber soviele Transistoren würd ich für ~350mm² 7FF sicherlicherlich erwarten, Minimum wäre das 18 Mrd.

reaperrr
2018-09-07, 14:35:53
Der wird auf jeden Fall 18-20 Mrd haben, aber eben aufgrund der ganzen Zusätze. Und ein Desaster ist das definitiv nicht, da ja zusätzliche Transistoren ja auch dazu genutzt werden können, die Taktbarkeit zu erhöhen. Aber soviele Transistoren würd ich für ~350mm² 7FF sicherlicherlich erwarten, Minimum wäre das 18 Mrd.
Dinge wie Speicher-Interfaces, PCIe-Lanes usw. lassen sich zwar aus physikalischen Gründen schlecht shrinken, brauchen deshalb aber nicht mehr Transistoren.
V20 wird wegen dem vielen I/O-Zeug eine relativ "schlechte" Transistor-Dichte für 7nm haben.

Ich tippe auf höchstens 16 Mrd., es sei denn, sie haben auch Register und Caches ordentlich vergrößert (was natürlich gut möglich ist).

vinacis_vivids
2018-09-08, 16:33:25
Dinge wie Speicher-Interfaces, PCIe-Lanes usw. lassen sich zwar aus physikalischen Gründen schlecht shrinken, brauchen deshalb aber nicht mehr Transistoren.
V20 wird wegen dem vielen I/O-Zeug eine relativ "schlechte" Transistor-Dichte für 7nm haben.

Ich tippe auf höchstens 16 Mrd., es sei denn, sie haben auch Register und Caches ordentlich vergrößert (was natürlich gut möglich ist).

Das SI und PCIe-Lanes sind größer geworden und brauchen mehr Transistoren.
Auch der L2-Cache wird weiter anwachsen, das ist so sicher wie das Amen in der Kirche. Die NCUs werden größer durch fp64 Erweiterungen und es werden auf den ALUs sicherlich auch einige neue instructions kommen.
Dann braucht Vega noch erhebliche Transitoren für den (Mehr)Takt. Schwer zu sagen ob da 16Mrd ausreichen um mit GV100 (fast)mithalten zu können, was das interne Ziel wohl ist.

Was die Dichte und Fläche angeht kann man auch anders rangehen:
Polaris10 ~ 24,57 Mio/mm²
Vega10 ~ 25,72Mio/mm²
Geht man von der Density*2 aus, landen wir bei ~ 50Mio/mm² und 290-330mm² ~ 14,5Mrd-16,5Mrd. Ja, die 20Mrd sind wohl zu viel, es sei denn Vega20 beherbergt "leere" Transistoren als physikalischer-buffer.

Digidi
2018-09-08, 20:50:01
Dinge wie Speicher-Interfaces, PCIe-Lanes usw. lassen sich zwar aus physikalischen Gründen schlecht shrinken, brauchen deshalb aber nicht mehr Transistoren.


Hä? Ein Speicherinterface besteht doch auch nur aus Transistoren? Hinzu kommt das dass HBM interface relative klein ist.

basix
2018-09-08, 21:13:37
Hä? Ein Speicherinterface besteht doch auch nur aus Transistoren? Hinzu kommt das dass HBM interface relative klein ist.

Da hast du beide Male recht. Dennoch ist ein SI oder allgemein Off-Chip Verbindungen nicht dasselbe wie Logik. Die SerDes Treiber-Transistoren sind riesig im Verhältnis zu Logik-Transistoren. Wenn man also viel I/O in einen Chip packt, sinkt entsprechend die Packdichte gegenüber dem theoretischen Maximum mit reiner Logik. Deswegen kann es gut sein, dass es eben nicht ganz so viele Transistoren werden. Spziell die Treiber-Transistoren kann man nicht so gut shrinken. Das ganze SI inkl. Kontrollogik glaube ich nur um etwa 0.7x anstatt "perfekten" 0.5x (habe irgendwo mal sowas gelesen). Das war aber irgendwo um 50-60nm rum. Evtl. ist es mit 7nm sogar noch weniger Scaling.

horn 12
2018-09-09, 10:57:53
Schafft die NEUE RTG es bis zum Release von Turing die Primitive Shader im Treiber anzusprechen und die Ganze Presse zu überrraschen und die Vega zum UVP an den Mann zu bringen ? …. (Mann wird wohl noch träumen dürfen )

PS:
Dies wäre ein harter Schlag gegen die Konkurrenz

Screemer
2018-09-09, 11:01:48
Schafft die NEUE RTG es bis zum Release von Turing die Primitive Shader im Treiber anzusprechen und die Ganze Presse zu überrraschen und die Vega zum UVP an den Mann zu bringen ? …. (Mann wird wohl noch träumen dürfen )

PS:
Dies wäre ein harter Schlag gegen die Konkurrenz
Imho ein ganz klares nein. Es wird vor NCU keine treiber für primitives geben. Das ist zumindest stand unter Linux und auch offiziell bestätigt. Leider finde ich den Post nicht. Vielleicht kann da jemand aushelfen. Da wird sich imho auch unter Windows nichts tun und deutet für mich auch auf einen Designfehler hin. Auch der drop des ganzen im Treiber und die versprochene aber bisher nicht gelieferte API für Entwickler deuten für mich in diese Richtung.

unl34shed
2018-09-09, 11:28:52
Aber hat Vega nicht schon NCUs?

https://images.anandtech.com/doci/11002/Vega%20Final%20Presentation-27_575px.png

Dino-Fossil
2018-09-09, 11:42:31
Ich glaube auch nicht, dass in der Richtung noch viel kommt.
Wie auch immer Vega da intern aufgebaut ist, es dürfte inzwischen klar sein, dass die Geschwindigkeit an der Stelle vergleichbar ist mit den älteren Lösungen.
Vielleicht wäre eine Steigerung möglich, sollte es ein Entwickler gezielt ansprechen, was aber mangels entsprechender API-Unterstützung und Dokumentation momentan sowieso nicht möglich ist.
Und nach der Aussage bzgl. Unterstützung im Linux-Treiber weist alles in die Richtung, dass AMD das Thema (für Vega) intern beerdigt hat.

Vielleicht liegt es auch an Bugs in der HW von V10. Obwohl auch V20 wohl keine entsprechende Funktionalität bekommt (wiederum laut Linux-Treiber-Team), es lässt sich also entweder nicht so leicht fixen, oder der Schwerpunkt mit V20 liegt einfach wo anders.

Screemer
2018-09-09, 12:43:21
Aber hat Vega nicht schon NCUs?

https://images.anandtech.com/doci/11002/Vega%20Final%20Presentation-27_575px.png
dann nenn die nächste itteration eben ncu 2.0 oder was auch immer. so wie ich das whitepaper verstanden habe ist rpm ausschlaggebend für die bezeichnung ncu. ich bin wirklich am suchen, find das ganze aber nicht.

€dit: habs gefunden. dachte ich hätte es in nem forum gelesen, war aber in ner mailingliste: https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html

bei anand gibt's auch nen thread dazu: https://forums.anandtech.com/threads/no-ngg-for-current-gen-vega.2553043/

es ist also NGG und das ist nicht nur primitive shaders sondern auch noch

One of those is the Intelligent Workgroup Distributor, a feature that ensures the GPU avoids performance-harming operations like context rolls (or context switches) and enjoys maximum occupancy of its execution units. AMD confirmed that the IWD is enabled, and that any performance benefits from that feature are already being demonstrated by Vega cards today."

da ist definitiv was kaputt, wenn das ganze nur für gfx10 also den vega nachfolger kommen wird.

wenn ich mir ansehe was ngg beim culling bringen hätte sollen dann ist es ein wunder, dass vega überhaupt mit pascal mithalten kann. lass es bei ner funktionierenden treiber implementierung 50% von dem sein, was man über die versprochene api durch die entwickler sehen würde:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=64098&stc=1&d=1536491234

dazu noch die steigerung durch dsbr, der ja wohl auch nicht funktioniert, und wir sind auf nem niveau das man eigentlich erwartet hat:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=64099&stc=1&d=1536491567

sollte das alles bei vega 20 gefixt sein, dann bin ich da selbst für gamer guter dinge. ist dem nicht so, dann muss man wohl auf navi hoffen.

soll vega 20 eigentlich schon gfx10 sein?

quelle (https://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf)

Locuza
2018-09-09, 13:37:57
In einem gewissen Rahmen scheint NGG unter GFX9 jedenfalls zu funktionieren, wenn man die Fußnoten liest:
Peak discard rate: Data based on AMD Internal testing of a prototype RX Vega
sample with a prototype branch of driver 17.320. Results may vary for final
product, and performance may vary based on use of latest available drivers.

Die Frage ist, was AMD aber daran letztendlich gehindert hat?
War es am Ende zu aufwendig, dass Ganze mit einem Performancegewinn zu implementieren?
Gibt es ein paar eklige Limits, welche es erschwert haben und wo GFX10 das Design soweit verbessern wird, dass man erst dann NGG einschalten möchte?

Und realistisch betrachtet, wie viel hätte NGG V10 bei der Performance geholfen?
Denn schließlich muss der Geometriedurchsatz einen Flaschenhals darstellen und aktuelle Spiele verwenden ein Geometriebudget, sodass Konsolen-GPUs nicht überfordert sind.

Abseits vom NGG ist aber der IWD aktiv und DSBR funktioniert ebenso für eine Vielzahl an Spielen:
https://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-RX-Vega-Features-Update.jpg

Vega20 ist nach wie vor GFX9 laut Device-ID.

Dino-Fossil
2018-09-09, 13:40:12
soll vega 20 eigentlich schon gfx10 sein?



Nein, nur 9.0irgendwas.
Vega20 wird aber eben einfach primär für Compute gedacht sein, da ist die Rohleistung entscheidend, und die passt ja bei AMD.
Woran es eher hapert ist im Vergleich zu nVidia die Nutzung der Rohleistung bei Gaming-Workload, da würde ein voll funktionsfähiger NGG mit effizientem DSBR und primitive shaders wohl mehr nutzen.

Wenn man sich die Zahlen in dem alten Marketing-Material ansieht, fragt man sich ein wenig, wie die zustande kamen. In der Realität hat man oft nicht so viel davon gemerkt.
Vielleicht wurde relativ spät noch ein Fehler in der HW entdeckt und einige Funktionen mussten deaktiviert werden um den Chip stabil oder auf Takt zu bekommen.

Screemer
2018-09-09, 13:47:22
Abseits vom NGG ist aber der IWD aktiv und DSBR funktioniert ebenso für eine Vielzahl an Spielen:
https://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-RX-Vega-Features-Update.jpg

*Note that the DSBR may have to be selected by the game itself; the default rendering may still be the old vertex rasterizer... so it may be delivered but just not in use.
*Note that based on the descriptions, the IWD may or may not be active. I think it is working, it's just overloaded due to disabled DSBR and PS.
*q (https://www.reddit.com/r/Amd/comments/7jfrta/request_official_statement_about_dsbr_primitive/)
letzteres kann ich mir durchaus vorstellen.

wenn ich mir vor allem folgendes anschaue: https://www.phoronix.com/forums/forum/linux-graphics-x-org-drivers/open-source-amd-linux/969834-more-benchmarks-showing-how-gallium3d-with-rx-vega-smacks-amdgpu-pro-s-opengl-proprietary-driver/page4#post970697

For both DSBR and NGG/PS I expect we will follow the Windows team's efforts, while I expect HBCC on Linux will get worked on independently of Windows efforts.

und oben ganz klar folgendes in der mailinglist steht:

Both KMD and LLPC are not ready to support NGG for gfx9. We are going to
support NGG in amdvlk for next generation GPU.

dann bezweifle ich, dass da irgendwas im windows treiber branch aktiv ist und funktioniert.

wie gesagt halte ich es für unwarscheinlich, dass irgendwas von ngg bei games durchschlägt. ich kenne keine benchmarks von vega, welches im vergleich zu fiji irgendwie anders als mit takt und shadern skalieren. da hätte sich mit aktivem ngg wesentlich mehr tun müssen.

Locuza
2018-09-09, 14:03:57
NGG/PS ist nicht aktiv, meine Aussage war das der IWD und DSBR dagegen durchaus aktiv sind und funktionieren, dass kommt von AMD selber und AMD liefert beim DSBR noch genaue Zahlen bezüglich der Vorteile unter mehreren Spielen.

Screemer
2018-09-09, 14:21:34
die folie hast du im april schon mal bei pcgh gepostet und auch dort ohne angeben von quellen. abgesehen von leos news aus dem januar ist mir keine wirkliche quelle bekannt. mich würde mal interessieren wo das her kommt: https://www.3dcenter.org/news/amd-streicht-den-eigenen-treiberpfad-fuer-die-primitive-shaders-von-vega

NGG/PS ist nicht aktiv, meine Aussage war das der IWD und DSBR dagegen durchaus aktiv sind und funktionieren
das ist für mich nicht belegt.

dass kommt von AMD selber und AMD liefert beim DSBR noch genaue Zahlen bezüglich der Vorteile unter mehreren Spielen.
die zahlen hab ich oben sogar gepostet und auch meine zweifel daran, denn benches dieser spiele/synts skalieren eben nicht um diesen prozenzahl sondern eher linear zu takt und shadercount, wenn man es mit fiji vergleicht.

iwd ist teil der ngg. so steht es im whitepaper.
Another innovation of “Vega’s” NGG is improved load
balancing across multiple geometry engines. An intelligent
workload distributor (IWD) continually adjusts pipeline
settings based on the characteristics of the draw calls it
receives in order to maximize utilization.

Locuza
2018-09-09, 14:47:12
Die Quelle ist AMD selber, welche die Informationen auf dem Techday auf der CES Ende Januar 2018 verteilt haben:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/45513-amd-stellte-eigenen-entwicklungspfad-fuer-primitive-shader-ein.html

Den IWD sieht AMD zwar als Teil vom NGG an, aber das ist offensichtlich nicht als exklusiv zu verstehen, denn es würde wenig Sinn ergeben, wenn AMD meint der ist seitdem Launch aktiv und im Whitepaper sprechen sie über Verbesserungen in Bezug auf die Geometry-Engines und Verbesserungen bei der Auslastung, wenn kleine Instanzen nun zusammengepackt werden können, um weniger leere Lanes pro Wavefront zu haben.
Der IWD stellt wahrscheinlich genau das dar, wovon Mark Cerny geredet hat, als er meinte die PS4 Pro hat zwei Roadmap-Features von Vega, 1. RPM/Double-Rate FP16 und 2. Den IWD:
A work distributor is also added to the GPU design, designed to improve efficiency through more intelligent distribution of work.

"Once a GPU gets to a certain size, it's important for the GPU to have a centralised brain that intelligently distributes and load-balances the geometry rendered. So it's something that's very focused on, say, geometry shading and tessellation, though there is some basic vertex work as well that it will distribute," Mark Cerny shares, before explaining how it improves on AMD's existing architecture.

"The work distributor in PS4 Pro is very advanced. Not only does it have the fairly dramatic tessellation improvements from Polaris, it also has some post-Polaris functionality that accelerates rendering in scenes with many small objects... So the improvement is that a single patch is intelligently distributed between a number of compute units, and that's trickier than it sounds because the process of sub-dividing and rendering a patch is quite complex."
https://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine

Vega Whitepaper:
Another innovation of “Vega’s” NGG is improved load balancing across multiple geometry engines.
An intelligent workload distributor (IWD) continually adjusts pipeline settings based on the characteristics of the draw calls it receives in order to maximize utilization.

One factor that can cause geometry engines to idle is context switching.
Context switches occur whenever the engine changes from one render state to another, such as when changing from a draw call for one object to that of a different object with different material properties.
The amount of data associated with render states can be quite large, and GPU processing can stall if it runs out of available context storage.

The IWD seeks to avoid this performance overhead by avoiding context switches whenever possible.
Some draw calls also include many small instances (i.e., they render many similar versions of a simple object).
If an instance does not include enough primitives to fill a wavefront of 64 threads, then it cannot take full advantage of the GPU’s parallel processing capability, and some proportion of the GPU's capacity goes unused.
The IWD can mitigate this effect by packing multiple small instances into a single wavefront, providing a substantial boost to utilization.
http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

Dino-Fossil
2018-09-09, 14:53:13
mich würde mal interessieren wo das her kommt: https://www.3dcenter.org/news/amd-streicht-den-eigenen-treiberpfad-fuer-die-primitive-shaders-von-vega

Steht doch in der News, bzw. den Links dahinter.


das [DSBR aktiv] ist für mich nicht belegt.

Wenn ich mich nicht täusche gab es z.B. Tests mit diesem Tool für TBR, die Anfangs keine, später dann doch eine Abweichung gegenüber "normalem" GCN-Verhalten gezeigt haben.


die zahlen hab ich oben sogar gepostet und auch meine zweifel daran, denn benches dieser spiele/synts skalieren eben nicht um diesen prozenzahl sondern eher linear zu takt und shadercount, wenn man es mit fiji vergleicht.

Nicht immer. Teils skaliert Vega, wenn ich mich nicht täusche, durchaus besser als Fiji. Weniger Einbrüche gibt es zudem auch. Wobei das auch an Speicherlimit und/oder Treiber-Pflege liegen könnte.

Die Zahlen in der 2. verlinkten Grafik zeigen außerdem, wenn ich mich nicht täusche auch nicht einen angeblichen Anstieg der fps, sondern die "memory bandwith reduction". Wobei AMD im Whitepaper von "up to 10% higher frame rates" spricht, ohne natürlich zu sagen wann das der Fall ist.
Wäre erstmal zu untersuchen, ob ein typischer Benchmark dass so überhaupt abbildet (ich schätze ja eher nicht, die 10% könnten genauso gut nur in wenigen Szenarien auftreten).

Screemer
2018-09-09, 14:56:08
man kann natürlich immer alles glauben was einem so erzählt wird oder einfach mal selber nachrechnen. amd spricht bei seinen zahlen im whitepaper oben von einem gewinn durch dsbr von >20% für heaven extreme. die wahrheit sieht leider weit weniger berauschend aus:

hier mal zahlen zu heaven extreme 1080p:
fury x stock 1,05ghz - v64 1,425ghz durchschnittler boost für die fe@80°C (https://www.tomshardware.com/reviews/amd-radeon-rx-vega-64,5173-18.html)
1677 (http://extreme.pcgameshardware.de/attachments/858728d1446192358-ranking-unigine-heaven-4-0-a-heaven_bench.png) - 2100 (https://i0.wp.com/www.modders-inc.com/wp-content/uploads/image//2017/10/heaven.png?w=654&ssl=1)
takt+: ~35%
fps+: 25,3%

Steht doch in der News, bzw. den Links dahinter.

ich seh da keinen link zu ner präsentation von amd. es gibt nur diese eine folie. oder bin ich blind?


Die Zahlen in der 2. verlinkten Grafik zeigen außerdem, wenn ich mich nicht täusche auch nicht einen angeblichen Anstieg der fps, sondern die "memory bandwith reduction". Wobei AMD im Whitepaper von "up to 10% higher frame rates" spricht, ohne natürlich zu sagen wann das der Fall ist.
Wäre erstmal zu untersuchen, ob ein typischer Benchmark dass so überhaupt abbildet (ich schätze ja eher nicht, die 10% könnten genauso gut nur in wenigen Szenarien auftreten).
stimmt natürlich. hatte nicht aufmerksam hingesehen: Figure 8:
HBCC vs. Standard Memory Allocation

Locuza
2018-09-09, 15:07:30
Computerbase hat einen die pro Takt-Leistung zwischen Fiji und Vega angestellt:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/7/#diagramm-aots-escalation-rx-vega-56-vs-vega-64-vs-fury-x

Teilweise ist Vega massiv schneller (BF1 und Titanfall 2 sind über 20% schneller), aber man kann die Ergebnisse natürlich nicht auf die einzelnen Verbesserungen zurückführen.
Fiji ist GCN3, Vega GCN5, mit einem ganzen Haufen an Verbesserungen, größere Instruction-Buffer, Instruction Pre-Fetching, Primitive Discard Accelerator, bessere DCC (alles GCN4) und DSBR, IWD, ROPs als L2$-Clienten, größerer L2$ (Alles GCN5 außer dem letzten).
Ich weiß es gab Bedenken in Bezug auf IWD und DSBR, aber was ich sagen möchte ist, dass man die Verbesserungen so nicht rausfiltern kann.

Es gibt Stellen wie Anno 2205 (2%), Ashes of the Singularity (6%) und Gears of War 4 (6%), wo Fiji sogar schneller ist.
Das dürfte intuitiv niemals passieren, also irgendetwas zieht die Performance scheinbar noch im Schnitt runter.
Ich selber kann nur raten, sind die kombinierten Shader-Stages Schuld, wovon GCN5 insgesamt weniger hat, als früher?
Ist das Infinity-Fabric langsamer, in Bezug auf die Bandbreite, als das alte von Fiji? Die Latenzen fallen jedenfalls in Bezug auf Read/Write vom Texture-Cache laut AMD massiv besser aus (Seite10):
https://www.hotchips.org/wp-content/uploads/hc_archives/hc29/HC29.21-Monday-Pub/HC29.21.10-GPU-Gaming-Pub/HC29.21.120-Radeon-Vega10-Mantor-AMD-f1.pdf

Also es scheint mir, als ob AMD irgendetwas an GCN5 geändert hat, was auch für schlechtere Leistung sorgt und weswegen die genannten Verbesserungen nicht exklusiv durchschlagen, sondern mit den Performanceregressionen zusammengerechnet werden müssen.

Savay
2018-09-09, 15:07:48
amd spricht bei seinen zahlen im whitepaper oben von einem gewinn durch dsbr von >20%

Ich denke in dem Graph geht es um die Bandbreiteneffizienz. :freak:
Zudem ist es:
"Figure 8: HBCC vs. Standard Memory Allocation"

Edit:
zu langsam.

Locuza
2018-09-09, 15:22:18
Bei der Hot-Chips Präsentation kann man dank den Zahlen übrigens vergleichen, wie viel Bandbreite Vega bei den Spielen spart und wie viel das dann wirklich auch an Performance und Performance/Watt bringt:
https://abload.de/img/dsbrqudoh.jpg

Bei BF4 werden z.B. ~33% an Bytes eingespart, die Performance steigt aber nur um 10%.
Alien vs. Predator zeigt einen interessanten Charakter, falls es die selbe Teststelle darstellt, dort spart der DSBR nur >15% an Bandbreite, sorgt aber für 10% bessere Performance bzw. 9% bessere Perf/Watt, also die Diskrepanz zwischen gesparter Bandbreite und effektivem Nutzen wäre hier viel kleiner, als bei BF4.
BF4 bei einer anderen Testszene zeigt aber wie stark das schwanken kann, statt 10% Gewinn bei der Stelle Airfield sind es nur ~4% bei Naval.

Ungefähr bringt der DSBR bei den genannten Anwendungen 6% Performance.

Dino-Fossil
2018-09-09, 15:24:51
Also es scheint mir, als ob AMD irgendetwas an GCN5 geändert hat, was auch für schlechtere Leistung sorgt und weswegen die genannten Verbesserungen nicht exklusiv durchschlagen, sondern mit den Performanceregressionen zusammengerechnet werden müssen.

Wäre vielleicht auch ein Zeichen dafür, dass etwas am Design nicht ganz passt, bzw. da einige Dinge anders heraus kamen als projiziert.

Locuza
2018-09-09, 16:58:44
Ein paar zusätzliche Ideen, der DSBR könnte dank dem Tiling/Clipping auch Performance kosten.
Die Delta Color Compression kann übrigens ebenso die Performance reduzieren, weil zusätzliche Meta-Data geholt werden muss und die Kompression die Latenzen erhöht.
https://abload.de/img/dcc9te5l.jpg

GCN3 bot aber schon eine DCC mit dem Kompressionsverhältnis von 2:1 an, GCN4 brachte noch 4:1 und 8:1 dazu.

Das kann einem insofern zu denken geben, dass wenn wir zwei GPUs bei der gleichen Taktrate vergleichen, wir für eine das Bandbreitenlimit eliminieren könnten und HW-Techniken welche die Bandbreiteneffizienz erhöhen und ansonsten ebenso die Performance, hier im Gegenteil sogar Performance kosten könnten.

Vega hat stellenweise auch höhere Latenzen, um höhere Taktraten zu erreichen, dass spielt vielleicht hier und da auch ein wenig hinein.

Dino-Fossil
2018-09-09, 18:04:25
Hm, ich glaube es wurde auch mal gesagt, dass die DSBR-äquivalente Technologie in Maxwell/Pascal auch aplikationsspezifisch per Treiber an-/abgeschaltet wird. Angesichts des vermutlich höheren Aufwandes den nVidia für spielespezifische Treiberanpassungen betreibt, ist es dann vielleicht nicht verwunderlich, wenn bei AMD auch mal ein Game nicht (sofort) optimal betrieben wird.

pixeljetstream
2018-09-09, 18:23:38
Ja da gibts nen Schwung parameter die das Verhalten beeinflussen. Der "einfachste" ist, wieviel Geometrie man vorhält.

Digidi
2018-09-09, 21:07:39
Die Sache mit dem Culling ist ja das nicht nur Bandbreite gespart wird. Es sind ja dann auch Polyogen die nicht mehr gerändert werden müssen. Das heißt man spart gleich doppelt. Die Polygonen werden nicht gezeichnet gleichzeitig wird für wichtige Polygonen Shaderleistung frei.

=Floi=
2018-09-09, 21:37:55
was haltet ihr denn von der idee, dass der DSBR wegen patenten (noch) nicht voll nutzbar ist?

gravitationsfeld
2018-09-09, 21:39:10
Nichts.

pixeljetstream
2018-09-09, 22:11:00
Die Sache mit dem Culling ist ja das nicht nur Bandbreite gespart wird. Es sind ja dann auch Polyogen die nicht mehr gerändert werden müssen. Das heißt man spart gleich doppelt. Die Polygonen werden nicht gezeichnet gleichzeitig wird für wichtige Polygonen Shaderleistung frei.
Es haben sich einige Titel bei AMD angewöhnt per compute shader das primitive culling zu machen. Bei den GCN1 Konsolen ist das afaik schon länger beliebt, weil die ja die schwächere Geoemtry pipe hatten.

Raff
2018-09-09, 23:54:38
Computerbase hat einen die pro Takt-Leistung zwischen Fiji und Vega angestellt:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/7/#diagramm-aots-escalation-rx-vega-56-vs-vega-64-vs-fury-x

In der aktuellen PCGH ist übrigens ein ähnlicher, wenn auch tiefergehender Artikel drin – quasi ein Abrechnung, was von den Versprechen/Features eingehalten wurde. Da gibt's auch 'nen Pro-Takt-Test, mit bis zu 28 Prozent Vorsprung von Vega 10 gegenüber Fiji XT. Der Artikel ist auch online, allerdings als Plus. Ich dachte eigentlich, dass das Thema deswegen wieder hochgespült wurde. :)

MfG,
Raff

iuno
2018-09-09, 23:58:53
Das dürfte intuitiv niemals passieren, also irgendetwas zieht die Performance scheinbar noch im Schnitt runter.
Ich selber kann nur raten, sind die kombinierten Shader-Stages Schuld, wovon GCN5 insgesamt weniger hat, als früher?
Vielleicht gibt es Probleme mit der Auslastung wenn Shader verschmolzen werden. Der eine "Thread" arbeitet auf Vertices, der andere auf Dreiecken. Moeglicherweise ist es problematisch, das zu balancieren. Ist aber jetzt auch nur geraten :freak:

N0Thing
2018-09-10, 00:21:10
In der aktuellen PCGH ist übrigens ein ähnlicher, wenn auch tiefergehender Artikel drin – quasi ein Abrechnung, was von den Versprechen/Features eingehalten wurde. Da gibt's auch 'nen Pro-Takt-Test, mit bis zu 28 Prozent Vorsprung von Vega 10 gegenüber Fiji XT. Der Artikel ist auch online, allerdings als Plus. Ich dachte eigentlich, dass das Thema deswegen wieder hochgespült wurde. :)

MfG,
Raff

Danke für den Hinweis, mal direkt das epaper-Einzelheft geordert. :)

Locuza
2018-09-10, 08:35:32
Ein wenig Off-Topic und On-Topic, aber ein Hawaii Meme ist seit 3 Tagen tot :p
OC_Burner hat einen die shot von Hawaii angefertigt und nach 20 Jahren ist nun eindeutig zu sehen, dass Hawaii 11 CUs pro Shader Engine hat und damit maximal 2816 Shader und nicht 3072.
https://abload.de/img/43859958584_f17b8dcb4uie7z.jpg
https://www.flickr.com/photos/130561288@N04/43859958584/in/album-72157650403404920/

Wem richtig langweilig ist, kann die Compute Units vermessen und mit Pitcairn, Tahiti, der PS4 und XONE vergleichen und schauen wie groß die Unterschiede ungefähr sind.
Hawaii (GCN2) ist, neben Carrizo/Bristol Ridge (GCN3 APU), der einzige GCN-Chip welcher Half-Rate FP64 bietet.
Den ungefähren Overhead davon zu wissen wäre natürlich interessant.

Raff
2018-09-10, 10:00:55
Hawaii? Nach 20 Jahren? Habe ich was verpasst? :D Aber spannend is' scho.

Danke für den Hinweis, mal direkt das epaper-Einzelheft geordert. :)

:up:

Bei Fragen: gerne fragen. :)

MfG,
Raff

Dino-Fossil
2018-09-10, 11:01:24
Hab mir den Artikel auch mal zu Gemüte geführt.
Schöne Übersicht und man sieht, dass es zw. Vega & Fiji (inzwischen) eben doch teils recht deutliche Verbesserungen gibt.
Auch die unterschiedlichen Stärken&Schwächen zw. AMD und nVidia bei gleicher Rohleistung sind ganz interessant.

robbitop
2018-09-10, 11:10:59
Hawaii? Nach 20 Jahren? Habe ich was verpasst? :D Aber spannend is' scho.



:up:

Bei Fragen: gerne fragen. :)

MfG,
Raff
Locuza hat bei mobile.de nen Delorean geschossen. :D
Und was ist dein nächster? ;)

horn 12
2018-09-11, 20:38:51
PowerColor RX Vega Nano

Neuvorstellung mit auch mal Stückzahlen für End-User ?

https://www.guru3d.com/news-story/powercolor-launches-rx-vega-nano.html

Loeschzwerg
2018-09-11, 21:08:20
Ja, da gab es irgendwie nur homöopathische Dosen von der Karte. Wäre schön wenn Verfügbarkeit und Preis jetzt dann passen würden.

Hier der Test von HWLuxx:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47078-powercolor-radeon-rx-vega-56-nano-edition-im-kurztest.html

Von PCGH gibt es einen Plus Artikel:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Mini-ITX-Grafikkarten-im-Vergleich-1260402/

reaperrr
2018-09-12, 02:18:17
Hawaii (GCN2) ist, neben Carrizo/Bristol Ridge (GCN3 APU), der einzige GCN-Chip welcher Half-Rate FP64 bietet.
Den ungefähren Overhead davon zu wissen wäre natürlich interessant.
Was aktiviertes 1:2 DP angeht, ja.

Geht man nach der entsprechenden Flag im Linux-Treiber, war aber auch Tahiti schon ein HalfRate-FP64-Chip.
Und rein zufällig komme ich bei Hawaii auf exakt dieselben 5,5mm² pro CU, die irgendwer auch schon bei Tahiti gemessen hatte.
Vielleicht gab es bei Tahiti Probleme mit 1:2, oder der Chip wurde künstlich beschnitten, um mit Hawaii auch marketingtechnisch mehr draufpacken zu können.
Bei Tonga komme ich auf 4,9mm², etwas mehr als die 4,5 bei Pitcairn.
Die CUs von Hawaii sind nicht breiter, aber länger als die von Tonga. Genauer gesagt irgendein Bereich im mittleren Teil der CUs, "Anfang" und "Ende" sind bei beiden identisch groß.

Übrigens ist eine der offiziellen Chip-Flächen wohl falsch, Hawaii ist nach meiner Messung knapp 29% größer als Tonga, also entweder Tonga ist nur ~340mm², oder Hawaii ist nicht 438mm², sondern knapp ~463mm². Letzteres passt eigentlich auch besser zu Rohleistung und Stromverbrauch.

Frontend läst sich leider schwer vergleichen, da bei Hawaii die Hälfte der ROPs in den Chipmitte neben/um das Frontend sitzt.

Locuza
2018-09-12, 08:58:14
Ich kann mir kaum vorstellen, dass AMD FP64 bei Tahiti selbst bei FirePro-Modellen künstlich beschnitten hätte.
Ebenso könnte es Hardwareprobleme mit 1/2 geben, wenn 1/4 problemlos funktioniert?
Und gibt der Flag an, welche Instruktionen mit Half-Rate ablaufen? Adds mit 64-Bit Präzision waren auch unter Tahiti soweit ich weiß Half-Rate.

OC_Burner/Fritz gibt bezüglich seiner Chips auch immer die gemessenen Größen an, bezüglich Hawaii:
"die-size 24,13mm x 18,41mm (444,23mm²)"


Generell ist ein weiteres Problem bei solchen Vergleichen, ob AMDs Packdichte nennenswert zugenommen hat.

horn 12
2018-09-17, 21:56:00
So verkehrt steht es um AMD und Polaris, Vega gar nicht
Nun pinkelt sich NV mit den Hohen Preisen wohl selbst ans Bein!

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Geforce-vs-AMD-Radeon-Marktanteile-1264650/

Update Lesen!

horn 12
2018-09-17, 23:38:17
Vega 20 laut GPU-Z in Vormarsch!
Nur so als Info:

v2.11.0 (September 17th, 2018)

https://www.techpowerup.com/download/techpowerup-gpu-z/

Locuza
2018-09-22, 02:16:48
Eine nicht sehr verständliche Übersetzung von einem kürzlichen Interview von 4Gamer auf der Tokyo Game Show (TGS):
4 Gamer:
I understand. Finally to Ritche, about partnering with partners.
In today's presentation, Capcom's " Biohazard RE: 2 " and " Devil May Cry 5 " both PC versions were announced as a result of collaboration, while on the other hand, primitives appealed extensively at Radeon RX Vega As for shader (Primitive Shader), still almost nothing is heard.
Are there updates for primitive shaders?

Ritche Corpus [AMD]:
First of all, we are constantly working with developers on various collaboration initiatives. The case with Mr. Capcom also took two years and finally saw the eyes of the day.
If you answer the question, as with DirectX 12 (Direct 3 D 12), the primitive shader also takes time to familiarize the developer side. So it will take some time. I think that primarily shader-compatible games will probably come out from now on, but in the end it will depend on what developers choose.
https://www.4gamer.net/games/300/G030061/20180921078/

Google Translate:
https://translate.google.de/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=https%3A%2F%2Fwww.4gamer.net%2Fgames%2F300%2FG030061%2F20180921078%2F&edit-text=

Im Link steht noch mehr, z.B. wird AMD bald eine Demo-Anwendung für FreeSync(2) veröffentlichen, wo jedenfalls im Text steht, dass man FreeSync on/off schalten kann, ebenso V-Sync, dass FPS-Limit setzen und ob HDR verwendet werden soll.
https://www.4gamer.net/games/300/G030061/20180921078/SS/002.jpg

Bezüglich BFV und Ray-Tracing will man auch bald etwas verkünden, wobei es sich hier scheinbar auf die CPU-Seite mit Ryzen bezieht:
4 Gamer:
Next is the story of ray tracing. The PC version " Battlefield V " (BFV) implements real time ray tracing in the game, and the competition is to accelerate it with hardware.
Meanwhile, AMD has long stated that "Ray tracing is a stance to cope with the combination of GPU and CPU, but does" matching technique "work in BFV?

Ritche Corpus [AMD]:
Although it is too early to answer some kind of support, I think that we can make some announcement about "BFV's ray tracing" in the near future .

Adam Kozak [AMD]:
I do not know if it is synonymous with your intended "acceleration", but let me add that what Frostbite actually said that "Ryzen's processor can also accelerate (ray tracing)."

gravitationsfeld
2018-09-22, 02:48:46
Was fuer ein Gelaber. Es gibt de facto keinen API-Support fuer primitive shader bisher. Schon gar nicht fuer DX12.

Raff
2018-09-22, 16:47:21
Da ich gerade ein bisschen herumspinne – lässt uns doch mal ein bisschen über Vega 20 sprechen. :)

Theoretisch wäre eine Radeon Vega Frontier Edition II mit Gaming-Mode im Treiber kein Problem. Der Chip ist jedoch fürs High Performance Computing bestimmt und trägt daher, ähnlich wie Volta und Turing, viel "Ballast" mit sich, der bei klassischer FP32-Rasterisierung nicht hilft. Ich wüsste gern, wie konfigurierbar Vega 20 ist. Die größte Stärke ist die 4 × 1.024-Bit-Speicherschnittstelle. Dort könnte man 4 × 4 = 16 GiByte HBM gen2 installieren und somit Turing ausstechen, während die Profi-Lösungen (Radeon Instinct) das volle Vega-20-Brett mit 32 GiByte erhalten. Nehmen wir an, dass Vega 20, wie erhofft, deutlich höher taktet, brächte schon der Speicherdurchsatz hübsche Gewinne. Dazu 20-30 Prozent mehr Takt ggü. Vega 10 und wir haben zumindest RTX-2080-Leistung bei mehr Speicher und vermutlich vergleichbarer Effizienz. Chips mit einem Fertigungsfehler beim SI könnte AMD, ähnlich wie Nvidia bei der Titan V, mit 3.072 Bit und 12 GiByte verkaufen. Sehr attraktiv aus meiner Sicht, allerdings ist völlig unklar, wie gut die 7-nm-Fertigung derzeit läuft und wie teuer so ein Chip ist. Da packt man die wertvollen Kerne lieber in den margenträchtigen Profimarkt.

MfG,
Raff

pixeljetstream
2018-09-22, 17:25:12
Der einzige Ballast von HPC ist fp64 und ECC. Man kann nun drüber streiten wieviel Ballast der inferencing Kram ist, aber den wegzulassen wäre riskant. Wenn man sieht wie "neue Engines" ala wolf2 von compute perf profitieren, kann man da bei Turing/Vega nicht von so viel Ballast sprechen (beide haben wenig fp64 und kein on-chip ECC, wobei Turing evtl doch finde gerade keine Info, glaube aber nicht, war nur GP100 und GV100 soweit).

Raff
2018-09-22, 17:41:29
Macht Vega das Inferencing denn nicht über die normalen FP-ALUs? Das würde ich gerade angesichts der Turing-Offensive ebenfalls nicht als Ballast ansehen, wohl aber jede einzelne der vielen FP64-ALUs. Und soweit bekannt, ist Vega 20 deutlich FP64-stärker als Vega 10. Ich weiß aber nicht mehr, wo das initial stand. Mit einer FP32:FP64-Rate von 2:1 wäre das sehr viel Ballast (aus Spielersicht).

MfG,
Raff

pixeljetstream
2018-09-22, 17:44:31
Naja die haben ja auch fp16 Alus. Aber ja da Vega10 mehr fp64 als Turing haben, könnten sie die weiter kürzen.

Okay ja wenn Vega20 noch mehr fp64, dann stimmt das mit dem Ballast

Gipsel
2018-09-22, 18:02:18
Na ja, AMD verbaut traditionell multi-precision ALUs. Da hält sich der Overhead in Grenzen, den man da für FP64 in Transistoren stecken muß. Im Prinzip sind fast nur breitere Multiplier in den ALUs für 1:2 FP64 nötig, das kostet für jeden SP (also SIMD-Slot) vermutlich keine 10% (1:4 wäre extrem billig, 1:16 praktisch umsonst). Man kann ja mal Hawaii zum Vergleich ranziehen, der konnte ja auch FP64 mit halber Rate. Viel Fläche hat das nicht gekostet.
edit: Gab's nicht sogar eine APU mit 1:2 FP64 im Grafikteil?

mboeller
2018-09-22, 18:35:57
edit: Gab's nicht sogar eine APU mit 1:2 FP64 im Grafikteil?

Ja, Bristol Ridge

https://www.planet3dnow.de/cms/27562-bristol-ridge-mit-ungewoehnlich-hoher-double-precision-rechenleistung/

Ravenhearth
2018-09-22, 18:45:38
Na ja, AMD verbaut traditionell multi-precision ALUs. Da hält sich der Overhead in Grenzen, den man da für FP64 in Transistoren stecken muß. Im Prinzip sind fast nur breitere Multiplier in den ALUs für 1:2 FP64 nötig, das kostet für jeden SP (also SIMD-Slot) vermutlich keine 10% (1:4 wäre extrem billig, 1:16 praktisch umsonst). Man kann ja mal Hawaii zum Vergleich ranziehen, der konnte ja auch FP64 mit halber Rate. Viel Fläche hat das nicht gekostet.
edit: Gab's nicht sogar eine APU mit 1:2 FP64 im Grafikteil?
Ich meine mich zu erinnern (aber keine Ahnung wo ich das gelesen habe), dass eine CU bei GCN (Pitcairn, Bonaire oder so) ca. 5,0mm² hatte, und bei Hawaii waren es dann 5,5mm². Dann kommt das mit den 10% für FP64 also sehr gut hin. Könnte ja nochmal jemand ausmessen :D

Dann frage ich mich nur, wieso Vega20 anscheinend deutlich über 300mm² groß ist, wenn AMD für 7nm selber Faktor 2 angibt. Ausgehend von Vega10 wäre dieser in 7nm nach Milchmädchenrechnung ca. 240mm² groß, und dann käme noch etwas für FP64 hinzu. Ok, es shrinkt nicht alles mit, aber dennoch... :confused:

iuno
2018-09-22, 18:50:20
Es ist ja nicht nur FP64. Das SI, das nicht gleich (oder ueberhaupt?) geschrumpft werden kann, ist doppelt so breit. Es gibt neue Instruktionen fuer ML Zeug. Vielleicht optimiert man auch auf sehr hohen Takt. Und vielleicht kostet auch noch etwas Platz, von denen wir noch nichts wissen.

AffenJack
2018-09-22, 19:09:30
Es ist ja nicht nur FP64. Das SI, das nicht gleich (oder ueberhaupt?) geschrumpft werden kann, ist doppelt so breit. Es gibt neue Instruktionen fuer ML Zeug. Vielleicht optimiert man auch auf sehr hohen Takt. Und vielleicht kostet auch noch etwas Platz, von denen wir noch nichts wissen.

xGMI nicht vergessen. Nvlink war bei GP100 glaube etwa 20mm² für 4 Nvlinks laut Dieshots. Auch sowas wird nicht mit 7nm skalieren und xGMI könnte in 7nm auch im 20 mm² Bereich landen, je nachdem wie schnell das Zeug wird.

gravitationsfeld
2018-09-22, 20:45:53
Na ja, AMD verbaut traditionell multi-precision ALUs. Da hält sich der Overhead in Grenzen, den man da für FP64 in Transistoren stecken muß. Im Prinzip sind fast nur breitere Multiplier in den ALUs für 1:2 FP64 nötig, das kostet für jeden SP (also SIMD-Slot) vermutlich keine 10% (1:4 wäre extrem billig, 1:16 praktisch umsonst). Man kann ja mal Hawaii zum Vergleich ranziehen, der konnte ja auch FP64 mit halber Rate. Viel Fläche hat das nicht gekostet.
edit: Gab's nicht sogar eine APU mit 1:2 FP64 im Grafikteil?
Die Intel GPUs haben auch alle half rate FP64. Aber Intel hat sich ja auch noch nie fuer Area interessiert :ugly:

Digidi
2018-09-23, 22:03:40
Hat AMD was am Treiber geändert:

Quelle für die 2080ti:
https://www.techbang.com/posts/61232-rt-light-tracing-and-tensor-machine-learning-nvidia-geforce-rtx-2080-2080ti-turing-architecture-founders-edition-performance-performance-once-read?from=home_news&page=4

Ich find es nicht so prickelnd das keine Syntehtischen Benchmarks mehr auftauchen.

horn 12
2018-09-23, 22:41:30
Primitive Shader freigeschaltet :-)

dildo4u
2018-09-24, 05:51:01
Der API Test taugt nix für ein direkten Vergleich.
Ich schlage Vega und Turing in Vulkan.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11687477&postcount=823

HOT
2018-09-27, 11:39:04
Oh, da haben wir uns aber mit der Vega 20 Speku ziemlich verhauen.
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-26-september-2018
Ein V20 in 14nm wär demnach ca. 1000(!!) mm² groß. Da fragt man sich dann schon, wo das alles hingegangen ist bei nur 64CUs. Vllt. doch alles Mögliche inclusive RT?

basix
2018-09-27, 12:18:44
Oh, da haben wir uns aber mit der Vega 20 Speku ziemlich verhauen.
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-26-september-2018
Ein V20 in 14nm wär demnach ca. 1000(!!) mm² groß. Da fragt man sich dann schon, wo das alles hingegangen ist bei nur 64CUs. Vllt. doch alles Mögliche inclusive RT?

Mobile != HPC Prozess. Anscheinend hat 7nm HPC ca. 2/3 der Density von 7nm Mobile. Dann landet man eher bei ca. 750mm2 in 14nm, ergo etwa gleich gross wie Nvidia TU102.

Dural
2018-09-27, 12:40:34
Aber schon das wäre super, ein TU102 in 300mm2+ mit 10-30% mehr Leistung als die 2080Ti (Durch mehr Takt und Optimierungen) und 180Watt hört sich nicht mal so schlecht an ;)


… für nur 999.- :freak:

Adam D.
2018-09-27, 12:50:53
Aber schon das wäre super, ein TU102 in 300mm2+ mit 10-30% mehr Leistung als die 2080Ti (Durch mehr Takt und Optimierungen) und 180Watt hört sich nicht mal so schlecht an ;)


… für nur 999.- :freak:
Du hast da eine 9 vergessen...

HOT
2018-09-27, 12:58:10
Mobile != HPC Prozess. Anscheinend hat 7nm HPC ca. 2/3 der Density von 7nm Mobile. Dann landet man eher bei ca. 750mm2 in 14nm, ergo etwa gleich gross wie Nvidia TU102.

Nene, der kommt ja auch bei 16FF+ von einer höheren Transistordichte, das kann also nicht stimmen.

AffenJack
2018-09-27, 13:38:38
Nene, der kommt ja auch bei 16FF+ von einer höheren Transistordichte, das kann also nicht stimmen.

Nein, die 16/14nm Prozesse lagen egal ob Mobile oder HPC sehr nah zusammen.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11800639#post11800639

Das ist bei 7nm völlig anders. 7nm HPC wird nur etwas mehr als 2x Density liefern. Ich versuche schon seit Monaten Leonidas darauf aufmerksam zu machen, seine Annahmen sind einfach falsch für HPC Produkte.

HOT
2018-09-27, 14:07:08
Was soll denn da soviel mehr Platz brauchen? SRAM ist doch nur ein Teil des Ganzen. Ich denke nicht, dass man nur soviel mehr schafft. Man wird vielleicht nicht ganz 3,33 schaffen, aber 2,5 ist mindestens drin mMn.

Ravenhearth
2018-09-27, 15:29:28
Was soll denn da soviel mehr Platz brauchen? SRAM ist doch nur ein Teil des Ganzen. Ich denke nicht, dass man nur soviel mehr schafft. Man wird vielleicht nicht ganz 3,33 schaffen, aber 2,5 ist mindestens drin mMn.
AMD sagt doch selber:

https://www.hw-journal.de/images/Bilder/2018/news/AMD/Computex-2018/AMD-Epyc-7-nm-Computex-2018-2.JPG

Da man mit 16nm vergleicht (und GF aus dem Rennen ist), kann damit auch nur TSMC gemeint sein.

basix
2018-09-27, 15:34:46
Da man mit 16nm vergleicht (und GF aus dem Rennen ist), kann damit auch nur TSMC gemeint sein.

Es ist sogar zwingend TSMC, denn bei deiner Folie ging es im Kontext um V20, welcher bei TSMC gefertigt wird.

Ravenhearth
2018-09-27, 15:38:15
Touché

Damit wäre Vega20 in 16nm wie groß? 600-700mm²?
Und TU102 hätte in 7nm ~375mm²

basix
2018-09-27, 17:44:41
Damit wäre Vega20 in 16nm wie groß? 600-700mm²? Und TU102 hätte in 7nm ~375mm²

Ich komme bei V20 auf ca. 340mm2. Nehmen wir die Density von Apples A12 und die Aussage dieses Typen über 7nm HPC Density welche ca. 2/3 der 7nm Mobile Density entspricht (finde es gerade nicht, sorry) dann landet man bei ca. 55 MTr/mm2. Dies entspräche zeimlich genau 2-2.1x Density gegenüber V10. Also würde ein hypothethischer V20 in 14/16nm bei ca. 700mm2 landen. Wie gesagt, die GPU entspricht etwa TU102 von der Komplexität her. Bei 4096 vs. 4608 Shadern kann man also in etwa erahnen, das auch die ML/DL Fähigkeiten auf etwa ähnlichem Niveau landen werden.

Dural
2018-09-28, 10:13:13
Das ihr immer noch davon ausgeht das da grössere Änderungen kommen erstaunt schon. :wink:

Ravenhearth
2018-09-28, 22:15:12
Ich komme bei V20 auf ca. 340mm2. Nehmen wir die Density von Apples A12 und die Aussage dieses Typen über 7nm HPC Density welche ca. 2/3 der 7nm Mobile Density entspricht (finde es gerade nicht, sorry) dann landet man bei ca. 55 MTr/mm2. Dies entspräche zeimlich genau 2-2.1x Density gegenüber V10. Also würde ein hypothethischer V20 in 14/16nm bei ca. 700mm2 landen. Wie gesagt, die GPU entspricht etwa TU102 von der Komplexität her. Bei 4096 vs. 4608 Shadern kann man also in etwa erahnen, das auch die ML/DL Fähigkeiten auf etwa ähnlichem Niveau landen werden.
Man sollte bedenken: Eine von Fotos abgemesse Die-Size ist immer größer als die offizielle Angabe. Bei Vega10 belief sich eine Schätzung zB. auf 564mm², 80mm² mehr als die offizielle Angabe. Nimmt man ein ähnliches Verhältnis für die Schätzung von Vega20 an, landet die offizielle Angabe bei ~300mm².

Ausgehend von den 240mm² für einen hypothetischen Shrink von Vega10 (basierend auf den 484mm²) klingt das schon deutlich realistischer... vielleicht jeweils ca. 20mm² für xGMI, zusätzliche Speichercontroller und 2:1 SP: DP addieren und man landet auf 300mm². Passt wie die Faust aufs Auge. Also ich denke wirklich nicht, dass der Chip hiervon abgesehen noch größere Änderungen hat, von denen wir nichts wissen.

Digidi
2018-09-29, 04:31:00
Compute Benchmark von Vega 20:
https://compubench.com/compare.jsp?benchmark=compu20d&did1=64197418&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+66A0%3A00&D2=AMD+Radeon%28TM%29+RX+Vega

aus dem Beyond3d Forum.
https://forum.beyond3d.com/threads/amd-vega-10-vega-11-vega-12-and-vega-20-rumors-and-discussion.59649/page-276


Das sind ca 50% mehr Performance zu Vega.....

Bei Vertex Connection and Merging sogar 79% mehr. hmmm dachte das Teil geht auf Compute???

AffenJack
2018-09-29, 08:53:52
Ich würde eher die vergleichswerte nehmen:
https://compubench.com/compare.jsp?benchmark=compu20d&did1=64197418&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+66A0%3A00&D2=AMD+Radeon+RX+Vega

Das sind Werte wo Vegas normal eingetragen werden, in deinem Eintrag waren nur die von Prerelease 2017. Anscheinend hat AMD da durch den Treiber noch etwas Performance rausgeholt oder die wurden mit geringeren Taktraten gemacht.

Zwischen 19 und 37% schneller als Vega10.

Der schnellste übertaktete Vega10 ist zwischen 9% langsamer und 2 % schneller als V20 hier.
https://compubench.com/device.jsp?D=AMD+Radeon+RX+Vega&os=Windows&api=cl&testgroup=compute&benchmark=compu20d&var=score

Da keine Taktraten da stehen, ganz schwierig einzuschätzen. Müsste hier mal wer im Forum mit Standardtaktraten und OC testen.

Leonidas
2018-09-29, 10:55:54
Das ist bei 7nm völlig anders. 7nm HPC wird nur etwas mehr als 2x Density liefern. Ich versuche schon seit Monaten Leonidas darauf aufmerksam zu machen, seine Annahmen sind einfach falsch für HPC Produkte.


Also TSMC sagt hierzu aber was anderes:
https://www.3dcenter.org/news/tsmcs-5nm-fertigung-bringt-nur-unterdurchschnittliche-fortschritte

Ganz generell ist 7FF+ vor allem ein interner Schritt. EUV rein, Kosten runter.

Doch ganz nebenbei: Da NV generell die Plus-Prozesse benutzt, stimmt diese Kalkulation, die sich auf Apple und die non-Plus-Prozesse bezieht, um groben auch auf nVidia. Der Vorteil der Plus- zu den non-Plus-Prozessen ist üblicherweise ziemlich gleich, ergo sind die großen Relationen zwischen den Fertigungsverfahren genauso ähnlich.

AffenJack
2018-09-29, 11:04:29
Also TSMC sagt hierzu aber was anderes:
https://www.3dcenter.org/news/tsmcs-5nm-fertigung-bringt-nur-unterdurchschnittliche-fortschritte


Das sind Werte für den Mobile Prozess, nicht für den 7nm HPC Prozess:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11800622#post11800622

Vom Wikichip Autor. Das ist auch der Grund wieso AMD selber für 7nm nur 2fache Density angegeben hat bei Ihrer Vega20 Vorstellung.

horn 12
2018-09-29, 12:24:11
Vega20 - Release Ende November 2018 - Mit einer FE Edition wie Frontier bei Vega
und angepassten Treibern
Leistung zwischen RTX 2080 und 2080TI um 699 Euro,- und man macht den Deckel zu!

Ravenhearth
2018-09-29, 13:28:59
Wenn allerdings recht bald nach Vega20 schon Navi kommt wäre ersterer recht überflüssig im Gaming-Markt. Mit 64 CUs dürfte Navi nicht langsamer sein, aber deutlich günstiger zu produzieren und damit auch billiger im Verkauf.

Zumal auch fraglich ist, ob sich solche "geringen" Preise für Vega20 aus Sicht von AMD lohnen. Kommt wohl darauf an wie viele Chips man kriegt. Aber wenn sie alle Chips im Profimarkt loswerden können, wäre AMD schön blöd Vega20 für Gamer zu verschleudern.

Vega20 - Release Ende November 2018 - Mit einer FE Edition wie Frontier bei Vega
und angepassten Treibern
Leistung zwischen RTX 2080 und 2080TI um 699 Euro,- und man macht den Deckel zu!
Das ist imo viel zu optimistisch. 7nm bietet laut AMD 35% mehr Takt bei gleichem Verbrauch. Ausgehend von Vega64 wären das >1,8GHz, 1080 Ti-Performance und weiterhin ~300W, sofern Vega20 nicht große Effizienzverbesserungen spendiert bekommt.

Mit Navi dürfte das besser aussehen. Der hat zwar sehr wahrscheinlich weniger Bandbreite als Vega20 mit seinen 4 HBM-Stacks, aber bekommt IPC-Verbesserungen und eventuell (hoffentlich) auch Effizienz-Verbesserungen.

Alles in allem halte ich Vega20 daher für den Gaming-Markt weiterhin für unrealistisch: Preislich für Gamer zu hoch wenn wenig später Navi kommt, für AMD im Vergleich mit Profi gleichzeitig zu billig... das passt nicht zusammen.

HOT
2018-09-29, 13:48:31
Warum AMD 50% mehr angibt und wie das gemeint ist, entzieht sich schlicht unserer Kenntnis. Wenn Mobile eine Skalierung von 3,33 zulässt sind 2,0 für HPC einfach unplausibel. Auch dein anderer Link sagt rein gar nichts dazu aus. Ich würd da mal eher von einer Skalierung von 2,5-2,8 ausgehen vom letzten HPC-Prozess aus, das ist erheblich plausibler.

Ravenhearth
2018-09-29, 14:06:12
Dein Ernst? Ich finde das offensichtlich wie eine Skalierung von 2x gemeint ist, nämlich genau wies da steht. Warum soll das für HPC unplausibel sein, irgendeine Begründung dafür? Glaubwürdige Angaben zu ignorieren und sich stattdessen irgendwelche Zahlen aus den Fingern zu saugen hilft nicht weiter.

Locuza
2018-09-29, 14:22:15
https://pbs.twimg.com/media/Dno8mMBX0AEkRGq.png

Zeit für eine krude Überschlagung.
Der A12 unter 7nm schafft eine 3.14 höhere Dichte, als ein A10 unter 16nm.
David Schor gab an, dass 7nm HPC 67 MTr/mm² bieten könnte.
Bei GloFos 7nm Prozess hat er 86 MTr/mm² für die HD-Lib mit 6-Zellen angegeben, wobei TSMC von den Maßen her nur ein wenig dichter war als GloFo, die SRAM-Zellen waren gleich dicht, man kann sich also auch daran teilweise orientieren.
Bei TSMC finde ich unterschiedliche Werte, AffenJack hat irgendwo 97 MTr/mm² aufgeschnappt.
Also rein vom Verhältnis her, würde HPC 78% der Dichte bieten (GloFo 7nm) oder nur 69% (TSMC 7nm, falls die Angabe valide ist), bezogen auf den Scaling-Faktor bei Apple wären das am Ende 2,45 bzw. 2,16.
Wenn wir noch miteinrechnen das GloFos 14nm Prozess etwas dichter war, als TSMCs 16nm Prozess (8% bei Apples Twister), dann könnte man bei Faktor 2,1-2,4 landen.

Edit: Wenn man will, dann kann man auch die praktisch erreichten Werte mit den Theoriewerten abgleichen.
Der A12 schafft nämlich "nur" 82,9 MTr/mm².
7nm HPC, wenn wir nicht davon ausgehen das es in der Praxis ebenfalls schlechter skaliert, würde 81% der Dichte bieten bzw. einen Scaling-Faktor von 2,54.

AffenJack
2018-09-29, 14:38:10
Bei TSMC finde ich unterschiedliche Werte, AffenJack hat irgendwo 97 MTr/mm² aufgeschnappt.

Der Wert war aus dem Twitterthread auf den David Schor geantwortet hat, direkt vor ihm. Da er den nicht korrigiert hat, nehme ich an, dass er stimmt. Sonst fnad ichs auch sehr schwierig die Werte von TSMC zu finden. Intel 10nm ist bei 100Mtr/mm² und Samsung auch in ähnlichen Bereichen, deshalb glaube ich stimmt der Wert dann schon.

https://fuse.wikichip.org/news/1479/vlsi-2018-samsungs-2nd-gen-7nm-euv-goes-hvm/4/

Da Samsung und GF bei 14nm den gleichen Node haben, sollte der HP oder UHP Wert auch für GF bei 14nm gelten.

Locuza
2018-09-29, 15:04:11
AMD verwendet den 14nm HD Prozess bei Zen und vermutlich auch den GPUs.
~67 MTr/mm² vs. ~33 MTr/mm² wären Faktor 2.

basix
2018-09-29, 16:56:57
AMD verwendet den 14nm HD Prozess bei Zen und vermutlich auch den GPUs.
~67 MTr/mm² vs. ~33 MTr/mm² wären Faktor 2.

Die 33 MTr/mm2 werden über den gesamten Chip gesehen aber bei weitem nicht erreicht. Zen hatte ca. 22.5 MTr/mm2 und Vega V10 ca. 25.5 MTr/mm2. Das 4C CCX mit 1.4 Milliarden Transistoren auf 44mm2 ist aber mit 32 MTr/mm2 nahe dran. Ich vermute man wird ca. 50-55 MTr/mm2 erreichen. Die Angabe von 2x von AMD sieht sehr realistisch aus. Schade eigentlich, wenn man bedenkt, dass die Mobile Prozesse eine +50% höhere Density hinlegen können.

Digidi
2018-09-30, 23:41:02
So ich hab mal Forza Horison 4 gebenchmarkt mit einer Fury X und 4700 und dann mit Vega 64 und 1800x.

Hab mal einen reinen Polygonen Test gemacht. Alles Off bis auf die 4 Geometrie Settings, die alle auf Max.

Herauskam: 85 FPS Fury X und 176 FPS Vega 64.....

Auflösung 1080p

horn 12
2018-09-30, 23:45:34
Nun, bei mir kommt Forza in 4K nur auf 42 fps
Alles Maximal bis gar Extrem!

RyZen 2600X mir Vega 64 Referenz.

horn 12
2018-10-02, 22:13:54
Vega 7nm UM 549 Dollar
In den nächsten 3 Monaten

Zumindest behauptet es der Typ
Ca. 2080 Leistung

https://www.youtube.com/watch?v=OHs433_oJY4&feature=youtu.be

Linmoum
2018-10-02, 22:27:14
Das ist sicherlich schön für den Typen. Ich frage mich ja, warum die Leute nicht wenigstens versuchen, halbwegs glaubwürdige "Infos" von sich zu geben. Der Humbug springt einem hier ja direkt mit dem Arsch ins Gesicht.

Ex3cut3r
2018-10-02, 22:34:53
Leo hat es letztens ganz gut zusammen gefasst, auf eine High End Lösung kann bis 2020 warten.

https://abload.de/img/unbenannttecgl.png

Quelle: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-27-september-2018

Atma
2018-10-02, 22:40:02
Vega 7nm UM 549 Dollar
In den nächsten 3 Monaten

Zumindest behauptet es der Typ
Ca. 2080 Leistung

https://www.youtube.com/watch?v=OHs433_oJY4&feature=youtu.be
Was für ein Quatsch, der beruft sich auf Aussagen und Angaben auf Folien um daraus eine 7nm Gaming Vega zu spinnen :crazy:

Ravenhearth
2018-10-03, 02:54:34
Leo hat es letztens ganz gut zusammen gefasst, auf eine High End Lösung kann bis 2020 warten.

https://abload.de/img/unbenannttecgl.png

Quelle: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-27-september-2018
Hm, Nvidias 7nm finde ich aber zu optimistisch, weniger als 18 Monate werden imo nicht zwischen Turing und 7nm liegen. Also eher Anfang-Mitte 2020. /ot

Dural
2018-10-04, 17:52:32
so wie es derzeit ausschaut wird wohl im 1H 2019 gar nichts bezahlbares in 7nm auf den markt kommen.

Man munkelt das 7nm sündhaft teuer ist, und NV deswegen die eigenen 7nm produkte nach hinten geschoben hat.

Ich frage mich wie das AMD mit Navi machen will, AMD könnte sich mal wieder verschätzt haben. Kein wunder schieben die jetzt noch die dritte auflage von Polaris hinterher.

deekey777
2018-10-04, 17:56:38
https://www.hardocp.com/news/2018/10/03/amd_president_ceo_dr_lisa_su_to_keynote_at_ces_2019/

AMD President and CEO Dr. Lisa Su is scheduled to deliver a keynote address at the upcoming CES 2019 event. In 2019 AMD is expected to release the world's first 7nm high-performance CPUs and GPUs. "During her CES keynote, Dr. Su and guests will provide a view into the diverse applications for new computing technologies ranging from solving some of the world's toughest challenges to the future of gaming, entertainment and virtual reality with the potential to redefine modern life." Dr, Lisa Su's speech will be the first CES keynote from AMD in show history.

Complicated
2018-10-04, 18:01:11
Ich frage mich wie das AMD mit Navi machen will, AMD könnte sich mal wieder verschätzt haben. Kein wunder schieben die jetzt noch die dritte auflage von Polaris hinterher.
AMD baut erstmal keine Chips die zu groß sind. Navi10 ist Mittelklasse und bringt deutlich früher 7nm kostendeckend. Wenn Nvidia grosse Chips wirtsxhaftlich bauen kann hat AMD ebenso die Möglichkeit größer zu designen. Nur halt dann mit schon monatelangem Vorsprung und Erfahrung.

dargo
2018-10-04, 18:20:13
Ich frage mich wie das AMD mit Navi machen will, AMD könnte sich mal wieder verschätzt haben. Kein wunder schieben die jetzt noch die dritte auflage von Polaris hinterher.
Der Vergleich hinkt imho. Navi wird höchstwahrscheinlich zwei Segmente im unteren Preisbereich abdecken während Nvidia mit einer Architektur die komplette Angebotspalette abdeckt. Einzige Ausnahme bisher vielleicht Turing der sich drüber positioniert.

basix
2018-10-04, 22:52:56
Ich vermute immer noch, dass Navi im 7nm Mobile Prozess kommt. Im Mainstream Segment ist deutlich höhere Density wichtiger als die letzten paar MHz. Vor allem, wenn 7nm so teuer sein sollte. Ausserdem werden viele 7nm Mobile Kapazitäten frei, wenn die vielen Smartphone Chips auf 7nm EUV umschwenken gegen Ende nächstes Jahr. 7nm HPC wird vermutlich allein durch Zen 2 sehr gut ausgelastet sein. 7nm Vega kommt eher nur dann in den Gaming Markt, falls man die Leistungskrone knacken kann. Dazu ist man momentan etwas weit weg. Veilleicht ist V20=V10 fixed und man kann den Chip doch auf 2.5 GHz prügeln :D

Leonidas
2018-10-13, 11:02:08
Das sind Werte für den Mobile Prozess, nicht für den 7nm HPC Prozess:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11800622#post11800622

Vom Wikichip Autor. Das ist auch der Grund wieso AMD selber für 7nm nur 2fache Density angegeben hat bei Ihrer Vega20 Vorstellung.


Danke für den Hinweis. Mir war nicht klar, das TSMC da so große Differenzen macht. Muß ich in Zukunft beachten.

Digidi
2018-10-21, 12:20:30
Hier schreibt jemand das Primitive Shaders doch noch in Vulkan kommen sollen, es gibt anscheinend schon ein Projekt dazu:

http://extreme.pcgameshardware.de/grafikkarten/485138-amd-rx-vega-laberthread-668.html#post9556402

Adam D.
2018-10-21, 12:38:31
Hier schreibt jemand das Primitive Shaders doch noch in Vulkan kommen sollen, es gibt anscheinend schon ein Projekt dazu:

http://extreme.pcgameshardware.de/grafikkarten/485138-amd-rx-vega-laberthread-668.html#post9556402
Klingt extrem glaubwürdig :freak:

Sven77
2018-10-21, 12:43:01
Ist ein Trollaccount

Linmoum
2018-10-21, 12:52:09
Ich glaube sogar, dass das Horn ist. ;D

M4xw0lf
2018-10-21, 15:14:42
Ich glaube sogar, dass das Horn ist. ;D
Ich glaube auch.

Digidi
2018-10-21, 17:35:15
Neues Patent:
https://patentscope.wipo.int/search/en/detail.jsf?docId=WO2018022357

basix
2018-10-21, 18:40:58
Ist das allgemein für Primitives oder nur für Compute?

vinacis_vivids
2018-10-21, 22:58:38
Ist das allgemein für Primitives oder nur für Compute?

Sowohl als auch. Primitive Shader sind wie von mir (nach interner AMD Quelle) erwähnt schon lange in der Hardware und Treiber implementiert.

horn 12
2018-10-22, 03:49:21
https://patentscope.wipo.int/search/en/detail.jsf?docId=WO2018022357&tab=PCTDOCUMENTS&maxRec=1000

mboeller
2018-10-22, 07:16:23
Sowohl als auch. Primitive Shader sind wie von mir (nach interner AMD Quelle) erwähnt schon lange in der Hardware und Treiber implementiert.

Das Patent ist vom 27. Juli 2016. IMHO viel zu spät für Vega10.

Ok, ich nehme das zurück. Das Patent liest sich mehr oder weniger wie eine Software-Implementierung. Und das ist alleine eine Treiber-Sache.

vinacis_vivids
2018-10-22, 08:07:39
Die Vega uArch ist seiner Zeit einfach voraus und funktionale Anteile von PS sind bereits aktiviert, siehe Wolfenstein II.

Pirx
2018-10-22, 09:06:43
Test der Radeon Pro WX 8200 (praktisch ne Vega56) https://www.kitguru.net/components/graphic-cards/james-morris/amd-radeon-pro-wx-8200-professional-graphics-card-review/
interessante Ergebnisse im Multitasking-Teil

vinacis_vivids
2018-10-22, 13:58:37
Die WX8200 hat 512Gbyte/s während Vega56 mit 410GByte/s auskommt. Denkbar dass Desktop V10 mit 12nm und Speicherupgrades bekommen.

MR2
2018-10-25, 19:43:35
https://videocardz.com/78741/final-fantasy-xv-gpu-benchmark-page-lists-radeon-vega-20
Final Fantasy XV GPU benchmark page lists Radeon Vega 20

Sagt leider nicht viel, ähm gar nix aus.

Unicous
2018-10-25, 19:45:53
Doch, Vega 20 ist eine Gamerkarte.:freak: