PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 [61]

oldgamer
2019-02-11, 18:37:33
Mit dem PCIe 3.0 bin ich mir auch noch nicht ganz sicher, kann man nur noch nicht wirklich testen.
Du brauchst nichts testen, es ist PCI-E 3.0

aufkrawall
2019-02-13, 14:46:35
digidi sollte vor dem Lesen wahrscheinlich ein paar Betablocker einwerfen:
https://www.phoronix.com/scan.php?page=news_item&px=RadeonSI-Prim-Culling-Async-Com

SKYNET
2019-02-13, 15:03:45
Du brauchst nichts testen, es ist PCI-E 3.0

nativ ist die karte PCIe 4.0, aber durchs bios "beschnitten"... heisst mit nem biosupdate könnte die karte mit PCIe 4.0 laufen.

weil die schnittstelle kann man nicht wie CUs, ROPs etc. mit nem lasercut beschneiden ;)

Der_Korken
2019-02-13, 15:14:58
digidi sollte vor dem Lesen wahrscheinlich ein paar Betablocker einwerfen:
https://www.phoronix.com/scan.php?page=news_item&px=RadeonSI-Prim-Culling-Async-Com

Verstehe ich das richtig, dass das Culling unabhängig von der Anwendung gemacht wird? Das wäre sehr interessant. Der gezeigte Bench wird natürlich der absolute Best Case sein (wieso ist eigentlich die Fury X so weit oben, Bandbreitenlimit?). Wenn aber am Ende 5 oder 10% Performance in dem ein oder anderen Spiel ankommt, wäre das schon ein Hammer.

mboeller
2019-02-13, 15:23:28
digidi sollte vor dem Lesen wahrscheinlich ein paar Betablocker einwerfen:
https://www.phoronix.com/scan.php?page=news_item&px=RadeonSI-Prim-Culling-Async-Com

Oha... dann geht die alte Diskussion wieder von vorne los... seufz!

Die wichtigste Info fehlt aber, um welchen Benchmark es sich handelt. Wahrscheinlich ist es aber ein "100%" Vertex-Load Benchmark.

Falls das wirklich funktioniert ist es aber auch eine Blamage für AMD. Warum haben das dann die "Treiberlinge" von AMD nicht hinbekommen'?

edit: siehe unten #15008 von Locuza

Locuza
2019-02-13, 15:26:56
digidi sollte vor dem Lesen wahrscheinlich ein paar Betablocker einwerfen:
https://www.phoronix.com/scan.php?page=news_item&px=RadeonSI-Prim-Culling-Async-Com
https://abload.de/img/primitivecullingj8ken.jpg

Das ist eine sehr interessante Sache und ich frage mich, ob AMD etwas ähnliches unter DX11 schon benutzt oder benutzen wird?
Die Limitierungen bezüglich Bindless Textures, Instancing, Tessellation, Geometry Shaders klingen jedenfalls nach einem begrenzten Anwendungsbereich, wobei sich das noch ändern könnte in der Zukunft.

Fragman
2019-02-13, 15:30:14
Komische Daten,
die 290 kann enabled auf einmal mit ner V56 mithalten, die 480 ist auf einmal auf einem Niveau mit der 1080TI, während VI und VIi enabled alles extremst überflügeln.
Kommt mir dann doch etwas komisch vor. :freak:

Locuza
2019-02-13, 15:37:38
@mboeller

Der Benchmark war ParaView, Many Spheres @ 2560x1440.
Es wird vorerst nur für professionelle Anwendungen aktiv sein, Spiele werden erst jetzt bzw. später validiert.

Es ist eine relativ generische Implementierung, wo Compute Shader für den Vertex-Shader-Input verwendet werden, unnötige Geometrie geculled und ein neuer Index-Buffer generiert wird, der erst dann von der GFX-Pipeline konsumiert wird.
Das schöne daran ist, dass es von GCN2-GCN5 funktioniert, aber aktuell gibt es noch mehrere Einschränkungen.
Übrigens kommt die Patch-Serie von einem AMD-Treiberling.

Man kann aber natürlich die berechtigte Frage stellen, wieso AMD nicht schon früher so etwas implementiert hat oder sich daran bemüht?
Vielleicht haben sie das auch, man weiß ja nie was im Hintergrund so abläuft und getestet wird.

SKYNET
2019-02-13, 15:42:30
@mboeller

Der Benchmark war ParaView, Many Spheres @ 2560x1440.
Es wird vorerst nur für professionelle Anwendungen aktiv sein, Spiele werden erst jetzt bzw. später validiert.

Es ist eine relativ generische Implementierung, wo Compute Shader für den Vertex-Shader-Input verwendet werden, unnötige Geometrie geculled und ein neuer Index-Buffer generiert wird, der erst dann von der GFX-Pipeline konsumiert wird.
Das schöne daran ist, dass es von GCN2-GCN5 funktioniert, aber aktuell gibt es noch mehrere Einschränkungen.
Übrigens kommt die Patch-Serie von einem AMD-Treiberling.

Man kann aber natürlich die berechtigte Frage stellen, wieso AMD nicht schon früher so etwas implementiert hat oder sich daran bemüht?
Vielleicht haben sie das auch, man weiß ja nie was im Hintergrund so abläuft und getestet wird.

mhhh, dann ist die RX580 evtl. bald schneller als meine 1080Ti im hauptrechner... X-D

aufkrawall
2019-02-13, 15:45:08
mhhh, dann ist die RX580 evtl. bald schneller als meine 1080Ti im hauptrechner... X-D
Balken essen Verstand.

SKYNET
2019-02-13, 15:54:06
Balken essen Verstand.


man beachte den: "X-D"

;) ;) ;)

Rancor
2019-02-13, 15:54:36
Ich finde, das die AMD GPUs immer wirklich sehr interessante und innovative Ansätze haben. Ich frage mich allerdings, warum davon oftmals so wenig ankommt. Primitive Shader zB.

SKYNET
2019-02-13, 16:02:28
Ich finde, das die AMD GPUs immer wirklich sehr interessante und innovative Ansätze haben. Ich frage mich allerdings, warum davon oftmals so wenig ankommt. Primitive Shader zB.


reine theorie:
- AMD hat zu wenig geld um es bei den spieleherstellern durchzusetzen
- AMD hat zuwenig geld um es anständig im treiber zum laufen zu bringen
- AMD sieht in GCN keine zukunft mehr, und darum sind die ersten beiden punkte eh inzwischen hinfällig

fazit: viele transis einfach umsonst verbraucht, die man hätte in mehr CUs invenstieren können.

BoMbY
2019-02-13, 17:51:31
Du brauchst nichts testen, es ist PCI-E 3.0

Und woher willst Du das wissen? Weil irgendjemand das irgendjemandem gesagt hat? So wie bei den DP-Werten?

unl34shed
2019-02-13, 17:57:08
DP-Werte sind mittlerweile offiziell auf der Vega VII seite:
Peak Half Precision Compute Performance 27.7 TFLOPs
Peak Single Precision Compute Performance 13.8 TFLOPs
Peak Double Precision Compute Performance 3.46 TFLOPs

BoMbY
2019-02-13, 18:03:15
Ja, leider gibt es auf products.amd.com derzeit aber keine Angaben zu PCIe bei Desktop-GPUs. Auf dem Karton steht übrigens nur "PCIe" ohne Nummer, soweit ich das gesehen habe. Auf manchen Herstellerseiten steht auch nichts konkretes, und bei manchen "PCIe 3.0", aber möglicherweise haben die noch gar kein "PCIe 4.0" zur Auswahl, und natürlich kann die Karte auf jeden Fall auch PCIe 3.0, insofern ist es ja nicht komplett falsch.

Edit: Siehe zum Beispiel Sapphire:

https://i.imgur.com/GFD3pjY.png

Wirklich eindeutig ist das bisher nicht ...

AMDoderNvidia
2019-02-13, 18:14:10
digidi sollte vor dem Lesen wahrscheinlich ein paar Betablocker einwerfen:
https://www.phoronix.com/scan.php?page=news_item&px=RadeonSI-Prim-Culling-Async-Com

Das liest sich faszinierend, wie hier in einer generischen Art die ComputeShader als Vorstufe eingesetzt werden, um Geometrie frühzeitig auszusortieren.

Mal so nebenbei gefragt: Auf Nvidia-Karten könnte das auch eingesetzt werden, wäre aber nicht so performant, weil dort ComputeShader nicht "so richtig parallel" zur Graphics-Pipeline laufen können, korrekt?

BoMbY
2019-02-13, 18:26:17
Ich glaube die neuen Turing-Karten von NVidia könnten mit ihren Mesh Shaders ähnliches bieten wie AMD mit den Primitive Shaders.

AMDoderNvidia
2019-02-13, 18:31:12
Ich glaube die neuen Turing-Karten von NVidia könnten mit ihren Mesh Shaders ähnliches bieten wie AMD mit den Primitive Shaders.

Dir ist aber klar, dass die Next generation geometry engine (NGG) von Vega inzwischen offiziell von AMD gestrichen wurde? Auch Vega 20 hat das nicht und wird es niemals bekommen.

Demnach hoffe ich, dass es bei Nvidia besser aussieht ;)

BoMbY
2019-02-13, 18:37:07
Es wurde nur die explizite API gestrichen soweit ich mich erinnere. Die Funktion kann vom Treiber immer noch aktiviert werden, und möglicherweise wird das auch für manche Spiele genutzt, und für manche Software relativ sicher in den Pro Treibern.

Edit: Zu dem Thema könnte auch interessant sein, dass Hairworks bei Metro Exodus auf einer Vega 64 keinerlei Performance-Einbußen mehr hat (http://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Technik-Test-Raytracing-DLSS-DirectX-12-1275286/2/) - könnte an der NggTess-Pipeline liegen (die im OpenSource-PAL erwähnt wird), oder hat Nvidia Tessellation aus Hairworks entfernt?

mboeller
2019-02-13, 20:12:56
@mboeller

Der Benchmark war ParaView, Many Spheres @ 2560x1440.
Es wird vorerst nur für professionelle Anwendungen aktiv sein, Spiele werden erst jetzt bzw. später validiert.

Es ist eine relativ generische Implementierung, wo Compute Shader für den Vertex-Shader-Input verwendet werden, unnötige Geometrie geculled und ein neuer Index-Buffer generiert wird, der erst dann von der GFX-Pipeline konsumiert wird.
Das schöne daran ist, dass es von GCN2-GCN5 funktioniert, aber aktuell gibt es noch mehrere Einschränkungen.
Übrigens kommt die Patch-Serie von einem AMD-Treiberling.

Man kann aber natürlich die berechtigte Frage stellen, wieso AMD nicht schon früher so etwas implementiert hat oder sich daran bemüht?
Vielleicht haben sie das auch, man weiß ja nie was im Hintergrund so abläuft und getestet wird.

Danke für die Info. Ich habe meinen ersten, etwas frechen Beitrag editiert.

mboeller
2019-02-13, 20:17:28
Mal so nebenbei gefragt: Auf Nvidia-Karten könnte das auch eingesetzt werden, wäre aber nicht so performant, weil dort ComputeShader nicht "so richtig parallel" zur Graphics-Pipeline laufen können, korrekt?

die Nvidia-Karten machen das doch schon, allerdings in Hardware (zumindest soweit ich weiß). Eine zusätzliches Compute-Culling Stufe wird die Effizienz nicht mehr viel steigern können. Der Zugewinn sollte sich also in (engen?) Grenzen halten, ja nachdem wie effizient die bisherige Implementierung schon ist.

oldgamer
2019-02-13, 20:24:36
nativ ist die karte PCIe 4.0, aber durchs bios "beschnitten"... heisst mit nem biosupdate könnte die karte mit PCIe 4.0 laufen.

weil die schnittstelle kann man nicht wie CUs, ROPs etc. mit nem lasercut beschneiden ;)
AMD schreibt selbst die Karte kann nur PCI-E 3.0, warum sollten sie nachträglich ein Bios bringen das PCI-E 4.0 ermöglicht anstatt gleich beim Launch mit dem Feature zu brillieren?

Bleib doch einfach bei den Fakten, Radeon VII hat PCI-E 3.0 Unterstützung.
PCI-E 4.0 wird im Desktop für SingleGPUs nicht wirklich viel bringen, weitaus interessanter wird es für die CPU bezüglich Anbindung PCI-E SSD.

Locuza
2019-02-13, 21:31:07
Es wurde nur die explizite API gestrichen soweit ich mich erinnere. Die Funktion kann vom Treiber immer noch aktiviert werden, und möglicherweise wird das auch für manche Spiele genutzt, und für manche Software relativ sicher in den Pro Treibern.

Edit: Zu dem Thema könnte auch interessant sein, dass Hairworks bei Metro Exodus auf einer Vega 64 keinerlei Performance-Einbußen mehr hat (http://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Technik-Test-Raytracing-DLSS-DirectX-12-1275286/2/) - könnte an der NggTess-Pipeline liegen (die im OpenSource-PAL erwähnt wird), oder hat Nvidia Tessellation aus Hairworks entfernt?
Alles wurde laut der aktuellen Informationsgrundlage gestrichen.
Im August 2018 meinte ein AMD-Mitarbeiter das GFX9 bzw. GCN5 NGG nicht mehr unterstützen wird:
https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html

Weder der Kerneltreiber(AMDGPU), noch der Shader-Compiler (LLPC), sind für den NGG-Pfad ausreichend fortgeschritten.
Während die letzte Sache aktuell keine Rolle spielt für den proprietären Treiberstack, stellt dagegen das erste ein Problem da, da der offene Kernelmodedriver AMDGPU für closed und open source Treiber genutzt wird, also gibt es den Support auch nicht im Pro-Stack.

Und wenn AMD das ganze Zeug nicht bei OGL/Vulkan unterstützt, wird es wohl auch kaum bei DX aktiv sein.

die Nvidia-Karten machen das doch schon, allerdings in Hardware (zumindest soweit ich weiß). Eine zusätzliches Compute-Culling Stufe wird die Effizienz nicht mehr viel steigern können. Der Zugewinn sollte sich also in (engen?) Grenzen halten, ja nachdem wie effizient die bisherige Implementierung schon ist.
Nvidia hat bessere und mehr fixed-function-hardware in diesem Bezug und seit Turing auch noch einmal eine bessere Infrastruktur und Mesh-Shader, aber laut dem ParaView-Benchmark schlägt AMD dank des Compute-Shader-Culling jede Nvidia GPU (Leider ohne Turing-Zahlen):
https://www.phoronix.net/image.php?id=2019&image=radeonsi_async_prim_cull

Die Frage ist natürlich sehr interessant in Bezug darauf, ob Nvidia nicht etwas ähnliches implementieren könnte?
AMD hat laienhaft gesehen eine elegante Lösung mit Async-Compute-Funktionalität und einen globalen counter über GDS, wo Nvidia Hardware zumindest bis Turing nicht vergleichbar flexibel ist bzw. nicht auf dem Level von AMD.
Aber die Frage ist natürlich auch, wie sehr die Async Compute Umsetzung hilft und ob mit einer anderen Implementierung, man nach wie vor einen großen Profit herausschlagen könnte?
Ich würde ja vermuten.

Pirx
2019-02-13, 22:15:49
Das bezieht sich auf OpenGL (???und viel "wegcullbare" Geometrie, was wohl gerade bei den Radeons mit vglw. geringem Dreiecksdurchsatz und viel Shaderpower viel bringt???). Wird nicht auf DX/Vulkan übertragbar sein (vllt. wird sowas dort schon gemacht?). Trotzdem natürlich heftig, was AMD da bisher/seit Jahren anscheinend liegengelassen hat

Dural
2019-02-13, 22:18:07
Fast nicht auffällig das alle karten ausser turing drin sind ;)

Natürlich fehlt auch die vega64, da würde man ja noch sehen das die vegaII kaum schneller ist ;)

BoMbY
2019-02-13, 22:26:42
AMD schreibt selbst die Karte kann nur PCI-E 3.0

Wo?

Langlay
2019-02-13, 22:33:02
AMD schreibt selbst die Karte kann nur PCI-E 3.0, warum sollten sie nachträglich ein Bios bringen das PCI-E 4.0 ermöglicht anstatt gleich beim Launch mit dem Feature zu brillieren?


https://www.amd.com/de/products/professional-graphics/instinct-mi60

Die weltweit erste PCIe® Gen 4 x16-fähige GPU

Der Vega20 kann PCI-E 4.0 wie man an den Instinct Mi50 & Mi60 sehen kann.

Mangel76
2019-02-13, 22:36:59
Fast nicht auffällig das alle karten ausser turing drin sind

Einfach Artikel mal lesen, das sind Werte aus einem Test von 2017, da gab es noch keine Turing. Aber dann könnte man ja nicht stänkern,was?

Andron
2019-02-13, 22:57:11
Fast nicht auffällig das alle karten ausser turing drin sind ;)

Natürlich fehlt auch die vega64, da würde man ja noch sehen das die vegaII kaum schneller ist ;)

Die Vega 56 ist hinter der Fury X und die Radeon VII mit großem Abstand an der Spitze. Das riecht stark nach Bandbreitenlimitierung, bei der die Vega 64 auch nicht allzu große Vorteile haben dürfte, zumindest nicht ansatzweise so große wie die VII.

iuno
2019-02-13, 23:45:42
Das bezieht sich auf OpenGL (???und viel "wegcullbare" Geometrie, was wohl gerade bei den Radeons mit vglw. geringem Dreiecksdurchsatz und viel Shaderpower viel bringt???).
Warum soll es nicht auf andere APIs uebertragbar sein?
Das wird dort implizit nicht gemacht. Zum Teil wird es explizit von Spielen gemacht, dazu gibt's z.B. die bekannte Praesentation von DICE.

Wird nicht auf DX/Vulkan übertragbar sein (vllt. wird sowas dort schon gemacht?). Trotzdem natürlich heftig, was AMD da bisher/seit Jahren anscheinend liegengelassen hat
Das betrifft Nvidia natuerlich genauso und ist in erster Linie ein Softwareproblem. Ich gehe mal davon aus, dass bei Titeln, die eh schon vernuenftiges culling machen, der Grossteil wegfaellt oder es sogar kontraproduktiv werden kann.


Habe leider momentan keine Zeit, sonst wuerde ich das mal auf meiner 480 mit ein paar OGL Spielen ausprobieren. Wird schon was dazu geben in naechster Zeit.

edit: jo:

After a day of benchmarking, this RadeonSI optimization doesn't end up being anything compelling or substantive in the various OpenGL games and Polaris/Vega GPUs tested.

https://twitter.com/phoronix/status/1095825661556654080

HOT
2019-02-14, 00:08:58
MS wird NGG für Navi für die Xbox nutzen, also wandert das automatisch in DX.

SKYNET
2019-02-14, 10:03:27
AMD schreibt selbst die Karte kann nur PCI-E 3.0, warum sollten sie nachträglich ein Bios bringen das PCI-E 4.0 ermöglicht anstatt gleich beim Launch mit dem Feature zu brillieren?

Bleib doch einfach bei den Fakten, Radeon VII hat PCI-E 3.0 Unterstützung.
PCI-E 4.0 wird im Desktop für SingleGPUs nicht wirklich viel bringen, weitaus interessanter wird es für die CPU bezüglich Anbindung PCI-E SSD.

trotzdem ist die karte nativ PCIe 4.0... was ist dadran so schwer zu verstehen? :confused:

und wette nen kasten bier das spätestens mit Zen2 launch nen bios parat ist.

Digidi
2019-02-14, 10:59:59
Alles wurde laut der aktuellen Informationsgrundlage gestrichen.
Im August 2018 meinte ein AMD-Mitarbeiter das GFX9 bzw. GCN5 NGG nicht mehr unterstützen wird:
https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html

Weder der Kerneltreiber(AMDGPU), noch der Shader-Compiler (LLPC), sind für den NGG-Pfad ausreichend fortgeschritten.
Während die letzte Sache aktuell keine Rolle spielt für den proprietären Treiberstack, stellt dagegen das erste ein Problem da, da der offene Kernelmodedriver AMDGPU für closed und open source Treiber genutzt wird, also gibt es den Support auch nicht im Pro-Stack.

Und wenn AMD das ganze Zeug nicht bei OGL/Vulkan unterstützt, wird es wohl auch kaum bei DX aktiv sein.


Nvidia hat bessere und mehr fixed-function-hardware in diesem Bezug und seit Turing auch noch einmal eine bessere Infrastruktur und Mesh-Shader, aber laut dem ParaView-Benchmark schlägt AMD dank des Compute-Shader-Culling jede Nvidia GPU (Leider ohne Turing-Zahlen):
https://www.phoronix.net/image.php?id=2019&image=radeonsi_async_prim_cull

Die Frage ist natürlich sehr interessant in Bezug darauf, ob Nvidia nicht etwas ähnliches implementieren könnte?
AMD hat laienhaft gesehen eine elegante Lösung mit Async-Compute-Funktionalität und einen globalen counter über GDS, wo Nvidia Hardware zumindest bis Turing nicht vergleichbar flexibel ist bzw. nicht auf dem Level von AMD.
Aber die Frage ist natürlich auch, wie sehr die Async Compute Umsetzung hilft und ob mit einer anderen Implementierung, man nach wie vor einen großen Profit herausschlagen könnte?
Ich würde ja vermuten.

Nvidia hat ja Mesh Shader. Glaube nicht daß das in dem Benchmark benutzt wird?!

Darauf zielen ja auch die Mesh Shader ab, geometry arbeiten auf Shader auszulagern

deekey777
2019-02-14, 11:11:48
Nvidia hat ja Mesh Shader. Glaube nicht daß das in dem Benchmark benutzt wird?!

Darauf zielen ja auch die Mesh Shader ab, geometry arbeiten auf Shader auszulagern
Was interessiert, was Nvidia hat oder der Benchmark nutzt?

Es steht Nvidia frei, einen entsprechenden Patch zu liefern, wenn Anwendungen die eigene Hardware nicht vollständig nutzen.

iuno
2019-02-14, 20:45:52
Wie erwartet: https://www.phoronix.com/scan.php?page=news_item&px=RadeonSI-Prim-Culling-Tests

Der_Korken
2019-02-14, 21:51:20
Wie erwartet: https://www.phoronix.com/scan.php?page=news_item&px=RadeonSI-Prim-Culling-Tests

Schade, das wäre aber auch zu schön gewesen, wenn das in Spielen einen nennenswerten Speedup gebracht hätte :D.

iuno
2019-02-14, 23:25:28
Koennte bei manchen Ausnahmen vielleicht auch noch der Fall sein, aber allgemein hatte ich das schon so erwartet.

Natuerlich auch unguenstig von Michael, hier UHD zu benchen. Niedrigere Aufloesung waere vielleicht besser gewesen um den Effekt zu vermessen. Und eine sorgsam gewaehlte Spieleauswahl. Hier ist die Vega ja ueberall deutlich vor der 590, gibt aber einige Spiele wo das eben nicht der Fall ist (und trotzdem kein zwingendes CPU Limit vorhanden sein muss). So wie bei ParaView eben auch gesehen.

deekey777
2019-03-19, 15:55:51
Der iMac 21,5'' kriegt die Radeon Pro Vega 20, der große eine Radeon Pro Vega 48, https://www.apple.com/de/imac/specs/

Was ist jetzt eine Vega 64X? https://www.apple.com/de/imac-pro/specs/

Vega 64X

Radeon Pro Vega 64X Grafikprozessor
mit 16 GB HBM2 Grafikspeicher
64 Recheneinheiten
4096 Streamprozessoren
12 TeraFLOPS einfache Präzision
24 TeraFLOPS halbgenaue Präzision


Höherer Takt ist klar, Vega 20?

foenfrisur
2019-03-19, 16:42:04
bin mit der vii mittlerweile echt zufrieden.
was ich kaum glauben mag, aber so messe:
mit der liquid hatte ich noch 620 bis 670w Peak
und mit der vii will er unter bf5 nicht mal 400watt.

ist das möglich?

mfg

HOT
2019-03-19, 16:44:58
Ich nehme an, dass es sich bei Vega 20 (CUs) einfach um ein Polaris 22 handelt, der bei Intel ja eh eingesetzt wird.

Vega 48 ist einfach eine Resteverwertung für die schlechtesten Vega-Dies.

Locuza
2019-03-19, 17:06:03
Vega M (Polaris 22) ist Intel exklusiv.
Vega 20 ist tatsächlich eine Vega GPU und verwendet den Vega 12 Chip:
https://www.anandtech.com/show/13532/amds-vega-mobile-lives-vega-pro-20-16-in-november

Vega 10 = Vega 64, 56 etc.
Vega 12 = Vega 20, 16
Vega 20 = Radeon VII, MI56/60 usw.

HOT
2019-03-19, 17:37:16
Ach ja stimmt ja, sowas gibts ja auch noch :D.

Dino-Fossil
2019-05-17, 23:35:49
Hier (https://www.khronos.org/conformance/adopters/conformant-products/vulkan#submission_354) wird übrigens AMD "GCN 1.5" für ein Vulkan-Konformes Produkt von Google genannt (also wohl Stadia).
"GCN 1.5" entspricht in dieser Liste Vega.

Blediator16
2019-06-03, 20:25:44
Doppelte Vega auf einem PCB bei Apple falls ich das richtig gesehen habe.

MSABK
2019-06-03, 20:26:36
Doppelte Vega auf einem PCB bei Apple falls ich das richtig gesehen habe.

Hast du richtig gesehen, es gehen sogar 2 Karten in das System rein. Die Chips sind mit der Infinity Fabric verbunden.

deekey777
2019-06-03, 20:28:14
Doppelte Vega auf einem PCB bei Apple falls ich das richtig gesehen habe.

Über Infinity Fabric Link verbunden.

Linmoum
2019-06-03, 20:36:54
Von Anandtech
https://images.anandtech.com/doci/14479/Screenshot_236.png
https://images.anandtech.com/doci/14479/Screenshot_239.png
https://images.anandtech.com/doci/14479/Screenshot_238.png
https://images.anandtech.com/doci/14479/Screenshot_241.png

M4xw0lf
2019-06-03, 20:52:48
Von Anandtech
https://images.anandtech.com/doci/14479/Screenshot_236.png
https://images.anandtech.com/doci/14479/Screenshot_239.png
https://images.anandtech.com/doci/14479/Screenshot_238.png
https://images.anandtech.com/doci/14479/Screenshot_241.png
Und vong kongtex her?

Linmoum
2019-06-03, 21:01:55
Du haben gesehen Beiträge davor Padawan jung

Locuza
2019-06-03, 21:09:47
Ich mache mir mal die Mühe, die Bilder sind von dem Liveblog den Anandtech bezüglich Apples aktueller WWDC-Präsentation schreibt:
https://www.anandtech.com/show/14479/the-apple-wwdc-2019-keynote-live-blog

Neben Neuigkeiten rund um iOS, iPadOS, Funktionsupdates, neuer Fernseher etc., wurden auch neue Mac Pro vorgestellt, welche mit 7nm Vega ausgerüstet werden, wovon es auch Karten gibt, mit bis zu zwei GPUs über Infinity-Fabric auf einer Karte.
Es wird auch ein eigenes Format verwendet, mit dem MPX-Modul was bis zu 500W Karten bereitstellen kann.

M4xw0lf
2019-06-03, 21:12:39
Du haben gesehen Beiträge davor Padawan jungAh, nee :redface:
Ich mache mir mal die Mühe, die Bilder sind von dem Liveblog den Anandtech bezüglich Apples aktueller WWDC-Präsentation schreibt:
The Apple WWDC 2019 Keynote Live Blog

Neben Neuigkeiten rund um iOS, iPadOS, Funktionsupdates, neuer Fernseher etc., wurden auch neue Mac Pro vorgestellt, welche mit 7nm Vega ausgerüstet werden, wovon es auch Karten gibt, mit bis zu zwei GPUs über Infinity-Fabric auf einer Karte.
Es wird auch ein eigenes Format verwendet, mit dem MPX-Modul was bis zu 500W Karten bereitstellen kann.
Merci auch noch (y)

crux2005
2019-06-03, 21:21:42
Ich mache mir mal die Mühe, die Bilder sind von dem Liveblog den Anandtech bezüglich Apples aktueller WWDC-Präsentation schreibt:
The Apple WWDC 2019 Keynote Live Blog

Da fehlt eine http Adresse. :smile:

Der_Korken
2019-06-03, 21:25:06
Quad-Slot-Kühlung :freak:

MSABK
2019-06-04, 01:59:38
Was ich nicht so verstanden habe, hat Apple an dem PCIe Anschluss der Grafikkarte etwas erweitert mit TB3?

Edit: Die GPU scheint keinen externen Stromanschluss zu haben, sondern einen zweiten PCIe Anschluss mit 475W. Gab es sowas schon mal?

crux2005
2019-06-04, 02:41:44
Sehr viel custom Zeug das sich Apple gut bezahlen lässt. From $5999. :freak:

wl4Hg23RQHQ

][immy
2019-06-04, 08:31:17
Von Anandtech
https://images.anandtech.com/doci/14479/Screenshot_236.png
https://images.anandtech.com/doci/14479/Screenshot_239.png
https://images.anandtech.com/doci/14479/Screenshot_238.png
https://images.anandtech.com/doci/14479/Screenshot_241.png
ich vermute mal die 56tf beziehen sich auf halbe Präzision … wohl eher darauf das ich nicht bemerkt hab, das es sich um 2 doppelkarten handelt und nicht nur eine.

So viele Slotbleche wie man sich da reserviert bin ich mal gespannt wie groß die Kühllösung sein wird. Ich weiß ist eine Pro-Karte, aber trotzdem ists interessant. Was hat es eigentlich mit den 2 Interfaces auf sich? (also oben und unten)

Brillus
2019-06-04, 08:37:43
[immy;12012641']ich vermute mal die 56tf beziehen sich auf halbe Präzision.

So viele Slotbleche wie man sich da reserviert bin ich mal gespannt wie groß die Kühllösung sein wird. Ich weiß ist eine Pro-Karte, aber trotzdem ists interessant. Was hat es eigentlich mit den 2 Interfaces auf sich? (also oben und unten)

Das 2. ist für Stromversorgung gafür kein 6/8 pol anschlüsse.

Screemer
2019-06-04, 08:48:35
Im video oben sieht man die Kühllösung des kompletten Systems.

][immy
2019-06-04, 09:04:41
Im video oben sieht man die Kühllösung des kompletten Systems.
ah, ok, komplett passiv und über die "Gehäuselüfter" wird gekühlt. Schon ziemlich extrem. Ich kann mir irgendwie kaum vorstellen, das die Karten damit dauerhaft "leise" gekühlt werden können unter Last.

Sehr viel custom Zeug das sich Apple gut bezahlen lässt. From $5999. :freak:

https://youtu.be/wl4Hg23RQHQ
Der Preis ist mit $6000 für die Grundausstattung schon extrem (8-Kern CPU und quasi RX580). Ich weiß, ist für den Prof Bereich, aber Apple hat echt Preisvorstellungen …

HOT
2019-06-04, 09:23:56
Die lassen sich halt ihre Softwareausstattung fürstlich bezahlen.

Screemer
2019-06-04, 09:44:05
Nicht nur das. Das ist komplette custom-hw vom Speicher und den ssds abgesehen. Da läuft die komplette Powerdistribution über das MB. Die Powerplanes von highend pc-mainboards sind da wohl ein Witz dagegen. Da müssen bis zu 1400W über die layer geballert werden. Schon erstaunlich wenn auch imho völlig over engineered.

HOT
2019-06-04, 10:22:37
Wow stimmt, habs auch grad erst gelesen. 550W pro Karte sind theoretisch möglich. Das macht alleine 1100W die komplett übers Mainboard laufen. Hinzu kommt noch die CPU mit bis zu 300W, das ist total krank das Teil :freak:.

Loeschzwerg
2019-06-04, 10:52:48
Ich finde das Teil einfach nur geil :biggrin: Erweiterbar, kein Kabelwirrwarr, schön durchdachtes Kühlkonzept... passt :cool:

Da fühlt man sich an die Zeiten von PowerMac oder SGI Octane und Co erinnert.

Achill
2019-06-04, 11:22:23
Nicht nur das. Das ist komplette custom-hw vom Speicher und den ssds abgesehen. Da läuft die komplette Powerdistribution über das MB. Die Powerplanes von highend pc-mainboards sind da wohl ein Witz dagegen. Da müssen bis zu 1400W über die layer geballert werden. Schon erstaunlich wenn auch imho völlig over engineered.

Wow stimmt, habs auch grad erst gelesen. 550W pro Karte sind theoretisch möglich. Das macht alleine 1100W die komplett übers Mainboard laufen. Hinzu kommt noch die CPU mit bis zu 300W, das ist total krank das Teil :freak:.

Schickes Teilchen ...

Ein weiter Blickwinkel, den man als privater Anwender meist total ignoriert bzw. wenn indirekt durch Flüche beim schrauben ausdrückt ... Die Erweiterbarkeit und Wartbarkeit steigt ungemein, keine Kabel die bei einen Austausch beachtet werden müssen und die Layer eines solchen MB sollten sich in der Produktion auch leicht bzgl. Kurzschlüsse vor Bestückung und Zusammenbau durch messen lassen.

Daredevil
2019-06-04, 11:27:46
So ein MacPro ist auch ein System, welches meist 5-10 Jahre überdauern kann von der Performance her. Klar ist es teuer, aber dafür halt für die Profis und nicht für den Desktop User.
Die Kiste ist von 2010 und kann mit der schnellsten Konfiguration einem leicht langsameren Threadripper 1920 das Wasser reichen.

0To3CkmEmyw

Dort kannst du im übrigen auch ne Radeon VII reinschmeißen.
So ein gebrauchter MacPro in Vollausstattung bekommt man gerne mal für 200-300€ auf EBay.

][immy
2019-06-04, 18:25:08
Schickes Teilchen ...

Ein weiter Blickwinkel, den man als privater Anwender meist total ignoriert bzw. wenn indirekt durch Flüche beim schrauben ausdrückt ... Die Erweiterbarkeit und Wartbarkeit steigt ungemein, keine Kabel die bei einen Austausch beachtet werden müssen und die Layer eines solchen MB sollten sich in der Produktion auch leicht bzgl. Kurzschlüsse vor Bestückung und Zusammenbau durch messen lassen.
Keine "Standardkomponenten", also ist es mit der Erweiterbarkeit wohl nicht grad so doll. Du musst halt das nehmen was Apple anbietet und wenn sie sich entschließen bei der nächsten Version was anders zu machen (würd mich jetzt nicht wundern, macht Apple ja gern mal) ists vorbei.
Ist so einfach nur teuer weil nen Apfel drauf ist.

Loeschzwerg
2019-06-04, 18:29:39
Solange es Treiber gibt kannst du auch andere PCIe Komponenten verbauen (auch Grafikkarten; die benötigten 6/8 Pin für Strom werden vom Mainboard via Kabel abgezweigt).

Screemer
2019-06-04, 21:01:49
Da fühlt man sich an die Zeiten von PowerMac oder SGI Octane und Co erinnert.
Preislich sind wir wohl bei der gaaanz dicken octane. Die kam aber zumindest mit nem Monitor für den man nicht nen 1000€ Ständer anbot ;)
Demnach liegt die Summe für den Mac Pro in Top-Ausstattung bei rund 50.000 Dollar.:eek:

https://amp.welt.de/wirtschaft/webwelt/article194767161/Apples-Mac-Pro-Neues-Modell-kostet-mit-allen-Extras-bis-zu-50-000-Dollar.html

nordic_pegasus
2019-06-13, 11:06:21
da Apple ja den vollen Vega20 Chip bekommt, wie seht Ihr eigentlich die Chancen, dass AMD eine Radeon Pro / Frontier Edition mit 64 CUs bringt (mit eventuell 32GB HBM)?

deekey777
2019-06-13, 12:10:25
Wäre nicht die richtige Frage, ob der Mac Pro nicht Navi 10 bekommt?

w0mbat
2019-06-13, 12:39:48
Navi ist fürs gaming und nicht für compute.

deekey777
2019-06-13, 12:46:23
Navi ist fürs gaming und nicht für compute.
Das ist Polaris auch.

Daredevil
2019-06-13, 12:51:23
GCN war auf Compute optimiert und soll ja irgendwie "weiter" geführt werden, zumindest hat AMD da auf dem letzten Event?! gesagt.
Also ist demnach Polaris kein reiner Gaming Chip, sondern halt auch auf Compute optimiert.

AMD kann man zumindest dieses mal abnehmen, dass RDNA und Navi wirklich ein Gaming Chip sein soll, weil es halt wirklich geplant Millionen Fach verkauft wird in den Konsolen.

dargo
2019-06-13, 13:18:57
AMD kann man zumindest dieses mal abnehmen, dass RDNA und Navi wirklich ein Gaming Chip sein soll, weil es halt wirklich geplant Millionen Fach verkauft wird in den Konsolen.
Die aktuellen Konsolen haben auch Polaris. :wink:

Achill
2019-06-13, 13:33:32
[immy;12013044']Keine "Standardkomponenten", also ist es mit der Erweiterbarkeit wohl nicht grad so doll. Du musst halt das nehmen was Apple anbietet und wenn sie sich entschließen bei der nächsten Version was anders zu machen (würd mich jetzt nicht wundern, macht Apple ja gern mal) ists vorbei.
Ist so einfach nur teuer weil nen Apfel drauf ist.

Ich habe rein von der techn. Umsetzung gesprochen und damit gehen natürlich rein Apple-Komponenten und wie diese erweitert oder ausgetauscht werden können. Nicht von Erweiterbarkeit hinsichtlich Auswahl von Custom-Lösungen. Wir reden hier ja von Apple und ihre HW- und SW-Zäunen sind ja schon da und bleiben ...

Daredevil
2019-06-13, 13:44:17
Die aktuellen Konsolen haben auch Polaris. :wink:
Ja, und?
Nur weil es Compute optimiert ist, heißt das ja nicht, dass man nicht auch drauf daddeln kann.
Laut AMD soll RDNA halt weiter Richtung Gaming gehen und sich dafür von Compute entfernen. ( Dafür ist halt GCN da )

Wäre dann die Frage, ob die nun mehrere Lineups fahren. Ne volle Radeon VII ist ja schon die Speerspitze, sonst wär er ja nicht im iMac Pro.

Ravenhearth
2019-06-13, 16:49:29
GCN war auf Compute optimiert und soll ja irgendwie "weiter" geführt werden, zumindest hat AMD da auf dem letzten Event?! gesagt.
Ja, CB (https://www.computerbase.de/2019-06/navi-radeon-rx-5700-xt/) schreiben auch dazu:
RDNA wurde anders als GCN für Spiele entwickelt, während GCN eher auf einen hohen Datendurchsatz und damit für Compute-Anwendungen gedacht ist. Darum soll GCN im professionellen Segment weiterleben, auch neue Produkte sind in Planung. RDNA soll dennoch auch eine hohe Compute-Leistung bieten und GCN zu einem späteren Zeitpunkt auch bei den professionellen Modellen ablösen.
"Neue Produkte" ist etwas uneindeutig formuliert, ich denke nicht, dass damit neue GCN/Vega-Chips gemeint sind oder dass GCN gar noch weiterentwickelt wird. Das bezog sich mMn nur auf neue Produkte mit bestehenden Chips, wie die kürzlich vorgestellte Radeon Pro Vega II (Duo), und darauf dass bestehende Produkte erstmal weitergeführt werden, weil es vor allem für Vega20 halt noch keinen Ersatz auf Navi-Basis gibt. Ein Navi mit X Teraflops dürfte bei Compute aber jetzt auch nicht langsamer sein als eine Vega mit der gleichen Rohleistung.

iuno
2019-06-13, 17:07:17
Ein Navi mit X Teraflops dürfte bei Compute aber jetzt auch nicht langsamer sein als eine Vega mit der gleichen Rohleistung.
Vermutlich halt auch nicht schneller, dafuer aber deutlich teurer.
Wobei die Margen dort ja eh nicht das Problem sind.

Ravenhearth
2019-06-13, 17:09:10
Naja wenn ich Gipsels Post (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12021251#post12021251) im Navi-Thread richtig verstehe, könnte Navi auch bei Compute ordentliche Vorteile bieten...

dargo
2019-06-13, 17:11:59
Ja, und?

Nix und... du nanntest Navi und Konsolen. Ich kontere mit Polaris und Konsolen. :)

Tesseract
2019-06-13, 17:39:17
Naja wenn ich Gipsels Post (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12021251#post12021251) im Navi-Thread richtig verstehe, könnte Navi auch bei Compute ordentliche Vorteile bieten...

"compute" ist in dem zusammenhang sowieso nur ein buzzword. dinge, die pro chips von consumer chips unterscheiden sind unter anderem:
- mehr vram
- größere caches
- mehr FP64
- ECC
- mehr bandbreite pro FLOP

nichts davon ist GCN- oder RDNA-spezifisch. die kleineren wavefronts werden wohl etwas weniger throughput/chipfläche erreichen, dafür sind sie flexibler bzw. haben weniger overhead wenn mehrere kleine tasks anfallen, was in spielen definitiv der fall ist. das heißt aber nicht, dass viele compute-tasks nicht auch profitieren können - auch da gibt es solche und solche.
dieses ganze "gaming chip" gerede ist doch nur marketing.

RDNA soll dennoch auch eine hohe Compute-Leistung bieten und GCN zu einem späteren Zeitpunkt auch bei den professionellen Modellen ablösen.
ich übersetze mal: GCN ist obsolet aber momentan haben wir nur den einen RDNA-chip. bitte den obsoleten GCN trotzdem weiterkaufen bis das lineup vollständig ist.

Gipsel
2019-06-13, 17:44:01
Naja wenn ich Gipsels Post (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12021251#post12021251) im Navi-Thread richtig verstehe, könnte Navi auch bei Compute ordentliche Vorteile bieten...Kommt immer auf das Problem drauf an. Zwischen nichts und +100% (+ Frequenzvorteil) ist da Alles möglich (da fallen einem spontan Beispiele ein). Für Sachen, die bisher perfekt ohne Bubbles und nur ALU-limitiert liefen, wird man sich frequenznormiert wohl sehr nahe bei Null Unterschied bewegen. Da heute einen Durchschnitt vorherzusagen, wäre sehr mutig, zumal das wirklich sehr stark vom jeweiligen Problem (und dem Bottleneck bisher) abhängt, ob bzw. wie viel sich da tun wird.

Dino-Fossil
2019-06-13, 17:45:19
Warum obsolet? Ist ja nun nicht so, dass Navi viel bringt, dass es für Compute im profesionellen Bereich ggü. z.B. V20 so viel besser erscheinen lässt.

Tesseract
2019-06-13, 17:47:11
Warum obsolet?

obsolet im sinne von: macht für AMD wohl keinen sinn noch was mit GCN zu machen was nicht vor der fertigstellung von RDNA schon in arbeit war.

reaperrr
2019-06-13, 19:32:30
ich übersetze mal: GCN ist obsolet aber momentan haben wir nur den einen RDNA-chip. bitte den obsoleten GCN trotzdem weiterkaufen bis das lineup vollständig ist.
Ich übersetze das eher mit "GCN(Vega) liegt bei rohen FLOPs/mm² vorn, daher werden wir V20 am Markt halten bis modernere Fertigungsprozesse es uns erlauben, einen RDNA-Ersatz mit höherem FP-Durchsatz/mm² zu bringen".

Tesseract
2019-06-13, 19:44:38
warum sollte man das machen? wäre GCN für diesen anwendungsfall besser wäre er das in kleineren fertigungsprozessen auch noch.

BoMbY
2019-06-13, 21:00:22
AMD hat auch mal davon gesprochen dass man vermutlich bei den GPU-Architekturen diversifizieren wird. Es könnte gut sein dass Navi/RDNA in Richtung Gaming geht und bleibt, und dass die nächsten Compute-Karten weiter auf Vega/GCN setzen, bzw. in eine andere Richtung gehen.

Hat z.B. überhaupt mal jemand gefragt ob und wie schnell Navi FP64 kann?

Tesseract
2019-06-13, 21:16:13
das widerspricht aber der aussage von CB die weiter oben verlinkt wurde.

und wie gesagt: von den änderungen gegenüber GCN profitieren zwar spiele, das macht sie aber nicht automatisch zu einer schlechteren compute-architektur. auch im compute-umfeld gibt es fälle wo die neue architektur einen vorteil haben wird. ginge es nur um die peak FLOPS/mm² in günstigen fällen bergab mit rückenwind hätte man wahrscheinlich bei VLIW bleiben können.

Hat z.B. überhaupt mal jemand gefragt ob und wie schnell Navi FP64 kann?
wird wahrscheinlich genau so wie bei allen anderen modernen architekturen inkl. GCN konfigurierbar sein.

mr coffee
2019-06-14, 20:15:58
warum sollte man das machen? wäre GCN für diesen anwendungsfall besser wäre er das in kleineren fertigungsprozessen auch noch.
Nee nicht zwingend, weil man RDNA-basierte Karten vermutlich höher takten kann als GCN-basierte Karten im kleineren Fertigungsprozess.

Tesseract
2019-06-14, 21:26:37
der takt ist bei FLOPS/mm² schon dabei.

aufkrawall
2019-09-22, 22:38:55
Und tschüss:
https://lists.freedesktop.org/archives/amd-gfx/2019-September/040254.html

Unicous
2019-09-22, 22:57:18
Never used.

;D

gravitationsfeld
2019-09-22, 23:01:57
Und tschüss:
https://lists.freedesktop.org/archives/amd-gfx/2019-September/040254.html
Da hoff ich mal die fixen das fuer die Konsolen.

AMD hat auch mal davon gesprochen dass man vermutlich bei den GPU-Architekturen diversifizieren wird. Es könnte gut sein dass Navi/RDNA in Richtung Gaming geht und bleibt, und dass die nächsten Compute-Karten weiter auf Vega/GCN setzen, bzw. in eine andere Richtung gehen.

Hat z.B. überhaupt mal jemand gefragt ob und wie schnell Navi FP64 kann?
Das waere ganz schoen viel Aufwand fuer ziemlich wenig Gewinn.

reaperrr
2019-09-23, 01:02:55
Das waere ganz schoen viel Aufwand fuer ziemlich wenig Gewinn.
Naja, laut Gerüchteküche hat man für den kommenden Arcturus (MI100) ja erstmal "nur" diverse für HPC/AI/etc. irrelevante Teile der Grafik-Pipeline aus Vega entfernt, um mehr Platz und TDP-Reserven für mehr CUs zu schaffen. Wieviel Aufwand das wirklich ist, lässt sich ohne Insider-Infos schwer abschätzen.
Vega20 ist beim reinen FP/INT-Durchsatz je mm² ja schon noch deutlich vor RDNA, in Anwendungsgebieten wo man leicht das Maximum an Rohleistung rausholen kann und die Auslastungsprobleme von Grafikanwendungen wie Spielen kaum bis gar nicht zum tragen kommen, hätte RDNA in aktueller Form keine Chance.

AMD würd's nicht machen, wenn sie sich davon nicht unterm Strich was versprechen würden.
RDNA in den HPC-Bereich zu pressen, wenn man damit kaum Chancen auf relevante Design-Wins/Marktanteile hat, macht noch weniger Sinn als einen Teil der R&D-Ressourcen für ne spezialisiertere Lösung mit besseren Erfolgsaussichten abzuzwacken.

gravitationsfeld
2019-09-23, 01:52:39
Ich geh davon aus, dass das MI100-Design aus einer Zeit kommt in der RDNA noch nicht fertig war und wuerde bei einem eventuellen Nachfolger RDNA mit aehnlichen Modifikationen statt GCN erwarten.

aufkrawall
2019-09-23, 14:53:43
Da hoff ich mal die fixen das fuer die Konsolen.

Wie meinen? Dass die Treiber-Implementierung tricky/unfertig ist?

gravitationsfeld
2019-09-23, 20:49:13
Edit: Nevermind, ich hab verschlafen dass GFX9 = Vega.

aufkrawall
2019-09-23, 20:54:03
*Ahphew!* :)

gravitationsfeld
2019-09-23, 21:07:53
Dumme Frage, was ist eigentlich "Vega 12"?

Loeschzwerg
2019-09-23, 21:15:00
"Vega Mobile"? Also Vega Pro 16/20 Option für Macbook Pro.

gravitationsfeld
2019-09-23, 21:26:12
Also da existieren tatsaechlich kleinere Vega-Chips und nur Apple verbaut sie? Interessant.

robbitop
2019-09-24, 09:31:03
Und dann gibt es ja noch Intel RX Vega M (eine Intel exklsuive GPU die auf ein CFL Package per emib angebunden ist). Trotz des Namens ist die GFX IP dort lustigerweise Polaris und nicht Vega. 24 CUs werden dort verbaut.

dildo4u
2019-12-31, 09:27:02
Paar Gameing Tests mit Vega II Duo z.b FH4 in 5k Ultra.

https://youtu.be/QkKCSyMqCwE?t=295

Lehdro
2020-06-04, 23:51:06
Linus hat irgendwie eine Vega 16 (12?) ES aufgetrieben:

Y5bSxcec-KE

Recht interessant, aber leider geht er da sehr flach über das Thema drüber (ist halt LTT).

Locuza
2020-06-05, 00:23:30
Chip: Vega10, Produkte: Vega56, Vega 64, Instict MI25 etc.
Chip: Vega 11, Todgeburt, niemals das Licht der Konsumenten erblickt.
Chip: Vega 12, Produkte: dGPU die (fast?) nur Apple als Vega Pro 16 oder Pro 20 verwendet, dass dGPU ES sample was Linux bekommen hat, verwendet diesen Chip.

Chip: Raven Ridge iGPU, iGPU Produkte: Vega 3, Vega 8, Vega 11 etc.

Brillus
2020-06-05, 14:38:51
Chip: Vega10, Produkte: Vega56, Vega 64, Instict MI25 etc.
Chip: Vega 11, Todgeburt, niemals das Licht der Konsumenten erblickt.
Chip: Vega 12, Produkte: dGPU die (fast?) nur Apple als Vega Pro 16 oder Pro 20 verwendet, dass dGPU ES sample was Linux bekommen hat, verwendet diesen Chip.

Chip: Raven Ridge iGPU, iGPU Produkte: Vega 3, Vega 8, Vega 11 etc.

Picasso, Renoir

HOT
2020-06-05, 15:03:32
Ich nehme an, V11 war als HBM-Version angedacht, das würde erklären, warum der nie das Licht der Welt erblickt hat. Der sollte sicherlich ebenfalls 36CUs bringen, wie Polaris.