PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 [55] 56 57 58 59 60 61

mczak
2018-06-06, 18:05:07
So auf die Schnelle noch etwas entzerrt, und ich komme auch bloss auf etwa 55% Fläche des V10. Das wären deutlich unter 300mm². Die HBM2-Stacks müssten ja die gleiche Grösse haben also kann es eigentlich nicht so falsch sein?
Das SI ist wohl gar nicht so gross (sollte ja bei HBM relativ platzsparend sein auch wenn es sehr breit ist). Die CUs sind vermutlich kaum messbar grösser, denn gross sind die Unterschiede zu V10 ja offenbar nicht nach dem was bisher bekannt ist (diese 8bit/4bit Ops brauchen ja nicht wirklich extra ALUs, die kriegt man fast gratis). Frontend-Aenderungen wären zwar nett aber ob die wirklich kommen mit dem Chip habe ich meine Zweifel, dafür gibt es bisher keine Indizien...

[edit]: Also die CUs sollten schon etwas grösser sein - da habe ich glatt 1:2 DP vergessen...
Ausserdem habe ich mich beim Entzerren etwas vertan, war dann etwas zu klein in der Höhe... Sind beim Nachmessen jetzt eher so um die 60% Fläche des V10, also ~300mm². Da ist aber schon noch ziemlich viel Ungenauigkeit dabei.

Gipsel
2018-06-06, 18:22:14
Ausserdem habe ich mich beim Entzerren etwas vertan, war dann etwas zu klein in der Höhe... Sind beim Nachmessen jetzt eher so um die 60% Fläche des V10, also ~300mm². Da ist aber schon noch ziemlich viel Ungenauigkeit dabei.Ja. Ich tue mich besonders schwer dabei, die obere Kante des Dies festzulegen. Für mich sieht das fast so aus, als wenn das in der linken oberen Ecke eher eine Reflektion ist und die GPU eigentlich doch praktisch bündig mit den HBM-Dies abschließt, wenn man sich das auf der rechten Seite ansieht. Aber das können die mir bekannten Bilder nicht wirklich auflösen. In Anbetracht dessen sind die von mir geschätzen 10% Unsicherheit fast schon optimistisch.
So, alles nochmal von Scratch gemacht und jetzt komme ich auf 321mm² (aber auch mit so grob 10% Unsicherheit). Immer angenommen, das sind die gleichen HBM-Stacks. Falls das Package die gleiche Größe haben sollte, ist Vega20 kleiner.

Edit:
Etwas besser aufgelöstes Vega20 Bild:

https://abload.de/img/vega10_20zru4q.png

reaperrr
2018-06-06, 22:14:36
Ich komme auf 296mm² (wenn V10 wie von AMD angegeben 484mm² groß ist) bzw. 312mm² (wenn man von den von Reviewern gemessenen 510mm² für V10 ausgeht).

dargo
2018-06-06, 23:07:21
Edit:
Etwas besser aufgelöstes Vega20 Bild:

https://abload.de/img/vega10_20zru4q.png
Was mich dabei interessieren würde... gibt es keine Pläne für einen Shrink von HBM? Der nimmt langsam recht viel Platz ein. Ist da schon was zu kleinerem HBM3 bekannt?

Edit:
Ok... habs gefunden. HBM3 kommt in 7nm und ist für 2020 projeziert.
https://wccftech.com/hbm3-ddr5-memory-early-specification-double-bandwidth/

Langlay
2018-06-07, 00:22:05
Was mich dabei interessieren würde... gibt es keine Pläne für einen Shrink von HBM? Der nimmt langsam recht viel Platz ein. Ist da schon was zu kleinerem HBM3 bekannt?


Ich glaube viel kleiner wird der nicht werden, die Kapazität wird deutlich grösser sein.

reaperrr
2018-06-07, 00:29:04
Was mich dabei interessieren würde... gibt es keine Pläne für einen Shrink von HBM? Der nimmt langsam recht viel Platz ein.
Nein, u.a. weil die Chips innerhalb von HBM2 zueinander kompatibel bleiben müssen (macht ja auch keiner GDDR5-Chips kleiner).
Außerdem hatte die Kapazität je Stack für HBM2 erstmal Vorrang (und mehr Schichten bei kleinerer Fläche wären schlecht für Ausbeute, Thermik und damit auch Taktraten gewesen).

Nightspider
2018-06-07, 01:29:05
300mm² in 7nm für dieses Jahr wäre schon krass.

Aber in welchem Prozess kommt das Nvidias neue Turing Generation? Auch schon in 7nm?

Oder legt NV die breite Turing Reihe in 12nm auf, während AMD in kleinen Stückzahlen mit 7nm Aufmerksamkeit will?

7nm dürfte keinesfalls billig sein, schon gar nicht bei solch großen Dies zu diesem Zeitpunkt.
Wird wohl erstmal nur für viel Asche im HPC/Workstation Markt verkauft werden, da ist die Gewinnmarge hoch genug.

Apple würde AMD die Dinger sicherlich auch aus der Hand reißen.

By the way...ich bin mir sicher das man gestern bei der Präsentation auch von Infinity Fabric sprach...oder täuscht mich mein Gedächtnis?

Zwei 7nm Vega Chips auf einem Interposer incoming?

BlacKi
2018-06-07, 02:33:26
300mm² in 7nm für dieses Jahr wäre schon krass.

Aber in welchem Prozess kommt das Nvidias neue Turing Generation? Auch schon in 7nm?

Oder legt NV die breite Turing Reihe in 12nm auf, während AMD in kleinen Stückzahlen mit 7nm Aufmerksamkeit will?

7nm dürfte keinesfalls billig sein, schon gar nicht bei solch großen Dies zu diesem Zeitpunkt.
Wird wohl erstmal nur für viel Asche im HPC/Workstation Markt verkauft werden, da ist die Gewinnmarge hoch genug.

Apple würde AMD die Dinger sicherlich auch aus der Hand reißen.

By the way...ich bin mir sicher das man gestern bei der Präsentation auch von Infinity Fabric sprach...oder täuscht mich mein Gedächtnis?

Zwei 7nm Vega Chips auf einem Interposer incoming?
darüber diskutiert das forum schon seit 2 seiten und du stellst die frage einfach nochmal zu schluss:biggrin:

TheGood
2018-06-07, 07:33:28
Nein eigentlich diskutiert das Forum über zwei oder mehr Navi 7nm Chips auf einem interposer....

TheGood
2018-06-07, 07:42:13
Hat AMD nicht gesagt das sie etwas noch nie dagewesenes präsentieren wollen?????
Also das bis jetzt, was gezeigt worden ist war doch jetzt nicht wirklich neu als Information.

Du solltest dir vielleicht die Pressekonferenz mal ansehen.
AMD zeigte einen lauffähgien 7nm Grafikchip. DAs gab es bisher noch nicht und seien wir doch ehrlich. Kein Mensch hätte damit gerechnet diesen jetzt schon zu sehen.

Die Nvidia Fans hätten das hier jetzt wieder abgefeiert, bei AMD wir dies natürlich wieder kleingeredet, wie es leider immer ist.
Offensichtlich machen Sie bei AMD gerade etwas ganz schön richtig, da Zeitpläne anscheinend eingehalten oder sogar vorzeitig Meilensteine erreicht werden. Das kann man jetzt auch als gutes Marketing so darstellen, wissen werden wir es nicht. Denn seien wir ehrlich ich hole nicht mal schnell ein halbes Jahr am Zeitplan raus...
Nichtsdestotrotz war das eine schöne Überraschung, der Aktienkurs hats gedankt, und nun müssen Sie aber auch zu Potte kommen und in der Performance abliefern.

Ebenso sehe ich keien Bestätigung eines VEGA 20 Chips für den GAmermarkt. Einzig allein dass Gamer auch 7nm Produkte bekommen werden ist gesichert. Mehr hat Lisa nämlich nicht gesagt und man kann auch alles hineininterpretieren. Ich sehe es wie die PCGH: Eine Frontier Edition halte ich für sehr realistisch, mehr aber nicht.

Es könnte natürlich sein, dass wenn Navi wirklich nur den Mainstream abdecken soll, aber zeitgleich Konkurrenz bis zur 1170/2070 sein soll, fehlt mal wieder das High End. Dieses HIghend kann dann aber aus meiner Sicht nur ein weitere VEGA Chip sein oder ein abgespeckter VEGA 20 CHip. Das Erstellen eines abgespeckten Chips sollte für AMD eigentlich dank IHres Baukasten wünsch dir was Systems, kein Problem sein. Es ist eher eine Frage der Kosten.

Korvaun
2018-06-07, 07:48:57
Wenn TSMC den 7nm Prozess gut im Griff hat und somit schneller und großflächiger einsetzten kann ist das in jedem Fall positiv für alle. Wäre mal was neues wenn die Fertigung NICHT der begrenzende Faktor bei GPU/CPU Neuerscheinungen ist...

Loeschzwerg
2018-06-07, 07:59:19
Ich sehe es wie die PCGH: Eine Frontier Edition halte ich für sehr realistisch, mehr aber nicht.


Eher besteht die Möglichkeit auf eine Radeon Pro. Eine FE würde wieder zusätzlich Arbeit für das Treiberteam bedeuten (hinsichtlich Gaming) und dann könnte man auch gleich eine normale RX nachschieben.

LadyWhirlwind
2018-06-07, 08:05:46
Es könnte natürlich sein, dass wenn Navi wirklich nur den Mainstream abdecken soll, aber zeitgleich Konkurrenz bis zur 1170/2070 sein soll, fehlt mal wieder das High End. Dieses HIghend kann dann aber aus meiner Sicht nur ein weitere VEGA Chip sein oder ein abgespeckter VEGA 20 CHip. Das Erstellen eines abgespeckten Chips sollte für AMD eigentlich dank IHres Baukasten wünsch dir was Systems, kein Problem sein. Es ist eher eine Frage der Kosten.

Man sollte auch bedenken, dass AMD wieser Geld hat, da liegt such ein extra Aufwand für einen Gaming-Chip drin.

w0mbat
2018-06-07, 10:46:27
Bessere Bilder. Quelle: https://old.reddit.com/r/Amd/comments/8p0l4m/vega_20_chip/

https://i.imgur.com/ethq56P.jpg
https://i.imgur.com/WT2LMm6.jpg

Sunrise
2018-06-07, 11:17:53
Wenn TSMC den 7nm Prozess gut im Griff hat und somit schneller und großflächiger einsetzten kann ist das in jedem Fall positiv für alle. Wäre mal was neues wenn die Fertigung NICHT der begrenzende Faktor bei GPU/CPU Neuerscheinungen ist...
Bei TSMC wird aktuell angenommen, dass sie bereits 2018 mit 7nm mit bis zu 20% zu ihrem Umsatz beitragen. Wer das näher verfolgt hat, der weiß wie aggressiv TSMC hier vor allem Apple mit 7nm bedient, die gerade mal ein Jahr nach 10nm einen graduell höheren Output an 7nm liefern (Start war etwa Mitte April!) und wahrscheinlich dann spätestens Q3/2018 jeder ein Stück vom Kuchen abbekommt. Billig kann das nicht sein, daher hat AMD wohl auch darauf geachtet die 300mm^2 möglichst nicht bzw. nicht nenneswert zu überschreiten.

Gipsel
2018-06-07, 11:43:04
Bessere Bilder. Quelle: https://old.reddit.com/r/Amd/comments/8p0l4m/vega_20_chip/

https://i.imgur.com/ethq56P.jpg
https://i.imgur.com/WT2LMm6.jpgEntweder die nutzen HBM-Stacks anderer Größe oder das Scaling der Bilder ist etwas off (vermutlich etwas andere Größe des Packages). Und ob die Photoshop-Komposition unten links wirklich so hilfreich ist?

Nur mal so zur Info, das komplette Vega10-Package mißt 47,5mm x 47,5mm. Das von Vega20 scheint mir zumindest 50mm x 50mm zu sein. Oder man hat einen anderen HBM-Supplier der kleinere Stacks liefert. Das ist übrigens im Prinzip durchaus möglich (und beim Vergleich Hynix vs. Samsung ist wegen unterschiedlicher Prozesse eine auch etwas unterschiedliche Größe sogar hoch wahrscheinlich!), da das Ballout des Interface unabhängig von der Chipgröße fest spezifiziert ist. Es paßt ja auch unter die deutlich kleineren HBM1-Stacks, die das gleiche Ballout aufweisen. Der Interposer muß nur so gebaut sein, daß das paßt (also entweder legt man sich auf den Anbieter mit den kleineren Stacks fest oder man designt den für die größeren, dann passen aber auch die kleineren).

Screemer
2018-06-07, 12:18:54
warum sind die hbm2 stacks eigentlich sooooo viel größer als die bei hbm1?

fondness
2018-06-07, 12:23:30
warum sind die hbm2 stacks eigentlich sooooo viel größer als die bei hbm1?

4/8GB vs. 1GB Kapazität.

Screemer
2018-06-07, 12:37:37
die dinger sind aber doch gestackt und in kleinerem prozess als hbm1. 29nm vs. 20nm. hbm könnte 4gb pro stack mit 4 slices und hbm2 kann 8gb bei 8 slices. so ist es zumindest spezifiziert. die stacks sind aber von der grundfläche massiv gewachsen. dazu kommt noch, dass es einfach keine stacks mit höherer kapazität gibt da die slices bei 1gb fest hängen. warum auch immer.

Leonidas
2018-06-07, 12:44:58
Ein direkter Vega10 Shrink sollte so 250 mm² sein,


Wieso? 14nm zu 7nm ist doppelter Fullnodesprung. -65% bis -70% wäre zu rechnen!

AffenJack
2018-06-07, 13:12:52
Wieso? 14nm zu 7nm ist doppelter Fullnodesprung. -65% bis -70% wäre zu rechnen!

Das ist nur Marketing und völlig abhängig vom einsatzfeld.

https://pics.computerbase.de/8/3/2/8/9/4-1080.1567544432.png

High-Performance Libraries, die man eben für GPUs braucht skalieren nicht mit den tollen Marketingfaktoren.

reaperrr
2018-06-07, 15:36:47
Wieso? 14nm zu 7nm ist doppelter Fullnodesprung. -65% bis -70% wäre zu rechnen!
Nö, bestenfalls FullNode plus HalfNode (sagen wir vergleichbar mit 90nm zu 55nm).
Wenn ich das richtig im Kopf habe, skaliert z.B. SRAM in 7nm "nur" minimal über doppelte Dichte ggü. 14LPP (etwas besser ggü. TSMC's 16FF(+), aber das war im Prinzip ja auch nur 20nm + FinFET).

Das mit dem von GloFo angegebenen 0,37x ist nur der absolute best-case und gilt auch nur für bestimmte Logik-Strukturen.

Gerade auf Performance erpichte Chiphersteller wie NV und AMD werden zugunsten von weniger Leckströmen und Hotspots den theoretischen maximalen Shrink-Faktor nicht ausschöpfen, um dafür die benötigten Spannungen und Hitze pro mm² zu senken sowie Taktbarkeit zu erhöhen, Performance skaliert mit mehr Takt im Normalfall immer noch am besten.

Gipsel
2018-06-07, 17:50:48
die dinger sind aber doch gestackt und in kleinerem prozess als hbm1. 29nm vs. 20nm. hbm könnte 4gb pro stack mit 4 slices und hbm2 kann 8gb bei 8 slices. so ist es zumindest spezifiziert. die stacks sind aber von der grundfläche massiv gewachsen. dazu kommt noch, dass es einfach keine stacks mit höherer kapazität gibt da die slices bei 1gb fest hängen. warum auch immer.Nicht so ganz. Unterscheiden tun sich HBM1 und HBM2 nur in ein paar Details (hauptsächlich der maximalen Geschwindigkeit, Pseudochannel-Support [wobei das optional ist] und ein paar wirklich technischen Details [kleine für HBM1 noch unspezifizierte Dinge wurden festgezurrt]), aber nicht der möglichen Speichergröße. Die Speicherhersteller haben nur ihre eigenen Produkt-/Prozeßgenerationen an den maximalen HBM1/2 Geschwindigkeiten ausgerichtet. Im Prinzip gibt es sogar nur eine gemeinsame Spec für HBM1/2, die Unterscheidung in diese beiden Generationen ist also seitens der JEDEC noch nicht mal richtig gegeben.

Praktisch hatten die HBM1-Stacks alle 2 GBit pro Die (und nur 4Hi-Stacks sind meines Wissens in den Handel gelangt, also nur 1GB/Stack). Die HBM2-Stacks nutzen aber 8GBit/Die und damit 4 mal so viel (deswegen 2GB/Stack bei 2Hi, 4GB/Stack bei 4Hi und 8GB/Stack bei 8Hi und theoretisch 16GB/Stack bei 16Hi [aber eher unwahrscheinlich, daß das in näherer Zukunft kommt]). Da hilft auch ein Fullnode-Shrink (Halbierung der benötigten Fläche) nicht, um die Größe konstant zu halten. Aber im Prinzip hindert niemand die Speicherhersteller daran Geschwindigkeiten, Stackhöhen (also Anzahl der Dies, die mechanische Höhe der Stacks ist unabhängig von der Anzahl der Dies immer konstant) und Diegrößen beliebig zu mischen. Die Spec gibt das her.

Und falls man Dies (Slices) mit mehr als 8GBit (also 1GB) produzieren würde, wären die in aktuellen Prozessen notgedrungen ja nochmal größer. Die 8Gbit/Die sind also momentan das praktische Limit. Höhere Kapazitäten kommen dann mit kleineren Prozessen und/oder höheren Stacks (also z.B. 16Hi).

Achja und auch hierzu
warum sind die hbm2 stacks eigentlich sooooo viel größer als die bei hbm1?
gilt, daß der Unterschied zwar gegeben ist (etwas mehr als Faktor 2), aber nicht so groß ist, wie es auf den hier verlinkten Bildern aussieht. Das Package hat eine andere Größe (Fiji-Package ist größer als das von Vega10), die Skalierung ist also nicht maßstabsgetreu.

mczak
2018-06-07, 19:04:24
Eigentlich haben die Hersteller schon angefangen 16gb Dies in "10nm-Klasse" herzustellen (mindestens Samsung). Keine Ahnung wie gross die sind, und wie lange das geht bis man sowas allenfalls in HBM-Stacks sieht weiss ich natürlich auch nicht.
Mit den 8gb/8Hi Stacks kommt man ja eigentlich schon ziemlich weit da besteht wohl nicht allzuviel Nachfrage nach 8gb/16Hi oder 16gb/8Hi...

edit: das mit den 16gbit Chips läuft dann wohl unter "HBM3". Wikipedia sagt 2020...

HOT
2018-06-08, 16:04:55
Samsung und Micron produzieren längst 16GBit, daher kommen ja die ganzen DDR4"X"-Speicher für die ganzen neueren Smartphones.

Locuza
2018-06-09, 03:28:33
Zeit für angebliche Insider-Behauptungen:

Forrest Norrod von AMD (Verantwortlich für die Datacenter-Gruppe) soll gesagt haben, dass der Fortschritt welchen die RTG erzielt seit Raja Koduri Abtritt ein wenig schneller ausfällt, da dieser in der Vergangenheit seine Meinung bezüglich der Ausrichtung bei der Entwicklung häufiger geändert hat.
Diese Ausrichtung soll bei AMD nun gefestigt sein und die Entwicklungsgeschwindigkeit erhöht:
https://pbs.twimg.com/media/DfMHyu6VAAAsqad.jpg
https://twitter.com/TMFChipFool/status/1005154702097616897

Demgegenüber meint Ashraf von dem was er gehört hat, dass 2/3 der RTG Mitarbeiter bei Semi-Custom gearbeitet haben, um Navi so zu gestalten, damit dieser Sonys gestellten Anforderungen entspricht:
"Wastage on the GPU Roadmap"? Bullshit. From what I hear, Forrest Norrod was so focused on meeting Sony's requirements with Navi that the architecture was significantly delayed. Koduri's hands were tied because 2/3rds of the RTG team was on semi-custom. Blaming him is a LOW BLOW.
https://twitter.com/TMFChipFool/status/1005155347626188802

Vom ersten Thread aus gibt es noch die Aussage:
Truth is, AMD should've been launching Navi right about now, that's what the roadmaps they put out there publicly said. It was delayed partly because of TSMC 7nm yields (the yields on the current Vega 20 are very low) but partly because of continued definition changes for Sony.

Falls das wahr wäre, PS5 mit (custom) Navi?
Möglicherweise bedeutet das auch das Navi anders/besser ausfällt und passend für den Gaming-Bereich, welchen Sonys Anforderungen entspricht.

HOT
2018-06-09, 08:54:12
Wenn der Yield so schlecht sein soll, wieso zieht man den Chip dann vor? Das passt nicht zusammen.

Leonidas
2018-06-09, 11:07:08
Nö, bestenfalls FullNode plus HalfNode (sagen wir vergleichbar mit 90nm zu 55nm).


Gehe ich problemlos mit. Nur denke ich, die technischen Daten sprechen gegen die immer wieder verbreiteten Thesen, 10nm wäre irgendein "werloser Crap". 10nm steht ziemlich exakt in der Mitte zwischen 14/16nm und 7nm und könnte problemlos als eigener Node gefahren werden.

Natürlich sind die technischen Daten nicht exakt X2 (bzw. X4 beim doppelten Fullnode-Sprung). Aber dies hängt nicht an 10nm, sondern schlicht daran, das die Verbesserungen pro Generation generell kleiner geworden sind.

AffenJack
2018-06-09, 11:26:40
Gehe ich problemlos mit. Nur denke ich, die technischen Daten sprechen gegen die immer wieder verbreiteten Thesen, 10nm wäre irgendein "werloser Crap". 10nm steht ziemlich exakt in der Mitte zwischen 14/16nm und 7nm und könnte problemlos als eigener Node gefahren werden.


Nope, wie man sieht bringt ja selbst 7nm nur 2x Dichte gerade bei GPUs. Mit 10nm bist dann bei 1,6x Transistordichte, die real übrig bleibt und etwas besserer Performance. Das lohnt einfach nicht gegenüber 12nm bei den Kosten von 10nm.

Wenn der Yield so schlecht sein soll, wieso zieht man den Chip dann vor? Das passt nicht zusammen.

Weil es im Profibereich egal ist, ob die Yields low sind. Selbst wenn Vega20 1k Euro in der Produktion kostet, wird er zu einem Preis verkauft werden, der hoch genug ist. Mit Vega20 könnte man unter Umständen einen Vorsprung gegenüber Nv in der Leistung haben für ein paar Monate. Verschiebt man das Ding nun, dann tritt man vielleicht zeitgleich gegen einen 600 mm² Nvidia Chip an und steht auf verlorenem Posten. Vega20 kommt dieses Jahr, weil der Chip an sich in Ordnung ist und keinen Respin braucht.

Raff
2018-06-09, 11:27:15
Ohje. Mich erinnert diese Semi-Custom- vs. normale Entwicklung sehr an 3dfx (RIP). Man sieht die Einnahmen aus dem Konsolengeschäft ja grundsätzlich als Rettung an, allerdings sehen das die Ingenieure gewiss anders. Man kämpft immer mit den Ressourcen, denn 200 Prozent Arbeit kriegt man selbst mit Rückenwind und heftigsten Überstunden nicht hin.

MfG,
Raff

Mancko
2018-06-09, 11:45:48
Ohje. Mich erinnert diese Semi-Custom- vs. normale Entwicklung sehr an 3dfx (RIP). Man sieht die Einnahmen aus dem Konsolengeschäft ja grundsätzlich als Rettung an, allerdings sehen das die Ingenieure gewiss anders. Man kämpft immer mit den Ressourcen, denn 200 Prozent Arbeit kriegt man selbst mit Rückenwind und heftigsten Überstunden nicht hin.

MfG,
Raff

Interessant ist wie gegen Koduri nachgetreten wird. Ist natürlich immer einfach wenn jemand schon weg ist, wobei der m.E. ohnehin maßlos überschätzt wurde. Ist jedoch vor dem Hintergrund der ganzen Fanboy Kommentare die ihn als heiligen Gral gesehen haben in den letzten Jahren interessant.

In Summe gefällt mir das bei Nvidia auch besser. Die machen nicht so einen Personenkult im einzelne außer den Boss selber und bei dem ist es auch gerechtfertigt und angebracht. Früher mit David Kirk gabs den ein bisschen aber danach eigentlich nicht mehr.

inspectah
2018-06-09, 12:46:14
Falls das wahr wäre, PS5 mit (custom) Navi?
Würde ja auch zeitlich passen.
Navi Desktop 2020.
Navi SemiCustom in der PS5 2021 (https://www.computerbase.de/2018-05/playstation-5-release-2021/).

HOT
2018-06-09, 13:27:00
Ihr dramatisiert das vielleicht ein bisschen. Immerhin hat semi-custom AMD überhaupt erst gerettet, denn ohne das hätten die in 2013 - 16 fast nix verdient. Klar wurde die "Normalentwicklung" 2012 auf ein Minimum zurückgeführt, also nach dem letzten großen Grafik-Lineup. Das ändert sich erst jetzt allemählich wieder, da die ja Personal aufbauen müssen und die Teams vergrößern müssen, denn das semi-Custom-Geschäft bleibt ja bestehen. Das dauert natürlich alles seine Zeit.
Und es ist klar, dass AMD Synergien ausnutzt, die aus den Vorgaben der Konsolenhersteller resultieren, natürlich fließt das auch in die GPUs ein. Offenbar sieht man sich aber langsam wieder so weit aufgestellt, dass man jetzt wieder jährlich GPU-Generationen anbieten möchte (wahrscheinlich 1. Jahr Maintream, 2. Jahr HighEnd, Tick/Tock quasi).

Und ne Parallele zu 3dfx kann ich da beim besten Willen nirgendwo erkennen... AMD kauft ja jetzt keine Kartenfertiger... :freak:

Blediator16
2018-06-09, 13:41:43
Ashraf, auch wenn er behauptet er wäre es nicht, ist einer der gössten Intel Fanboys. Er kann so oft behaupten wie er will, doch man merkt es ihm an, dass Intel gerade nicht so ausführt wie er gerne hätte. Seine ganzen "hätte hätte Fahrradkette" Aussagen in den letzten Wochen beweisen es.

fondness
2018-06-09, 13:52:57
Ashraf, auch wenn er behauptet er wäre es nicht, ist einer der gössten Intel Fanboys. Er kann so oft behaupten wie er will, doch man merkt es ihm an, dass Intel gerade nicht so ausführt wie er gerne hätte. Seine ganzen "hätte hätte Fahrradkette" Aussagen in den letzten Wochen beweisen es.

Richtig, der Typ redet Ryzen bis heute klein, mit dem Verweis dass es ja nur an delay von Intel 10nm liegt.

Allerdings halte ich das mit einer zu starken Fokussierung auf Sony auch für gefährlich. Die Anforderungen zwischen Konsolen und Desktop sind doch deutlich unterschiedlich, wie GCN eindrucksvoll zeigt. In den Konsolen dank tolle Flexibilität und vielen Lowlevel-Features Überlegen, macht die Architektur im Desktop wo deutlich stärker abstrahiert wird keine Stich mehr, bzw. kann von vielen der Features nicht profitieren.

reaperrr
2018-06-09, 14:41:55
Gehe ich problemlos mit. Nur denke ich, die technischen Daten sprechen gegen die immer wieder verbreiteten Thesen, 10nm wäre irgendein "werloser Crap". 10nm steht ziemlich exakt in der Mitte zwischen 14/16nm und 7nm und könnte problemlos als eigener Node gefahren werden.

Natürlich sind die technischen Daten nicht exakt X2 (bzw. X4 beim doppelten Fullnode-Sprung). Aber dies hängt nicht an 10nm, sondern schlicht daran, das die Verbesserungen pro Generation generell kleiner geworden sind.
Da wiederum gehe ich mit, 10nm von TSMC (evtl. auch von Samsung) ist nach den bisherigen Infos auf jeden Fall nah an einem FullNode-Shrink.

Dass NV und AMD 10nm überspringen hat wohl mehr mit der zeitlichen Nähe zu 7nm, im Fall von AMD auch der Kompatibilität mit GloFos 7nm zu tun.
Beide wollten sich wohl die Mühe und v.a. Kosten sparen, die einzelnen Design-Blöcke innerhalb relativ kurzer Zeit zweimal portieren/neu erstellen und validieren/debuggen/optimieren zu müssen.

reaperrr
2018-06-09, 14:45:53
Würde ja auch zeitlich passen.
Navi Desktop 2020.
Navi SemiCustom in der PS5 2021 (https://www.computerbase.de/2018-05/playstation-5-release-2021/).
Sollen Vega und Polaris das ganze Jahr 2019 gegen 12nm Turing und dessen 7nm-Refresh überstehen?

Navi muss spätestens (möglichst früher) im Sommer 2019 kommen.

Screemer
2018-06-09, 15:36:20
Und ne Parallele zu 3dfx kann ich da beim besten Willen nirgendwo erkennen... AMD kauft ja jetzt keine Kartenfertiger... :freak:
seamicro war da schon mal ein versuch. das hat amd mehr kohle gekostet als 3dfx der kauf von stb und das sogar inflationsbereinigt.

StefanV
2018-06-09, 15:59:58
Man sieht die Einnahmen aus dem Konsolengeschäft ja grundsätzlich als Rettung an, allerdings sehen das die Ingenieure gewiss anders. Man kämpft immer mit den Ressourcen, denn 200 Prozent Arbeit kriegt man selbst mit Rückenwind und heftigsten Überstunden nicht hin.
In den Konsolen kauft man die AMD Grafik, im Desktop Markt ist das, wenn man von ein paar Märkten wie Deutschland absieht, nicht so.
Da kauft keine Sau AMD und nutzt die einfach nur als Preisdrücker, wenn überhaupt.

Und dann gibt es immer wieder Leute, die darauf bestehen, dass AMD 250% besser sein muss, bei gleichem Preis, bevor sie überhaupt AMD Grafik in Erwähnung ziehen...

Im Konsolenmarkt gibt es wenigstens etwas Verbreitung....

=Floi=
2018-06-09, 16:27:01
In Summe gefällt mir das bei Nvidia auch besser. Die machen nicht so einen Personenkult im einzelne außer den Boss selber und bei dem ist es auch gerechtfertigt und angebracht. Früher mit David Kirk gabs den ein bisschen aber danach eigentlich nicht mehr.

ich bin auch gegen personenkult, aber die leute hinter den guten produkten könnten schon mal vorgstellt werden.
Es ist so oft schade, welche schlauen köpfe hier im hintergrund werkeln.

Ich denke hier auch an den jahrzehnt prozessor sandy bridge oder an den mercedes F1 motor.
Mir würden da noch eine ganze menge anderer sachen einfallen. High-k oder finfet.

=Floi=
2018-06-09, 16:55:53
Da kauft keine Sau AMD und nutzt die einfach nur als Preisdrücker, wenn überhaupt.


Ach komm, das ist auch so ein märchen von dir. Es gab hier im forum sicherlich schon einen ~50% AMD/ATI anteil bei den grafikkarten.
Hätte hektor ruin sich damals nicht so verhoben wäre der rückstand auch nicht so groß.

Bevor du jetzt noch mit der tollen gpu in der cpu kommst, deswegen ist ryzen auch so gut geworden. :rolleyes::biggrin: Es liegt nur an der integrierten GPU welche in OCL per GPGPU die 8 cores simuliert?! ;D:P


Die diskussion wieso und warum so oft NV gekauft gab es auch schon zigmal und leider wird man hier so oft bestätigt.


Am ende belohnt der markt die besseren produkte und auch deswegen ist Ryzen erfolgreich.

Sunrise
2018-06-09, 19:29:45
Ohje. Mich erinnert diese Semi-Custom- vs. normale Entwicklung sehr an 3dfx (RIP). Man sieht die Einnahmen aus dem Konsolengeschäft ja grundsätzlich als Rettung an, allerdings sehen das die Ingenieure gewiss anders. Man kämpft immer mit den Ressourcen, denn 200 Prozent Arbeit kriegt man selbst mit Rückenwind und heftigsten Überstunden nicht hin.

MfG,
Raff
Naja, das ist jetzt aber ein Bisschen weit hergeholt, oder? Klar ist, dass AMD natürlich stark daran interessiert sein sollte, das Konsolengeschäft weiter zu bedienen (insbesondere PS und Xbox), aber sich nur darauf zu konzentrieren sicher auch falsch ist.

Eventuell ist das aber tatsächlich der Grund, warum AMD seit einiger Zeit deutlich langsamer als NV war, denn mit Tahiti war man noch extrem früh auf einem nagelneuen Prozess fertig (auch wenns sauteuer war), erst jetzt scheint AMD wieder das Bestmögliche anzupeilen, und zwar vor NV.

StefanV
2018-06-09, 20:06:08
Joa und insbesondere Tahiti ist ein hervorragendes Beispiel für das Kaufverhalten der Leute.
Tahiti war oft preiswerter als GK104 und hatte darüber hinaus auch noch +1GiB VRAM.
Dennoch wurden die Tahitis nicht gekauft.

Gleiches Spiel mit GK110 und Hawaii und anderen Dingen.

Daher kann ich verstehen, dass AMD sich mehr auf die Konsolen konzentriert und wenn Sony einen Wunsch äußert, man mit "Sir, YES!, Sir!" antwortet.
Weil die machen am meisten für die Verbreitung von AMD Hardware.

Die Miner natürlich auch aber die zocken ja nich...

Und Apfel ist nicht wirklich groß, als dass sich das lohnen würde...

Kriton
2018-06-09, 22:04:56
Tahiti war wegen des relativ hohen Verbrauchs IIRC (Standardeinstellung auch über sweet spot) nicht so gut angesehen.

M4xw0lf
2018-06-09, 22:09:00
Tahiti war wegen des relativ hohen Verbrauchs IIRC (Standardeinstellung auch über sweet spot) nicht so gut angesehen.
Tahiti in Form von 7970 und 7950 war kaum schlechter als GK104 in Performance/Watt.

Langlay
2018-06-09, 22:25:34
Die orginale 7950 non Boost war sogar regelrecht sparsam, die hat <150W verbraucht.

https://www.tomshardware.com/reviews/radeon-hd-7950-overclock-crossfire-benchmark,3123-19.html

https://www.tomshw.de/2012/05/16/radeon-hd-7950-roundup-review/10/

StefanV
2018-06-09, 23:07:06
Tahiti war wegen des relativ hohen Verbrauchs IIRC (Standardeinstellung auch über sweet spot) nicht so gut angesehen.
Ja, eben nicht wirklich.

Und 'ne Generation oder zwei vorher wurde der Stromverbrauch aber mit "höhere Performance, alda, ey!!11" weggeredet.
Und das ist doch das Problem, dass AMD immer hat.

Liest du in letzter Zeit jemanden im CPU Bereich über den Stromverbrauch reden?
Insbesondere im HEDT Bereich? Nein?
Eben genau das war mein Punkt.

Der Stromverbrauch ist interessanter weise immer nur dann von Interesse, wenn es der eigenen Seite hilft, sonst nicht.
Denn letztendlich ist der Stromverbrauch bei den meisten völlig egal.

Ein anderes Beispiel wären die Konsolen, die Premiums. Die XBox One X verbrät in jeder Situation 'nen ganzes Stück mehr als die PS4 PRO. Interessiert auch hier keinen.
Und wir reden hier von bis zu 30W Last...
Und im "Soft Off" ists auch nicht ohne...

BlacKi
2018-06-09, 23:31:08
wir reden früher von 140 vs 145w, heute von 200w vs 300w. wenn die rx56 denn 400€ kosten würde wie die 1070, und nicht gerade turing vor der tür stände, dann würde sich auch v56 verkaufen wie geschnitten brot.

StefanV
2018-06-10, 07:04:47
wenn
Ja, das ist doch das Problem.
Wenn AMD dies, wenn AMD das, aber am Ende kaufst auch du kein AMD und nutzt die nur als Preisdrücker für nVidia Hardware.
Oder wann hast DU das letzte mal 'ne AMD Karte gekauft??


die rx56 denn 400€ kosten würde wie die 1070, und nicht gerade turing vor der tür stände, dann würde sich auch v56 verkaufen wie geschnitten brot.
Warum hast dir dann noch keine gekauft? ;)

Aber das ist doch immer wieder die gleiche Leier, die man immer wieder hört. Oder anders gesagt: Ausreden, um nicht AMD kaufen zu können.

Denn letztendlich kaufen nur zwei Gruppen wirklich AMD in größeren Mengen:
a) Konsoleros
b) Miner, wenns gerade wieder 'nen Hype gibt...

gravitationsfeld
2018-06-10, 07:06:18
AMD hat seit 6 Jahren keine konkurrenzfähigen Produkte mehr gehabt. Darum kaufen die Leute lieber NVIDIA. Braucht man keine Verschwörungstheorie bemühen.

HOT
2018-06-10, 08:42:06
AMD hat seit 6 Jahren keine konkurrenzfähigen Produkte mehr gehabt. Darum kaufen die Leute lieber NVIDIA. Braucht man keine Verschwörungstheorie bemühen.
Das ist nur die halbe Wahrheit. Ein großer Teil ist total Markengeil. Ich behaupte, mehr als die Hälfte aller NV-Käufer würde sich niemals unter keinen Umständen eine AMD-Karte holen, selbst wenn die Welt untergeht. Und woran sieht man das? An der Preiselastizität. Es war den Leuten egal, ob der Krempel immer teurer wird, sie haben mehr gekauft.

Grendizer
2018-06-10, 09:43:40
Ja, eben nicht wirklich.

Und 'ne Generation oder zwei vorher wurde der Stromverbrauch aber mit "höhere Performance, alda, ey!!11" weggeredet.
Und das ist doch das Problem, dass AMD immer hat.

Liest du in letzter Zeit jemanden im CPU Bereich über den Stromverbrauch reden?
Insbesondere im HEDT Bereich? Nein?
Eben genau das war mein Punkt.

Der Stromverbrauch ist interessanter weise immer nur dann von Interesse, wenn es der eigenen Seite hilft, sonst nicht.
Denn letztendlich ist der Stromverbrauch bei den meisten völlig egal.

.


Der Verbrauch ist in der Tat scheiss egal. Aber die daraus resultierenden Lüftergeräusche sind es eben nicht.

Bei Vega hat es bei mir die LCE gebraucht und trotzdem war die unangenehmer als eine billige KFA² 1080 EXOC OC von den Geäuschemmisionen.

Bei CPUs bekommst du das Problem durch gute Kühler/Lüfter in den Griff. Da man sowieso einen braucht, nimmt man halt bei extremen CPUs ein wenig mehr Geld in die Hand. Bei GPUs muss man umbauen, oftmals mit Garantieverlust und dem Risiko was zu beschädigen.

Grendizer
2018-06-10, 09:46:04
Das ist nur die halbe Wahrheit. Ein großer Teil ist total Markengeil. Ich behaupte, mehr als die Hälfte aller NV-Käufer würde sich niemals unter keinen Umständen eine AMD-Karte holen, selbst wenn die Welt untergeht. Und woran sieht man das? An der Preiselastizität. Es war den Leuten egal, ob der Krempel immer teurer wird, sie haben mehr gekauft.

Das ist einfach Quatsch. AMD ist einfach schlechter. Ich sitzte hier gerade an meinem 2. Rechner mit einer AMD 390 und jetzt weiss ich auch wieder warum das Mistding noch wenigen Monaten rausgeflogen ist. Bei höhere Umgebungstemperatur heult der Lüfter extrem um das Ding zu kühlen.


Außerdem hat AMD zumindest bei Polaris und Vega durch extremes Marketing nicht zu haltende Erwartungen geweckt und dadurch am Ende bei durchschnittlichen Produkten die Erwartungen enttäuscht.

Screemer
2018-06-10, 09:48:17
Davon können die Käufer einer 1080 Armor von Msi auch ein Liedchen singen. Wer Schrott customs kauft ist halt selber schuld. Auch die Aussage von Coda kann ich nicht nachvollziehen. Die 290 und die 480 waren in ihrem Leistungsbereich durchaus konkurrenzfähig.

Linmoum
2018-06-10, 10:04:15
Bei höhere Umgebungstemperatur heult der Lüfter extrem um das Ding zu kühlen.
Das ist schön. Wer schrottige Customs kauft, sollte nicht AMD oder Nvidia dafür verantwortlich machen.

Menace
2018-06-10, 10:08:09
Außerdem hat AMD zumindest bei Polaris und Vega durch extremes Marketing nicht zu haltende Erwartungen geweckt und dadurch am Ende bei durchschnittlichen Produkten die Erwartungen enttäuscht.

Ja, das Marketing war Mist. Allerdings ist man doch halbwegs schlau genug, seine Entscheidung nicht auf Grund der Marketingabteilung zu treffen; wobei, bestimmt nicht alle.

Aber langsam sollte man wieder zurück zum Thema kommen.

Übrigens, was ich AMD hoch anrechne (wenn sie vielleicht auch keine andere Wahl hatten) ist die Möglichkeit unterschiedliche Biose und PTs relativ einfach auszuwählen. Das wollte ich schon bei der Fiji sehen und bei Vega haben sie es tatsächlich gemacht. :biggrin:

fondness
2018-06-10, 10:57:57
Eventuell ist das aber tatsächlich der Grund, warum AMD seit einiger Zeit deutlich langsamer als NV war, denn mit Tahiti war man noch extrem früh auf einem nagelneuen Prozess fertig (auch wenns sauteuer war), erst jetzt scheint AMD wieder das Bestmögliche anzupeilen, und zwar vor NV.

AMD war bei neuen Fertigungsprozessen eigentlich immer sehr früh dran, nur in der Vergangenheit hat sich die Massenfertigung dann häufig aufgrund der Foundry verzögert. AMD hat sich mittlerweile zum Glück von GF freigekauft, sodass man wieder die besseren Foundry wählen kann. Bei 7nm scheint es bei TSMC sehr gut zu laufen, offenbar besser als von manchen erwartet. TSMC fertigt seit April 7nm Chips in Massen. Klar ist Vega20 mit seinen >300mm² mit Sicherheit das mit Abstand größte Die in 7nm TSMC, aber so schlecht dürften die Yields nicht sein wenn auch schon Apple in 7nm fertigt und TSMC einen Umsatz von 22%(!) am Gesamtumsatz durch 7nm in 2018 anpeilt. Bei GF soll es erst gegen Ende des Jahres die ersten Tapeouts von 7nm Chips geben, also wohl kaum fertige Produkte vor H2/2019.

Chaser187
2018-06-10, 11:00:43
Schade das die Nano schon ausverkauft ist, wollte mir gerade eine bestellen.

HOT
2018-06-10, 12:42:25
Das ist einfach Quatsch. AMD ist einfach schlechter. Ich sitzte hier gerade an meinem 2. Rechner mit einer AMD 390 und jetzt weiss ich auch wieder warum das Mistding noch wenigen Monaten rausgeflogen ist. Bei höhere Umgebungstemperatur heult der Lüfter extrem um das Ding zu kühlen.


Außerdem hat AMD zumindest bei Polaris und Vega durch extremes Marketing nicht zu haltende Erwartungen geweckt und dadurch am Ende bei durchschnittlichen Produkten die Erwartungen enttäuscht.
Nur weil du dich davon angesprochen fühlst stimmt das jetzt nicht oder was. Ich bleibe dabei, ein Großteil würde niemals AMD kaufen. Bei Intel ist das genauso, jedoch ist das dort auch noch professionell so, weil viele Admins per se nur Intel verwenden würden. Du kannst das runterspielen wie du willst, es bleibt einfach ne Tatsache, dass viele sich da nunmal auf die Marke festgelegt haben.

reaperrr
2018-06-10, 12:53:44
AMD hat seit 6 Jahren keine konkurrenzfähigen Produkte mehr gehabt. Darum kaufen die Leute lieber NVIDIA. Braucht man keine Verschwörungstheorie bemühen.
Wusste gar nicht, dass GM204 schon im Sommer 2012 rausgekommen ist :freak:

Also 6 Jahre waren es definitiv nicht, ich würde sagen im Herbst werden es 4, und auch nur wenn man unter "konkurrenzfähig" die Perf/W und Perf/mm² versteht.

Die komplette GCN-Gen1 (Tahiti, Pitcairn, CV) und Gen2 (Bonaire, Hawaii) waren jeweils solange, bis der jeweilige Maxwell-Gegenpart auf den Markt kam, ziemlich konkurrenzfähig (Pitcairn sogar so sehr, dass NV die Produktion von GK106 für den Desktop ziemlich schnell wieder eingestampft und stattdessen die GTX 760 rausgehauen hat).

Bei AMD kam bloß außer Polaris10 in den Folgejahren nichts gescheites mehr nach, das stimmt leider (Vega erkauft sich die Konkurrenzfähigkeit zu GP104 ja mit vergleichsweise monströser Fläche und im Fall der 64 hohem Verbrauch).

robbitop
2018-06-10, 13:03:14
AMD hat seit 6 Jahren keine konkurrenzfähigen Produkte mehr gehabt. Darum kaufen die Leute lieber NVIDIA. Braucht man keine Verschwörungstheorie bemühen.
Bisschen hart formuliert. :)
Hawaii war sicherlich konkurrenzfähig ggü GK110 und GM104. Polaris ggü GP106 und GP107.

w0mbat
2018-06-10, 13:07:39
Naja, im high-end aber nicht.

robbitop
2018-06-10, 13:39:42
Naja doch, GK110 vs Hawaii. Hawaii hat gut mithalten können. Danach ging es aber bergab im High End. Und selbst die Stufe darunter (Performance), läßt man seit dem liegen.

fondness
2018-06-10, 13:44:31
Hawaii konnte erst gut mithalten, als Compute-Performance in Spielen immer relevanter wurde, also gegen Ende der Lebenszeit. Ansonsten war Hawaii ein genialer Chip, denn das Ding hatte sogar noch 1:2 DP onboard und war trotzdem relativ klein. Aber leider ist nach Hawaii praktisch nichts mehr gekommen. Polaris ist praktisch eh ein leicht modifizierter Hawaii und die Fiji->Vega10 Linie krankt hoffnungslos am zu schmalen Front-/Backend.

aufkrawall
2018-06-10, 13:45:52
RX 480 war zum Launch dann auch nur ~GTX 970 Performance mit dem gleichen Verbrauch.

Raff
2018-06-10, 13:52:56
Hawaii war High-End – High-End, das sich wesentlich besser gehalten hat als Kepler. Das Problem von Hawaii, das auch Vega hat, war sein Durst. Damals gab es nur wenige leise Custom-Designs.

MfG,
Raff

Digidi
2018-06-10, 17:02:15
AMD ist nur grottig weil keiner darauf optimiert. Der Anteil der High Endkarten ist zu klein, als das sich Entwickler darum kümmern.

Wenn man sieht die RX580 kann mit der GTX1060 gut mithalten. Das sind wohl auch die meist verkauften Karten. Da kümmern sich halt die Entwickler noch um die Belange :P

=Floi=
2018-06-10, 17:54:14
AMD ist nur grottig weil keiner darauf optimiert.
und du zahlst das?
Du hast noch immer nicht kapiert, dass die idee hinter vega nicht funktioniert und die ganze sache einfach crap ist. Es gibt ne api und die muss funktionieren.

die 580er hat die uralte cgn arch.

Menace
2018-06-10, 18:29:05
und du zahlst das?
die ganze sache einfach crap ist.

Jedesmal wenn das jemand schreibt frage ich nach, ob Vega und seine Abkömmlinge wirklich "crap" sind. Vega wurde nicht für Spieler sondern für alles mögliche entwickelt. Zum Beispiel auch für Bestandteile einer APU.

Ist jetzt Vega für diese Anwendungen (auch prof. Markt) "crap"? Warum ist sie in einer APU gelandet?

Tesseract
2018-06-10, 18:30:09
AMD ist nur grottig weil keiner darauf optimiert.
inlusive AMD :rolleyes:

die stecken seit jahren zu wenig geld in software und dementsprechend bleibt die hardware hinter den erwartungen. man kann einfach nicht darauf warten dass alles die anderen machen. die tollste hardware bringt nix wenn sie in der praxis in vielen kleinen/alten/abskuren/indie/etc. und auch so manchem großen titel hinterher hinkt, ganz besonders nicht in den massentitel die grafisch oft nicht top aktuell sind aber von vielen gespielt werden.
AMD's modus operandi ist es die karte mit 80% der performace zu veröffentlichen, monate später mit einem treiber rauszukommen der daraus 90% macht und jahre später gibt es dann irgendein spiel das auf die "100%" kommt - und dann kommen die ganzen fanboys und schreien was von "reifer wein" und "zukunftssicher" von den dächern.

fondness
2018-06-10, 18:59:59
inlusive AMD :rolleyes:

die stecken seit jahren zu wenig geld in software und dementsprechend bleibt die hardware hinter den erwartungen. man kann einfach nicht darauf warten dass alles die anderen machen. die tollste hardware bringt nix wenn sie in der praxis in vielen kleinen/alten/abskuren/indie/etc. und auch so manchem großen titel hinterher hinkt, ganz besonders nicht in den massentitel die grafisch oft nicht top aktuell sind aber von vielen gespielt werden.
AMD's modus operandi ist es die karte mit 80% der performace zu veröffentlichen, monate später mit einem treiber rauszukommen der daraus 90% macht und jahre später gibt es dann irgendein spiel das auf die "100%" kommt - und dann kommen die ganzen fanboys und schreien was von "reifer wein" und "zukunftssicher" von den dächern.

Das ist viel zu einfach. Die schwankende Performance hat auch sehr viel mit der HW zu tun bzw. wie die Software diese nützt. Und selbst wenn es so wäre - da man nur den Preis für "80%-Performance" zum Launchzeitpunkt zahlt, ist das mit dem alten Wein ja nicht falsch. Bei NV hingegen sieht man sehr schön, wie viel der Softwaresupport bringt, sobald eine neue Generation da ist und diese höhere Priorität genießt, kann es für die dann "alten" Karten ungemütlich werden.

Tesseract
2018-06-10, 19:22:59
Und selbst wenn es so wäre - da man nur den Preis für "80%-Performance" zum Launchzeitpunkt zahlt

das ist nur meistens nicht der fall. bezahlt wird eher das was die karten in ein paar wenigen vorzeigetitel leisten und das entspricht eher dem was man in vielen anderen titel erst nach ein paar monaten (oder überhaupt nie) bekommt.

Die schwankende Performance hat auch sehr viel mit der HW zu tun bzw. wie die Software diese nützt.

und das wiederum hat extrem viel damit zu tun was der treiber im hintergrund macht und genau da liegt das problem.

gravitationsfeld
2018-06-10, 19:26:25
und die Fiji->Vega10 Linie krankt hoffnungslos am zu schmalen Front-/Backend.
Es gibt diverse Flaschenhälse, so einfach zuordnen kann man das nicht.

Screemer
2018-06-10, 19:26:52
Wieder die alte sinnfrei Diskussion. Schon schön dass jedes Mal wieder lesen zu müssen. Kannst mir ja Mal was neues dazu beitragen und zeigen was "die meisten anderen Titel" sind.

Dural
2018-06-10, 23:35:15
Naja doch, GK110 vs Hawaii. Hawaii hat gut mithalten können. Danach ging es aber bergab im High End. Und selbst die Stufe darunter (Performance), läßt man seit dem liegen.

GK110 konnte man recht easy übertakten, da waren schnell 30% mehr leistung drin. Da war keine rede von mithalten! Die entscheidung pro 780ti viel für die meisten relativ leicht.
Kepler hat einfach zu wenig speicher von NV bekommen, das war und ist das grösste problem der 780ti. Damals konnte man aber gut mit den 3gb aushalten.

Die Rev. 290x war zudem keine wirkliche konkurenz. Unheimlich laut und heiss, zudem sind mir selber 3 Rev. abgeraucht weil die karten so extrem warn wurden, ok mit oc.

G3cko
2018-06-11, 08:55:12
Schön für die 780Ti. Zu doof nur, dass in manch aktuelleren Titel sogar die 7970 an der Titan1 vorbei zieht.

Die 780Ti hat im Schnitt heute klar das nachsehen.
der eigentliche Witz. Die GTX780 Non Ti war teurer als die 290. Und die GTX780Ti war sogar 30% teuerer als die 290x.

Mann musste also die GTX780 Ti erst einmal 30% übertakten um den Mehrpreis rauszuholen und hat am Ende dennoch 25% weniger VRAM.

https://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/11/

Gipsel
2018-06-11, 09:03:44
Nur mal zur Erinnerung:
Wir sind im Vega-Spekulationsthread.

|MatMan|
2018-06-11, 11:05:28
Spannend für mich ist an Vega20, ob AMD Tensor Cores oder etwas ähnliches einbaut. Ohne soetwas sieht die Karte wohl leider keinen Stich gegen GV100 bei DL Anwendungen. Entsprechend optimierte Software müsste auch direkt zum Release verfügbar sein. Ansonsten bliebe dann nur noch eine hohe DP Performance (bei besserer Perf/W als GV100). Das ist gut, aber nicht gerade ein so boomender Markt wie DL.

BoMbY
2018-06-11, 11:11:01
Naja, grundsätzlich wäre es auf jeden Fall wünschenswert wenn AMD mehr in Treiber investiert, gerade auch für kommende Karten, oder auch was die teilweise immer noch fehlenden Features von Vega10 angeht. Oder wenigstens könnten sie erklären was wirklich das Problem ist.

Prinzipiell glaube ich auch immer noch man könnte sicher einen deutlich besseren DX11-Treiber bauen, wenn man wollte. Im Prinzip sollte es für AMD möglich sein an dieser Stelle den scheinbar seriellen DX11 Command Processor durch ein Stück Multi-Threaded-Software zu ersetzen, welches dann Teile des DX12-Backends nutzt.

deekey777
2018-06-11, 11:56:16
Spannend für mich ist an Vega20, ob AMD Tensor Cores oder etwas ähnliches einbaut. Ohne soetwas sieht die Karte wohl leider keinen Stich gegen GV100 bei DL Anwendungen. Entsprechend optimierte Software müsste auch direkt zum Release verfügbar sein. Ansonsten bliebe dann nur noch eine hohe DP Performance (bei besserer Perf/W als GV100). Das ist gut, aber nicht gerade ein so boomender Markt wie DL.
Tensor Cores sind überbewertet.

:weg:

pilzsammler2002
2018-06-11, 12:58:05
Tensor Cores sind überbewertet.

:weg:

http://blog.gpueater.com/en/2018/04/23/00011_tech_cifar10_bench_on_tf13/
Manchmal ja :)

HOT
2018-06-11, 14:25:29
AMDs "Tensor Cores"-Funktion könnten einfach die CUs mirbringen. AMD macht doch nie dedizierte Einheiten.

deekey777
2018-06-11, 14:37:49
TruForm! ;D

Im Ernst:
Es gibt zwei Möglichkeiten: Nvidia hat sich doch was dabei gedacht, Tensor-Cores zu bringen. Oder es wird zu viel Hype um die Tensor-Cores gemacht, der nur zum Teil berechtigt ist.

Dural
2018-06-11, 17:12:45
Ist doch seit Jahren immer das gleiche, NV macht alles separat und AMD packt alles in die CU.

Wenn ich gewisse Marktanteile anschaue dürfte sich die Frage was besser und was schlechter ist von alleine beantworten. :wink:

BoMbY
2018-06-11, 17:17:26
Sind denn die Tensor Cores überhaupt Dedicated? Oder ist das nur quasi eine andere Sicht auf die vorhandenen Recheneinheiten? Kann man Tensor Cores und normale FP32 gleichzeitig nutzen, mit voller Leistung?

Naja, jedenfalls dürfte Vega20 auch auf gute theoretische Werte mit den fdot8/sdot8, bzw. fdot4/sdot4, Instruktionen kommen,

8x64x128x2000 = ~131 TFlop/s bei 4 Bit Genauigkeit.
4x64x128x2000 = ~ 65.5 TFlop/s bei 8 Bit Genauigkeit

Oder sehe ich das jetzt falsch? 8-Bit scheinen für neuronale Netzwerke jedenfalls ausreichend (https://petewarden.com/2015/05/23/why-are-eight-bits-enough-for-deep-neural-networks/).

Troyan
2018-06-11, 17:20:44
TensorCores sind neue Recheneinheiten. Die sind dediziert.

Ansonsten bringt Turing TensorCores ebenfalls mit 8bit Unterstützung bzw. mit einem 1:16 Verhältnis. Xavier z.B. erreicht 20 TOPS bei 1,3 TFLOPs.

Savay
2018-06-12, 10:29:00
Oder es wird zu viel Hype um die Tensor-Cores gemacht, der nur zum Teil berechtigt ist.

Ach darin ist nV doch seit Jahrzehnten extrem erfahren...TnL anyone?! :freak:

Wenn ich gewisse Marktanteile anschaue dürfte sich die Frage was besser und was schlechter ist von alleine beantworten. :wink:

Als ob das so einfach wäre. :rolleyes:

Dural
2018-06-12, 11:09:35
Im Server / Industrie Bereich ist es so einfach, da wird Knallhart das gewählt was überzeugen kann.

Im Desktop / Gaming Bereich hat der Name der auf dem Produkt steht sicherlich eine grössere Auswirkung.

Savay
2018-06-12, 12:17:08
Im Server / Industrie Bereich ist es so einfach, da wird Knallhart das gewählt was überzeugen kann.


Da geht es aber garantiert nicht um den internen Aufbau und/oder Organisation irgendwelcher Recheneinheiten.

AffenJack
2018-06-12, 12:27:11
TruForm! ;D

Im Ernst:
Es gibt zwei Möglichkeiten: Nvidia hat sich doch was dabei gedacht, Tensor-Cores zu bringen. Oder es wird zu viel Hype um die Tensor-Cores gemacht, der nur zum Teil berechtigt ist.

Du kannst gerne Google, Intel und die gesamte AI Industrie fragen, ob ihr Ansatz der richtige ist. Da jeder eine Art von tensor cores benutzt, ist für mich die Sache recht klar.

deekey777
2018-06-13, 09:21:17
Du kannst gerne Google, Intel und die gesamte AI Industrie fragen, ob ihr Ansatz der richtige ist. Da jeder eine Art von tensor cores benutzt, ist für mich die Sache recht klar.
Ich meinte das schon im Kontext von zusätzlichen dedizierten Einheiten neben den "normalen" SPs aktueller GPUs.

Screemer
2018-06-15, 13:38:40
Radeon pro V340 - Dual V10 mit 32gb hbm2:

https://pics.computerbase.de/8/3/4/3/2/2-1080.2307724876.jpg

https://www.computerbase.de/2018-06/amd-radeon-pro-v340/

Gipsel
2018-06-15, 19:09:02
Radeon Instinct V340 - Dual V10 mit 32gb hbm2:
https://pics.computerbase.de/8/3/4/3/2/2-1080.2307724876.jpg
https://www.computerbase.de/2018-06/amd-radeon-pro-v340/Die gehört nicht zur Instinct-Reihe, das ist eine Pro.

Screemer
2018-06-15, 19:32:20
Korrekto. Genau so wie's auf der Folie steht. Hatte den Artikel gelesen und irgendwie hat sich instinct festgesetzt. Zur instinct Serie soll natürlich der erwartet v20 Ableger zählen.

unl34shed
2018-06-15, 20:03:07
Naja, im Luxx wurde sie als Vega20 verkauft ...

E: nach dem Motto 10+10=20 :D

BoMbY
2018-06-19, 19:25:48
Radeon Pro Vega 20 (66A7:00): https://videocardz.com/76580/amd-radeon-pro-vega-20-spotted

BoMbY
2018-06-26, 21:49:32
Amd bereitet anscheinend PCIe 4.0 vor: https://cgit.freedesktop.org/~agd5f/linux/commit/?h=drm-next-4.19-wip&id=c745cbc945fc928ed49a4e56778cc62ca06eff04

Dürfte ja vermutlich mit Vega20 landen, auch wenn es noch keinen PC gibt der das unterstützt - vermutlich frühestens mit Zen2.

Locuza
2018-06-26, 22:04:23
Zen2 sollte PCIe4.0 mitbringen und ebenso über Infinity-Fabric mit Vega20 sich verbinden lassen, persönlich interessiert es mich aber was mit den Mainboards los sein wird?
Wird AMD auch für Konsumenten PCIe4.0 und gar die Möglichkeit über IF anbieten oder muss der Konsument bis 2020 dann mit PCIe3.0 und den 24 Lanes "gammeln"?

Skysnake
2018-06-26, 22:13:46
PCI-E 4.0 handelt selbst aus, was geht.

Kann also von Board zu Board im Prinzip unterschiedlich sein.

Locuza
2018-06-26, 22:37:43
Kennt sich jemand mit der Pin-Belegung von Sockeln aus?
Es gibt die Vermutung, dass AM4 nur 24 Lanes anbietet, weil nicht genug Pins nach außen geführt werden können, scheint die Vermutung realistisch und wenn ja, wenn AMD auf PCIe4.0 upgraden würde, könnte das auch unter dem Sockel AM4 mit der aktuellen Pinbelegung funktionieren?

SKYNET
2018-06-26, 23:08:21
Zen2 sollte PCIe4.0 mitbringen und ebenso über Infinity-Fabric mit Vega20 sich verbinden lassen, persönlich interessiert es mich aber was mit den Mainboards los sein wird?
Wird AMD auch für Konsumenten PCIe4.0 und gar die Möglichkeit über IF anbieten oder muss der Konsument bis 2020 dann mit PCIe3.0 und den 24 Lanes "gammeln"?

wozu? nichtmal ne 1080 Ti reizt 16x 3.0 nur ansatzweise aus. :freak:

Tesseract
2018-06-26, 23:21:46
verstehe ich auch nicht. seit über 10 jahren langweilen sich die PCI-e 16x slots und jedes mal wenn eine neue generation kommt sind leute wild drauf.

Locuza
2018-06-26, 23:35:51
Bezüglich AM4 ist es interessant, weil es aktuell nur 24 Lanes für die Mainstream-Plattform gibt.
Wer mehr als eine voll angebundene SSD anbinden möchte schaut in die Röhre und attraktiv ist der Chipsatz-Hub aktuell nicht.
Ein PCIe4.0 Upgrade für die ganze Infrastruktur würde dagegen das Ganze schon deutlich attraktiver gestalten.

Bezogen auf die GPU interessiert mich PCIe4.0 nicht sonderlich, mehr ob AMD es Mainboardherstellern auch ermöglichen könnte die PHYs für GMI zu verwenden, dann könnten bessere Latenzen und Cache-Kohärenz winken.
Es wäre schön wenn irgendwann die alte PC-Architektur auch bei getrennten Komponenten endlich Fortschritte machen würde, was die kooperative zusammen Arbeit von CPU und GPU angeht.
Aktuell lasten auch nur wenige Apps die PCIe-Verbindung aus, weil fast alles nachdem Fire&Forget-Prinzip und man kooperative Arbeit entweder wegen den Latenzen und/oder auch der Bandbreite vermeiden möchte.
Es stellt sich auch die Frage, ob die HBCC-Funktionalität mit dem Paging besser funktionieren könnte, wenn die Bandbreite und/oder die Latenz zur CPU besser ausfällt.

gravitationsfeld
2018-06-26, 23:38:52
wozu? nichtmal ne 1080 Ti reizt 16x 3.0 nur ansatzweise aus. :freak:
Henne und Ei.

Tesseract
2018-06-27, 00:22:04
Aktuell lasten auch nur wenige Apps die PCIe-Verbindung aus, weil fast alles nachdem Fire&Forget-Prinzip und man kooperative Arbeit entweder wegen den Latenzen und/oder auch der Bandbreite vermeiden möchte.

die latenz wird aber nicht (wesentlich) besser und ein höherer sequentieller durchsatz für den festspeicher bringt in den meisten fällen auch nicht wirklich viel. für einen deutlichen sprung müssten GPU und CPU schon einen gemeinsamen speicher haben oder ähnliches und die restlichen komponenten sind kaum performancekritisch.

SKYNET
2018-06-27, 10:10:22
Henne und Ei.

https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_PCI_Express_Scaling/24.html

henne :tongue:

verstehe ich auch nicht. seit über 10 jahren langweilen sich die PCI-e 16x slots und jedes mal wenn eine neue generation kommt sind leute wild drauf.

korrekt, nach irgend ner biosspielerrei lief mein PCIe port auf 1.1, merkte es aber erst wochen später als ich mal GPU-Z angeworfen hatte :freak:

unterschied beim spielen: nicht merkbar gewesen.

BoMbY
2018-06-27, 10:52:48
Es gibt die Vermutung, dass AM4 nur 24 Lanes anbietet, weil nicht genug Pins nach außen geführt werden können, scheint die Vermutung realistisch und wenn ja, wenn AMD auf PCIe4.0 upgraden würde, könnte das auch unter dem Sockel AM4 mit der aktuellen Pinbelegung funktionieren?

Ja, und ja. PCIe ist aufwärtskompatibel und abwärtskompatibel ausgelegt. Wenn die Boards nicht für PCIe 4.0 zertifiziert sind, könnte es natürlich Probleme mit den höheren Datenraten geben.

BoMbY
2018-06-27, 10:59:47
korrekt, nach irgend ner biosspielerrei lief mein PCIe port auf 1.1, merkte es aber erst wochen später als ich mal GPU-Z angeworfen hatte :freak:

unterschied beim spielen: nicht merkbar gewesen.

Das liegt vor allem daran wie der Bus genutzt wird - jedenfalls ist selbst PCIe 3.0 x16 langsamer als der meiste Speicher der heutzutage verbaut ist, ideal wäre wenn man die gleiche Geschwindigkeit auf dem Bus wie beim RAM erzielen würde.

Und ansonsten ist PCIe 4.0 sicher keine Verschwendung, immerhin erreichst Du dann mit PCIe 4.0 x8 die gleiche Datenrate wie bei PCIe 3.0 x16, und damit kannst Du dann z.B. den zweiten PCIe x16 Slot mit x8 für etwas anderes nutzen ohne Einbußen. Außerdem könnte man so deutlich mehr NVMe mit PCIe 3.0 x4 auf AM4 unterstützen.

gravitationsfeld
2018-06-28, 23:26:47
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_PCI_Express_Scaling/24.html

henne :tongue:
Was soll das aussagen?

Wenn ich mich nicht darauf verlassen kann, dass jeder eine gewissen Bandbreite hat, dann kann man sie auch nicht nutzen.

BoMbY
2018-06-29, 10:29:57
Abgesehen davon ist die 1080 dafür ein schlechtes Beispiel. Ich würde mal PCIe-Scaling mit Vega 64 und aktiviertem HBCC testen.

AffenJack
2018-06-29, 10:43:34
Abgesehen davon ist die 1080 dafür ein schlechtes Beispiel. Ich würde mal PCIe-Scaling mit Vega 64 und aktiviertem HBCC testen.

Das wäre in der Tat sehr interessant. Einmal mit nem Standardspiel und daneben am besten auch mal ein Spiel mit Texturmods testen, wo der Speicherbedarf über 8 GB hinaus geht und HBCC mal richtig arbeiten darf.

Locuza
2018-07-01, 16:14:30
In Bezug auf Vega20 und Top HPC-Server wird es interessant, ob sich hier wieder etwas für AMD tut:
https://pbs.twimg.com/media/Dgk7dfGW0AE2wot.jpg:large
https://www.nextplatform.com/2018/06/25/the-art-of-supercomputing-war/

AffenJack
2018-07-02, 10:46:28
In Bezug auf Vega20 und Top HPC-Server wird es interessant, ob sich hier wieder etwas für AMD tut:

https://www.nextplatform.com/2018/06/25/the-art-of-supercomputing-war/

Unwahrscheinlich, mehr als 1,2 Systeme dürfte es mit Vega20 nicht geben. Man muss erstmal Vertrauen zurückgewinnen, nachdem es seit Hawaii nix mehr für den Markt gab und Nvidia könnte 6 Monate nach Vega20 mit einem deutlich größeren Chip in 7nm ankommen. Ich erwarte eher, dass wir mit 7nm vermehrt Epyc Supercomputer sehen, aber vielleicht kriegt man da auch paar V20 unter. Man wird V20 aber eher bei den Cloudanbietern groß pushen wollen. Ist sowieso das lukrativere Feld.

dildo4u
2018-07-02, 10:52:26
Unterstützt Intel NV Link nicht oder warum haben die Nvidia Systeme Power 9 CPU?

Gipsel
2018-07-02, 10:54:26
Unterstützt Intel NV Link nicht oder warum haben die Nvidia Systeme Power 9 CPU?Na das Interface muß man auch auf dem CPU-Die integrieren. Irgendwomit muß man das doch verbinden. Das wird ja nicht über PCIe geroutet sondern hat eigene PHYs. Und die gibt es auf intel-CPUs halt nicht. NVidia hat ja mehr oder weniger einfach IBMs Blue Link für die PHYs übernommen.

Thunderburne
2018-07-12, 16:58:10
Hier stand mist.

gravitationsfeld
2018-07-12, 17:36:54
Na das Interface muß man auch auf dem CPU-Die integrieren. Irgendwomit muß man das doch verbinden. Das wird ja nicht über PCIe geroutet sondern hat eigene PHYs. Und die gibt es auf intel-CPUs halt nicht. NVidia hat ja mehr oder weniger einfach IBMs Blue Link für die PHYs übernommen.
Nur die PHYs oder auch das Protokoll?

Leonidas
2018-07-12, 17:46:38
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Turing-GTX-2080-Ti-Ashes-of-the-Singularity-Benchmark-Datenbank-1260680/


Richtiger Thread? AMD wäre froh, so was vermelden zu dürfen ...

Thunderburne
2018-07-12, 17:49:17
Oh bitte um Entschuldigung dachte ich wäre im Txxxx thread.
Sorry.

Gipsel
2018-07-12, 18:32:55
Nur die PHYs oder auch das Protokoll?Die BlueLink-PHYs von IBM sind multiprotokollfähig (vermutlich ähnlich umgesetzt wie bei den 12G PHYs in Ryzen, für jedes unterstützte Protokoll muß ein physical coding sublayer integriert werden, zwischen denen umgeschaltet werden kann). Also nV mußte sich zumindest mit IBM deswegen abstimmen. Die PHY-Entwicklung als solche (mitsamt Anbindung an den Rest des Chips) kommt von IBM.

Skysnake
2018-07-12, 21:38:05
Das ist nicht ganz klar ob die wirklich von IBM kommen.

Ich konnte mal mit den Entwicklern bei IBM reden und die meisten die Zusammenarbeit mit nVidia ist wegen unterschiedlichen Tools etc.

Also ich würde da erstmal nicht die Hand für ins Feuer legen, ob das physical Design von IBM kommt in den nvidia Karten.

Das ganze Design an sich wird aber wohl sehr sicher von IBM kommen

iuno
2018-07-13, 11:51:27
https://cgit.freedesktop.org/mesa/mesa/commit/?id=2e0b00ab7d135f393c0cf7531317100f91725ffc

Ein Paar PCI IDs fuer Vega 20, ausserdem gfx906 statt 904 (V12) oder 902 (V10). Offensichtlich hatten V10 und aeltere Chips Hardware Bugs, wodurch nicht alle off-chip buffer verfuegbar waren (was auch immer das ist), was jetzt behoben wurde sodass pro SE einer dazu kommt.

AMD scheint hier diesmal recht frueh dran zu sein, oder was sagen die Fertigungsexperten bzgl. 7nm?

Pirx
2018-07-13, 22:52:23
gibts egtl. neue Infos zum DSBR - kann der noch generell zum Funktionieren gebracht werden oder muß wirklich explizit darauf programmiert werden, was kaum jemand machen wird?

y33H@
2018-07-13, 22:55:13
Laut AMD ist der bis auf wenige Apps immer an.

Digidi
2018-07-14, 18:04:26
Gibt's eigentlich was neues zu Primitive Shaders? AMD könnte zumindestens mal eine Demo oder etwas ähnliches raushauen.

Grendizer
2018-07-14, 18:27:54
Gibt's eigentlich was neues zu Primitive Shaders? AMD könnte zumindestens mal eine Demo oder etwas ähnliches raushauen.

dafür müßte er funktionieren. Von der API hört man ja auch nichts mehr. Nach fast 12 Monaten nach Release und 5 Monate nach der Ankündigung der API ein Armutszeugnis.

Ich vermutet das wir bei Vega 10 da nichs mehr sehen werden und Navi wird dann einen funktionierenden oder was ganz tolles neues haben.

iuno
2018-07-14, 18:57:23
Welche API?
Es gibt keine eigene API fuer den Shadertyp. Vega mappt intern VS+GS stages zum neuen Shadertyp. Startet irgendeine 3D Anwendung, da habt ihr eure Demo.

Grendizer
2018-07-14, 19:07:01
Welche API?
Es gibt keine eigene API fuer den Shadertyp. Vega mappt intern VS+GS stages zum neuen Shadertyp. Startet irgendeine 3D Anwendung, da habt ihr eure Demo.

Das war mal der Plan, funktioniert aber nicht richtig.

https://techreport.com/news/33153/radeon-rx-vega-primitive-shaders-will-need-api-support

iuno
2018-07-14, 19:13:14
Natuerlich funktioniert es, sonst wuerden die shader nicht laufen. Vega hat die alten shader stages nicht mehr.
Was du da schickst ist die Idee, den Shadertyp extra in einer API (wie d3d) unterzubringen. Das ist dann trotzdem keine eigene API. Hardware- und API stages passen schon seit etlichen Jahren nicht 1:1 zusammen und nur weil das Marketing von AMD da einen Umbau breitgetreten hat, wird sich daran IMHO nichts aendern. Selbst wenn. Wer soll denn extra fuer Vega so einen Shader implementieren? Wolfenstein 2 macht culling im compute shader, andere Spiele auch.

Was y33h@ da mit einem "alternativen Treiberpfad" gemeint hat, koennte er auch mal erklaeren. Es gibt imho nichts, das darauf hinweist, dass es einen anderen Pfad gibt oder jemals geben sollte. Frueher gab es LS, HS, ES, GS, VS, PS und ab Vega werden stages gemergt zu LSHS, ESGS, VS, PS. Leider gibt AMD keine register reference mehr raus, aber der Treibercode laesst imho keinen anderen Schluss zu.

Digidi
2018-07-14, 21:54:09
Natuerlich funktioniert es, sonst wuerden die shader nicht laufen. Vega hat die alten shader stages nicht mehr.
Was du da schickst ist die Idee, den Shadertyp extra in einer API (wie d3d) unterzubringen. Das ist dann trotzdem keine eigene API. Hardware- und API stages passen schon seit etlichen Jahren nicht 1:1 zusammen und nur weil das Marketing von AMD da einen Umbau breitgetreten hat, wird sich daran IMHO nichts aendern. Selbst wenn. Wer soll denn extra fuer Vega so einen Shader implementieren? Wolfenstein 2 macht culling im compute shader, andere Spiele auch.

Was y33h@ da mit einem "alternativen Treiberpfad" gemeint hat, koennte er auch mal erklaeren. Es gibt imho nichts, das darauf hinweist, dass es einen anderen Pfad gibt oder jemals geben sollte. Frueher gab es LS, HS, ES, GS, VS, PS und ab Vega werden stages gemergt zu LSHS, ESGS, VS, PS. Leider gibt AMD keine register reference mehr raus, aber der Treibercode laesst imho keinen anderen Schluss zu.

Nein tut es nicht. Es ist der legacy Modus aktiv.

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/45513-amd-stellte-eigenen-entwicklungspfad-fuer-primitive-shader-ein.html

Patent gibt's hier:
http://www.freepatentsonline.com/20180082399.pdf

http://www.freepatentsonline.com/20180082470.pdf

Kriton
2018-07-14, 22:55:54
dafür müßte er funktionieren. Von der API hört man ja auch nichts mehr. Nach fast 12 Monaten nach Release und 5 Monate nach der Ankündigung der API ein Armutszeugnis.

Ich vermutet das wir bei Vega 10 da nichs mehr sehen werden und Navi wird dann einen funktionierenden oder was ganz tolles neues haben.

Ich zitiere mal:

Nein, tun sie nicht. Es gibt keine API fuer Primitive Shader.

Solang es nicht konkret irgendwo in einer Spec steht ist das Marketing-Gefasel.

iuno
2018-07-14, 23:34:59
Nein tut es nicht. Es ist der legacy Modus aktiv.

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/45513-amd-stellte-eigenen-entwicklungspfad-fuer-primitive-shader-ein.html

Patent gibt's hier:
http://www.freepatentsonline.com/20180082399.pdf

http://www.freepatentsonline.com/20180082470.pdf
Aha. Und wie sieht der deiner Meinung nach aus?
Der Treiber kompiliert einen monolithischen Shader ueber mehrere Stages und die Hardware nimmt den dann wieder auseinander oder wie? :freak:

Dann liefere doch mal Infos. Die Patente widersprechen dem von mir gesagten nicht, im Gegenteil. Zumal ein angemeldetes Patent halt keineswegs aussagt, was wann wo wie gemacht wird. Die News ist auch nichts wert, weil sie genau wie die schon zuvor gepostete auf dem Halbsatz von Mark basiert, traegt also nichts zur Diskussion oder dem Wissensstand bei. Sorry, aber ich gebe mehr darauf, was der Treiber macht, als auf diese "News".

Digidi
2018-07-15, 00:01:48
Aha. Und wie sieht der deiner Meinung nach aus?
Der Treiber kompiliert einen monolithischen Shader ueber mehrere Stages und die Hardware nimmt den dann wieder auseinander oder wie? :freak:

Dann liefere doch mal Infos. Die Patente widersprechen dem von mir gesagten nicht, im Gegenteil. Zumal ein angemeldetes Patent halt keineswegs aussagt, was wann wo wie gemacht wird. Die News ist auch nichts wert, weil sie genau wie die schon zuvor gepostete auf dem Halbsatz von Mark basiert, traegt also nichts zur Diskussion oder dem Wissensstand bei. Sorry, aber ich gebe mehr darauf, was der Treiber macht, als auf diese "News".

Hä? Was macht denn der Treiber denn genau? Macht er es wie früher?

Kann ja sein das man das paralles eingebaut hat. Ein altes und ein neues Frontend.

pixeljetstream
2018-07-15, 00:20:16
Guckt einfach in die open-source Treiber.

Digidi
2018-07-15, 00:59:55
Guckt einfach in die open-source Treiber.
In dem Treiber gibt es lediglich ein Diagramm wo die verschiedenen Stages drinene sind. Das heißt aber noch lange nicht das in den Stages selbst nicht ein legacy Modus existiert.

pixeljetstream
2018-07-15, 09:23:34
Wenn der Treiber shader für die Standardpipeline generiert dann ist diese auch so in hw vorhanden. Es wäre äußerst ineffizient und Verschwendung den Chip da was übersetzen zu lassen, was man vorher erledigen kann. Ergo kann man davon ausgehen dass PrimShader nichts ersetzt, so wie Du das auch geschrieben hast gegen die Behauptung von iuno, das die Hardware nur den PrimShader Pfad hätte.

Digidi
2018-07-15, 13:12:08
Wenn der Treiber shader für die Standardpipeline generiert dann ist diese auch so in hw vorhanden. Es wäre äußerst ineffizient und Verschwendung den Chip da was übersetzen zu lassen, was man vorher erledigen kann. Ergo kann man davon ausgehen dass PrimShader nichts ersetzt, so wie Du das auch geschrieben hast gegen die Behauptung von iuno, das die Hardware nur den PrimShader Pfad hätte.

So meine ich das nicht. Ich glaube das es in Hw beide Pfade gibt, während im Treiber nur ein Pfad abgebilded wird. Den anderen Pfad kann man dann nur nutzen wenn man diesen expliziet programmiert.

Bei Vega ist ja auffällig das der Chip um einiges größer ist als Vermutet. Wahrscheinlich weil an manchen Stellen auch Hw doppelt verbaut wurde. Nach altem und nach neuem pfad.

pixeljetstream
2018-07-15, 15:33:06
Wir meinen das gleiche, denke ich (beides gleichzeitig verfügbar konträr zu iuno). Allerdings muss man nicht alles doppelt haben. Es reicht wenn der Datenfluss zwischen den stages sich verändern lässt. Da sind meist keine fundamentalen neuen units notwendig. Auch ist Grafikpipeline meist klein was Chipfläche angeht. Der ganze Rest (caches, execution units etc. ist riesig).

Digidi
2018-07-15, 16:43:12
Ich glaube schon das sich hier haber etwas fundamental mit den jetzigen Units bricht. Wenn das recht einfach wäre hätte man es in den Treiber integrieren können. So einfach ist das aber nicht und muss explizit per API Anweisungen integriert werden.

pixeljetstream
2018-07-15, 18:05:26
Ja das automatische umwandeln wäre ordentlich Treiberarbeit. Aber imo muss deshalb eine Hardwareerweiterung nicht groß sein oder viel Fläche kosten.

Digidi
2018-07-16, 19:56:05
Wissen tun wir das erst wenn jemand Mal näher darüber Berichtet.

Was mich wundert. Laut White Paper würde das Mal mit einem ominösen Treiber+Programm getestet. Warum veröffentlicht man das nicht Mal detaillierter?

BoMbY
2018-07-17, 14:42:54
Guckt einfach in die open-source Treiber


gfx9SettingsLoader.cpp (https://github.com/GPUOpen-Drivers/pal/blob/a8ec6588ea2ebdeb6501a5516aa406e5ed50077a/src/core/hw/gfxip/gfx9/gfx9SettingsLoader.cpp):


if (chipProps.gfxLevel == GfxIpLevel::GfxIp9)
{
m_gfx9Settings.nggMode = Gfx9NggDisabled;
}


gfx9Device.cpp (https://github.com/GPUOpen-Drivers/pal/blob/f43dc7c78b62c6bafb5e0ca756adbdb5afa4d4fb/src/core/hw/gfxip/gfx9/gfx9Device.cpp):


if (settings.nggMode == Gfx9NggDisabled)
{
pChipProperties->gfx9.supportImplicitPrimitiveShader = 0;
}

Digidi
2018-07-18, 16:47:09
gfx9SettingsLoader.cpp (https://github.com/GPUOpen-Drivers/pal/blob/a8ec6588ea2ebdeb6501a5516aa406e5ed50077a/src/core/hw/gfxip/gfx9/gfx9SettingsLoader.cpp):


if (chipProps.gfxLevel == GfxIpLevel::GfxIp9)
{
m_gfx9Settings.nggMode = Gfx9NggDisabled;
}


gfx9Device.cpp (https://github.com/GPUOpen-Drivers/pal/blob/f43dc7c78b62c6bafb5e0ca756adbdb5afa4d4fb/src/core/hw/gfxip/gfx9/gfx9Device.cpp):


if (settings.nggMode == Gfx9NggDisabled)
{
pChipProperties->gfx9.supportImplicitPrimitiveShader = 0;
}

Da sieht man schon daß es deaktiviert ist. Aber es ging mir ja darum daß es ja schon Mal getestet wurde und es ja auch gehen soll.

AMD kann doch Mal hierfür ein Beispiel raushauen....

BoMbY
2018-07-18, 17:47:24
Naja, wenn man ein passendes System hätte könnte man einfach mal den Vulkan-Treiber mit einer Modifikation der entsprechenden Stellen testen und sehen was passiert.

Digidi
2018-07-18, 17:59:14
Deshalb setzt man es ja disabled weil im Treiber wahrscheinlich der restliche Code gar nicht enthalten ist.

Wo findet man eigentlich im Linux Treiber den DSBR?

BoMbY
2018-07-18, 18:11:20
Unter dem Stichwort "Binning" findest Du einiges im PAL auf Github.

vinacis_vivids
2018-07-19, 03:19:32
Da sieht man schon daß es deaktiviert ist. Aber es ging mir ja darum daß es ja schon Mal getestet wurde und es ja auch gehen soll.

AMD kann doch Mal hierfür ein Beispiel raushauen....

Natürlich könnte AMD eine techdemo rausbringen und die Vorteile von PS extra für dich hervorheben.

Aber wozu denn? PS ist bereits ausgiebig getestet und im Treiber schon lange integriert/implementiert.
Da irgendwas zu bringen was quasi praktisch nichts bringt, ist völlig sinnfrei. Wäre AMD der TopDog, könnten sie aus marketing-Gründen eine techdemo veröffentlichen, aber daran verdient man nichts.

Grendizer
2018-07-19, 07:08:15
Natürlich könnte AMD eine techdemo rausbringen und die Vorteile von PS extra für dich hervorheben.

Aber wozu denn? PS ist bereits ausgiebig getestet und im Treiber schon lange integriert/implementiert.
Da irgendwas zu bringen was quasi praktisch nichts bringt, ist völlig sinnfrei. Wäre AMD der TopDog, könnten sie aus marketing-Gründen eine techdemo veröffentlichen, aber daran verdient man nichts.

Wo bitte schön ist der Primitive Shader im Einsatz und zeigt was er kann ?

Soviel ich weis hat sich hier nicht grundlegend etwas geändert in den letzten 6 Monaten:
https://www.computerbase.de/2018-01/amd-vega-primitive-shader/

vinacis_vivids
2018-07-19, 14:07:47
Wo bitte schön ist der Primitive Shader im Einsatz und zeigt was er kann ?

Soviel ich weis hat sich hier nicht grundlegend etwas geändert in den letzten 6 Monaten:
https://www.computerbase.de/2018-01/amd-vega-primitive-shader/

Die Quelle ist Schrott. Ich habe eine direkte AMD Quelle und die sagt, dass primitive shader schon lange im Treiber integriert und funktionsfähig sind. Die Entscheidung dies nicht standardmäßig per Treiber-API zu aktivieren ist keine technische, sondern eine strategische/ökonomische Frage. Von daher ist dieses ständige wiederholen vom Kalten Kaffee einfach nur noch langweilig.

robbitop
2018-07-19, 14:27:51
Die Frage ist, ob sie denn auch generell und transparent für die Anwendung greifen. Und das auch mit entsprechender (positiver) Wirkung. Dass sie implementiert und verfügbar sind ist ja nur eine Voraussetzung.

BoMbY
2018-07-19, 14:59:03
Die Quelle ist Schrott. Ich habe eine direkte AMD Quelle und die sagt, dass primitive shader schon lange im Treiber integriert und funktionsfähig sind. Die Entscheidung dies nicht standardmäßig per Treiber-API zu aktivieren ist keine technische, sondern eine strategische/ökonomische Frage. Von daher ist dieses ständige wiederholen vom Kalten Kaffee einfach nur noch langweilig.

Mit welcher API-Funktion genau kann ich die Primitive Shader denn aktivieren?

vinacis_vivids
2018-07-19, 15:00:19
@robbitop
Redest du von Compute oder Grafik?
PS in der Computepipeline ist viel viel einfacher umzusetzen als Grafikpipeline.
Ein HL-API Spiel wie Witcher 3 müsste fast komplett umgeschrieben werden um von primitive discard accelerator profitieren zu können. Das Spiel/die Anwendung muss als ein einziges Berechnungsobjekt verstanden werden und nicht separiert/gruppiert als einzelne Gruppen wie das typisch ist für DX9,OGL und abgeschwächt auch DX10/DX11.

vinacis_vivids
2018-07-19, 15:10:42
Mit welcher API-Funktion genau kann ich die Primitive Shader denn aktivieren?

Da Grafikanwendungen wie Spiele per se API-limitiert sind s.o. sieht AMD keine Aktivierung per Treiber-API durch User wie beispielsweise HBCC on/off vor, welche ja keine API Limitierung hat.

robbitop
2018-07-19, 15:22:15
@robbitop
Redest du von Compute oder Grafik?
PS in der Computepipeline ist viel viel einfacher umzusetzen als Grafikpipeline.
Ein HL-API Spiel wie Witcher 3 müsste fast komplett umgeschrieben werden um von primitive discard accelerator profitieren zu können. Das Spiel/die Anwendung muss als ein einziges Berechnungsobjekt verstanden werden und nicht separiert/gruppiert als einzelne Gruppen wie das typisch ist für DX9,OGL und abgeschwächt auch DX10/DX11.
OK - greift also nicht bei bestehenden Spielen, wenn nicht explizit dafür geplant. :(

BoMbY
2018-07-19, 15:48:18
Da Grafikanwendungen wie Spiele per se API-limitiert sind s.o. sieht AMD keine Aktivierung per Treiber-API durch User wie beispielsweise HBCC on/off vor, welche ja keine API Limitierung hat.

Ich rede nicht von Usern. Mit welcher API-Funktion kann ein Spiele-Programmierer die Primitive Shader aktivieren?

Grendizer
2018-07-19, 18:15:21
Ich rede nicht von Usern. Mit welcher API-Funktion kann ein Spiele-Programmierer die Primitive Shader aktivieren?

Es gibt noch keine API, das hat Gravitationsfeld vor kurzen bestätigt. Defacto gibt es keinen Beweis das Primitive Shader in einem Softwareprodukt tatsächlich funktionieren.

Digidi
2018-07-19, 20:35:19
Das Zeigt auch wieder das Totalversagen der Presse. Kein Druck, keine Artikel zum Stand keine Interviews mit Entwickler.

Das würde sich sehr gut Verwursten lassen. Solche Artikel sind klick stark.

Monsta
2018-07-19, 21:47:42
Da brauchen wir keine Uber Presse für.

Es ist ja wohl offensichtlich etwas in Vega nicht ganz in Ordnung wenn ein 484mm2 Chip sich mit einem 314mm2 Chip duelliert.

Ersterer hat sogar HBM.

vinacis_vivids
2018-07-19, 21:48:16
Es gibt noch keine API, das hat Gravitationsfeld vor kurzen bestätigt. Defacto gibt es keinen Beweis das Primitive Shader in einem Softwareprodukt tatsächlich funktionieren.

Guter Witz :biggrin:

Grendizer
2018-07-19, 21:56:36
Guter Witz :biggrin:

Zeig mir einen einzigen Test der zeigt das der Primitive Shader funktioniert. Nur einen bitte....

AMD hat selber vor 6 Monaten zugegeben, das eine implizite Verwendung der Primitive Shaders nicht gegeben ist und auch nie versprochen war. Deshalb ist eine explizite Unterstützung durch eine API durch die Programmierer selbst notwendig.

Raff
2018-07-19, 22:02:26
Das würde sich sehr gut Verwursten lassen. Solche Artikel sind klick stark.

Frag mal einen SEO-Experten, wie er die damit verbundenen Keywords einschätzt. Kein Mensch sucht danach. Nur 13 Nerds deutschlandweit wissen, was gemeint ist – und nur drei davon verstehen wirklich, was da besprochen wird. Ohne Klickbait-Überschrift klickt das niemand. Und Google schon gar nicht. Und Klickbait will ja niemand.

Versteh mich nicht falsch, ich texte beleibe nicht nur über Dinge, die Google toll findet. Allerdings ist Arbeitszeit begrenzt und da bedient man besser Gelüste, die wirklich gefragt sind. Und das tiefgehend. Wir Turbonerds neigen dazu, zu vergessen, was normale Menschen an Grafikkarten schätzen.

MfG,
Raff

Digidi
2018-07-19, 22:09:56
Frag mal einen SEO-Experten, wie er die damit verbundenen Keywords einschätzt. Kein Mensch sucht danach. Nur 13 Nerds deutschlandweit wissen, was gemeint ist – und nur drei davon verstehen wirklich, was da besprochen wird. Ohne Klickbait-Überschrift klickt das niemand. Und Google schon gar nicht. Und Klickbait will ja niemand.

Versteh mich nicht falsch, ich texte beleibe nicht nur über Dinge, die Google toll findet. Allerdings ist Arbeitszeit begrenzt und da bedient man besser Gelüste, die wirklich gefragt sind. Und das tiefgehend. Wir Turbonerds neigen dazu, zu vergessen, was normale Menschen an Grafikkarten schätzen.

MfG,
Raff

Wenn ich mir eure Zahlen auf der Seite anschaue wie z.B. Die Kommentare dann sind Primitive Shader mit 160 Kommentare ganz vorne mit dabei.
@Leonidas
Wie waren bei euch die klick zahlen zu der News von Primitive Shaders?

Birdman
2018-07-19, 22:13:07
was normale Menschen an Grafikkarten schätzen
LEDs, Gigabyte und Megaherz, bei letzterem am besten die der GPU und RAM zusammengezählt und mit derjenigen vom DP1.4 Port multipliziert.

Leonidas
2018-07-20, 05:03:51
Wenn ich mir eure Zahlen auf der Seite anschaue wie z.B. Die Kommentare dann sind Primitive Shader mit 160 Kommentare ganz vorne mit dabei.
@Leonidas
Wie waren bei euch die klick zahlen zu der News von Primitive Shaders?


Keine Ahnung, war aber gefühlsmäßig gut goutiert. Aber dies auch nur unter der Sondersituation, das es "skandalisierbar" war - es fehlte etwas, was vorher versprochen war, außerdem fehlen bei Vega ja nun noch andere Dinge - SKANDAL!

Ohne diesen Effekt ist das ganze in der Tat ein kaum beachtbares Thema, da stimme ich Raff zu. Wenn man einen Hintergrund-Artikel dazu bringen wollte, der nicht irgendeinen markanten Punkt hat (Skandal oder Entdeckung), dann hat das geringes Leserpotential, keine Frage. Hier im 3DC sicherlich doch, aber bei der PCGH bedient man ein breiteres Publikum, das muß man beachten und sich seine Kräfte entsprechend einteilen.

BoMbY
2018-07-20, 10:24:06
Wenn man AMD mal etwas mehr als oberflächliche Ein-Satz-Aussagen aus den Rippen leiern könnte, dann wäre das durchaus berichtenswert ...

Digidi
2018-07-20, 18:25:22
@Leonidas
Danke für deine Ausführung

Aber ich sehe da noch erheblich Potenzial. Wer will denn nicht wissen wie eine Geschichte ausgeht?

Kriton
2018-07-27, 20:05:56
Die Quelle ist Schrott. Ich habe eine direkte AMD Quelle und die sagt, dass primitive shader schon lange im Treiber integriert und funktionsfähig sind. Die Entscheidung dies nicht standardmäßig per Treiber-API zu aktivieren ist keine technische, sondern eine strategische/ökonomische Frage. Von daher ist dieses ständige wiederholen vom Kalten Kaffee einfach nur noch langweilig.

Kommt da noch mehr, oder ist das auf der Ebene von Schaffe?
Wenn ich die Wahrscheinlichkeit der Richtigkeit Deiner Aussage mit der von gravitationsfeld vergleiche, wirst du leider verlieren. Aber ich lasse mich gern durch (nachprüfbare) Quellenangaben eines Besseren belehren.

Grendizer
2018-07-27, 20:22:02
Kommt da noch mehr, oder ist das auf der Ebene von Schaffe?
Wenn ich die Wahrscheinlichkeit der Richtigkeit Deiner Aussage mit der von gravitationsfeld vergleiche, wirst du leider verlieren. Aber ich lasse mich gern durch (nachprüfbare) Quellenangaben eines Besseren belehren.

Die Aussage konnte ich einfach nicht ernst nehmen. Selbst AMD Verantwortliche sagen, das der Primitive Shader nur per API zugänglich sein wird und der impliziete Treiberpfad nicht wie geplant funktioniert hat. Und dann soll v_v eine eigene interne AMD Quelle haben, die was ganz anderes behauptet, und die ausgerechnet recht haben soll ?

Und wenn der Primitive Shader ja schon seit Monaten funktioniert hätte man das ja bei dem entsprechenden Treiberrelease in Benchmarks festellen müssen oder läuft der sogar schon seit Release sauber ?

G3cko
2018-08-02, 19:16:29
Primitive Shader sehen wir vermutlich erst in den NextGen Konsolen-Games.

AMDoderNvidia
2018-08-04, 12:01:37
Hallo zusammen,

ich liebäugle immer noch mit dem Kauf einer Vega-Karte. Vor kurzem meine ich, dass hier jemand was vom Problem geschrieben hat, dass die Vega-Karten nach einem Windows-Suspend nicht die volle Taktrate mehr anlegen beim Spielen. Ist das ein Gerücht oder tatsächlich ein Bug?

Kann da jemand bitte was dazu sagen? Danke :cool:

vinacis_vivids
2018-08-05, 00:05:16
Etwas Futter:
Vega20 Falcon XL 16GB AIR

https://abload.de/img/vega_016of5r.png

Vega20 7nm ist eine Profikarte, die man auch für Gamingzwecke entfremden kann :D
Dieses Jahr gibs definitiv keine "gaming Vega 7nm".

Unicous
2018-08-05, 01:43:31
Erstens, warum gibst du deine Quelle nicht an? (Ich schätze mal die hier ist es: https://overclockers.ru/hardnews/show/92836/servernyj-variant-amd-vega-20-tozhe-proshel-sertifikaciju )

Zweitens, woher nimmst du die Zuversicht, dass man Vega 20 für "Gamingzwecke entfremden" kann?

(Auf die zweite Frage brauchst du nicht zu antworten, sie war eher rhetorischer Natur.)

vinacis_vivids
2018-08-05, 02:28:03
Weil die Vega uArch NCU`s hat statt CU`s. Die 64 NCU`s für 64bit Präzision entsprechen ~128 NCU`s für 32bit. Bei konservativen 1,2-1,4Ghz Takt ergibt das ~ 19-23Tflops SP, die man sehr gut fürs Gaming "missbrauchen" könnte. Wird aber nicht so kommen, weil 360mm² 7nm zu teuer sind für causual Gamer.
Danke fürs Ergänzen der Quelle, die ich im eifer des Gefechts vergessen habe.

Gipsel
2018-08-05, 02:54:37
Weil die Vega uArch NCU`s hat statt CU`s. Die 64 NCU`s für 64bit Präzision entsprechen ~128 NCU`s für 32bit. Bei konservativen 1,2-1,4Ghz Takt ergibt das ~ 19-23Tflops SP, die man sehr gut fürs Gaming "missbrauchen" könnte.Wie kommst Du auf den Trichter? Vega20 CUs machen schlicht half-rate DP. And der SP-Leistung pro CU und Takt wird sich sehr wahrscheinlich nicht so viel ändern.

Digidi
2018-08-06, 21:07:41
VK_EXT_descriptor_indexing
This extension adds several small features which together enable applications to create large descriptor sets containing substantially all of their resources and selecting amongst those resources with dynamic (non-uniform) indexes in the shader.
VK_KHR_create_renderpass2
This extension provides a new entry point to create render passes in a way that can be easily extended by other extensions through the substructures of render pass creation.
EXT_vertex_attribute_divisor
This extension allows instance-rate vertex attributes to be repeated for certain number of instances instead of advancing for every instance when instanced rendering is enabled.

https://videocardz.com/driver/amd-radeon-adrenalin-edition-18-8-1-beta

Sind das Vorbereitungen für Primitive shaders?

Locuza
2018-08-06, 21:16:27
Nein, hat nichts mit Primitive-Shadern zu tun.

Unicous
2018-08-06, 21:20:54
Diese Obsession mit PS grenzt schon an Autismus. :facepalm:

Als ob es keine anderen Themen gäbe.:rolleyes:

Locuza
2018-08-13, 12:39:09
Eine kleine, aber feine Neuigkeit betrifft den HBM2-Speicher von der neulich vorgestellten Radeon Pro WX8200, diese verwendet die zweite Generation des Speichers von SK Hynix und läuft auf der GPU mit 2Gbps, womit 512GB/s erreicht werden, wie ganz am Anfang für Vega10 vorgesehen:
AMD for their part isn’t drawing a whole lot of attention to the matter. But when poked about it, they’re mentioning that the WX 8200 is using SK Hynix’s “Gen 2” HBM2, which unveiled earlier this year, offers memory speeds up to 2.4Gbps.
https://www.anandtech.com/show/13210/amd-announces-radeon-pro-wx-8200

Raff
2018-08-13, 13:10:11
Schade, dass der Kern einer Vega 56 entspricht, sonst wäre das Ding wirklich spannend für ein paar Tests. Grundsätzlich sind 2 GT/s ja nicht wild (schafft jede Wald-und-Wiesen-Vega, die keine 56er ist), aber möglicherweise wird das mit geringerer Spannung möglich. Mal in den Hynix-Datenblättern wühlen ...

MfG,
Raff

iuno
2018-08-13, 13:20:38
Ja, das ist mir auch aufgefallen. Samsung konnte bei dem Sprung (von 2 auf 2,4 Gbps, Aquabolt) die Spannung uebrigens auch wieder auf normales Niveau senken. Deren erste Generation (Flarebolt) kam nur mit 1,35 statt 1,2 Volt ueberhaupt erst auf die 2 Gbps. Womoeglich konnte auch Hynix mit der Spannung etwas runter, wenngleich das nicht offiziell bekannt ist. Hat man denn bei RAM zuletzt vielleicht die Fertigung gewechselt?

Waere mal interessant zu sehen, wie weit der neue HBM geht oder ob er auch deutlich weniger verbraucht/kuehler bleibt.

möglicherweise wird das mit geringerer Spannung möglich. Mal in den Hynix-Datenblättern wühlen ...
Die sind schon seit Q4/17 im Katalog und laut dem alle, also sowohl 2 als auch 2,4 Gbps, mit 1,2 V angegeben.

dargo
2018-08-13, 13:22:25
Schade, dass der Kern einer Vega 56 entspricht, sonst wäre das Ding wirklich spannend für ein paar Tests. Grundsätzlich sind 2 GT/s ja nicht wild (schafft jede Wald-und-Wiesen-Vega, die keine 56er ist), aber möglicherweise wird das mit geringerer Spannung möglich. Mal in den Hynix-Datenblättern wühlen ...

Als ob die Spannung vom HBM2 den Stromverbrauch bei Vega in die Höhe katapultieren würde... ;D

iuno
2018-08-13, 13:28:31
Das hat ja keiner gesagt. Laut den Sensoren wird der HBM aber trotzdem sehr warm. Waere doch begruessenswert wenn es da Fortschritt gibt. Du solltest ja am besten wissen dass schon ein paar Watt/Grad ein paar MHz ausmachen ;p

dildo4u
2018-08-13, 13:34:35
Jup da der Speicher direkt neben der GPU sitzt dürfte sich das negativer Auswirken also bei GDDR5 Karten.Vermutlich mit ein Grund warum die 64 LC so viel besser performt,dort wird der Speicher keine Chance haben den Chip sonderlich aufzuwärmen.

dargo
2018-08-13, 13:36:31
Das hat ja keiner gesagt. Laut den Sensoren wird der HBM aber trotzdem sehr warm.
Löl?

Natürlich wird das Teil etwas wärmer wenn es unmittelbar in der Nähe der Heizquelle (GPU) platziert ist. Betreibe mal eine Vega mit ~150W ASIC und staune wie kühl ein selbst auf 1050Mhz übertakteter HBM2 tatsächlich ist. ;)

Locuza
2018-08-13, 13:44:17
[...]
Womoeglich konnte auch Hynix mit der Spannung etwas runter, wenngleich das nicht offiziell bekannt ist. Hat man denn bei RAM zuletzt vielleicht die Fertigung gewechselt?
[...]
Laut einer SK Hynix Präsentation auf der ISSCC 2018 bleibt es bei 20nm (Seite 64):
https://abload.de/img/hbm12ce8e.jpg
https://www.bioee.ee.columbia.edu/mediawiki/images/b/b4/ISSCC2018-12_Visuals_DRAM.pdf

Auf Seite 91 erzielt SK Hynix 341GB/s auch mit 1.20V Spannung, für 320GB/s genügen 1.15V.

iuno
2018-08-13, 13:50:57
Natürlich wird das Teil etwas wärmer wenn es unmittelbar in der Nähe der Heizquelle (GPU) platziert ist. Betreibe mal eine Vega mit ~150W ASIC und staune wie kühl ein selbst auf 1050Mhz übertakteter HBM2 tatsächlich ist. ;)
Ich habe keine Vega, von daher muss ich mich auf andere Quellen beziehen. Und da habe ich einige GPU-Z Screenshots im Kopf, bei denen der HBM einige Grad heisser sein soll als die GPU selbst. Wenn ich in der Suchmaschine "gpu-z vega hbm screenshots" eingebe, ist auch klar, dass das keine Einbildung oder falsche Erinnerungen waren.

@Locuza: danke.

Jetzt wo die Vegas endlich auf normales Preisniveau kommen, kommt AMD mit so einem kleinen Refresh daher. Die machen es einem echt nicht leicht :freak:
Aber wo wir schon im Speku-Thread sind: vielleicht kommt Vega20 in 7nm ja dann direkt mit den vollen 2,4 Gbps. An 4096 Bit ;D

Raff
2018-08-13, 14:14:52
Jetzt wo die Vegas endlich auf normales Preisniveau kommen, kommt AMD mit so einem kleinen Refresh daher. Die machen es einem echt nicht leicht :freak:
Aber wo wir schon im Speku-Thread sind: vielleicht kommt Vega20 in 7nm ja dann direkt mit den vollen 2,4 Gbps. An 4096 Bit ;D

1,23 Terabyte pro Sekunde. :eek: :uup: :cool: Das wäre natürlich wicked, aber total übertrieben für 4.096 ALUs, selbst wenn diese mit mehr als 2 GHz laufen.

MfG,
Raff

Locuza
2018-08-13, 14:24:39
@iuno

Scheinbar möchte AMD auch (noch?) nichts machen.
Soweit ich mitbekommen habe hat AMD jeden 1,89Gbps schnellen HBM2-Ram von Samsung bezogen?
Jetzt scheint SK Hynix 2Gbps anzubieten und man nimmt den Speicher, ohne krude Sonderlösung und ohne das sich die Bandbreite nennenswert von den anderen Produkten unterscheidet.
Für 2,4Gbps möchten sicher beide Hersteller mehr Geld sehen.

Ich denke für die bisherigen Vega10 SKUs ist ein Refresh nicht mehr auf dem Tablett.
Wirklich Zähne kann Vega10 nicht mehr bekommen und Turing steht an, ich weiß nicht ob es lohnenswert wäre, sich hier noch Mühe zu machen.

Anders dagegen bei V20, dort reden wir von den höchsten Produktpreisen und einem Anwendungsfeld wo Bandbreite wirklich wichtig ist.
Möglicherweise verwendet AMD dort wirklich mehr als 2Gbps, was wir theoretisch auch bald erfahren dürften, wenn AMD die Auslieferung für 2018 wirklich schafft.

@Raff

Wieso total übertrieben?
Der V100 bietet 900GB/s für 7-31,4TF an (FP64,FP32,FP16 + 125TF bei Tensor Cores), da kann V20 genau so hinkommen und höher.
Es ist doch eine ganz andere Geschichte, wenn das Rechenwerk wirklich ausgelastet wird und anders als bei Spielen keine stupiden Pixel berechnet werden, die dann noch sehr schön komprimiert werden können.

dargo
2018-08-13, 15:02:02
Ich habe keine Vega, von daher muss ich mich auf andere Quellen beziehen. Und da habe ich einige GPU-Z Screenshots im Kopf, bei denen der HBM einige Grad heisser sein soll als die GPU selbst. Wenn ich in der Suchmaschine "gpu-z vega hbm screenshots" eingebe, ist auch klar, dass das keine Einbildung oder falsche Erinnerungen waren.

Das ist doch kein Indiz für hohen Verbrauch. Schau dir an wie heiß manche GDDR5 Chips unter Last werden oder manche Chipsätze. Verbrauchen tun die wenig. Im Vergleich zur einer Vega GPU sogar fast unbedeutend.

vinacis_vivids
2018-08-13, 15:04:30
Scheinbar möchte AMD auch (noch?) nichts machen.

Ich denke für die bisherigen Vega10 SKUs ist ein Refresh nicht mehr auf dem Tablett.


Falsch:
AMD hat Vega 10 bereits einen sanften refresh gegeben:
https://www.techpowerup.com/img/BQ9vztxrXJWXhjtH.jpg

Bucklew
2018-08-13, 15:08:12
Falsch:
AMD hat Vega 10 bereits einen sanften refresh gegeben:
Man hat wohl eher mehr als 12 Monate lang die paar ausreichenden Chips zusammen gekratzt ;D

Locuza
2018-08-13, 15:33:53
Falsch:
AMD hat Vega 10 bereits einen sanften refresh gegeben:
https://www.techpowerup.com/img/BQ9vztxrXJWXhjtH.jpg
Was ist daran ein Refresh, wenn die neue SKU nichts erfrischt?
Das Ding ordnet sich eigenständig in die bisherige Produktlinie ein, oberhalb von der 7100, welche auf Polaris10 setzt und unterhalb der 9100, welche 64 CUs bietet und 16GB.

horn 12
2018-08-16, 16:21:49
Navi sollte wohl zumindest die Vega 64 in etwa erreichen, vielleicht gar übertreffen oder sollte dies Vega 20 sein, falls AMD die 7nm Karten im März 2019 bringt.

Locuza
2018-08-16, 16:40:59
Sowie ich das sehe und anhand der Gerüchte und PCGHs Berichterstattung von der Computex entnehme, liegt Navi10 ungefähr auf Vega10 Niveau mit GDDR6 und soll einen kleinen, ~200-250mm² 7nm Mainstrream-Chip darstellen.
Der Release von Navi scheint für H1 2019 gesetzt zu sein.
Vega20 liegt irgendwo bei 350mm² (?) und erscheint zeitlich vermutlich nicht deutlich früher.

Vega20 wird aber wie Vega10 nur 4096 ALUs bieten und sich nur dank besserer Bandbreite absetzen können, für Spiele dürfte der Gewinn niedrig ausfallen.
Also stelle ich mir V20 und N10 auf einem ähnlichem Level vor, was die Gaming-Performance angeht.
Da ergibt es dann wenig Sinn beides für Spieler zu verkaufen, vor allem dank dem größeren die-size und HBM2-Speicher ist eine Einführung von V20 für Spieler für AMD nicht attraktiv.

Die Gerüchte meinten auch V20 für Spieler sei noch nicht völlig ausgeschlossen, aber unwahrscheinlich.
Es könnte AMDs erste (performante) GPU-Lösung sein, welche sie nicht auch für Spieler verkaufen.

iuno
2018-08-16, 19:01:04
Gabs da von der PCGH was konkretes, hast du einen Link?
Ich meine, zu erwarten waere es ja dass man mit dem neuen Mainstream Chip das alte High-End abloesen will. Ich hoffe mal, dass das auch klappt und nicht wie bei Polaris, wo es nur fuer Hawaii aber nicht fuer Fiji gereicht hat. Bei den Groessenangaben waere das aber etwas erstaunlich. Das 4096 Bit HBM SI sollte ja nicht viel (wenn ueberhaupt?) groesser sein als 256 Bit(?) GDDR6 von Navi. Dementsprechend wuerde man schon sehr viel Flaeche sparen, dafuer dass man im Endeffekt gleich schnell waere. Vega10 hat vielleicht 1:2 FP64, aber das war bei Hawaii auch nicht besonders teuer.

reaperrr
2018-08-16, 19:11:34
Die Gerüchte meinten auch V20 für Spieler sei noch nicht völlig ausgeschlossen, aber unwahrscheinlich.
Kein Wunder, AMD weiß ja selbst, dass V20 wahrscheinlich nicht mal auf GT/TU104-Level landen wird (von der Gaming-Performance).

IMO kommt V20 für "Spieler" wenn, dann wahrscheinlich nur als limitierte "Frontier Edition II", wo sie dann mit 1 TB/s Bandbreite und 16GB Framebuffer höhere Werte als die TitanV bewerben könnten und damit auch einen - für die Spieleleistung eigentlich zu hohen - ordentlichen Preis um ~1200-1500 $/€ veranschlagen könnten, den einige Entwicklerstudios, Sammler und AMD-Fans sicher bereit wären zu bezahlen.
Hier hat Nvidia ihnen durch den beschnittenen Speicher der Titan V ein kleines Fenster offen gelassen, wobei NV natürlich vorher noch eine neue Titan mit 16GB HBM2 (oder 24GB GDDR6, falls GT102-basiert) bringen könnte.

Locuza
2018-08-16, 19:12:57
Als Radeon RX wird AMD mindestens eine Navi-GPU in 7 nm auflegen. Soweit PC Games Hardware vernehmen konnte, visiere der Chiphersteller eine Veröffentlichung im späten ersten Quartal 2019 an, wobei solche Daten soweit im Vorfeld noch recht spekulativ sind - im ersten Halbjahr 2019 erscheint machbar. Wie bei Polaris wolle AMD vor allem den Mainstream bedienen und das High-End-Segment erst einmal unangetastet lassen. Der Radeon-RX-580-Nachfolger, eine hypothetische RX 680, soll sich mit einer Geforce GTX 1170 beziehungsweise GTX 2070 anlegen können. Um sich preislich besser aufstellen zu können, verzichte AMD auf den Einsatz von HBM2 im Endkundenmarkt und werde stattdessen auf GDDR6 setzen.
http://www.pcgameshardware.de/Vega-Codename-265481/News/7-nm-Samples-Gamer-Grafikkarten-1257865/

Soweit PC Games Hardware auf der Computex 2018 vernehmen konnte, soll die Desktop-Navi-GPU in 7 nm etwas kleiner ausfallen als Polaris 10/20 in 14 nm.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Navi-monolithisches-GPU-Design-MCM-1258744/

Charlie von SA hat auch getweetet das (vermutlich) Navi mal für Q4 2018 angesetzt war, aber verschoben wurde:
I heard the goal for Navi was Q4 but that wasn't going to happen for various reasons. I also heard it might have been the arch that was due in that time, chips ~3Q later. This was in regards to the PSNext though so it is hard to peel out arch, PSN, and GPUs from the noise.
https://twitter.com/CDemerjian/status/1028092207339896832

Dino-Fossil
2018-08-21, 12:24:10
Zumindest für Vulkan unter Linux (AMDVLK/AMDGPU) wird es mit Vega wohl keine Unterstützung für die neue Geometriepipeline mehr geben:

https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html

tl;dr (wenn ich das richtig verstehe):
Der Support für NGG einer nicht näher genannten Next-Gen GPU (ob Navi oder erst danach) wird bereits vorbereitet, oder ist zumindest vorgesehen, für Vega ist nichts geplant.
Ob das ein weiterer Hinweis darauf ist, das da etwas nicht so funktioniert wie geplant darf sich jeder selbst zusammenreimen...

Locuza
2018-08-21, 12:54:38
1A-Fund Dino-Fossil:
Hi Jakub。
Both KMD and LLPC are not ready to support NGG for gfx9. We are going to
support NGG in amdvlk for next generation GPU.
Will gfx9 get support from KMD and LLPC by the time gfx10 releases, or is it
only going to be a gfx10-and-forward feature?

If not, is there something missing in gfx9 hardware? Are you allowed to say?
GFX9 will not be supported.

Es wird eindeutig gesagt, dass GFX9 nicht unterstützt werden wird.
Die genauen Gründe bleiben nach wie vor verborgen.

Ich bin zuversichtlich, dass Navi Primitive Shader umsetzen wird und dann rückt vielleicht AMD auch mit der Info raus, wieso es bei Vega nicht geklappt hat.

deekey777
2018-08-21, 13:01:07
Gibt es eigentlich schon Treiber für DXR?

Warum ich frage:

Eigentlich geht man bei Präsentationen gern auf den Konkurrenten ein (und macht nicht eigene Produkte zur Sau). Entweder gibt es noch keinen DXR-Treiber, so dass Nvidia die eigenen Produkte schlecht machen musste, oder man war nur höflich.

reaperrr
2018-08-21, 14:54:37
Gibt es eigentlich schon Treiber für DXR?

Warum ich frage:

Eigentlich geht man bei Präsentationen gern auf den Konkurrenten ein (und macht nicht eigene Produkte zur Sau). Entweder gibt es noch keinen DXR-Treiber, so dass Nvidia die eigenen Produkte schlecht machen musste, oder man war nur höflich.
Höflich wohl kaum.

Es ist eher Usus, dass Konkurrenten denen man weit voraus ist so behandelt werden als gäbe es sie nicht (sprich, als wären sie irrelevant und nicht der Rede wert). Hat Intel bis Ryzen auch so gehandhabt.

Elite_Warrior
2018-08-21, 17:01:46
Es wird eindeutig gesagt, dass GFX9 nicht unterstützt werden wird.
Die genauen Gründe bleiben nach wie vor verborgen.

Ist zwar extrem ärgerlich aber war lange so zu erwarten....
Die Frage die dann bleibt ob der Entwickler hinterher selbst hand anlegen muss, zumindest war das mal für Vega geplant?

AMDs letzte Aussage war, der alternative Treiber-Pfad für Primitive Shaders wurde verworfen, stattdessen halt direkt per API via Entwickler ... was wohl noch keiner (in einem bereits veröffentlichtem Spiel) gemacht hat.

Ich glaube ich habe NGG und Primitive Shaders zusammengeworfen :freak: Aber beides läuft nirgends. Oder sind PS teil von NGG?

Dino-Fossil
2018-08-21, 17:08:30
Der Typ, der die Sache hier angestoßen hat wollte ja gezielt die Funktionalität anstoßen (per Vulkan-Pfad, der anscheinend erste(?) Funktionen bereit hält).
Nur das der Treiber dann sagt, nö, diese Funktionen werden von der GPU nicht unterstützt.
Ich weiß nicht, ob es überhaupt realistisch ist, das ein Entwickler für Spiele/Anwendungen die GPU noch viel direkter anspricht.

maximus_hertus
2018-08-22, 14:46:25
Wenn man sich die Bescheidene Vorstellung von Turing anschaut (kein einziger "normaler" Performance Wert / Balken), könnte es vielleicht doch V20 für "Gamer" geben?

Ich wäre nicht komplett überrascht, wenn die RTX 2070 kaum oberhalb von Vega 64 / GTX 1080 raus kommt. Eine hypothetische "Vega 7nm 64" könnte evtl. diese schlagen und man hat mit 499 USD sogar einen brauchbaren Preispunkt (wobei ich nicht weiß, wie viel teurer die Produktion der 7nm Chips ist, dafür halt (deutlich) weniger Chipfläche).

Falls Navi wirklich schon im März kommen soll, lohnt es sich aber eher nicht. Im September mit den Benches zu Turing wird man wohl mehr wissen bzw. kann dann besser spekulieren ;)

w0mbat
2018-08-22, 15:01:05
Die Grüchte sagen ja, dass Vega 20 mehr als ein reiner shrink wird und auf double-precision und dergleichen abziehlt, zB mit extra AI/deep learning cores usw.

D.h. Vega 20 wird viele neue features bekommen, die fürs gaming irrelevant sind. Noch dazu ist 7nm, wie du schon gesagt hast, sehr teuer.

Ich glaube nicht dran, eher Polaris 30 in 12nm oder vielleicht sogar Navi in 12nm für mid-range 1H 2019.

Aber klar, es ist immer möglich eine limitierte Karte für Spieler aufzulegen, nur ist die Frage ob sich das lohnt, weil man dann für ein paar Kunden den Treiber für Spiele optimieren muss. Und nur den Vega 10 Treiber zu nehmen wird wohl nicht das bringen, wass die Käufer sich erhoffen.

maximus_hertus
2018-08-22, 15:08:54
Jau, bisher hätte ich auch nichtmal groß überlegt ob da was in Richtung Gaming geht, Stichwort (Double Precision, wie du ja schon geschrieben hast). Turing wird aber wohl eher kein großer Sprung bei den klassischen Games / Benches bringen, so dass es auf einmal eine Möglichkeit für Vega 20 gibt. 599 USD / 639 Euro für eine RTX 2070, die imo "nur" knapp die GTX 1080 / Vega 64 schlagen wird ergibt eine überraschende neue Konstellation.

Bisher ging ich davon aus, dass wir eine 2070 sehen werden, die deutlich vor der 1080 liegen wird und bei 450-500 USD landet (Customs ab 450, FE 499).

Vielleicht ist ja der 7nm Output noch so gering, dass man eh kaum was in Gaming liefern könnte.

Warten wir mal die Benches von Turing ab :)

Der_Korken
2018-08-22, 15:38:29
Wenn Turing wirklich enttäuschen sollte bei der Gaming-Performance, könnte AMD durchaus in Verlegenheit kommen, was zu bringen. Beim Takt hat AMD mit 1400Mhz sicherlich Luft nach oben. Mit TSMC, 7nm und eventuellen Optimierungen könnte das Ding vielleicht 1800Mhz schaffen. Das wären schon fast 30% mehr. Was die CUs angeht wurden hier auch schon interessante Patente/Paper gepostet wie z.B. Registervirtualisierung. Außerdem hat Nvidia bei Volta und Turing anscheinend FP und INT getrennt, sodass beides simultan laufen kann. Auch das wäre für V20 möglich.

Ich spinne jetzt mal rum: Wenn man am Ende mit einen teildeaktivierten V20 mit 2 HBM-Stacks auf V10+25% kommt, könnte das wirtschaftlich sein. Für Navi wird ein Polaris-ähnlicher Chip spekuliert, der auf V10-Niveau liegt. Den verkauft AMD dann als RX670/680 als Konkurrenz zur 2060 und legt V20 als RX690 oben drauf, um der 2070 Konkurrenz zu machen.

Dural
2018-08-22, 15:42:11
7nm Chip mit 320mm und 4 HBM Stacks soll Wirtschaftlich gegen eine 2070 sein?
Viel Spass wünsche ich da nur ;)


Gibt es eigentlich schon Treiber für DXR?

Warum ich frage:

Eigentlich geht man bei Präsentationen gern auf den Konkurrenten ein (und macht nicht eigene Produkte zur Sau). Entweder gibt es noch keinen DXR-Treiber, so dass Nvidia die eigenen Produkte schlecht machen musste, oder man war nur höflich.

NV geht schon seit Jahren nicht mehr auf AMD Produkte ein.

dargo
2018-08-22, 15:42:21
Der 2070 macht schon Vega10 Konkurrenz sollte erstere wirklich nur 1080+ Performance liefern.

btw.
Das ist auch nicht ganz uninteressant.

August 2017
https://abload.de/img/cb_194e1u.jpg

August 2018
https://abload.de/img/cb_2gcfyi.jpg

Mal sehen wie sich das weiter mit neueren Games entwickelt.

7nm Chip mit 320mm und 4 HBM Stacks soll Wirtschaftlich gegen eine 2070 sein?
Viel Spass wünsche ich da nur ;)

Wer lesen kann...

Er spricht explizit von 2 HBM2 Stacks. Und ja... ich weiß, dass Vega20 4 Stacks hat. Zudem spricht er von einem teildeaktivierten Vega20, ergo "Resteverwertung" im Gamingsektor. Wäre immer noch besser, als die teildefekten Chips wegzuschmeißen (nichts anderes macht eigentlich Nvidia mit Turing im Gaming-Sektor). Lustig fände ich das dennoch wenn AMD einen ~320mm² V20 Die (teildeaktiviert) gegen einen 5xxmm² Turing stellen würde.

Der_Korken
2018-08-22, 16:03:14
7nm Chip mit 320mm und 4 HBM Stacks soll Wirtschaftlich gegen eine 2070 sein?
Viel Spass wünsche ich da nur ;)

Logischerweise nimmt AMD dafür einen teildeaktivierten Chip mit z.B. 56 CUs, wo das ganze DP und DL-Zeugs deaktiviert ist (und somit auch auf dem Wafer defekt sein darf) und nur 2 Stacks mit 8GB und 512GB/s. Eigentlich wäre auch das immer noch zu teuer für eine Performance-Karte, aber Nvidia ruft für dieses Segment jetzt eben >600€ aus, damit wäre ein V20-Salvage vielleicht doch wieder wirtschaftlich.

Fragman
2018-08-22, 16:07:52
Ich spinne jetzt mal rum: Wenn man am Ende mit einen teildeaktivierten V20 mit 2 HBM-Stacks auf V10+25% kommt, könnte das wirtschaftlich sein. Für Navi wird ein Polaris-ähnlicher Chip spekuliert, der auf V10-Niveau liegt. Den verkauft AMD dann als RX670/680 als Konkurrenz zur 2060 und legt V20 als RX690 oben drauf, um der 2070 Konkurrenz zu machen.

vega laeuft doch heut schon nicht wirtschaftlich, unter anderem wegen dem speicher. wieso sollte ein chip im neueren herstellungsprocess mit schnellerem, also teurerem speicher, guenstiger sein als vega heute?

erinnert mich an den aufgebohrten polaris, den sich einige gewuenscht haben, nachdem im letzten jahr die FE vorgestellt wurde und schnell klar war, das etwas bei vega schief lief.

w0mbat
2018-08-22, 16:10:58
vega laeuft doch heut schon nicht wirtschaftlich, unter anderem wegen dem speicher. wieso sollte ein chip im neueren herstellungsprocess mit schnellerem, also teurerem speicher, guenstiger sein als vega heute?

Du meinst AMD macht mit Vega 10 Verluste? Woher hast du das?

dargo
2018-08-22, 16:13:43
Logischerweise nimmt AMD dafür einen teildeaktivierten Chip mit z.B. 56 CUs, wo das ganze DP und DL-Zeugs deaktiviert ist (und somit auch auf dem Wafer defekt sein darf) und nur 2 Stacks mit 8GB und 512GB/s. Eigentlich wäre auch das immer noch zu teuer für eine Performance-Karte, aber Nvidia ruft für dieses Segment jetzt eben >600€ aus, damit wäre ein V20-Salvage vielleicht doch wieder wirtschaftlich.
Bedarf eigentlich eine Reduzierung der Stacks von 4 auf 2 nicht einer größeren Änderung im Chip? Oder anders gefragt... was wäre wirtschaftlicher? Ein Redesign auf 2 Stacks oder mit 4 Stacks belassen und dafür den langsamsten (und hoffentlich dann wesentlich günstigeren) HBM2 verwenden? Ich meine Fiji hatte ja auch 4 Stacks.

Du meinst AMD macht mit Vega 10 Verluste? Woher hast du das?
Die üblichen Mythen wieder. Nur weil Nvidia sich die Marge vergoldet macht AMD Verluste. ;)

Der_Korken
2018-08-22, 16:24:58
Bedarf eigentlich eine Reduzierung der Stacks von 4 auf 2 nicht einer größeren Änderung im Chip? Oder anders gefragt... was wäre wirtschaftlicher? Ein Redesign auf 2 Stacks oder mit 4 Stacks belassen und dafür den langsamsten (und hoffentlich dann wesentlich günstigeren) HBM2 verwenden? Ich meine Fiji hatte ja auch 4 Stacks.

Ich bin zwar kein Mann vom Fach wie einige andere hier, aber ich würde darauf tippen, dass eine Änderung am Chip immer die teuerste Lösung ist. Du musst den anderen Chip validieren, eine neue Maske dafür erstellen und extra Wafer dafür fertigen (d.h. dein Kontigent so auf V20 und V20-light aufteilen, dass beide Bedarfe genau gedeckt sind). Wenn dann müsste AMD die gleiche Fertigungsstraße wie beim vollen V20 verwenden. Man "verschwendet" natürlich dann einen Teil vom Interposer und es ist nicht mehr so schön symmetrisch, wenn man beim Zusammensetzen einfach zwei Stacks weglässt, aber das dürften Peanuts sein im Vergleich zu einem Redesign. Außerdem hat AMD die Option, die Serie einfach wieder einzustellen, sobald der Verkaufspreis zu weit absinkt. Man kann davon ausgehen, dass AMD nur das allernötigste investiert, um V20 als Gaming-Lösung zu bringen.

Edit: 4 langsame Stacks würde ich ausschließen. Zum einen bräuchte man 2GB/Stack, sonst käme man auf 16GB was definitiv zu teuer ist, und wengier als 700Mhz beim P100 habe ich bisher bei HBM2 nicht gesehen. Auch hier: Einfach den Speicher nehmen, den man sowieso für die Profikarten einkauft und einfach weniger verbauen.

maguumo
2018-08-22, 16:25:20
Je nachdem wie das SI angebunden ist könnte man eventuell jeden zweiten HBM Channel unangebunden lassen. Eventuell einfacher einfach kleinere und langsamere Stacks zu nehmen.

dargo
2018-08-22, 16:30:34
Gibt es eigentlich noch langsameren HBM2 als 1,6GBit/s? Ich meine selbst damit wäre so eine Vega bei 820 GB/s mit 4 Stacks. Das wäre ziemlicher Overkill. :freak:


Edit: 4 langsame Stacks würde ich ausschließen. Zum einen bräuchte man 2GB/Stack, sonst käme man auf 16GB was definitiv zu teuer ist, und wengier als 700Mhz beim P100 habe ich bisher bei HBM2 nicht gesehen. Auch hier: Einfach den Speicher nehmen, den man sowieso für die Profikarten einkauft und einfach weniger verbauen.
Achso... jetzt kann ich dir glaube ich folgen. Du meinst man lässt 1-2 Stacks einfach weg und gut ist. Ich dachte sowas bedarf ein Redesign vom Chip.

Edit:
Nichts weiter macht ja Nvidia bei 2080TI gegenüber der Quadro oder schon bei Pascal 1080TI vs. Titan. Einfach einen Speicherchip abzwacken wodurch sich die Kosten und Bandbreite reduzieren.

Der_Korken
2018-08-22, 16:39:28
Achso... jetzt kann ich dir glaube ich folgen. Du meinst man lässt 1-2 Stacks einfach weg und gut ist. Ich dachte sowas bedarf ein Redesign vom Chip.

Das ist nichts anderes als das, was seit Jahren (hauptsächlich von Nvidia) bei Salvage-Karten gemacht wird: Man lässt einfach Speicherchips weg und deaktiviert das zugehörige Interface auf dem Chip. Siehe die GTX1080Ti. Ich wüsste nicht, warum das bei HBM nicht gehen sollte.

Fehlt bei der Titan V eigentlich physisch ein Stack oder sind das die Samples, wo ein Stack beim anbringen kaputt gegangen ist?

dargo
2018-08-22, 16:45:32
Hmm... aber wären 2 Stacks mit 512GB/s nicht wieder etwas wenig für sagen wir mal V10 +25-30% Rohleistung? Ich denke schon. Wobei... afaik wird HBM2 mit 2,4GBit/s bereits von Samsung, Hynix und Micron produziert. 614GB/s wären also möglich. Ob wirtschaftlich vertretbar steht wieder auf einem anderen Blatt.

X-Bow
2018-08-22, 16:52:04
Abwarten, nV hat Turing nicht umsonst die Tensor-Cores mit drauf gepackt. Kann mir vorstellen das sich damit ordentlich "cheaten" lässt. Nur mal so als Gedankenspiel: NV hat in der Präsentation z.b. gezeigt das man mit Tensor-Cores und Maschine Learning erarbeiteten Algorithmen man "einfach" upscalen kann. NVidia könnte z.b. ein Verfahren entwickelt haben, in 4K Games einfach den gesamten Hintergrund in 2160p (oder gar 1080p) berechnen und mittels Tensorkerne dann Aufzublasen #DLSS.
Das könnte stark die FPS Pushen. Und wenn in die Richtung was kommt, dann würden extra Einheiten für AI/Deep Learning auf der Vega für Gaming durchaus Sinn ergeben.

Der_Korken
2018-08-22, 17:05:08
Hmm... aber wären 2 Stacks mit 512GB/s nicht wieder etwas wenig für sagen wir mal V10 +25-30% Rohleistung? Ich denke schon. Wobei... afaik wird HBM2 mit 2,4GBit/s bereits von Samsung, Hynix und Micron produziert. 614GB/s wären also möglich. Ob wirtschaftlich vertretbar steht wieder auf einem anderen Blatt.

Die Frage ist, ob man fürs Gaming wirklich mehr braucht. Die RR APU leistet für ihre mickrige Bandbreite auch verhältnismäßig viel. Keiner weiß, wie weh Vega ein nicht-mitskalieren der Bandbreite wirklich tut und welche Verbesserungen an der Architektur V20 beinhaltet. Nvidia holt aus der 1080Ti mit "nur" 480GB/s auch an die 30% gegenüber V64 raus. Das sind natürlich 1000 Wenns und Abers, aber dafür ist der Thread ja da :D.

Nur mal so als Gedankenspiel: NV hat in der Präsentation z.b. gezeigt das man mit Tensor-Cores und Maschine Learning erarbeiteten Algorithmen man "einfach" upscalen kann. NVidia könnte z.b. ein Verfahren entwickelt haben, in 4K Games einfach den gesamten Hintergrund in 2160p (oder gar 1080p) berechnen und mittels Tensorkerne dann Aufzublasen #DLSS.
Das könnte stark die FPS Pushen. Und wenn in die Richtung was kommt, dann würden extra Einheiten für AI/Deep Learning auf der Vega für Gaming durchaus Sinn ergeben.

Das stimmt. Zumal auch die Aussage von Jensen im Raum steht, dass Turing 50% mehr Leistung pro SM bringt als Pascal. Wenn die 2070 wirklich an der 1080Ti vorbeizieht, ist das Projekt V20 Gaming wahrscheinlich eh gestorben, denn so einen Sprung im Gaming-Bereich traue ich "Vega 2.0" nicht zu.

Fragman
2018-08-22, 17:09:46
Du meinst AMD macht mit Vega 10 Verluste? Woher hast du das?

das ding ist wirtschaftlich wohl nicht profitabel, andernfalls wuerde man nicht wieder die alten chips auflegen, sondern mit vega in die offensive gehen, gerade jetzt. passiert aber nicht, da das ganze design wohl zu teuer ist.

dargo
2018-08-22, 17:11:54
Die Frage ist, ob man fürs Gaming wirklich mehr braucht. Die RR APU leistet für ihre mickrige Bandbreite auch verhältnismäßig viel. Keiner weiß, wie weh Vega ein nicht-mitskalieren der Bandbreite wirklich tut und welche Verbesserungen an der Architektur V20 beinhaltet. Nvidia holt aus der 1080Ti mit "nur" 480GB/s auch an die 30% gegenüber V64 raus. Das sind natürlich 1000 Wenns und Abers, aber dafür ist der Thread ja da :D.

Das liegt aber meiner Meinung nach nicht an fehlenden Bandbreiteneffizienz bei V10. Dagegen spricht, dass V10 in einzelnen Games an GP102 kratzt bzw. diesen etwas überholt.

Edit:
Auch habe ich bei meinen kurzen Skalierungstests mit Bandbreite bei V10 festgestellt (im Turing-Thread irgendwo zu finden, falls es Gipsel nicht schon gelöscht hat), dass V10 mit 402GB/s nur unwesentlich an Performance verliert, zumindest bei den üblichen GPU-Taktraten einer Referenz V10.

Der_Korken
2018-08-22, 17:25:17
Das liegt aber meiner Meinung nach nicht an fehlenden Bandbreiteneffizienz bei V10. Dagegen spricht, dass V10 in einzelnen Games an GP102 kratzt bzw. diesen etwas überholt.

Edit:
Auch habe ich bei meinen kurzen Skalierungstests mit Bandbreite bei V10 festgestellt (im Turing-Thread irgendwo zu finden, falls es Gipsel nicht schon gelöscht hat), dass V10 mit 402GB/s nur unwesentlich an Performance verliert, zumindest bei den üblichen GPU-Taktraten einer Referenz V10.

Die Benches von dir habe ich gesehen. Das sah für mich nicht so aus, als wäre V10 bei der Bandbreite nahe am Limit. Man kann in dem Performance-Ranking auf der letzten Seite auch einfach mal die RX580 mit 256GB/s nehmen und mal 2 rechnen. Da landet man hauchdünn hinter der 1080Ti Stock und das ohne den DSBR von Vega. So wenig wären 512GB/s für V10+25% nicht.

Complicated
2018-08-22, 17:25:32
das ding ist wirtschaftlich wohl nicht profitabel, andernfalls wuerde man nicht wieder die alten chips auflegen, sondern mit vega in die offensive gehen, gerade jetzt. passiert aber nicht, da das ganze design wohl zu teuer ist.
Also weil der Chip nicht wirtschaftlich ist legt man einfach erneut auf? Und wie sollte man in die Offensive gehen mit Vega? AMD hätte noch mehr verkaufen können wenn sie mehr produzieren hätten können.

dargo
2018-08-22, 17:28:38
So wenig wären 512GB/s für V10+25% nicht.
Da muss ich dir recht geben. Irgendwie hatte ich die Bandbreitentests vor wenigen Minuten noch aus dem Kopf. :redface:

Locuza
2018-08-22, 17:41:39
Wenn AMD die Hälfte vom Interface deaktiviert, dann geht wahrscheinlich auch die Hälfte von den ROPs und dem L2$ flöten, dass könnte man dann voll vergessen.
Und noch als Anmerkung, Micron produziert noch gar keinen HBM-Speicher, dieser ist bei ihnen erst in Entwicklung.

Fragman
2018-08-22, 17:42:53
Also weil der Chip nicht wirtschaftlich ist legt man einfach erneut auf? Und wie sollte man in die Offensive gehen mit Vega? AMD hätte noch mehr verkaufen können wenn sie mehr produzieren hätten können.


vega ist geschichte, die daten haben sich nicht geaendert, da jetzt ueber den abkoemmling zu reden, der aus genannten gruenden teuer ist und deshalb nicht als gamerkarte fuer 400 euro kommen kann, ist einfach unsinnig und eigentlich wissen das doch alle. also warum wird ueber sowas spekuliert? :confused:

Der_Korken
2018-08-22, 17:57:42
Wenn AMD die Hälfte vom Interface deaktiviert, dann geht wahrscheinlich auch die Hälfte von den ROPs und dem L2$ flöten, dass könnte man dann voll vergessen.

:(

Sind die so eng verbunden, dass man das nicht ummappen kann, sodass sich je zwei "ROP-Cluster" ein Interface teilen? Bei der GTX970 hat man zumindest schon mal den umgekehrten Fall gesehen :D.

Edit: Wobei, wenn ROPs und L2 gegenüber V10 verdoppelt wurden, könnte man vielleicht auch mit der Hälfte leben.

fondness
2018-08-22, 17:59:44
Wenn AMD die Hälfte vom Interface deaktiviert, dann geht wahrscheinlich auch die Hälfte von den ROPs und dem L2$ flöten, dass könnte man dann voll vergessen.
Und noch als Anmerkung, Micron produziert noch gar keinen HBM-Speicher, dieser ist bei ihnen erst in Entwicklung.

Nope, das ist bei AMD seit Ewigkeiten entkoppelt.

Locuza
2018-08-22, 18:12:16
Nope, das ist bei AMD seit Ewigkeiten entkoppelt.
Bei GCN1-4 bis zu einem gewissen Grad ja, aber nach wie vor bei GCN5, wo die ROPs clients vom L2$ sind?

dargo
2018-08-22, 18:16:46
Und noch als Anmerkung, Micron produziert noch gar keinen HBM-Speicher, dieser ist bei ihnen erst in Entwicklung.
Hatte es falsch in Erinnerung. Golem spricht auch nur von Samsung und Hynix.
Neben Samsung produziert SK Hynix ebenfalls HBM2-Stapelspeicher mit 8 GByte Kapazität und 2,4 GBit/s bei 1,2 Volt

https://www.golem.de/news/hbm2-samsung-produziert-2-4-gbit-s-stapelspeicher-1801-132126.html

vega ist geschichte, die daten haben sich nicht geaendert, da jetzt ueber den abkoemmling zu reden, der aus genannten gruenden teuer ist und deshalb nicht als gamerkarte fuer 400 euro kommen kann, ist einfach unsinnig und eigentlich wissen das doch alle. also warum wird ueber sowas spekuliert? :confused:
Wie kommst du jetzt auf 400€? :confused:

maximus_hertus
2018-08-22, 18:39:58
und deshalb nicht als gamerkarte fuer 400 euro kommen kann

Stand heute startet die KLEINSTE Gamerkarte im Oktober bei 639 Euro. Möglicherweise könnte es mittelfristig auch Karten bei ca. 550-600 Euro gbeen. Aber Stand jetzt, wie gesagt, 639 Euro und mehr.

Ob sich V20 für rund 600 Euro lohnt ist natürlich eine andere Frage. Genauso, ob es überhaupt genug Chips geben würde. Der 7nm Output dürfte jetzt nciht so gigantisch sein (Ende 2018) ;)

w0mbat
2018-08-22, 18:44:04
Vor allem wird Vega 20 im Profimarkt sehr viel mehr kosten als 600€ und wenn man sie als Gamerkarte bringen würde, müsste man wieder mehr Treiberarbeit leisten. Ich glaube wirklich nicht daran.

HOT
2018-08-22, 18:49:58
Nope, das ist bei AMD seit Ewigkeiten entkoppelt.

Nicht mehr bei Vega. Aber es ist davon auszugehen, dass V20 eh 128 ROPs hat, weil die da am Design in der Hinsicht nichts ändern werden. Das wär also kein Hindernis. Einzig die Produktionskosten und der Yield sind ein Hindernis - und natürlich die Produktionspriorität. Wenn AMD mehr Zens für bessere Preise verkauft und Marktanteil generiert, ist V20 im Consumermarkt so lange abgemeldet, bis man die Fertigungskapazität dafür hat, genau wie bei Navi i.Ü.

Ich rechne aber fest damit, dass V20 zusammen mit Navi oder kurz danach auch im Consumermarkt erscheinen wird, einfach, um was zu haben.

maximus_hertus
2018-08-22, 18:51:02
Bis Montag hätte ich es komplett ausgeschlossen, jetzt sehe ich zumindest eine Mini-Chance. Warten wir mal die Benches von Turing ab, vielleicht ist da doch mehr Speed bei den RTX Karten drin und es erledigt sich von selbst ;)

Locuza
2018-08-22, 19:18:34
Nicht mehr bei Vega. Aber es ist davon auszugehen, dass V20 eh 128 ROPs hat, weil die da am Design in der Hinsicht nichts ändern werden. [...]
Davon ist gewiss nicht auszugehen, dass AMD nutzlos doppelt soviele ROPs verbaut.
AMD wird einfach bei 64 bleiben und die Hälfte pro HBM-Interface verbauen.

Fragman
2018-08-22, 19:29:57
Ob sich V20 für rund 600 Euro lohnt ist natürlich eine andere Frage. Genauso, ob es überhaupt genug Chips geben würde. Der 7nm Output dürfte jetzt nciht so gigantisch sein (Ende 2018) ;)

jup, deshalb wird bis navi ja nichts kommen.

die frage bei dem 20-ziger ist ja, ob sie nicht vielleicht gamingtreiber anbieten, einfach weil nv ja sowieso an die 1k fuer turing verlangt und amd v20 fuer nicht unter 1k bringen wird (was man aktuell ja erwarten kann bei 16gb ram).
so koennte man zumindest eine 16gb karte anbieten, ob nun sinnvoll oder nicht, waere erstmal egal.

Raff
2018-08-23, 12:13:26
1A-Fund Dino-Fossil:

Es wird eindeutig gesagt, dass GFX9 nicht unterstützt werden wird.
Die genauen Gründe bleiben nach wie vor verborgen.

Ich bin zuversichtlich, dass Navi Primitive Shader umsetzen wird und dann rückt vielleicht AMD auch mit der Info raus, wieso es bei Vega nicht geklappt hat.

Wie war das? Vega 20 soll GFX906 sein, Vega 10 faktisch GFX904. Also definitiv kein NGG Path für Vega.

MfG,
Raff

Dino-Fossil
2018-08-23, 12:24:12
Also definitiv kein NGG Path für Vega.


Theoretisch gäbe es natürlich eine geringe Wahrscheinlichkeit, dass nur Linux (amdgpu/amdvlk) keinen NGG Pfad bekommt, Windows aber durchaus.
Glaube ich aber nicht so recht.

HOT
2018-08-23, 12:35:24
Davon ist gewiss nicht auszugehen, dass AMD nutzlos doppelt soviele ROPs verbaut.
AMD wird einfach bei 64 bleiben und die Hälfte pro HBM-Interface verbauen.
Nein die werden pro HBM Interface die 32ROPs einfach behalten. Frisst doch kaum Platz auf 7nm. Ich glaub nicht, dass die das jetzt kompliziert machen.

Digidi
2018-08-24, 00:33:35
Ok das mit NGG wird nichts mehr.

https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html

PHuV
2018-08-24, 00:38:33
Was ich interessant finde, daß damals 3dfx das gleiche probiert hatte wie Nvidia, und angesichts der Marktposition Nvidia mit der Selbstvermarktung der Chip + Karten größeren Erfolg hat. Was würde Nvidia eigentlich daran hindern, die Karten künftig alleine zu verkaufen? Die Margen wären ja dann noch größer.

Klar, 3dfx hat das früher mit in den Untergang gerissen. Aber Nvidia hat doch jetzt so eine bequeme Position, so daß sie auf die Reseller an sich nicht mehr angewiesen sind, oder?`

Wann wandert das nun eigentlich weg vom Speku-Bereich, wir haben doch nun reale Daten über die Karten?

Locuza
2018-08-24, 00:55:56
Nein die werden pro HBM Interface die 32ROPs einfach behalten. Frisst doch kaum Platz auf 7nm. Ich glaub nicht, dass die das jetzt kompliziert machen.
Frisst dennoch Platz, ohne Nutzen.
Wieso sollte es kompliziert sein die Anzahl an ROPs pro Memory-Backend zu halbieren?

Ok das mit NGG wird nichts mehr.

https://www.mail-archive.com/amd-gfx@lists.freedesktop.org/msg24458.html
https://www.youtube.com/watch?v=UweuVSDV7cU

Aber bei Navi geht es dann wirklich los. ;)

Kriton
2018-08-24, 10:02:53
Was ich interessant finde, daß damals 3dfx das gleiche probiert hatte wie Nvidia, und angesichts der Marktposition Nvidia mit der Selbstvermarktung der Chip + Karten größeren Erfolg hat. Was würde Nvidia eigentlich daran hindern, die Karten künftig alleine zu verkaufen? Die Margen wären ja dann noch größer.

Klar, 3dfx hat das früher mit in den Untergang gerissen. Aber Nvidia hat doch jetzt so eine bequeme Position, so daß sie auf die Reseller an sich nicht mehr angewiesen sind, oder?`

Wann wandert das nun eigentlich weg vom Speku-Bereich, wir haben doch nun reale Daten über die Karten?

Bei der Vorstellung ihres neuen Referenzdesigns der FE mit dem neuen Kühler, habe ich auch schon daran gedacht.

Digidi
2018-08-24, 13:11:00
Frisst dennoch Platz, ohne Nutzen.
Wieso sollte es kompliziert sein die Anzahl an ROPs pro Memory-Backend zu halbieren?


https://www.youtube.com/watch?v=UweuVSDV7cU

Aber bei Navi geht es dann wirklich los. ;)
Laut aussage kommt es schon in gfx10 und das ist Vega 7nm

Dino-Fossil
2018-08-24, 13:13:38
Laut aussage kommt es schon in gfx10 und das ist Vega 7nm

Ich dachte eigentlich Vega20 wäre noch GFX9.x oder 9.0x, jedenfalls nicht GFX10 (ähnlich wie Polaris ja auch nur GFX8.1 war).

iuno
2018-08-24, 14:37:35
Vega20 ist gfx906.

AMD arbeitet weiter an Vega12 (https://github.com/GPUOpen-Drivers/pal/commit/2eee818efc9293ce8871df2091d3683ff55570ee). Keine Ahnung, was das genau sein soll aber offenbar bekommt das "hardware stereo rendering", vermutlich also VR Optimierungen aehnlich wie Nvidia das mit Pascal begonnen hat. Der Aufbau ist auch etwas aussergewoehnlich, weil nur 5 CUs pro SE verbaut werden, davon aber gleich 4 Stueck, also wie bei den groessten Chips.

Vielleicht "Vega mobile (https://www.anandtech.com/show/12233/amd-tech-day-at-ces-2018-roadmap-revealed-with-ryzen-apus-zen-on-12nm-vega-on-7nm/9)"? Aber mit "nur" 20 CUs? VEGAM/KBL-G hat ja schon 24...

Palpatin
2018-08-24, 14:52:04
Was ich interessant finde, daß damals 3dfx das gleiche probiert hatte wie Nvidia, und angesichts der Marktposition Nvidia mit der Selbstvermarktung der Chip + Karten größeren Erfolg hat. Was würde Nvidia eigentlich daran hindern, die Karten künftig alleine zu verkaufen? Die Margen wären ja dann noch größer.

Nein NV ist nach wie vor Fabless (ohne Fabrik) sprich auch die FE wird nicht von NV gefertigt. 3DFX hat damals eine Fabrik gekauft und die Produktion in die eingene Hand genommen, was sicherlich ein Fehler war. NV macht nur Design und den Vertrieb selbst.

Dino-Fossil
2018-08-24, 15:11:33
Re: Vega12

Was war denn da eigentlich nochmal die kürzlich vorgestellte APU für die chin. Konsole?

iuno
2018-08-24, 15:35:54
An das Ding hatte ich gar nicht mehr gedacht. Waere denkbar, aber das wurde auch mit 24 CUs genannt.