Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
RitterRost
2018-01-08, 10:19:30
Diese Mobil-GPU mit 20, 28 oder vielleicht auch 32 CUs könnten also kaum ein Ersatz/Nachfolger für die rx480/580 mit 36 CUs sein.
Damit siehts 2018 für diskrete GPUs bei AMD ja echt düster aus :-(
Wollen die denn gar keine GPUs verkaufen?
Edit: Und 7nm VEGAs, die Ende 2018 als "sample" für Maschinenlernen erhältlich sind... damit wären sie erst 2019 "wirklich" zu kaufen. Und, danach kommen evtl. Gamingkarten... 2019 steht aber auch schon Navi mit den gleichen 7nm auf dem Plan...
Bietet VEGA@7nm evtl. Maschinenlernen und doppelter Genauigkeit? Navi kommt dann wieder mit langsamerer doppelter Genauigkeit?
Rancor
2018-01-08, 10:19:43
Ist dem denn so?
Die letzten Marktanteile, die ich vom professionellen Business für GPUs gelesen habe, waren für AMD einfach nur vernichtend. Dagegen ist selbst ihr heutiger Marktanteil im Gaming ein Traum.
Im Mining Bereich auf jedenfall. Auch im medizinischen Bereich ist AMD gesetzt, für Befundung etc.. Da gibt es afaik nichts von Nvidia.
Im CAD Bereich sieht es dagegen nicht so gut aus.
Und das glaubst du wird nicht passieren, wenn AMD den Gamingberich völlig ignoriert?
Wo ist der Unterschied zu jetzt? Sie sind im Gaming bereich nicht konkurrenzfähig, bzw. setzen sich gegen Nvidia nicht durch. Eine weitere VEGA / Fiji GPU braucht dort niemand.
Polaris ist eine gute GPU und es ist unverständlich warum sie den Weg nicht weitergegangen sind.
Die paar dargos und V_Vs dieser Welt, die die AMD Fahne hochhalten, werden es nicht rausreißen. Wenn Sie sich nicht neu ausrichten wird es im GPU Bereich sehr schwierig werden. Sie sollen sich im Profibereich die Kohle holen, die notwendig ist um im Consumer Bereich Nvidia wieder die Stirn zu bieten.
Oder aber sie fahren in Zukunft zweigleisig wie NV. VEGA und NAVI fürs Computegeschäft. Polaris und dessen Nachfolger fürs Gaming.
Bucklew
2018-01-08, 10:28:02
Im Mining Bereich auf jedenfall. Auch im medizinischen Bereich ist AMD gesetzt, für Befundung etc.. Da gibt es afaik nichts von Nvidia.
Im CAD Bereich sieht es dagegen nicht so gut aus.
Quatsch.
Und Mining ist selbst laut AMD ein klitzekleiner Markt mit Gaminghardware (= geringe Marge), der von heute auf morgen auf null zurück gehen kann und sämtliche Gebrauchtpreise ruiniert.
Wobei die AMD-Strategie da auch schlicht nicht vorhanden ist. Auf der einen Seite will man ja Mining angeblich nicht, um den Gamingpreisen nicht zu schaden, gleichzeitig veröffentlicht man aber spezielle Treiber.
Wo ist der Unterschied zu jetzt? Sie sind im Gaming bereich nicht konkurrenzfähig, bzw. setzen sich gegen Nvidia nicht durch.
Ja, sie sind in einem Markt, in dem sie 30-40% Marktanteil hatten nicht mehr konkurrenzfähig. Und nun wollen sie den Markt vernachlässigen und lieber den Markt nehmen, wo sie bisher noch weniger Chancen hatten...?!
vinacis_vivids
2018-01-08, 10:29:50
Schon wieder wird der Thread zugetrollt.
@RitterRost
Vega 28/32 CUs macht nur Sinn, wenn sie gleichzeitig als high-end APU und fürs Desktop erscheint. Desktop wäre dann der Ableger, mobile hat Vorrang.
Die preiswerte Variante wäre die bereits vorhandene Vega 20/24Cus als Desktop-Version (höherer Takt), die dann Polaris20 ersetzt. Das ergibt Sinn.
Rancor
2018-01-08, 10:33:17
Quatsch.
Und Mining ist selbst laut AMD ein klitzekleiner Markt mit Gaminghardware (= geringe Marge), der von heute auf morgen auf null zurück gehen kann und sämtliche Gebrauchtpreise ruiniert.
Wobei die AMD-Strategie da auch schlicht nicht vorhanden ist. Auf der einen Seite will man ja Mining angeblich nicht, um den Gamingpreisen nicht zu schaden, gleichzeitig veröffentlicht man aber spezielle Treiber.
Ja, sie sind in einem Markt, in dem sie 30-40% Marktanteil hatten nicht mehr konkurrenzfähig. Und nun wollen sie den Markt vernachlässigen und lieber den Markt nehmen, wo sie bisher noch weniger Chancen hatten...?!
Welche MED Karten gibt es denn von NV, die mit einem RIS / PACS System kompatibel sind? Von den Befundungsmonitoren fang ich gar nicht erst an. Ich kenne keine und ich war jahrelang in dem Bereich tätig.
Wenn es welche gibt habe ich Sie in keinem Krankenhaus gesehen und ich war in einigen in DACH unterwegs. Alle Befundungsworkstations waren mit MED Karten von AMD ausgestattet.
Ich denke AMD kennt seine Marktanteile besser als du und ich. Warum sonst verlagern Sie Ihren Fokus plötzlich ins Profi Geschäft? Weils im Consumermarkt zu gut läuft?
Warum veröffentlichen Sie extra eine Blockchaintreiber? Warum wird VEGA 7 nm erst für Profikarten kommen, obwohl das im Consumerbereich dringender nötig wäre?
AlphaNUSS
2018-01-08, 10:38:10
Vll machen sie es wie mit Zen und es kommt erst wieder groß was für den gaming Markt, wenn sie Konkurrenz fähig sind. Komplett aufgeben werden sie den Markt, im gaming Bereich ist immer noch am meisten Gewinn drinnen.
Troyan
2018-01-08, 10:43:21
Ich denke AMD kennt seine Marktanteile besser als du und ich. Warum sonst verlagern Sie Ihren Fokus plötzlich ins Profi Geschäft? Weils im Consumermarkt zu gut läuft?
Warum veröffentlichen Sie extra eine Blockchaintreiber? Warum wird VEGA 7 nm erst für Profikarten kommen, obwohl das im Consumerbereich dringender nötig wäre?
Warum? Weil Miner alles kaufen. Beim Mining geht es nur um RoI. Da spielt Stromverbrauch eine untergeordnete Rolle. Selbst ineffiziente Produkte wie Vega haben hier einen Markt. Und dank HBM sind bestimmte Coins dann sehr gut zu berechnen.
Vega@7nm ist ein Aktienprodukt. AMD existiert nicht im AI/DL/HPC Markt. Die brauchen aber Produkte, um Shareholder und Investoren bei Laune zu halten. Die sind soweit abgeschlagen, dass es schon absurd ist. nVidias Xavier bietet die selbe DL-Leistung wie MI25 bei 1/10 des Stromverbrauch als kompletter SoC.
vinacis_vivids
2018-01-08, 10:47:45
Immer diesselben und immer das gleiche. Ihr habt nichts beizutragen in diesem Thread außer hate und flame ohne irgendwelche Quellen. Alles BS und OT.
RitterRost
2018-01-08, 10:54:41
@RitterRost
Vega 28/32 CUs macht nur Sinn, wenn sie gleichzeitig als high-end APU und fürs Desktop erscheint. Desktop wäre dann der Ableger, mobile hat Vorrang.
Die preiswerte Variante wäre die bereits vorhandene Vega 20/24Cus als Desktop-Version (höherer Takt), die dann Polaris20 ersetzt. Das ergibt Sinn.
Welche "bereits vorhandene Vega 20/24Cus"?
Meinst Du die auf der Intel CPU? Die meine ich auch.
Bisher sah VEGA bei Perf/Takt ja nicht so toll aus. Deshalb kann ich mir den kleinen VEGA (auch noch mit halbierter Speicherbandbreite, weil nur ein HBM) nicht als Nachfolger für Polaris20 vorstellen.
Korvaun
2018-01-08, 10:56:05
Wenn man AMD letzte Releases so anschaut (spez. alles mit HBM2) dann sollte man damit rechnen das die nächsten "Gamer-Karten" Navi in 2H2019 werden. 2018 wird gar nix neues kommen, maximal schafft es AMD endlich die breite Verfügbarkeit von Vega10 sicherzustellen. Traurig traurig AMD :(
BoMbY
2018-01-08, 10:59:15
VEGA11: Vermutlich eingestellt, als Raja ausgestellt wurde?
VEGA12: Ultra-Thin Mobile
VEGA20: Vermutlich Ende des Jahres in homöopathischen Dosen
Okay, ich hätte wirklich nicht damit gerechnet, dass AMD dieses Jahr praktisch nichts an neuen Desktop-GPU-Produkten hat.
deekey777
2018-01-08, 11:08:30
VEGA11: Vermutlich eingestellt, als Raja ausgestellt wurde?
VEGA12: Ultra-Thin Mobile
VEGA20: Vermutlich Ende des Jahres in homöopathischen Dosen
Okay, ich hätte wirklich nicht damit gerechnet, dass AMD dieses Jahr praktisch nichts an neuen Desktop-GPU-Produkten hat.
Intels KBL-G sind eigentlich auch mobile Produkte und kommen zumindest in den NUC und damit auf Desktop. Sprich: AMD kann den angeteaserten Vega Mobile für Desktop bringen.
vinacis_vivids
2018-01-08, 11:16:21
Welche "bereits vorhandene Vega 20/24Cus"?
Meinst Du die auf der Intel CPU? Die meine ich auch.
Bisher sah VEGA bei Perf/Takt ja nicht so toll aus. Deshalb kann ich mir den kleinen VEGA (auch noch mit halbierter Speicherbandbreite, weil nur ein HBM) nicht als Nachfolger für Polaris20 vorstellen.
Ja, die auf dem Kaby-Lake-G
Perf/Takt ist exzellent, siehe Leaks.
Für Desktop einfach höheren Takt fahren auf Kosten der Effizienz.
Vega20,1280SP,1,5-1,7Ghz,2/4GB
-> ~3,8-4,3Tflops, ~200-220GB/s
-> könnte RX570 ersetzen.
Vega24,1536SP,1,5-1,7Ghz,4GB
-> ~4,6-5,2Tflops, ~240-256GB/s
-> könnte RX580 ersetzen.
Als Ersatz für P20 macht der Chip nur Sinn, wenn er kleiner ist (wahrscheinlich) und billiger zu produzieren ist. Das HBM² packaging dürfte jetzt weiter gereift sein und zunehmend günstiger werden.
Der_Korken
2018-01-08, 11:21:18
Vega hat AMD wohl offensichtlich auch als Flop erkannt und investiert keine Ressourcen mehr. Der Chip ist einfach zu langsam, um einen vernünftigen Preis bei den Herstellungskosten zu erzielen.
Das sagt sich so einfach. In Vega steckt sicherlich ein großer Teil des R+D der letzten Jahre. Navi wird nicht mal eben was komplett neues sein, sondern AMD wird mit dem auskommen müssen, was sie haben. Man kann nur hoffen, dass dort noch jede Menge Potenzial vorhanden ist, welches durch gezielte Designverbesserungen abrufbar ist. Wenn es ein Bulldozer-Design ist, welches erst durch einen kompletten Neuanfang wie Zen wirklich besser wird, dann war es das für die nächsten Jahre mit dem GPU-Markt.
Bucklew
2018-01-08, 11:24:40
Ich denke AMD kennt seine Marktanteile besser als du und ich. Warum sonst verlagern Sie Ihren Fokus plötzlich ins Profi Geschäft? Weils im Consumermarkt zu gut läuft?
Weil Vega einfach zu teuer für den eigentlich notwendigen 400€ Preispunkt ist.
Was soll AMD denn Anderes machen? Glaubt ihr wirklich, man könnte einen 480mm² Chip mit HBM2 für 400€ an den Endkunden verkaufen?
Ob das wirklich eine Erfolgsschiene ist, halte ich für sehr fraglich.
Rancor
2018-01-08, 11:25:50
Naja ich würde das nicht mit Bulldozer vergleichen. Die CPUs hatten gegen die Core Next Architektur ja überhaupt kein Land gesehen.
VEGA sieht ja schon Land gegen NV nur eben nicht konstant. Und dank dargos UV Marathon, kann man ja auch sehen, das man zumindest das Perf/Watt Problem auch @ Stock in den Griff bekommen kann.
@ Bucklew
Deshalb macht es ja auch Sinn VEGA nun im Profbereich zu pushen, da er im Consumerbreich in jetziger Form eben schwierig abzusetzen ist.
Es ist schon richtig was AMD jetzt macht um das finanziell beste aus VEGA rauszuholen.
Langfristig dürfen Sie die Strategie natürlich nicht fahren. Mehr wollte ich eingangs auch nicht sagen.
Opprobrium
2018-01-08, 11:50:57
Der GPU Markt unterläuft gerade ganz allgemein sehr starken Veränderungen. Ich war zwar auch überrascht, daß AMD für 2018 fast gar keine diskrete GPU für den Privatanwender angekündigt hat, aber irgendwie war es auch absehbar.
Die Grafikqualität hängt halt stark von den Konsolen ab, eigentlich ist da jede Mainstream GPU schnell genug. Die paar % die in 4K oder 8K mit AA zocken wollen lohnen zur Zeit den Aufwand wohl nicht.
Die Entwickler hängen sehr weit hintendran, Vulkan/DX12 (Mantle ;)) werden so gut wie nicht unterstützt bisher, und wenn dann nur halbherzig.
Dazu kommt, daß Vega wohl nicht ganz das geworden ist was sich AMD versprochen hat, da jetzt erstmal auf Sparflamme zu kochen, schauen woran es hapert, sich mit HBM näher vertraut machen etc. scheint mir gar nicht so dumm. Vermutlich werden bei dem 7nm Chip auch ein paar Optimierungen hinzugefügt und Flaschenhälse beseitigt.
Im Idealfall wird Navi dann sowas wie Ryzen, aber bis dahin ist es noch weit.
Momentan kann AMD vermutlich ganz gut von den Minern leben, nebenbei versuchen sie ja auch Fuß im professionellen Bereich zu fassen (neurale Netzwerke etc.). Vermutlich war es etwas viel verlangt, daß gleich nach Ryzen das gleiche noch in der Grafiksparte passiert, aber wenn durch den stetigen kleine Fluß an Konsolenchips und die wachsende finanzielle Stabilität durch Ryzen/Epic das Jahr 2018 mal wieder Gewinn bringt für AMD, dann könnte ab 2019/2020 eventuell das erste Mal seit gefühlt immer ein Jahr werden, in dem AMD in CPU und Grafiksparte erfolgreich sein könnte...
deekey777
2018-01-08, 12:24:04
AMD will ja Vega Mobile für Premiumgeräte bringen, diese soll extrem flach sein.
https://www.anandtech.com/show/12233/amd-tech-day-at-ces-2018-roadmap-revealed-with-ryzen-apus-zen-on-12nm-vega-on-7nm
These mobile-class discrete GPUs are optimized for z-height, coming in at 1.7mm, but will also use HBM2 (high bandwidth memory) on an interposer, indicating an update on AMD’s prowess on interposer technology that previously has been somewhat bulky. The purpose here for Radeon RX Vega Mobile is to move discrete graphics into mobile and small form factor systems that are currently occupied by mid-range NVIDIA graphics. HBM2 is still a premium product, so we expect that when they come to market in Q2, they will aim for thin and light systems that also want to support VR-like technologies.
Was bedeutet das eigentlich, was den Fertigungsaufwand angeht?
robbitop
2018-01-08, 12:30:33
Polaris wird weiterhin produziert und ist nicht EOL.
"200€ Segment" im Desktop kannst du vergessen in dieser turbulenten Zeit für diese Rechenleistung.
Polaris wird sich gegen GA106 aber nicht halten können. Ergo muss man Preis und somit Gewinnspanne ablassen.
Weil Vega einfach zu teuer für den eigentlich notwendigen 400€ Preispunkt ist.
Was soll AMD denn Anderes machen? Glaubt ihr wirklich, man könnte einen 480mm² Chip mit HBM2 für 400€ an den Endkunden verkaufen?
Ob das wirklich eine Erfolgsschiene ist, halte ich für sehr fraglich.
400€ wär kein Problem, so bei 250-300€ wirds kritisch, wie bei Hawaii damals.
Ich denke schon, dass V10 auf ca. 320-400€ abrutschen wird im Laufe des Jahres, es wird sich auch die Verfügbarkeit verbessern mMn. Momentan werden alle produzierten Chips mMn an Miner abgegeben oder selbst gemint. Darüber wird man aber im Laufe des Jahres hinaus kommen mMn.
Es ist einfach ein totaler Irrglaube, dass für V10 keine Nachfrage bestünde, das ist total absurd das zu denken.
V10 wird ab 2019 durch V20 ersetzt. Darüber siedelt sich dann N10 an mit deutlich mehr CUs, die dann ja offenbar erheblich sparsamer und kleiner sind.
V12 kann eigentlich nur ein V10-Refresh in 12nm sein, denn ich denke in 14nm wird man einfach weiter Polaris produzieren darunter, es macht einfach 0 Sinn, abseits von Semi-Custom Polaris zu ersetzen. Das wird nicht mal bei 7nm sinnvoll. Wenn Intel weiterhin auf die Semi-Custom-Variante setzt und AMD mit mit Picasso auch eine APU mit 20+CUs bringt, wird man die Märkte darunter gar nicht mehr bedienen, auch für NV wird das sehr unlukrativ werden.
Vega-Mobile wird einfach der semi-Custom-Chip für Intel sein auf einem separaten Modul.
mboeller
2018-01-08, 12:51:50
Ja, die auf dem Kaby-Lake-G
Perf/Takt ist exzellent, siehe Leaks.
Für Desktop einfach höheren Takt fahren auf Kosten der Effizienz.
Vega20,1280SP,1,5-1,7Ghz,2/4GB
-> ~3,8-4,3Tflops, ~200-220GB/s
-> könnte RX570 ersetzen.
Vega24,1536SP,1,5-1,7Ghz,4GB
-> ~4,6-5,2Tflops, ~240-256GB/s
-> könnte RX580 ersetzen.
Als Ersatz für P20 macht der Chip nur Sinn, wenn er kleiner ist (wahrscheinlich) und billiger zu produzieren ist. Das HBM² packaging dürfte jetzt weiter gereift sein und zunehmend günstiger werden.
Abgesehen von der Effizienz macht diese Strategie nur Sinn, wenn AMD EMIB von Intel auch für die eigenen Produkte nutzen darf. Eine Version mit Interposer wäre doch viel zu aufwendig und teuer.
BoMbY
2018-01-08, 13:07:54
Via Videocardz (https://videocardz.com/74712/amd-finally-announces-discrete-mobile-radeon-vega):
https://i.imgur.com/3s2Pm4F.jpg
VEGA12 scheint der Chip auf Kaby Lake G zu sein, der von AMD als Mobile-Variante angeboten wird.
vinacis_vivids
2018-01-08, 13:15:46
Abgesehen von der Effizienz macht diese Strategie nur Sinn, wenn AMD EMIB von Intel auch für die eigenen Produkte nutzen darf. Eine Version mit Interposer wäre doch viel zu aufwendig und teuer.
Vega kann auch GDDR5/6 falls der Interposer zu teuer sein sollte.
deekey777
2018-01-08, 13:21:29
...
VEGA12 scheint der Chip auf Kaby Lake G zu sein, der von AMD als Mobile-Variante angeboten wird.
Erscheint logisch, vielleicht hat aber Intel etwas anpassen lassen.
Hübie
2018-01-08, 13:32:39
Vega kann auch GDDR5/6 falls der Interposer zu teuer sein sollte.
Wie ist das gemeint? Natürlich kann man jede GCN mit jedem MC PHY implementieren, aber aktuell gibt es keine Anzeichen dass es Vega IP mit einem GDDR Interface gibt / geben wird. Der Memory Controller ist zwischen beiden Technologien sehr unterschiedlich und keineswegs kompatibel. Von der Art der Anbindung (crossbar bzw.OCN) ganz abgesehen. Es ist also nicht nur ein Modul (der memory controller), das einfach getauscht wird, sondern schon ein ziemlicher Rattenschwanz. Daher hege ich starke Zweifel, dass dem so ist. ;) Denkbar wäre, dass AMD einen Nachfolger für Polaris mit Vega-Genen hat, welcher normalen G6-VRAM einsetzt.
BoMbY
2018-01-08, 13:38:43
Nein, die MCs dürften alle das gleiche Interface zum Infinity Fabric nutzen. Der bei Vega verwendete HBM2 PHY von Synopsys nutzt z.B. auch DFI 4.0 (https://www.synopsys.com/dw/ipdir.php?ds=dwc_hbm2), was ebenfalls bei DDRx und GDDRx in Version 3.0 und 4.0 genutzt werden sollte.
vinacis_vivids
2018-01-08, 13:41:00
@Hübie
In der Scorpio steckt bereits eine 2560SP-GPU mit 12GB GDDR5/384bit mit Vega features.
AMD hat mehr Pläne in der pipeline als GF überhaupt schmieden kann.
deekey777
2018-01-08, 13:41:40
In der Scorpio steckt bereits eine 2560SP-GPU mit 12GB GDDR5/384bit mit Vega features.
Welche Vega-Features sollen es sein?
Rancor
2018-01-08, 13:43:39
RPM, FFP16 usw... Es ist aber nach wie vor eine Polaris GPU. Sowas wäre auch eine feine Desktop GPU :D für 300€. GTX 1060 tschööööööö
deekey777
2018-01-08, 13:46:47
Gerade RPM beherrscht Scorpio nicht, womöglich auch nicht natives FP16 wie Polaris.
vinacis_vivids
2018-01-08, 13:53:52
Gerade RPM beherrscht Scorpio nicht, womöglich auch nicht natives FP16 wie Polaris.
Nicht weil es nicht möglich ist, sondern Microsoft es nicht wollte. Rein strategische Entscheidung. Die PS4 Pro hat bereits RPM als Vega-feature im Polaris-Gewand.
deekey777
2018-01-08, 13:54:45
Nicht weil es nicht möglich ist, sondern Microsoft es nicht wollte. Rein strategische Entscheidung. Die PS4 Pro hat bereits RPM als Vega-feature im Polaris-Gewand.
Also beherrscht Scorpio kein RPM.
vinacis_vivids
2018-01-08, 14:02:30
Also beherrscht Scorpio kein RPM.
Mircrosoft hat einige implementierte "Vega features" nicht weiter ausgeführt.
Rancor
2018-01-08, 14:04:36
Also beherrscht Scorpio kein RPM.
Afaik beherrscht es aber die GPU und darum ging es ja.
Zumindest habe ich das in einem Artikel gelesen der die Unterschiede zwischen der Pro und Scorpio GPU disktutierte :uponder:. Vllt. finde ich den noch.
Hübie
2018-01-08, 14:17:47
Das ist ein semi custom chip. Den Punkt habe ich mit meiner Aussage oben abgedeckt, aber iirc hat Scorpio mehr von Polaris' ISA und Featureset als von Vega. Es wäre gut wenn AMD Polaris mit einer effizienteren G6-Variante von Polaris ersetzt. Oben rum kann man imo eh keinen Stich landen, also warum dann nicht das massive Performancesegment abgrasen.
robbitop
2018-01-08, 14:45:35
Die CUs sind seit Tahiti (bis inkl Vega) relativ ähnlich geblieben. Vega bringt den DSBR, RPM und höhere Taktraten mit.
Gerade RPM beherrscht Scorpio nicht, womöglich auch nicht natives FP16 wie Polaris.
Gibt keine 14/16nm CUs ohne FP16. Das ist seit Tonga standard. Nur RPM fehlt.
Via Videocardz (https://videocardz.com/74712/amd-finally-announces-discrete-mobile-radeon-vega):
https://i.imgur.com/3s2Pm4F.jpg
VEGA12 scheint der Chip auf Kaby Lake G zu sein, der von AMD als Mobile-Variante angeboten wird.
Jo sieht echt so aus.
X-Bow
2018-01-08, 15:39:28
Für mich wirkt das etwas Seltsam: Vega war auf früheren Präsentationen mit 14nm bzw. 12nm für V20 veranschlagt worden. Das Vega nicht so läuft wie von AMD geplant ist auch irgendwie ersichtlich, nur nicht an was es liegt (Vermutlich mehrere Gründe).
Nun wird, relativ überraschend Vega mit 7nm für H2 angekündigt. Des weiteren hat AMD in Ihrer Präsentation in Las Vegas gefühlt zu jeden Chip gesagt wo der gefertigt wird. Nur nicht zu Vega 7nm. Warum? Warum der plötzliche Sprung auf 7nm und warum wird nicht gesagt wo diese gefertigt werden sollen. Plausibel fände ich da nur das es eben nicht bei GF gefertigt wird sondern eher TSMC oder Samsung. Beide wurden in der Vergangenheit auch öfters mal im Zusammenhang mit AMD fallen gelassen. Und für wen wäre ein „einfacher“ Shrink von Vega am interessantesten? In meinen Augen klar die Miner. Bei den Minern wird übrigens mit keinem Abriss in 2018 spekuliert, ich denke das auch die Hersteller dann in diese Richtung spekulieren werden.
Deshalb könnte doch Vega 7nm für Vega 14nm eine starke Entlastung im Bedarf sein. Vor allem da AMD mit Apple, Intel und den eigen APU’s genug Bedarf an Vega 14nm generiert hat. Außerdem würden Vega 7nm "machine learning" Karte ohne Displayausgang nicht den Gebrauchtmarkt fluten wenn der Mining-Boom ein Ende findet.
GF sehe ich in der 7nm Fertigung einfach noch nicht so weit. TSMC dagegen schon. Würde auch zu den „Überraschenden“ Namenswechsel von nVidia passen wenn statt dem geplanten Volta 12nm TSMC früher als erwartet 7nm kann und mit AMD ein Deal gemacht hat. Wäre ja sonst auch Peinlich wen nVidia bei Ihrem Haus und Hof-Fertiger nur 12nm bekommen und die Konkurrenz ein halbes Jahr später schon die 7nm.^^
Egal wie es kommt, ich finde in den letzten 3 Monaten hat was Roadmaps, Deals, Namen und Fertigungstechnik bei allen 3en (AMD, Intel, nVidia) Überraschungen gegeben, wo es mich doch einigermaßen wundern würde wenn es hier nicht den ein oder andere Zusammenhang geben würde. ;-)
RitterRost
2018-01-08, 16:09:48
...
Nun wird, relativ überraschend Vega mit 7nm für H2 angekündigt.
...
Die sprechen von "sampling". Das heißt, zu kaufen sind die 7nm VEGAs erst 2019. Und die "normalen" Grafikkarten kommen danach.
Wir sehen also erst in über einem Jahr neue Grafikkarten von AMD?
Wurde nicht gerade über EOL von den Custom VEGAs spekuliert, weil die quasi nicht lieferbar sind.
V20 wird genau dann starten, wenn auch EPYC2 startet.
Navi würde ich im Frühjahr 2019 verorten, der ist mMn losgelöst von V20 zu betrachten.
X-Bow
V20 war schon in 2016er-Präsentationen als 7nm-Chip vorgesehen kann man einige hundert Seiten weiter vorne in diesem Thread bewundern :D. AMD selbst hat lediglich zur 12nm-Präsentation gesagt, dass es Zen2 und Vega in 12nm geben wird. Damit ist offensichtlich aber V12 oder aber Picasso gemeint gewesen. Mit dem besseren Prozess wäre es übrigens kein Wunder, warum der Chip eine so gute Energieeffizienz aufweist.
dargo
2018-01-08, 16:24:27
Wenn es keinen Polaris Nachfolger gibt für das 200€ Segment reisst man die ersten Erfolge seit langem im Massenmarkt mit dem Hintern wieder ein.
Von welchem 200€ Segment sprichst du gerade? Hast du dir die Straßenpreise aktuell angeschaut? P20 8GB liegt bereits bei über 300€. Auch eine akzeptable Lieferbarkeit führt aktuell nicht zu sinkenden Preisen. Es ist zwar nicht mehr so eine Katastrophe wo P20 nicht lieferbar war, das Ding ist aber immer noch 50-100€ zu teuer.
Daredevil
2018-01-08, 16:37:29
Die "Difficulty" beim minen, die Polaris im November für Ethereum nicht mehr profitabel gemacht hat, ist auch wieder relativiert, da sich der Kurs seitdem nahezu vervierfacht hat und das natürlich die Nachfrage wieder anregt.
BeetleatWar1977
2018-01-08, 16:42:38
Mal so in den Raum geworfen - besteht die Möglichkeit das Intel die 7nm Vegas selber fertigt?
..... Ich mein ja nur
mboeller
2018-01-08, 16:52:47
es gibt keine 7nm Vegas von Intel, höchstens 12nm Vegas von GF (für die Kaby Lake G)
semiaccurate:
AMD’s Vega roadmap is similarly exciting to look at with a 7nm Vega shrink this year, we hear Q4 best case, and a 7nm Navi in 2019
https://semiaccurate.com/2018/01/08/amd-outs-roadmaps-long-short/
Wenn Charlie den V20 in 7nm als "best case" in Q4 sieht, dann ist das sehr wahrscheinlich wirklich ein 2019er Produkt... anscheinend wurde der V20 nur zwecks Marketing jetzt schon angekündigt. Schade
X-Bow
2018-01-08, 16:56:35
@RitterRost: Öhm nein, ich hatte die Präsentation so interpretiert dass Vega20 in den nächste Monaten als Instinct verfügbar sein soll. Von Vega 2019 war nirgends die Rede.
@HOT: Ach stimmt das waren die schwarz-weiß Folien, richtig da war einmal V20 als 7nm beschrieben. Und wie ich gesehen hab „zweites Halbjahr 2018“ also nix mit 2019 @ RitterRost^^
@BeetleatWar1977: Ich denke nicht. Denn Intel hat in Ihrer Präsentation zu KB-G gesagt das Vega und der Treiber das einzige sind was dazu gekauft wird aber bei Intel verbaut wird.
fondness
2018-01-08, 18:56:59
Via Videocardz (https://videocardz.com/74712/amd-finally-announces-discrete-mobile-radeon-vega):
https://i.imgur.com/3s2Pm4F.jpg
VEGA12 scheint der Chip auf Kaby Lake G zu sein, der von AMD als Mobile-Variante angeboten wird.
Hm, den Bilder nach zu urteilen, ist der Vega mobile Chip etwas größer als Intels custom-Chip (sofern das nicht nur nichtssagenden Platzhalten sind). Dann wäre Intels-Chip doch custom und AMDs Vega mobile ein eigener Chip. Das würde bedeuten AMD fertigt vier unterschiedliche Vega-Chips (mit RR fünf, dazu noch die Konsolenchips) und bei Desktop-Spielern kommt fast nichts an^^. Aber okay, man konzentriert sich eben auf die Märkte für welche die Vega-Architektur entwickelt wurde und wo man konkurrenzfähig ist, und das ist eben nicht gaming.
RitterRost
2018-01-08, 19:00:20
@RitterRost: Öhm nein, ich hatte die Präsentation so interpretiert dass Vega20 in den nächste Monaten als Instinct verfügbar sein soll. Von Vega 2019 war nirgends die Rede.
@HOT: Ach stimmt das waren die schwarz-weiß Folien, richtig da war einmal V20 als 7nm beschrieben. Und wie ich gesehen hab „zweites Halbjahr 2018“ also nix mit 2019 @ RitterRost^^
https://www.heise.de/newsticker/meldung/Vega-Mobile-AMD-kuendigt-Notebook-GPU-mit-HBM2-an-3935547.html
Letzter Absatz: "Bei den GPUs an sich steht als nächstes ein Shrink von 14 nm auf 7 nm an. Die 7-nm-Variante soll sich besonders für Machine Learning eignen; erste Samples will AMD noch in diesem Jahr verteilen. Das lässt befürchten, dass eine breitere Verfügbarkeit und Varianten für Gamer noch bis ins Jahr 2019 auf sich warten lassen. Für 2019 steht aber auch der ebenfalls in 7 nm gefertigte Vega-Nachfolger Navi auf der Roadmap..."
So habe ich das auch bei anderen Seiten gelesen, die an den AMD Briefings in LasVegas teilgenommen haben.
BoMbY
2018-01-08, 19:05:32
Ich glaube nicht, dass wir VEGA20 als Consumer-Karte sehen werden. Ich denke es wird einige MI- und Pro-Varianten geben, mit dem entsprechenden Preis.
tm0975
2018-01-08, 19:06:18
ach menno, eigentlich wollte ich vega überspringen, da ich nicht mehr als 180 w maximalvverbrauch haben möchte. vielleicht kommt ja doch noch die vega nano...
Thunder99
2018-01-08, 19:27:25
Welche "bereits vorhandene Vega 20/24Cus"?
Meinst Du die auf der Intel CPU? Die meine ich auch.
Bisher sah VEGA bei Perf/Takt ja nicht so toll aus. Deshalb kann ich mir den kleinen VEGA (auch noch mit halbierter Speicherbandbreite, weil nur ein HBM) nicht als Nachfolger für Polaris20 vorstellen.
Weißt du wie Vega nach unten skaliert? Dargo hat es demonstriert was möglich ist und die kleinen Vega auf den APUs zeigen es. Vega kann sehr stromsparend sein. Was es aber kostet ist ein anderes Thema.
dargo
2018-01-08, 19:28:04
180W? Schaffst du problemlos mit jeder RX Vega56, sind ja nur 45-50W weniger.
Loeschzwerg
2018-01-08, 19:28:29
Ich glaube nicht, dass wir VEGA20 als Consumer-Karte sehen werden. Ich denke es wird einige MI- und Pro-Varianten geben, mit dem entsprechenden Preis.
Schließe mich an. Wenn "best case" Q4 für V20 angesetzt ist, dann sind wir schon zu nahe an Navi dran um noch in den Massenmarkt mit V20 zu gehen.
möglw. könnten sie ja mit nem anderen Package Vega mobile auf einer Desktopkarte bringen
Loeschzwerg
2018-01-08, 19:34:04
Würde das Package einfach so belassen (siehe P11 und 12) :) Die 4GB HBM2 sollten doch ausreichen.
tm0975
2018-01-08, 19:38:39
180W? Schaffst du problemlos mit jeder RX Vega56, sind ja nur 45-50W weniger.
auch mit vega 64? wenn dann den voll aktivierten chip.
dargo
2018-01-08, 19:50:49
auch mit vega 64? wenn dann den voll aktivierten chip.
Also meine LCE geht. :D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11599139&postcount=8513
Ich denke das geht auch mit anderen RX Vegas 64. Wenn du Pech hast vielleicht mit etwas weniger Takt. Aber das macht sich auf die Frames eh kaum bemerkbar. Du solltest nur auf einen einigermaßen brauchbaren Kühler achten mit dem du nicht ins TT-Limit läufst.
tm0975
2018-01-08, 20:00:45
sieht gut aus! wußte gar nicht, dass vega so effizient sein kann. die ganze "fachpresse" warf ja nur mit den 400 watt um sich
dargo
2018-01-08, 20:32:13
Welche Fachpresse? ;D
scully1234
2018-01-08, 20:36:13
sieht gut aus! wußte gar nicht, dass vega so effizient sein kann. die ganze "fachpresse" warf ja nur mit den 400 watt um sich
Als ob diese 1000 Stunden Fummelei irgendwelche Praxisrelevanz hat:freak:
Das Rumgetweake in allen Ehren, aber nach der aufwendigen Aktion dann die Presse verunglimpfen, ist schon echt dreist
Das selbe Resultat kann ich auch mit anderen Karten u guten Chips fahren. Waren dort die Redakteure etwa auch zu "unfähig" in ihren normalen Reviews, weil sie nicht noch Chips selektieren und tausend Stunden fummeln, bis das nix mehr mit dem Standard der Karte zu tun hat?!
Daredevil
2018-01-08, 20:36:36
ach menno, eigentlich wollte ich vega überspringen, da ich nicht mehr als 180 w maximalvverbrauch haben möchte. vielleicht kommt ja doch noch die vega nano...
Wenn du ganz einfach ein wenig am PowerLimit drehst, sinkt auch die Wattzahl ganz einfach. Du kannst da skalieren von 100 bis 450 Watt, wie du auch immer Lust hast. Natürlich kommts auch drauf an, wie viel Performance du erwartest.
reaperrr
2018-01-08, 20:41:33
sieht gut aus! wußte gar nicht, dass vega so effizient sein kann. die ganze "fachpresse" warf ja nur mit den 400 watt um sich
AMD's Problem ist halt einfach, dass NV mit Pascal so hohe Taktraten erreicht hat, dass AMD Vega10 (v.a. V64) weit über den Sweet-Spot prügeln musste, um wenigstens von der Performance her konkurrenzfähig zu sein und halbwegs hohe Preise nehmen zu können.
Für eine Vega Nano @175W mit GTX-1070-Performance würden halt nur die wenigsten 550-600 Flocken raushauen.
Schließe mich an. Wenn "best case" Q4 für V20 angesetzt ist, dann sind wir schon zu nahe an Navi dran um noch in den Massenmarkt mit V20 zu gehen.
Stimme grundsätzlich zu, wobei je nachdem wie weit Navi zu dem Zeitpunkt noch weg ist, könnte es evtl. zumindest eine neue Frontier Edition mit V20 geben, da brauchen die Stückzahlen nicht hoch sein und sie können bei entsprechendem Performance-Plus und/oder 32GB HBM2 auch ~1500-2000 € nehmen.
scully1234
2018-01-08, 20:45:10
AMD's Problem ist halt einfach, dass NV mit Pascal so hohe Taktraten erreicht hat, dass AMD Vega10 (v.a. V64) weit über den Sweet-Spot prügeln musste[, um wenigstens von der Performance her konkurrenzfähig zu sein und halbwegs hohe Preise nehmen zu können.
Und nur das kann die Fachpresse auch bewerten, das Tweaking abseits davon war noch nie Bestandteil eines Reviews
dargo
2018-01-08, 21:13:20
Als ob diese 1000 Stunden Fummelei irgendwelche Praxisrelevanz hat:freak:
Und schon geht das Trolling wieder los. Wie wärs gleich mit 10.000 Stunden? :rolleyes: Wie wievele Monate hat es gedauert bis man wusste wie Pascal richtig undervoltet wird ohne Leistung einzubüssen? Am Anfang gabs noch nicht mal Tools dafür.
Es dauert nun mal wenige Tage bis man das UV einer neuen Architektur versteht. Hat man die Zusammenhänge begriffen sinds nur paar Sekunden um das UV zu setzen. Der Rest ist reiner "Stabilitätstest" in Form vom normalen daddeln. Und wenn man wie ich aus reiner Neugier mehrere Profile ausprobiert nimmt das ganze halt etwas mehr Daddelzeit in Anspruch.
btw.
Unsere Fachpresse war schon mit Defaultsettings die Vega von Haus aus liefert überfordert. Jedenfalls die meisten, nicht alle. :rolleyes:
x-force
2018-01-08, 21:15:46
Wie wievele Monate hat es gedauert bis man wusste wie Pascal richtig undervoltet wird ohne Leistung einzubüssen? Am Anfang gabs noch nicht mal Tools dafür.
0 monate, der afterburner lief von anfang an und undervolting ist extrem einfach im kurve editor. :wink:
falls du vernünftig richtung nvidia schießen willst: das bios ist nicht mehr ausles & flashbar.
BeetleatWar1977
2018-01-08, 21:24:48
Welche Fachpresse? ;D
Made my Day:D
Vega56 Furmarkwerte bei Unterschiedlichen Powerlimits
300W: 8859 (http://www.ozone3d.net/gpudb/score.php?which=508354)
220W: 7054 (http://www.ozone3d.net/gpudb/score.php?which=508341)
165W: 5950 (http://www.ozone3d.net/gpudb/score.php?which=508365)
110W: 3807 (http://www.ozone3d.net/gpudb/score.php?which=508345)
auch mit vega 64? wenn dann den voll aktivierten chip.
Und mal eine Referenz fürs UV, Vega56@64er Bios, PT auf 185W eingestellt, HBM auf 1100Mhz
die Grafikscores
Std: 5602 (https://www.3dmark.com/3dm/24500336?)
UV: 6731 (https://www.3dmark.com/3dm/24500426?)
macht glatt mal 20% Leistungsgewinn bei gleichem Verbrauch....... notwendige Lüfterdrehzahl bei meiner ist so ~2200 dafür.....
und ist eine Punktlandung im Vergleich zur 1070 (https://www.3dmark.com/compare/spy/3101510/spy/1381885) (wohlgemerkt das Beste gelistete System mit dem gleichem Prozessor und einer 1070)
dargo
2018-01-08, 21:28:28
0 monate, der afterburner lief von anfang an und undervolting ist extrem einfach im kurve editor. :wink:
Erzähl mir noch mehr Märchen. :rolleyes:
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=574892
Zu diesem Zeitpunkt wussten auch nicht alle sofort wie man bei Pascal richtig undervoltet.
Und mal eine Referenz fürs UV, Vega56@64er Bios, PT auf 185W eingestellt, HBM auf 1100Mhz
die Grafikscores
Std: 5602 (https://www.3dmark.com/3dm/24500336?)
UV: 6731 (https://www.3dmark.com/3dm/24500426?)
macht glatt mal 20% Leistungsgewinn bei gleichem Verbrauch....... notwendige Lüfterdrehzahl bei meiner ist so ~2200 dafür.....
und ist eine Punktlandung im Vergleich zur 1070 (https://www.3dmark.com/compare/spy/3101510/spy/1381885) (wohlgemerkt das Beste gelistete System mit dem gleichem Prozessor und einer 1070)
Und du verfolgst ja noch ein ganz anderes Ziel. Nämlich mehr Leistung bei gleichen Verbrauch. Würdest du die gleiche Leistung anpeilen wäre der Verbrauch deutlich geringer, viel mehr als nur 20%.
scully1234
2018-01-08, 21:56:16
Zu diesem Zeitpunkt wussten auch nicht alle sofort wie man bei Pascal richtig undervoltet.
Ich frag dich jetzt nochmal, was haben irgendwelche UV Spielereien, mit einem Release Review einer Grafikkarte zu tun?
Gar nix!
Der/die Hersteller haben die Karten so ausgelegt, und damit haben die Redaktionen zu arbeiten.
Und nicht mit geschönten Werten, die irgendwer in einem Forum mal konstruiert hat
Die GTX1080 schafft unter "Laborbedingungen" auch 2GHz spielend, oder eben 120 Watt mit angepasster Kurve, und trotzdem findet das zu Recht keine Wertung in Standard Reviews
Dort werden die Karten so abgebildet ,wie sie der Hersteller angedacht hat und fertig, weil es eben in Summe im Bundle nicht möglich ist das so auszulegen,wie das was hier teilweise erreicht wird...
dargo
2018-01-08, 21:58:07
Was hast du daran nicht verstanden?
Unsere Fachpresse war schon mit Defaultsettings die Vega von Haus aus liefert überfordert. Jedenfalls die meisten, nicht alle. :rolleyes:
Falls es zu schwer ist... Defaultsettings bei Vega heißt sechs Profile.
dildo4u
2018-01-08, 22:01:01
Vorallem weiß man nicht wie die Chips selektiert werden,wenn man damit kalkuliert das man eine 64 LC für 700€ verkauft wird man nur Sahne Chips drauf setzen können.Das wird bei Vega 56 komplett anders aussehen,da eigentlich mal 400€ angepeilt waren.
dargo
2018-01-08, 22:03:59
Lenke jetzt nicht wieder vom Thema ab. Auch eine RX Vega56 hat sechs Power-/ und somit Leistungsprofile per Default von AMD verpasst bekommen.
Achim_Anders
2018-01-09, 07:15:24
Die 400w sind doch auch nicht Standard Profil, sondern durch manuelles OC "gefrickel"...
Warum ist oc machbar und die Werte werden benutzt, das UV aber nicht?
X-Bow
2018-01-09, 09:19:28
https://www.heise.de/newsticker/meldung/Vega-Mobile-AMD-kuendigt-Notebook-GPU-mit-HBM2-an-3935547.html
Letzter Absatz: "Bei den GPUs an sich steht als nächstes ein Shrink von 14 nm auf 7 nm an. Die 7-nm-Variante soll sich besonders für Machine Learning eignen; erste Samples will AMD noch in diesem Jahr verteilen. Das lässt befürchten, dass eine breitere Verfügbarkeit und Varianten für Gamer noch bis ins Jahr 2019 auf sich warten lassen. Für 2019 steht aber auch der ebenfalls in 7 nm gefertigte Vega-Nachfolger Navi auf der Roadmap..."
So habe ich das auch bei anderen Seiten gelesen, die an den AMD Briefings in LasVegas teilgenommen haben.
Davon das Gamer-Vega in 7nm kommen soll war doch nie die Rede. AMD spricht von Vega in 7nm für Instinct. Nicht für die RX Vega.
Vega in 7nm 2019 würde höchstens als Ablöse für Polaris Sinn ergeben wenn Navi kommt. ^^
Wo kommen denn ständig die 400 Watt her? Diese Zahl erzielt eine LCE nur, wenn man die Peaks mittelt (oder sie übertaktet). In Wahrheit rangiert die Karte unter Volllast (nein, Full HD oder eine Runde PUBG ist keine Volllast ;)) bei rund 350 Watt. Superselektiertes Undervolting als Maßstab zu nehmen ist aber ebenso falsch. Meine Titan X (Pascal) stemmt in den meisten Spielen 2.000/5.500 MHz mit den standardmäßigen 250 Watt. Das ist super, hat bei der Bewertung von Grafikkarten "out of the box" aber rein gar nichts verloren. Das ist, wenn man nett ist, eine Eigenschaft. Und eine solche wirkt sich auf die zweite Nachkommastelle der Note aus.
MfG,
Raff
Achim_Anders
2018-01-09, 09:37:05
Die kommen unter anderem von Wolfgang und dem Review start Computerbaseartikel. Weil man eine 350W Karte natürlich noch mal für fast null Leistung max Overclocken musste.. Macht man ja so.. Und da steht prominent nun Vega@OC 400Watt... Sowas setzt sich fest, Differenzierung ist nicht die Stärke von Gruppen wie Foren etc.
Deswegen ist der Einwand, warum max OC in Tests gern gesehen ist, max UV aber nicht halt schon berechtigt. Allerdings ist das wohl wirklich einfach ein sinnloser Grabenkampf zwischen Amdler vs Nividianer...
Rancor
2018-01-09, 09:46:14
MAX OC sieht man in den allgemeinen Tests auch meistens nicht, sonder das was man halt relativ schnell und bequem hin bekommt. Sowas sollte man auch für UV machen.
Aber man muss nicht das Maximum bis auf das letzte MV und MHZ ausloten.
Das macht überhaupt keinen Sinn, weil das ohnehin schon bei jeder Karte anders ist.
Exxtreme
2018-01-09, 09:54:25
So, jetzt bitte wieder zum Thema zurück.
Danke.
basix
2018-01-09, 12:46:52
Eigentlich ist es sehr einfach, eine Karte zu "Undervolten": Takt rauf + Power Limit runter. Durch die Boost-Mechanismen bekommt man automatisch ein Undervolting für eine bestimmte Taktrate. Mache ich schon seit Kepler so. Dieses Verfahren könnte man locker im Rahmen eines Reviews anwenden. Das sind gerade mal ein paar Klicks und bequem per Afterburner und Konsorten machbar. Meine 980 Ti bietet bei 72% PT (also 180W) im Schnitt ca. +10% Leistung als eine FE-Karte @ Default. Ein wenig ein Nachteil ist, dass die Karte dann auch bei niedriger Last den Takt voll auffährt obwohl nicht benötigt (z.B. bei älteren Spielen). Per Framelimiter kann man das aber bändigen.
Pascal (und auch Polaris / Vega?) bieten über den Curve Editor einfach noch verbesserte Möglichkeiten, die Karte auszureizen und hätte ich mir für Kepler / Maxwell auch gewünscht. Weil ich kam definitiv in Situationen, wo der max. Takt stabil war aber Taktraten-Abstufungen gegen unten nicht. Das kann man per Curve-Editor umgehen, ist aber dementsprechend aufwändiger.
Bei CPU-Reviews muss macht man ja ebenfalls Undervolting-Tests (z.B. bei CB). Bei Grafikkarten geht das meiner Meinung nach mit etwa dem selben Aufwand, einfach mit anderen Tools und Stellschrauben anstatt direkt die Spannung zu verändern.
Grendizer
2018-01-09, 12:56:40
Pascal (und auch Polaris / Vega?) bieten über den Curve Editor einfach noch verbesserte Möglichkeiten, die Karte auszureizen und hätte ich mir für Kepler / Maxwell auch gewünscht. Weil ich kam definitiv in Situationen, wo der max. Takt stabil war aber Taktraten-Abstufungen gegen unten nicht. Das kann man per Curve-Editor umgehen, ist aber dementsprechend aufwändiger.
Seit Polaris funktioniert Afterburner nicht mehr wirklich gut mit AMD Karten. Den Curveeditor gibt es nur für Pacal. Und anfänglich konnte man Afterburner und Vega überhaupt nicht zum undervolten nutzen, mittlerweile sieht es etwas besser aus, aber die AMD spezifischen Tools sind deutlich effektiver.
Der_Korken
2018-01-09, 13:24:52
Seit Polaris funktioniert Afterburner nicht mehr wirklich gut mit AMD Karten. Den Curveeditor gibt es nur für Pacal. Und anfänglich konnte man Afterburner und Vega überhaupt nicht zum undervolten nutzen, mittlerweile sieht es etwas besser aus, aber die AMD spezifischen Tools sind deutlich effektiver.
Zwischen Polaris und Vega gibt es extreme Unterschiede, was das übertakten/undervolten angeht. Bei Polaris kann man im Wattman einfach bei P1 bis P7 eine Kombination aus Takt und Spannung eintragen und die Karte setzt das auch genauso um (mit wenigen Einschränkungen). Das kann man quasi als Curveeditor bezeichnen, nur dass die Kurve mit nur sieben Datenpunkten eben recht eckig ist. Wobei ich ehrlich gesagt auch keine Lust hätte 20 Kombinationen entsprechend in Spielen auszuloten und auf Stabilität zu testen. Bei Vega ist alles total chaotisch. Man kann (sorry wenn ich da nicht auf dem neuesten Stand bin) gar nicht alle States frei editieren, teilweise hat die Einstellung von P7 einen Einfluss auf die kleineren States, teilweise werden Takt- und Spannungskombinationen angenommen, die sich gar nicht aus den States ergeben und teilweise spielt auch das PT rein, selbst wenn die Karte gerade gar nicht PT-limitiert ist. Dargo versucht sich hier einen Reim auf das Verhalten zu machen, aber das ist - selbst wenn es korrekt ist - so kompliziert, dass selbst ich das als Zumutung empfinde. Das einzige, was wirklich jeder bei Vega einstellen kann ist das PT über die mitgelieferten Presets im Watmman. Selbst ohne manuelles UV spart man hier eine Menge Strom ein im Verhältnis zur verlorenen Leistung.
BoMbY
2018-01-09, 13:41:19
Nicht meckern, selber besser machen: https://developer.amd.com/display-library-adl-sdk/
Ansonsten kann man auch mal das versuchen: OverdriveNTool (https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/)
=Floi=
2018-01-09, 14:04:49
Nicht meckern, selber besser machen: https://developer.amd.com/display-library-adl-sdk/
08/10/2016
ist da schon vega support integriert? :uup:
Das könnte ja glatt der grund sein, warum der afterburner nicht sauber funktioniert.
Wobei der satz mit dem selber machen schon ein lustiger seitenhieb ist.
Ist Vega 20 dann der 7nm shrink?
Es ist auch komisch, dass man sich nicht zu anderen modellen genau geäußert hat. Größer wird der chip ja nicht...
Der_Korken
2018-01-09, 14:15:37
Wobei der satz mit dem selber machen schon ein lustiger seitenhieb ist.
:D
Ja, es stimmt schon, dass man auch selbst was machen könnte. Ich habe - ohne mir jetzt angeguckt zu haben, was die verlinkte API kann und wie sie aussieht - nur die Befürchtung, dass das interne Verhalten von Vega das Problem ist bzw. der Chip nicht das tut, was man ihm sagt. Derjenige, der das Watt-Tool geschrieben hat, wird wohl schon wissen, was er tut, da sein Tool mit Polaris läuft wie gewollt. Bloß wenn das Setzen von P-States irgendwelche chipinternen Seiteneffekte hat, wird es schwer. Da müsste man quasi eine Funktion finden, die die im Wattmans/-tool eingetragenen Werte (alle P-States, MC-Spannung, PT, ...) als Eingabe bekommt und so umrechnet, dass wenn man die umgerechneten Werte an die Graka weiterleitet, sie sich wieder genauso verhält wie es die Eingabe verlangt :freak:.
Bucklew
2018-01-09, 14:21:31
08/10/2016
ist da schon vega support integriert? :uup:
Wattman Example ist von 2013. Wahrscheinlich gibt es eine neue API und die dortige ist schlicht veraltet - und wird eben vom Afterburner verwendet.
Dann ist der Hinweis das selbst zu machen auch nur als Witz zu verstehen.
Mangel76
2018-01-09, 14:25:42
Bei Vega ist alles total chaotisch. Man kann (sorry wenn ich da nicht auf dem neuesten Stand bin) gar nicht alle States frei editieren, teilweise hat die Einstellung von P7 einen Einfluss auf die kleineren States, teilweise werden Takt- und Spannungskombinationen angenommen, die sich gar nicht aus den States ergeben und teilweise spielt auch das PT rein, selbst wenn die Karte gerade gar nicht PT-limitiert ist. Dargo versucht sich hier einen Reim auf das Verhalten zu machen, aber das ist - selbst wenn es korrekt ist - so kompliziert, dass selbst ich das als Zumutung empfinde. Das einzige, was wirklich jeder bei Vega einstellen kann ist das PT über die mitgelieferten Presets im Watmman. Selbst ohne manuelles UV spart man hier eine Menge Strom ein im Verhältnis zur verlorenen Leistung.
Aus meinen Versuchen mit OverdriveNTool weiß ich, dass bei manueller Einstellung nur der letzte PState eine Rolle spielt. Sprich: solange P7 konstant bleibt, konnte ich an den unteren alles mögliche einstellen, die realen Werte haben sich aber nicht geändert (bis auf die verknüpften Werte mit dem HBM natürlich). Hat das schonmal jemand mit Wattman überprüft? Also, ob die Spannung bei geringer Taktung höher liegt, wenn man nur P7 runterzieht? Oder wird auch im Wattman alles durch den letzten PState bestimmt???? Nutze den mittlerweile nicht mehr, da UV per PPTable super funktioniert.
Rancor
2018-01-09, 14:27:32
Hat eigentlich schonmal jemand die Spannung direkt an der Karte gemessen ?
=Floi=
V20 ist kein Shrink, sondern ein neuer Chip. Man nahm die Vega-Architektur als Grundlage und erweiterte um etliche HPC-Features, auch die CUs dürften deutlich komplexer ausfallen.
Nakai
2018-01-09, 14:33:21
Wenn AMD bei Tesla drin ist, dann sehen wir V20 in Tesla.
BoMbY
2018-01-09, 15:43:57
Nein. Wenn überhaupt sehen wir K12 bei Tesla als Basis, und ein eigenes AI-Chipdesign von Keller dazu.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/45414-samsung-praesentiert-hbm2-aquabolt-mit-2-4-gbit-s-pro-pin.html
Ach guck mal, V20-Speicher :D.
dargo
2018-01-11, 12:27:18
Sehr schön... mit 614GB/s würde wieder ein Vega Refresh Sinn machen. :tongue: Ob da noch was dieses Jahr kommt? :uponder:
Für Consumer wohl kaum. Ich würd mal darauf tippen, dass den Launch im Profimarkt mit EPYC2 timen werden. Der Speicher passt jedenfalls ganz gut dazu. V20 dürfte ja die 40% mehr Performance des 7nm-Prozesses umsetzen.
V20 soll doch Hawaii endlich als DP-"Monster" in Rente schicken, hoffe ich mal
dargo
2018-01-11, 13:25:13
Für Consumer wohl kaum.
Denke ich auch. Zumal der Vega Refresh dann mindestens 16GB Speicher hätte, was wieder zu teuer wäre. Oder habe ich das mit min. 8GB pro Stack bei Samsung falsch verstanden?
vinacis_vivids
2018-01-11, 13:35:52
Für consumer ~ Vega11 reicht doch 1x8GB Stack mit max 307GB/s
Wäre besser als Polaris.
BoMbY
2018-01-11, 13:59:27
Denke ich auch. Zumal der Vega Refresh dann mindestens 16GB Speicher hätte, was wieder zu teuer wäre. Oder habe ich das mit min. 8GB pro Stack bei Samsung falsch verstanden?
Es gibt keinen Vega-Refresh. Und VEGA20 kommt - zumindest nach den alten Informationen - mit 4 Stacks, und 16-32 GB HBM.
deekey777
2018-01-11, 14:01:24
Für consumer ~ Vega11 reicht doch 1x8GB Stack mit max 307GB/s
Wäre besser als Polaris.
Was ist Vega 11?
Es gibt keinen Vega-Refresh. Und VEGA20 kommt - zumindest nach den alten Informationen - mit 4 Stacks, und 16-32 GB HBM.
Sicher nicht. Jedenfalls nicht nach den Spekus mit den 64CUs. Dann wird der Chip nämlich nicht sonderlich groß.
Wo kommen denn ständig die 400 Watt her? Diese Zahl erzielt eine LCE nur, wenn man die Peaks mittelt (oder sie übertaktet). In Wahrheit rangiert die Karte unter Volllast (nein, Full HD oder eine Runde PUBG ist keine Volllast ;)) bei rund 350 Watt. Superselektiertes Undervolting als Maßstab zu nehmen ist aber ebenso falsch. Meine Titan X (Pascal) stemmt in den meisten Spielen 2.000/5.500 MHz mit den standardmäßigen 250 Watt. Das ist super, hat bei der Bewertung von Grafikkarten "out of the box" aber rein gar nichts verloren. Das ist, wenn man nett ist, eine Eigenschaft. Und eine solche wirkt sich auf die zweite Nachkommastelle der Note aus.
MfG,
Raff
Endlich mal einer der die Wahrheit sagt ;). Meine LCE ging nie über 320W hinaus bei dauerhaften 1.73/1100G (Corsair Link meinte die Total Power wäre so bei 340W).
Locuza
2018-01-11, 15:43:25
Was ist Vega 11?
Der Chipcodename für einen weiteren dedizierten Vega Chip, wie Vega10 für Vega 64/56 verwendet wird.
Der hätte eig. auch 2017 erscheinen sollen.
Sicher nicht. Jedenfalls nicht nach den Spekus mit den 64CUs. Dann wird der Chip nämlich nicht sonderlich groß.
Dann wird der Chip eben nicht sonderlich groß, geplant war er laut VZ-Leaks aber genau in dieser Form, 7nm, 64 CUs und 4 HBM-Stacks.
Bei der ECC gab es auch schon Einträge:
VEGA 20 GL Vega 20 32GB INSTINCT/RADEON PRO OEMs
VEGA 20 GL Vega 20 32GB INSTINCT/RADEON PRO AIBs
VEGA 20 GL Vega 20 16GB INSTINCT/RADEON PRO AIBs
VEGA 20 GL Vega 20 16GB INSTINCT/RADEON PRO OEMs
https://videocardz.com/71280/amd-vega-10-vega-11-vega-12-and-vega-20-confirmed-by-eec
deekey777
2018-01-11, 15:47:40
Der Chipcodename für einen weiteren dedizierten Vega Chip, wie Vega10 für Vega 64/56 verwendet wird.
Der hätte eig. auch 2017 erscheinen sollen.
...[/URL]
Und es gibt eine Aussage, dass Vega 11 der Name für die Raven-Ridge-GPU ist.
vinacis_vivids
2018-01-11, 15:57:36
V20 ist vermutlich ein V10 7nm shrink in doppelter Ausführung in einem Interposer.
Also 8192SP (2x4096SP) verbunden durch Infinity Fabric(?)
Ein revolutionärer Schritt Richtung mGPU.
Locuza
2018-01-11, 16:00:17
@ deekey777
James Prior hat sich eher extra unwissend gestellt, um das Thema öffentlich nicht genauer kommentieren zu müssen.
Der Codename für die GPU bei Raven-Ridge ist Raven1X.
Das die Codenamen teilweise in Konflikt mit der Benennung der Produkte durch die Einheitenzahlen geraten, ist leider nicht elegant gelöst.
V20 ist vermutlich ein V10 7nm shrink in doppelter Ausführung in einem Interposer.
Also 8192SP (2x4096SP) verbunden durch Infinity Fabric(?)
Ein revolutionärer Schritt Richtung mGPU.
Ja, dass ist sehr wahrscheinlich, anstatt die alten Pläne umzusetzen:
62319
https://videocardz.com/65521/amd-vega-10-and-vega-20-slides-revealed
Kann es kaum erwarten die Revolution mit 8000-Shadern zu erblicken. :rolleyes:
dargo
2018-01-11, 16:24:55
Es gibt keinen Vega-Refresh.
Ich habe nicht gesagt es gibt einen sondern, dass es jetzt mit schnellerem HBM2 einen Sinn geben würde einen Refresh zu bringen. ;)
Der_Korken
2018-01-11, 17:49:35
Ja, dass ist sehr wahrscheinlich, anstatt die alten Pläne umzusetzen:
62319
https://videocardz.com/65521/amd-vega-10-and-vega-20-slides-revealed
Kann es kaum erwarten die Revolution mit 8000-Shadern zu erblicken. :rolleyes:
Was mich etwas wundert: Wenn V20 tatsächlich nur 64 CUs haben wird, wird er vermutlich auch kaum größer als V10 sein (PHYs für HBM und DP auf GCN kostet beides nicht viel). Da aber zusätzlich durch 7nm annähernd 50% der Fläche eingespart werden sollen, landet man irgendwo bei 250-280mm². Das dürfte weniger Fläche sein als für die vier HBM2-Stacks, die ja doch deutlich größer als die HBM1-Stacks sind. Das stell ich mir ein bisschen bizarr vor, wenn ich da so an V100 denke.
dildo4u
2018-01-11, 18:00:37
Die 7nm CU werden mehr Transistoren haben da sie FP 64 1/2 unterstützen,die Die wird also nicht so klein werden.
Würde es für Vega CUS wenig Transistoren kosten hätte es schon Vega 10 gehabt.
vinacis_vivids
2018-01-11, 18:03:11
In der veralteten Folie ist auch eine "Vega10 x2" zu erkennen. Quasi der Nachfolger von R9 295 dual-GPU.
Die hypothetischen 32GB@1,2TB/s müssen auch mit ausreichend Rechenpower gefüttert werden. 8192SP bei 1,5Ghz ergeben 24,5Tflops, was dem entspräche.
Der_Korken
2018-01-11, 18:09:34
Die 7nm CU werden mehr Transistoren haben da sie FP 64 1/2 unterstützen,die Die wird also nicht so klein werden.
Würde es für Vega CUS wenig Transistoren kosten hätte es schon Vega 10 gehabt.
Hawaii sagt da aber was ganz anderes. Die Transistoren/CU sind gegenüber Tahiti zwar gestiegen, dafür gab es aber auch vier statt zwei Shader Engines und ACEs. Bei Tonga waren es trotz 1:16 DP dann wieder mehr Transistoren/CU und bei Fiji etwa gleichviel, wobei letzterer quasi mit CUs vollgestopft war.
Dass V10 es nicht hatte ist wirklich komisch, aber vielleicht braucht man für DP-Berechnungen eh mehr VRAM und Bandbreite und man war der Meinung, dass es sich für V10 nicht lohnt.
basix
2018-01-11, 18:10:14
Ist die Frage, ob pro V20 Chip 2 oder 4 Stacks verbaut werden. Laut Folie würde ich 4 sagen. Das würde dann im 2x Vollausbau 2 TB/s entsprechen. Das verbunden mit 64GB Speicher, 12.5 TFLOPs FP64, 25 TFLOPs FP32 und 50 TFLOPs FP16 in 250-300W wäre ein schönes Compute-Powerhouse.
lowkres
2018-01-12, 00:34:38
AMD wäre dumm, wenn sie nicht dieses Jahr wenigstens ein Vega Refresh rausbringen würden. Nvidia mit einer komplett neuen Generation dieses Jahr alleine zu lassen, wäre ein fataler Schlag.
Gerade die neuen Informationen über die 2te Generation der HBM2 Stacks sind sehr erfreulich und man kann echt nur hoffen, dass AMD dieses Jahr ein Vega Refresh mit neuen Mittelklasse Grafikkarten auflegt.
=Floi=
2018-01-12, 00:45:05
was sollen 5% mehr bringen?
Die 580er wurde deswegen auch nicht besser, eher schlechter, weil man den chip übers maximum prügelte.
Ein refresh bringt dem kunden (fast) nichts.
Palpatin
2018-01-12, 07:47:12
Zummindest Rebrands wird es geben auch wenn nichts neues kommt, macht AMD doch jedes Jahr. 290, 390, 580 usw.
@ deekey777
James Prior hat sich eher extra unwissend gestellt, um das Thema öffentlich nicht genauer kommentieren zu müssen.
Der Codename für die GPU bei Raven-Ridge ist Raven1X.
Das die Codenamen teilweise in Konflikt mit der Benennung der Produkte durch die Einheitenzahlen geraten, ist leider nicht elegant gelöst.
Ja, dass ist sehr wahrscheinlich, anstatt die alten Pläne umzusetzen:
62319
https://videocardz.com/65521/amd-vega-10-and-vega-20-slides-revealed
Kann es kaum erwarten die Revolution mit 8000-Shadern zu erblicken. :rolleyes:
Die Folien sind Jahre alt. Ich glaube nicht, dass das so kommt und ich finde die 2-Chip-Theorie, vor allem angesichts von InfinityFabric für sehr naheliegend. 2 Chips auf einem Interposer geht sowieso nur mit 4 Stacks, also hat V20 mit an Sicherheit grenzender Wahrscheinlichkeit auch 2. Das Design war zu dem Zeitpunkt als die Folie erschien ja nicht fertig.
Locuza
2018-01-12, 11:23:07
Hawaii sagt da aber was ganz anderes. Die Transistoren/CU sind gegenüber Tahiti zwar gestiegen, dafür gab es aber auch vier statt zwei Shader Engines und ACEs. Bei Tonga waren es trotz 1:16 DP dann wieder mehr Transistoren/CU und bei Fiji etwa gleichviel, wobei letzterer quasi mit CUs vollgestopft war.
Dass V10 es nicht hatte ist wirklich komisch, aber vielleicht braucht man für DP-Berechnungen eh mehr VRAM und Bandbreite und man war der Meinung, dass es sich für V10 nicht lohnt.
Tahiti bot selber ein DP:SP-Verhältnis von 1:4 und ECC beim SRAM.
Wenn ich mich recht entsinne waren die CUs bei Tahiti etwas größer, als bei Pitcairn, Hawaii müsste im Vergleich zu Pitcairn noch einmal mehr pro CU verbraucht haben.
Vega10 bietet nur ein Verhältnis von 1:16 und kein ECC beim SRAM.
In der Hinsicht völlig abgespeckt.
Vega20 rüstet ein Verhältnis von 1:2 nach, ECC, es kommen noch zwei HBM2-Interfaces dazu, PCIe4 und xGMI.
Der Chip wird sicherlich relativ klein sein und das Bild neben 4 HBM-Stacks lustig.
Die Folien sind Jahre alt. Ich glaube nicht, dass das so kommt und ich finde die 2-Chip-Theorie, vor allem angesichts von InfinityFabric für sehr naheliegend. 2 Chips auf einem Interposer geht sowieso nur mit 4 Stacks, also hat V20 mit an Sicherheit grenzender Wahrscheinlichkeit auch 2. Das Design war zu dem Zeitpunkt als die Folie erschien ja nicht fertig.
Warum ist es angesichts des InfinityFabrics sehr naheliegend?
IF stellt gar keinen neuen Faktor dar, sondern war von Anfang an Teilbestandteil der Projekte und man hat keine Kopplung von mehrerer dies vorgesehen, aber jetzt soll es sehr naheliegend sein?
Naheliegend ist, dass du mit 2 Dies nur 4 Stacks verbauen kannst, wenn du keine 2 Packages verbauen willst. Und genau das wird auch passieren. Daher hat ein V20 garantiert keine 4 Stacks. Und das die Folie 4 Stacks erwähnt heißt in der Hinsicht eben gar nichts. Damit kann auch genau so ein Konzept gemeint sein, denn direkt darunter steht ja "xGMI-Support for peer-to-peer GPU Communication". Man muss die Folie auch mal lesen. Das Grundkonzept bleibt mit V20 erhalten, nur dass man das Teil eben auch als Doppelpack mit 4 HBM-Stacks verbauen kann und die Profifeatures nachgerüstet wurden. Mit 128CUs hätte das Teil eben ca. 25TFLOPs FP32-Leistung und mit dem neuen HBM eine Bandbreite von 1200GT/s. Das passt sehr gut.
Ich wette, dass V20 als Consumerchip mit knapp 300mm² auch genutzt wird. Ergänzt wird das ganze dann durch N10, der eben mit seinen neu designten sparsamen CUs dann 128CUs in den Consumermarkt bringt, das Teil könnte also durchaus ne ähnliche Nummer sein wie RV770 vs. RV670 damals. Mit EUV und noch höherer Packdichte dürfte dann 2020 ein nochmals leistungsfähigeres Design kommen. Die Zeiten der Komplettlineups sind halt vorbei.
AMD scheint bei GPU-Masken noch sparsamer geworden zu sein, kein Wunder bei den teuren Fertigungsprozessen.
Locuza
2018-01-12, 12:01:02
Hot du liegst falsch, wie immer, entsprechend mache ich mir nicht einmal die Mühe.
vinacis_vivids
2018-01-12, 12:59:12
Geile Argumente von dir Locuza.
Den Weg, der AMD bei CPU'S recht erfolgreich gegangen ist, wird nun auch auf GPU'S erweitert. Einfache Logik, da man mit Sicherheit keine 815mm² schmieden wird. Denk Mal scharf nach.
StefanV
2018-01-12, 13:49:34
Geile Argumente von dir Locuza.
Den Weg, der AMD bei CPU'S recht erfolgreich gegangen ist, wird nun auch auf GPU'S erweitert. Einfache Logik, da man mit Sicherheit keine 815mm² schmieden wird. Denk Mal scharf nach.
Nein, Blödsinn denn CPUs sind keine GPUs und die Bandrbeitenanforderungen bei CPUs ist deutlich geringer als bei GPUs.
GPUs sind kleine, massivs Parallel arbeitende Einheiten, CPUs sind nicht soo parallel.
Und CCX ist jetzt auch nicht soo potent...
Das isst fantastisch um eine GPU anzubinden, mehrere untereinander aber nicht unbedingt.
Und das modulare Zeugs kommt ja erst mit Navi und das wird nicht das sein, woran HOT gerad denkt.
StefanV
2018-01-12, 13:50:43
da man mit Sicherheit keine 815mm² schmieden wird
WArum sollt man das denn nicht machen?!
Wenns ein Chip für HPC wird, was spricht dagegen, voll auf die Kacke zu hauen?
Ungefähr so, wie mans damals mit R300 gemacht hat...
StefanV
Gut, diese Argumentation ist durchaus schlüssig, grad im Profibereich kann viel Bandbreite ja auch ein verkaufbarer Vorteil sein.
Locuza
Klar lieg ich auch mal falsch, warum sollt ich das auch nicht zugeben. Ist halt auch nen Spekuthread, da darf ich durchaus oft falsch liegen ;).
unl34shed
2018-01-12, 14:07:46
Aber gab es da nicht auch IF Folien, die von Skalierbarkeit bei der Bandbreite sprechen?
Locuza
2018-01-12, 14:16:51
@ Hot
"Mal", dass ist die Regel, denn die Ausnahme.
Das du mitunter von mir nicht ernst genommen wirst, hängt damit zusammen das du wie ein Sith-Lord im Absoluten spekulierst.
XYZ hat garantiert oder garantiert nicht, XYZ ist ausgeschlossen usw.
Neben den absoluten Urteilen wird das ganze mit teilweise sehr abenteuerlichen Interpretationen oder Spekulationen garniert.
Und bezüglich der Spekulation gibt es auch Rahmenbedingungen, ab wann man nicht mehr von wahrscheinlicher oder sinniger Spekulation reden kann.
Vega20 war als ein Single-Chip mit vier HBM2-Stacks geplant.
Vega10 wurde als Single-Chip präsentiert und Vega10 x2 konkret als Dual-Chip-Produkt.
xGMI ist ein ausgefallenerer Interconnect, womit AMD on/off-Package CPUs und GPUs fortschrittlicher untereinander kommunizieren lassen kann, ähnlich wie NVLINK von Nvidia.
Aber die Latenzen und die Bandbreiten davon, zusammen mit dem Chipdesign, werden wahrscheinlich nicht auf dem Level sein, womit man Multi-Chip GPUs realisieren kann.
Spekulativ nimmt man diesen Schritt erst ab Navi an.
Du kannst dann von mir aus sagen, nein ich glaube das schafft AMD schon mit Vega20 und hat das Projekt umgestaltet, aber ohne Grundlage solltest du dich dann fern davon halten, zu sagen das Vega20 garantiert keine 4-Stacks mehr hat und die Spekulation sehr naheliegend ist.
basix
2018-01-12, 18:33:48
Ich denke auch, dass Vega 20 als Single Chip mit 4 HBM-Stacks kommen wird. Nur die 150-300W Angabe auf der Folie macht mir noch ein wenig Angst. Entweder wird 7nm nicht so der Effizienzbringer wie angenommen oder sie takten das Ding bis zum Mond ;D
Zur Bandbreitenskalierung von IF: Heute wird maximal 512 GB/s unterstützt. Das wurde mal bei Vega 10 erwähnt und deckt sich mit der HBM-Speicherbandbreite.
Für Navi wird dann das evtl. anders aussehen. Andererseits wären die 512 GB/s genug, wenn man 4x Navi DIE per IF verbindet analog zu EPYC. Jeder Navi DIE bekommt 1x HBM3 Stack @ 512GB/s und man benötigt max. 2 Hops zwischen HBM-Stapel X zu Navi DIE Y bei voller Bandbreite. Peak würden dann aber 5.1 TB/s off-chip herumgeschaufelt. Wahrscheinlich zu viel. Eher dann 128 GB/s zwischen den einzelnen Navi DIE und man kann dies auf 2.8 TB/s verringern. Laut z.B. Nvidia Papers zu dem Multi-DIE Thema verliert man dann zwar etwa 10% Peak Leistung, ist aber wenigstens umsetzbar. Zusammen mit 4k Shader pro Navi DIE (evtl. 200-250mm2) bei 1.5GHz ergäbe das ein 50 TFLOPs FP32 & 2 TB/s Monster. Ja ich weiss, ich bin wie immer etwas optimistisch unterwegs :D
Edit:
Noch zu 512 GB/s vs. 128 GB/s DIE zu DIE. Wie sieht das aus, wenn Navi per HBCC und stark reduzierter Bandbreitenanforderung auf die HBM-Stacks der anderen drei Chips zugreifen kann? Am PC funktioniert dies ja sogar über PCIe3 16x mit 16 GB/s je nach dem schon gut.
reaperrr
2018-01-13, 17:23:25
Ich denke auch, dass Vega 20 als Single Chip mit 4 HBM-Stacks kommen wird. Nur die 150-300W Angabe auf der Folie macht mir noch ein wenig Angst. Entweder wird 7nm nicht so der Effizienzbringer wie angenommen oder sie takten das Ding bis zum Mond ;D
Ich tippe hauptsächlich auf Letzteres.
Da sich an der IPC wohl nichts gegenüber V10 tun wird (von Vorteilen durch die höhere Bandbreite abgesehen) und GV100 25% mehr (aktive) ALUs hat, müsste Vega20 theoretisch 25% höher als GV100 takten, um zumindest bei FP16, FP32 und FP64 auf Augenhöhe zu kommen. 25% über GV100 wäre ganz grob geschätzt 1800 +/- ~50 MHz, das sind Taktbereiche, für die Vega sicher auch in 7nm recht hohe Spannungen braucht. Dazu noch doppelte Menge HBM-Chips und 1:2 DP, da sind 300W für das Top-Modell nicht abwegig, selbst wenn der Chip relativ klein wird (ich tippe auf ca. 300 mm², also 60-80mm² größer als ein linearer V10-Shrink, hauptsächlich wegen verdoppeltem HBM-Interface).
Gleichzeitig sollte 7nm bei gleichem Takt und gleicher Spannung schon massiv Einsparungen gegenüber V10 bringen, eine Karte mit V56-ähnlichen Specs auf V20-Basis sollte selbst mit doppeltem HBM in 150W passen.
Übrigens wäre meine Idee, wie es evtl. doch mit einem Desktop-Modell mit vertretbaren Herstellungskosten klappen könnte:
Nur 2 der 4 HBM-Interfaces nutzen, mit entsprechend kleinerem Interposer.
Mit den neuen 1,2GHz@1.2V-8GB-HBM2-Chips wären damit theoretisch bereits über 20% mehr Speicherbandbreite gegenüber V64 möglich, dazu eben kleinerer Interposer und sicherlich auch ~20% mehr Chip-Takt (bezogen auf den Durchschnittstakt).
Zumindest GA104-Salvage könnte man damit vermutlich erreichen oder gar schlagen.
Je nachdem, wieviel später Navi kommt, wäre das evtl. eine brauchbare Übergangslösung, und sei es auch nur in begrenzter Stückzahl und zu etwas überhöhten Preisen, um wenigstens auf dem Papier etwas halbwegs konkurrenzfähiges zu haben.
Wirklich wahrscheinlich ist es aber trotzdem nicht, wenn Navi wesentlich besser als Vega wird und nicht viel später kommt.
Locuza
Na, wenn dir nix besseres einfällt...
@V20 der Prozess wird ja einiges an Performance bringen, egal ob GloFo oder TSMC. Da dürfte das ein oder andere MHz drin sein.
mboeller
2018-01-13, 17:51:45
Ich tippe hauptsächlich auf Letzteres.
Da sich an der IPC wohl nichts gegenüber V10 tun wird (von Vorteilen durch die höhere Bandbreite abgesehen) und GV100 25% mehr (aktive) ALUs hat, müsste Vega20 theoretisch 25% höher als GV100 takten, um zumindest bei FP16, FP32 und FP64 auf Augenhöhe zu kommen. 25% über GV100 wäre ganz grob geschätzt 1800 +/- ~50 MHz, das sind Taktbereiche, für die Vega sicher auch in 7nm recht hohe Spannungen braucht.
1250 MHz x 1,4 = 1750 MHz in 7nm; Basistakt
1550 MHz x 1,4 = 2170 MHz in 7nm; Boosttakt
bei gleichem Verbrauch!
sollte also schon gehen.
vinacis_vivids
2018-01-13, 18:23:25
1750-1800Mhz macht Vega schon heute an der "Wall" und Pascal 2050-2100Mhz.
IPC verschiebt sich mit LL-API ohnehin weit Richtung rot. Ist nur die Frage ob die ganzen Entwickler für Games auch mitziehen können. Daher sogar relativ schlau von AMD nicht unnötig Ressourcen in paar Prozente in einem refresh zu investieren um den jährlichen Zyklus einzuhalten.
Viel wichtiger ist die Verbreitung von Vega in alle Bereiche, die vorher quasi für AMD unerreichbar war.
=Floi=
2018-01-15, 09:50:15
Nur bringt der takt bei vega nichts.
Kannst dir nicht einfach mal den LL shit sparen. (in jedem zweiten post kommt so ein satz.) Glaubst du NV schläft? Im grunde ist es egal, weil die grünen das mit purer rohleistung einfach ausgleichen. Es steht eine neue generation vor der tür und die legt ihre 40% auf den vorgänger drauf.
Ja, bei der verbreitung hast du absolut recht und da bin ich auch bei dir. Das ist sicherlich der schlüssel für folgeaufträge und breiter OEM Marktdurchdringung.
Rancor
2018-01-15, 10:25:46
Nein, das LL Lied wird immer weiter gesungen werden. Da kannst du dir sicher sein.
Bucklew
2018-01-15, 10:30:41
Nein, das LL Lied wird immer weiter gesungen werden. Da kannst du dir sicher sein.
Das Lies wurde schon sehr lange piano gesungen und es wird immer leiser:
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Anzahl-unterstuetzter-Titel-2017-um-die-Haelfte-gesunken-1245648/
vinacis_vivids
2018-01-15, 10:46:29
LL-API gehört nunmal zu den wichtigsten Komponenten der Zukunft und wird sozusagen die Würze in den Vega-Wein bringen. Besonders unterhalb von V10 im mobilen Bereich.
Rancor
2018-01-15, 10:53:55
Das Lies wurde schon sehr lange piano gesungen und es wird immer leiser:
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Anzahl-unterstuetzter-Titel-2017-um-die-Haelfte-gesunken-1245648/
Das weißt du und das weiss ich, aber v_v weiß das nicht :D
Es wird zumindest für die aktuellen Karten keine wesentliche Rolle mehr spielen und ich bezweifel auch das es 2018 eine wesentliche Rolle spielen wird.
vinacis_vivids
2018-01-15, 11:16:58
Wir haben 2018 und es werden wieder DX12 und Vulkan Titel erscheinen und summarum mehr werden. Das ist zwar ein zäher Prozess, aber unvermeidlich.
dargo
2018-01-15, 11:24:34
Nur bringt der takt bei vega nichts.
Ist nur kompletter Humbug, wie kommst du auch den Trichter? Natürlich skaliert Vega mit dem Takt nach oben sofern die Bandbreite 1:1 angehoben wird. Tut man es nicht ist die Skalierung geringer. Nichts Ungewöhnliches, auch bei Pascal skalieren die Frames nicht 1:1 wenn nur der GPU-Takt erhöht wird. :rolleyes:
https://www.computerbase.de/2017-05/palit-gtx-1080-ti-gamerock-test/2/#diagramm-performancerating-3840-2160
Die Gamerock taktet überwiegend mit 1924Mhz im OC-Modus. Das sind 19% mehr GPU-Takt als die Referenz GTX 1080TI. Diese taktet nämlich im Schnitt mit 1622Mhz.
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last
Trotz 19% mehr GPU-Takt ist die Gamerock nur 11% schneller als die GTX 1080TI FE.
Edit:
Kannst auch gerne die Gigabyte Aorus im Gaming-Modus nehmen. Im Schnitt 1879Mhz in BF1 und Dishonored 2. Sprich 16% mehr GPU-Takt ergeben 7-8% mehr Frames. In WD2 sogar nur 6% obwohl die Taktrate noch etwas höher ist. Nur Doom reagiert mit 13% besser. Offenbar ist hier die Bandbreite nicht ganz so wichtig oder das Gegenstück vom DSBR @Vega funktioniert hier bei Nvidia einfach nur besser, so dass die Bandbreite etwas an Bedeutung verliert.
Dino-Fossil
2018-01-15, 11:56:08
Sicher hilft mehr Takt, Frage ist eher, ob der 2018 beim Kunden ankommt.
Entsprechend der CES Folie wird es V20 für den professionellen Markt geben und weiterhin Vega 56 und 64 für die Gaming-Sparte.
Und wenn man nicht gerade sehr optimistisch ist, gibt es keinen Grund anzunehmen, dass sich damit für Spieler etwas am Ist-Zustand ändert.
Mit Glück steigt vielleicht mal die Verfügbarkeit...
=Floi=
2018-01-15, 12:07:54
.
ich wollte jatzt antworten, nur kommt du von der vega auf die 1080ti
basix
2018-01-15, 20:37:59
Wenn AMD die 4k Shader mit 2 GHz bringt wäre das schon eine schöne Karte. 8 TFLOPs FP64 wäre ein grosser Sprung zu Hawaii.
Zergra
2018-01-15, 21:11:51
Mit Glück steigt vielleicht mal die Verfügbarkeit...
In 7nm ? vllt Ende 2019 mit dem Navi Release, bis dahin haben wir noch viel Spaß mit Vega 10...
V20 wird es 2018 eh nur für den Profimarkt geben und daher auch kaum Bezahlbar für Gamer...
Thunder99
2018-01-15, 22:34:55
Wir haben 2018 und es werden wieder DX12 und Vulkan Titel erscheinen und summarum mehr werden. Das ist zwar ein zäher Prozess, aber unvermeidlich.
Es wurden aber so wenig neue DX12/Vulcan Spiele angekündigt wie schon lange nicht mehr. Kein Wunder bei dieser tollen API (insbesondere DX12) :rolleyes:
Dino-Fossil
2018-01-15, 23:01:41
In 7nm ?
Nö, in 14nm, Vega 56/64 werden ja wohl kaum auf 7nm portiert - vermutlich noch nicht mal auf 12nm, es sei denn man hat sich entschlossen, die Produktnamen beizubehalten.
StefanV
2018-01-15, 23:22:29
Es wurden aber so wenig neue DX12/Vulcan Spiele angekündigt wie schon lange nicht mehr. Kein Wunder bei dieser tollen API (insbesondere DX12) :rolleyes:
Lies, was gravitationsfeld dazu geschrieben hat.
DX12/Vulkan sind toll, kannst aber nicht 'mal eben anflanschen' und du musst auch 'nen ganzes Stück umdenken.
Für die meisten 08/15 Standard Spiele mit durchschnittlicher Grafik, wenn überhaupt, ist das irrelevant. Da reicht sogar noch DX9...
|MatMan|
2018-01-15, 23:57:56
V20 wird es 2018 eh nur für den Profimarkt geben und daher auch kaum Bezahlbar für Gamer...
Mein letzter Stand zu V20 war "Sampling in 2018", das heißt da gehen ein paar ausgewählte Chips bzw. Boards an Boardpartner / Systemintegratoren / Großkunden /... . Mit Massenproduktion hat das nichts zu tun. AMD ist wohl diesmal vorsichtiger und kündigt keinen V20 Launch für 2018 an, um nicht am 31.12. eine FE-Edition launchen zu müssen, nur um den Termin zu halten. Falls es V20 noch 2018 zu kaufen gibt, bin ich positiv überrascht - ausgehen würde ich erstmal von 2019.
robbitop
2018-01-21, 12:40:47
Was ich sehr interessant finde ist, dass Vega M GH etwas schneller sein soll als eine 1060 max q.
1060 max q hat einen ungefähren boost von 1400 mhz (1348-1480)
1280 alus x 2 flops x 1400 mhz = 3,58 tflops
Vega M GH hat einen boost von 1190 mhz
1536 alus x 2 flops x 1190 mhz = 3,65 tflops
Die theoretische Rohleistung ist also auf gleichem Level. Selbst wenn die Spieleperformance exakt gleich ist, wäre das für Vega ein großer Sprung nach vorn. Wobei mir nicht klar ist, wie die Taktraten der 1060 max q in der Praxis aussehen.
Was man aber schon bei gcn 1.x sah, dass es bei AMD ein etwas größeres Skalierungsproblem gibt. Cape Verde (640 alus) zeigte die beste Performance pro Rohleistung. Pitcairn (1280 alus) war leicht schlechter. Tahitii, Hawaii und Fijii wurden in diesem Zusammenhang immer schlechter. Vega 10 scheint hier auch nicht so viel besser zu sein. Ein kleiner Vega mit weniger alus könnte aber hier wieder besser sein. Auch hat Vega M GH sehr viel Bandbreite und ROPs für die Rohleistung.
Bei NV bekommt man das Problem durch die GPCs relativ gut in den Griff. Ggf ist das auch für Navi mit „better scalability“ gemeint. Eine mArch die man analog zu Kepler/maxwell/pascall mit der Anzahl der Einheiten besser skalieren kann. Dazu muss man sicher eine Menge umkrempeln. Ggf wird dann auch die Cachestruktur gleich mit angefasst, so dass dsbr und dcc noch effizienter werden.
Dino-Fossil
2018-01-21, 13:25:48
Bei NV bekommt man das Problem durch die GPCs relativ gut in den Griff. Ggf ist das auch für Navi mit „better scalability“ gemeint. Eine mArch die man analog zu Kepler/maxwell/pascall mit der Anzahl der Einheiten besser skalieren kann. Dazu muss man sicher eine Menge umkrempeln. Ggf wird dann auch die Cachestruktur gleich mit angefasst, so dass dsbr und dcc noch effizienter werden.
Halte ich auch für möglich.
"Scalability" über multi-chip Architektur (wie gerne interpretiert) halte ich aktuell noch für verfrüht. Das wird sicher kommen, aber mMn später als Navi.
StefanV
2018-01-21, 13:33:10
Das wird sicher kommen, aber mMn später als Navi.
I don't think so.
Wenn wir LWL Chip to Chip Interconnects haben, vielleicht.
Davor ist das eher Unsinn, da die Kommunikation von Chip zu Chip ja auch nicht soo unwichtig ist zum load balancing und das, was wir momentan haben einfach 'ne Krücke ist...
reaperrr
2018-01-21, 13:53:01
Tahitii, Hawaii und Fijii wurden in diesem Zusammenhang immer schlechter.
Verglichen mit CV schon, aber Hawaii war überproportional stark im Vergleich zu Tahiti, und da Tahiti definitiv nicht im Bandbreiten-Limit hing (und die 4 Shader-Engines bei Tonga auch nicht viel gebracht haben), kann es eigentlich fast nur an den 64 ROPs von Hawaii gelegen haben.
Es fällt jedenfalls definitiv auf, dass die Chips mit 16 ROPs pro 10-11 CUs bisher relativ deutlich die beste Perf/FLOP und Perf/mm² hatten.
basix
2018-01-21, 15:33:32
Bei NV bekommt man das Problem durch die GPCs relativ gut in den Griff. Ggf ist das auch für Navi mit „better scalability“ gemeint. Eine mArch die man analog zu Kepler/maxwell/pascall mit der Anzahl der Einheiten besser skalieren kann. Dazu muss man sicher eine Menge umkrempeln. Ggf wird dann auch die Cachestruktur gleich mit angefasst, so dass dsbr und dcc noch effizienter werden.
Eine ziemlich interessante Idee. Könnte wirklich so kommen. Ein wenig ein Modulbasierter Ansatz mit festegelegten Einheiten, welche mit steigender Anzahl skalieren. Etwas in dieser Art:
1 Rasterizer
2k Shader
48 ROPs
128 TMUs
=Floi=
2018-01-21, 16:04:51
Der rasterizer gehört einfach richtig überarbeitet. Komplett neu.
Weg von dem scheiss mit den angepassten spielen hin zu alltagstauglichkeit.
robbitop
2018-01-21, 16:47:48
NV hat ja pro GPC einen eigenen Rasterizer und viee andere Dinge auch. Das scheint eine Teimenge der Ursache für die Skaierbarkeit zu sein.
gravitationsfeld
2018-01-21, 16:51:48
Das Problem ist nicht mal unbedingt der Rasterizer, AMD hat auch grosse Schwierigkeiten mit State-Changes.
Destiny 2 ist so ein Fall. Die haben sogar Siggraph-Slides wo sie angeben, dass sie pro Frame tausende an Shader verwenden, wobei das auf den Konsolen ein absolutes Disaster ist. Kein Wunder, dass es 30 Hz ist, aber das ist ein anderes Thema. Laeuft auf dem PC auf AMD auch extrem schlecht.
Mein Eindruck: NVIDIA hat kleinere Granularitaet der Thread-Groups (32 statt 64), kann besser ueber Draw-Call-Grenzen hinweg Arbeit zusammenfassen und kann auch mehr Shader gleichzeitig "in flight" haben.
Die Meinung von vielen, dass NVIDIA besser mit "schlechten" Workloads umgehen kann ist also nicht ganz unbegruendet. Wobei es eigentlich heutzutage moeglich ist es besser zu machen und AMD wohl darauf gehoft hat, dass Entwickler mit den Konsolen in ihre Architektur hineinwachsen. Die "Mitigations" von NVIDIA sind ja auch nicht umsonst in Die-Space und Komplexitaet. AMD waere es eigentlich am liebsten wenn alles Compute waere und da *sind* die Chips auch extrem kompetitiv.
deekey777
2018-01-21, 17:13:53
Warum ist heute nicht alles compute? Oder ist das heute noch nicht möglich?
gravitationsfeld
2018-01-21, 17:58:45
Naja, fuer Dreiecke will man eigentlich schon noch den Hardware-Rasterizer verwenden, der ist selbst bei AMD immer noch schneller als ein Software-Compute-Rasterizer ;) Aber alles bindless mit einer Hand voll and Shadern zu rendern ist definitiv moeglich und dann laeuft AMD auch extrem gut.
Ihr habt keine Ahnung wie schlecht Spiele in der Regel optimiert sind. Ich hab Witcher 3 mal angeschaut, die haben keinen Depth-Prepass und rendern dann ihren G-Buffer unsortiert (nicht nach Shadern, nicht nach Tiefe) und das Terrain zuletzt. Da koennt man innerhalb von ner Woche wahrscheinlich 20% rausholen. Divinity Original Sin 2 rendert full screen passes als Quads, nicht als Dreieck oder Compute (~10% schlechtere Leistung ohne Grund) und hat ueblen Overdraw auf dem Terrain. Elex macht nen Depth-Prepass, sortiert dann aber ihren G-Buffer-Pass nicht nach den Shadern und macht null G-Buffer-Packing (unkomprimierte R10G10B10 Normalen :ugly:). Etc. pp. Es ist grausam.
Was auch ueberhaupt nicht hilft, ist der Trend die Artists Shader selber zusammenklicken zu lassen (siehe Destiny). Unity hat das gerade erst gross angekuendigt. Das produziert enorm unoptimierten Code und tausende verschiedene Shader.
Bucklew
2018-01-22, 09:39:27
Ihr habt keine Ahnung wie schlecht Spiele in der Regel optimiert sind. [...] Es ist grausam.
Mein Reden seit Jahren, seit LowLevel-APIs plötzlich für den heiligen Gral gehalten werden. Die Entwickler, die eine Engine nach der anderen Verkacken (ja, es gibt Ausnahmen, keine Frage), sollen nun plötzlich die Programmiergötter sein und die IHVs keinerlei Handlungsmöglichkeiten mehr. Ein absolutes Horrorszenario.
Gut zu wissen, dass ich da genau richtig lag mit meinen Befürchtungen.
Sven77
2018-01-22, 09:41:02
Find ich persönlich gut, sonst hätte man ja keinen Grund neue Hardware zu kaufen.. wie langweilig :ugly:
Palpatin
2018-01-22, 10:58:48
Was man aber schon bei gcn 1.x sah, dass es bei AMD ein etwas größeres Skalierungsproblem gibt. Cape Verde (640 alus) zeigte die beste Performance pro Rohleistung. Pitcairn (1280 alus) war leicht schlechter. Tahitii, Hawaii und Fijii wurden in diesem Zusammenhang immer schlechter. Vega 10 scheint hier auch nicht so viel besser zu sein. Ein kleiner Vega mit weniger alus könnte aber hier wieder besser sein. Auch hat Vega M GH sehr viel Bandbreite und ROPs für die Rohleistung.
Ist aber auch beim NV so das der GP106 ein viel besseres perf pro shader hat als der GP104. Die Skallierung von GP104 zu GP102 hingegen wird dann allerdings wieder besser.
y33H@
2018-01-22, 12:57:18
Ihr habt keine Ahnung wie schlecht Spiele in der Regel optimiert sind. Ich hab Witcher 3 mal angeschaut, die haben keinen Depth-Prepass und rendern dann ihren G-Buffer unsortiert (nicht nach Shadern, nicht nach Tiefe) und das Terrain zuletzt. Da koennt man innerhalb von ner Woche wahrscheinlich 20% rausholen. Divinity Original Sin 2 rendert full screen passes als Quads, nicht als Dreieck oder Compute (~10% schlechtere Leistung ohne Grund) und hat ueblen Overdraw auf dem Terrain. Elex macht nen Depth-Prepass, sortiert dann aber ihren G-Buffer-Pass nicht nach den Shadern und macht null G-Buffer-Packing (unkomprimierte R10G10B10 Normalen :ugly:). Etc. pp. Es ist grausam.Wieso werden dann nicht in einer Woche die 20 Prozent rausgeholt? :( steigert wohl die Verkaufszahlen nicht?
Bucklew
2018-01-22, 13:07:42
Wieso werden dann nicht in einer Woche die 20 Prozent rausgeholt? :(
Weil der/die verantwortlichen Entwickler das nicht wissen und/oder keine Zeit haben.
Dass man eine API hat, heißt ja nicht, dass es nur einen Weg gibt etwas zu tun.
BoMbY
2018-01-22, 13:12:08
Wieso werden dann nicht in einer Woche die 20 Prozent rausgeholt? :( steigert wohl die Verkaufszahlen nicht?
Es kostet mehr als einen Euro, und der Gewinn ist nicht sicher. Abgesehen davon bräuchte man wenigstens einen guten Entwickler dafür, und die gibt es auch nicht für Peanuts, wie die anderen Monkeys die man sonst so am Start hat. Und die Leute kaufen doch ehh jeden Schrott, und beschuldigen AMD oder Nvidia, und fordern bessere Treiber, weil es sind immer die Treiber schuld, und nie die Spieleentwickler ...
deekey777
2018-01-22, 13:40:45
Naja, fuer Dreiecke will man eigentlich schon noch den Hardware-Rasterizer verwenden, der ist selbst bei AMD immer noch schneller als ein Software-Compute-Rasterizer ;) ...
Dreiecke, das ist so 90er Jahre.
Gibt es eigentlich einen Grund, warum Intel vor einer oder zwei Wochen Voxel ins Gespräch gebracht hat?
Wieso werden dann nicht in einer Woche die 20 Prozent rausgeholt? :( steigert wohl die Verkaufszahlen nicht?
Es ist doch die alte Geschichte:
Spiele müssen weder schnell noch fehlerfrei laufen, sie müssen halbwegs und ohne grobe visuelle Fehler laufen.
robbitop
2018-01-22, 14:34:51
Ist aber auch beim NV so das der GP106 ein viel besseres perf pro shader hat als der GP104. Die Skallierung von GP104 zu GP102 hingegen wird dann allerdings wieder besser.
GP106 hat mehr Bandbreite pro Flop als GP104 (192 bit bei halbem gp104).
Somit ist die 1080 bei gleichem Takt dann nur noch 78% schneller bei doppelter Rechenleistung.
https://www.computerbase.de/2017-05/geforce-gtx-1060-1080-speicher-test/2/#diagramm-performancerating-2560-1440
Die 1080 hat aber nur rund 62% mehr Bandbreite und nicht 100%.
Was ich sehr interessant finde ist, dass Vega M GH etwas schneller sein soll als eine 1060 max q.
1060 max q hat einen ungefähren boost von 1400 mhz (1348-1480)
1280 alus x 2 flops x 1400 mhz = 3,58 tflops
Vega M GH hat einen boost von 1190 mhz
1536 alus x 2 flops x 1190 mhz = 3,65 tflops
Die theoretische Rohleistung ist also auf gleichem Level. Selbst wenn die Spieleperformance exakt gleich ist, wäre das für Vega ein großer Sprung nach vorn. Wobei mir nicht klar ist, wie die Taktraten der 1060 max q in der Praxis aussehen.
Was man aber schon bei gcn 1.x sah, dass es bei AMD ein etwas größeres Skalierungsproblem gibt. Cape Verde (640 alus) zeigte die beste Performance pro Rohleistung. Pitcairn (1280 alus) war leicht schlechter. Tahitii, Hawaii und Fijii wurden in diesem Zusammenhang immer schlechter. Vega 10 scheint hier auch nicht so viel besser zu sein. Ein kleiner Vega mit weniger alus könnte aber hier wieder besser sein. Auch hat Vega M GH sehr viel Bandbreite und ROPs für die Rohleistung.
Bei NV bekommt man das Problem durch die GPCs relativ gut in den Griff. Ggf ist das auch für Navi mit „better scalability“ gemeint. Eine mArch die man analog zu Kepler/maxwell/pascall mit der Anzahl der Einheiten besser skalieren kann. Dazu muss man sicher eine Menge umkrempeln. Ggf wird dann auch die Cachestruktur gleich mit angefasst, so dass dsbr und dcc noch effizienter werden.
Da würd ich mal ein großes Bingo druntersetzen. Ich würd sagen, da haste den Nagel echt auf den Kopf getroffen. V10 ist einfach zu hart auf Kante gebaut.
gravitationsfeld
2018-01-22, 18:57:22
Wieso werden dann nicht in einer Woche die 20 Prozent rausgeholt? :( steigert wohl die Verkaufszahlen nicht?
Schwer zu sagen. In dem Fall vermute ich, dass es schlicht eine Bildungsluecke ist, weil das wirklich nichts ist was schwer zu aendern waere.
NVIDIA und AMD sagen einem sowas aber eigentlich wenn man ihnen einen Build schickt. Deshalb versteh ich es bei einem AAA-Titel wie Witcher erst recht nicht.
reaperrr
2018-01-22, 19:31:48
GP106 hat mehr Bandbreite pro Flop als GP104 (192 bit bei halbem gp104).
Somit ist die 1080 bei gleichem Takt dann nur noch 78% schneller bei doppelter Rechenleistung.
https://www.computerbase.de/2017-05/geforce-gtx-1060-1080-speicher-test/2/#diagramm-performancerating-2560-1440
Die 1080 hat aber nur rund 62% mehr Bandbreite und nicht 100%.
Richtig, außerdem hat GP106 dadurch, dass diese am SI hängen, auch 75% der ROPs und des L2-Caches von GP104, was sicher auch noch ein paar Prozent bringt.
Hübie
2018-01-22, 20:13:23
Schwer zu sagen. In dem Fall vermute ich, dass es schlicht eine Bildungsluecke ist, weil das wirklich nichts ist was schwer zu aendern waere.
NVIDIA und AMD sagen einem sowas aber eigentlich wenn man ihnen einen Build schickt. Deshalb versteh ich es bei einem AAA-Titel wie Witcher erst recht nicht.
Vielleicht war die Kommunikation hier einfach nicht so intensiv. GDC und Siggraph sind iirc keine festen Anlaufstellen für CDPR. Das wäre wahrscheinlich eine ideale Ausgangslage für um Bildungslücken zu schließen. Ich erinnere mich nur an einen Beitrag von Middleware fürs culling, welches in Witcher eingesetzt wird, aber an viel mehr erinnere ich mich nicht von CDPR. Kannst es denen ja mal twittern. X-D
TheGood
2018-01-23, 21:17:27
Naja, fuer Dreiecke will man eigentlich schon noch den Hardware-Rasterizer verwenden, der ist selbst bei AMD immer noch schneller als ein Software-Compute-Rasterizer ;) Aber alles bindless mit einer Hand voll and Shadern zu rendern ist definitiv moeglich und dann laeuft AMD auch extrem gut.
Ihr habt keine Ahnung wie schlecht Spiele in der Regel optimiert sind. Ich hab Witcher 3 mal angeschaut, die haben keinen Depth-Prepass und rendern dann ihren G-Buffer unsortiert (nicht nach Shadern, nicht nach Tiefe) und das Terrain zuletzt. Da koennt man innerhalb von ner Woche wahrscheinlich 20% rausholen. Divinity Original Sin 2 rendert full screen passes als Quads, nicht als Dreieck oder Compute (~10% schlechtere Leistung ohne Grund) und hat ueblen Overdraw auf dem Terrain. Elex macht nen Depth-Prepass, sortiert dann aber ihren G-Buffer-Pass nicht nach den Shadern und macht null G-Buffer-Packing (unkomprimierte R10G10B10 Normalen :ugly:). Etc. pp. Es ist grausam.
Was auch ueberhaupt nicht hilft, ist der Trend die Artists Shader selber zusammenklicken zu lassen (siehe Destiny). Unity hat das gerade erst gross angekuendigt. Das produziert enorm unoptimierten Code und tausende verschiedene Shader.
DAs könnte ja der Grund sein warum zum EOL von Konsolen diese immer besser ausgenutzt ist, weil die Entwickler optimieren müssen ob mehr abliefern zu können. Da lohnt es sich wohl auch mal über den eigenen programmcode drüberzuschauen.
X-Bow
2018-01-25, 10:53:42
In einem Interview mit der PCGH auf der CES 2018 mit Antal Tungler und Scott Wasson ist mir eine interessante Passage aufgefallen. Scott Wasson sagte "Unsere Desktop-Produkte sind derzeit auf dem Markt, weitere haben wir noch nicht angekündigt."
Da er nur von "angekündigt" und nicht von "geplant" spricht, kann man da doch reininterpretieren das für 2018 im Desktop durchaus was geplant sein kann. Vllt nichts was AMD selbst groß verkünden wird sondern dies Ihren Boardpartnern überlässt.
Ganzes Interview: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Interview-Tungler-Wasson-CES-2018-1248666/
BoMbY
2018-01-25, 12:42:51
Wenn überhaupt gibt es nur Rebrands, oder maximal einen Wechsel von 14nm auf 12nm, was nur wenige Prozente bringen wird - ohne neuen Chip kann man nichts wirklich neues veröffentlichen.
VEGA20 ist Ende des Jahres, in minimalen Stückzahlen, und Navi ist nicht wirklich realistisch vor 2019.
V20 werden wir in 2018 maximal im Großservermarkt zusammen mit Epyc2 sehen, in Consumer evtl. gar nicht. Was soll man da auch mit einem unnötig aufgeblasenen Chip mit 4 HBM-Stacks anfangen.
Da kommt glaube ich mittlerweile eher ein Navi 10 un 11 und auch ein Navi mobile, wobei N10 dann denke ich mit 128 abgespeckten 3. Generation CUs und N11 mit 64 CUs zu erwarten ist. Auch eine Änderung der Struktur wäre möglich, also 120, 80 und 40 V3 CUs beispielsweise, was NV ja schon länger macht. Ersterer mit 384Bit GDDR6 und letzterer mit 256Bit GDDR6. Navi mobile dürfte wieder einen HBM-Stack mitbringen. Angesichts des neuen Speichers wird denke ich auch AMD HBM für 1-2 Jahre wieder aussetzen im Consumermarkt, bevor das dann bei beiden absoluter Standard wird, langfristig jedoch kann klassischer DRAM sicherlich nicht mit HBM mithalten, weder in Kapazität noch in Geschwindigkeit.
Schnitzl
2018-02-10, 20:33:59
Hallo,
ich weiss nicht wo das am Besten passt ... aber es heisst ja immer Gaming ist nicht die Hauptsache und in anderen Bereich wird viel mehr verdient...:
Gaming sorgt für 60 Prozent Umsatz / Computerbase (https://www.computerbase.de/2018-02/quartalszahlen-nvidia-q1-2018/)
Zitat:
"Die Gaming-Sparte bleibt Nvidias mit Abstand größtes Standbein und sorgte allein für 1,739 Milliarden US-Dollar Umsatz respektive knapp 60 Prozent der Einnahmen. Gegenüber dem vorherigen Quartal bedeutet dies ein Plus von 11 Prozent, gegenüber dem Vorjahr stieg der Umsatz mit Gaming-GPUs sogar um 29 Prozent."
Soviel dazu AMD hat es richtig gemacht die Gamer vor den Kopf zu stossen und Datacenter zu beliefern.
Vom Image Schaden spreche ich jetzt noch gar nicht.
teetasse
2018-02-10, 21:22:17
Die 60 % fallen so außergewöhnlich hoch aus, weil AMD so große Lieferschwierigkeiten bei Vega hat. Sonst wären wir vielleicht bei 50 %, das sind keine Peanuts. Und Umsatz ist noch kein Gewinn, für den gleichen Umsatz werden sie erheblich mehr Gamer-Karten herstellen müssen als im Enterprise-Segment.
Dass AMD gerne mehr Vega-Karten liefern würde, wenn sie könnten, ist ja auch logisch.
Wenn man nur wenige Karten ausliefern kann, belieferst du natürlich das Segment mit der höchsten Marge.
dildo4u
2018-02-10, 21:30:21
Das war eh kein Markt für Vega Karten,die Masse davon ging nach China zum PUBG spielen.Dafür reicht eine 1060 @1080p/60fps.
1060 ging von 7% im September auf 14% im Dezember.
http://store.steampowered.com/hwsurvey/videocard/
Kommt jetzt eigentlich noch ein Polaris-artiger Refresh fuer Vega? 14FF+/"12FF", hat man davon nochmal was gehoert?
BoMbY
2018-02-11, 12:48:16
Im Moment sieht es so aus als wäre VEGA11 gestrichen worden, also gibt's wohl nix dieses Jahr.
Brillus
2018-02-11, 14:55:15
Im Moment sieht es so aus als wäre VEGA11 gestrichen worden, also gibt's wohl nix dieses Jahr.
Vega mobile.
lowkres
2018-02-11, 14:58:44
Wenn dieses Jahr wirklich nichts mehr kommen sollte, dann sieht das richtig düster aus. Erst wartet man so lange auf Vega und dann wartet man wieder so lange auf Navi. Ich habe keine Hoffnung mehr auf Navi. Eine neue Arch muss es in der Zukunft richten.
aufkrawall
2018-02-11, 15:05:23
Was wissen wir über die Navi-Arch?
robbitop
2018-02-11, 17:06:21
Wird es Vega Mobike auch außerhalb von Kaby Lake G geben? Zum Beispiel mit Raven Ridge? Ob sie auch einen Ableger für den Desktop bringen? Vermutlich macht die hbm Knappheit solchen Plänen eh einen Strich durch die Rechnung...
wurde doch auf der CES angekündigt https://www.golem.de/news/grafikkarte-amd-zeigt-radeon-vega-mobile-und-roadmap-1801-132002.html
TheGood
2018-02-11, 21:08:50
Irgendwie kann ich mir es nicht vorstellen dass AMD keine Mittelklasse Lösung mehr präsentieren wird. Erst wird gerade der Markt dermaßen gepusht und auf einmal soll das wieder adacta gelegt werden? DAs macht nur Sinn wenn das Marketing gerade das pusht was notwendig ist, aber so planlos kann selbst AMD nicht agieren.
Opprobrium
2018-02-11, 21:43:22
Vor allem weil doch gerade beim Wechsel auf eine neue Fertigungsgröße die kleineren Chips ganz gut für Probeläufe geeignet sind. Ich erinnere mich da an die 4770...
Außerdem hat man doch mit Vega eine Architektur, die sich wie es aussieht ganz gut skalieren lässt, und im schlimmsten Fall könnte man einfach eine Polaris Die Shrink durchführen. Zumindest die Miner würden sich freuen.
Monsta
2018-02-11, 23:25:42
Falls AMD dieses Jahr nichts nachlegt,werden die massiv Probleme bekommen Ihre Gpus an den Mann zu bekommen.
Falls Nvidia den selben Sprung von Pascal zu Ampere macht wie von Maxwell auf Pascal, dann wird eine 2060 so schnell wie eine 1080 sein.
Und das für eine UVP von unter 300€.
AMD sollte schleunigst Ihre Vega Produktion in den Griff bekommen, falls ne <150 Watt Karte für unter 300€ mit der Leistung der 64er im April kommt, ist Vega quasi tot.
Also versuchen bis dahin die Dinger zu verkaufen.
LadyWhirlwind
2018-02-11, 23:26:01
Vor allem weil doch gerade beim Wechsel auf eine neue Fertigungsgröße die kleineren Chips ganz gut für Probeläufe geeignet sind. Ich erinnere mich da an die 4770...
Außerdem hat man doch mit Vega eine Architektur, die sich wie es aussieht ganz gut skalieren lässt, und im schlimmsten Fall könnte man einfach eine Polaris Die Shrink durchführen. Zumindest die Miner würden sich freuen.
Entweder kleine Chips oder halt Chips die sich sehr teuer verkaufen lassen, wie z.b. Radeon Instinct. In dem Markt hat AMD auch mehr Konkurenz, daher macht es durchaus Sinn, zuerst diesen Markt zu bedienen.
Ausserdem denke ich, dass neue Mittelklasse-Lösungen auf 7nm Basis dann sehr schnell folgen.
Das keine neue Mittelklasselösung kommt, ist eigentlich nicht verwunderlich. In einem Markt in dem alle Teilnehmer verkaufen können, was sie produzierne können, ist der Druck für neue Produkte nicht sonderlich hoch. Ebenso dürften "High-End" Vega Chips mehr einbringen als Mittelklasse-Lösungen. Solange die meisten Karten an Miner und nicht an Gamer gehen und AMD alles absetzen kann, was sie produzieren können, ist AMD hier nicht unter druck etwas neues zu liefern. Ich denke nicht das AMD etwas bringen könnte, woran Sie im momentanen Umfeld mehr verdienen würden.
Ausserdem umschift hier AMD das Problem der möglicherweise platzenden Krypto-Blase. Lohnt sich das minen plötzlich nicht mehr, werden viele gebrauchte Karten auf den Markt kommen. Das wird auch die Preise der neuen Karten drücken. Bleibt alles so wie es ist, wird AMD auch weiterhin alles verkaufen was Sie produzieren können.
Edit: AMD kann es im Moment egal sein, was Nvidia macht, da die Nachfrage die Produktionskapazitäten übersteigt. Ampere wird sicher sehr teuer sein am Anfang und die Verfügbarkeit wohl gegen 0, da die Miner alles wegkaufen.
Botcruscher
2018-02-11, 23:49:37
Falls Nvidia den selben Sprung von Pascal zu Ampere macht wie von Maxwell auf Pascal, dann wird eine 2060 so schnell wie eine 1080 sein.
Und das für eine UVP von unter 300€.
1070 maximal, wobei NV lieber noch weiter am Speicher sparen wird. Für 300€ UVP wird bei der Marktlage auch nichts. NV wird sich viel Zeit nehmen und erst mal finanziell optimieren. AMD wiederum kann eh nichts machen. Mit Mining haben sie kein Problem und ohne sind sie eh nicht Konkurrenzfähig.
Monsta
2018-02-12, 00:10:07
Aber warum sollten die sich Zeit nehmen?
Pascal Karten werden ja dann wohl nicht mehr produziert, und Nvidia will ja weiterhin Geld verdienen, und das geht schließlich nur über neu verkaufte Karten.
Opprobrium
2018-02-12, 01:10:08
Ausserdem umschift hier AMD das Problem der möglicherweise platzenden Krypto-Blase.
Die Krypto-Blase muß dafür gar nicht platzen. Es reicht ja schon, wenn sich die Neuanschaffung einer Polaris Karte nicht mehr lohnt, und der Punkt ist zumindest zu Deutschen Strompreisen bald erreicht. Und andere Länder folgen dann. Klar, wenn die Blaso ploppt wird der Markt mit gebrauchten Karten überschwemmt, viel wahrscheinlicher ist aber meiner Meinung nach einfach ein schwindendes Interesse der Miner daran, sich neue Karten zu kaufen.
Aber warum sollten die sich Zeit nehmen?
Pascal Karten werden ja dann wohl nicht mehr produziert, und Nvidia will ja weiterhin Geld verdienen, und das geht schließlich nur über neu verkaufte Karten.
Lager leeren, High-End/Enthusiast Karten verkaufen. Und davon abgesehen glaube ich auch nicht, daß die 2060er Karten die 1080 leistungsmäßig einholen.
Der komplette GPU Markt hat zur Zeit das Problem, daß für FullHD eigentlich auch im Mainstream und Mid-Range genug Leistung vorhanden ist. Und eine neue DX Version ist auch erst mal nicht in Sicht. Außerhalb der 4K/VR/Enthusiasten Szene gibt es also gar nicht so viele Anreize Karten oberhalb von RX580/1070 zu kaufen.
Wenn es für AMD also wirtschaftlicher ist Polaris Karten zu verkaufen als einen Vega Chip in der Leistungsklasse (ob mit oder ohne HBM sei mal dahingestellt) herzustellen, dann werden sie bei Polaris bleiben. Und da sie mit Fiji/Vega aus ihrem Nummernschema ausgebrochen sind gibt es nicht einmal einen Grund, da eine 600er Serie aufzuziehen. Zumindest nicht, bis nVidia die 2000er Serie launcht, dann könnten sie das einfach nur machen um nVidia zumindest ein bißchen auf die Parade zu regnen.
dargo
2018-02-12, 08:40:12
Falls Nvidia den selben Sprung von Pascal zu Ampere macht wie von Maxwell auf Pascal, dann wird eine 2060 so schnell wie eine 1080 sein.
Und das für eine UVP von unter 300€.
Wie kommst du auf den Trichter? Maxwell war 28nm, Pascal 16nm. Ampere kommt in 12nm. Das ist nur ein "aufpolierter" 16nm Fertigungsprozess. Große Performancesprünge (und damit meine ich im besten Fall Faktor 2) sind nur bei einem richtigen Fertigungswechsel und neuer Architektur zu erwarten.
Warum sollte NVidia eine 2060 für 300€ verkaufen, wenn sie die Leistung einer 1080 böte? Sie werden die Kunden weiter melken und diese werden brav weiter kaufen. Don't put the blame on AMD for that.
Fragman
2018-02-12, 09:09:35
Warum sollte NVidia eine 2060 für 300€ verkaufen, wenn sie die Leistung einer 1080 böte? Sie werden die Kunden weiter melken und diese werden brav weiter kaufen. Don't put the blame on AMD for that.
das macht amd doch genauso, hat man bei vega gesehen. da nehmen sich beide nichts.
tm0975
2018-02-12, 09:38:37
vega-karten sind (viel) teurer in der herstellung
dargo
2018-02-12, 10:05:24
das macht amd doch genauso, hat man bei vega gesehen. da nehmen sich beide nichts.
Was hat man bei Vega gesehen? Die UVP liegt immer noch bei 399-499$ für eine Referenz Vega. Für die aktuellen Straßenpreise kann weder NV noch AMD was. Auch haben beide nichts davon in der eigenen "Kriegskasse".
Fragman
2018-02-12, 10:09:02
Was hat man bei Vega gesehen? Die UVP liegt immer noch bei 399-499$ für eine Referenz Vega. Für die aktuellen Straßenpreise kann weder NV noch AMD was.
man hat gesehen, das amd die preise nicht niedriger ansetzt als nvidia, nur um den kunden einen gefallen zu tun. sowas macht keiner von beiden.
und dem kunden ist am ende vollkommen egal, weshalb die preise so sind wie sie sind. er wird sich freuen, wenn sie niedrig sind und schimpfen, wenn sie unverschaemt hoch sind.
dargo
2018-02-12, 10:15:32
man hat gesehen, das amd die preise nicht niedriger ansetzt als nvidia, nur um den kunden einen gefallen zu tun. sowas macht keiner von beiden.
Ist nur komplett falsch. Polaris 10 wurde sehr wohl preislich agressiv in den Markt losgelassen. Nvidia kam mit GP106 ca. 3 Wochen später und musste entsprechend diese GPU preislich positionieren. Ganz normale Reaktion auf Konkurrenz. Wäre GP106 früher fertig hättest du garantiert mehr für bezahlt.
und dem kunden ist am ende vollkommen egal, weshalb die preise so sind wie sie sind. er wird sich freuen, wenn sie niedrig sind und schimpfen, wenn sie unverschaemt hoch sind.
Das ändert nichts daran, dass deine Behauptung falsch ist!
das macht amd doch genauso, hat man bei vega gesehen. da nehmen sich beide nichts.
Nachfrage und Angebot. Außerdem gab es anfangs sehr wohl Vegas für 399-499€. Noch bevor der GPU-Markt völlig kaputt war. Oder anders gesagt, bevor jeder Pöbel wusste, dass man Vega auch sehr gut zum minen gebrauchen kann.
Fragman
2018-02-12, 10:18:24
sorry, aber polaris hat mich null interessiert. ;)
AFAIK haben beide Hersteller ihre GPU-Preise aufgrund der Speicherkrise erhöht. Zusätzlich haben die Boardhersteller die Preisschraube angezogen, weil sie gerne daran mitverdienen wollten.
Die UVP gilt ja nur für Referenzdesigns. Die gibts halt nicht mehr. Die Dinger sind so teuer, weil alle ihre Preise angezogen haben aufgrund der hohen Nachfrage, sowohl GPU-Hersteller, als auch Speicherhersteller, Kartenhersteller und Händler.
deekey777
2018-02-12, 10:44:41
"Neu ist immer besser."
Ein besseres Kaufargument gibt es nicht.
dargo
2018-02-12, 10:49:40
AFAIK haben beide Hersteller ihre GPU-Preise aufgrund der Speicherkrise erhöht.
Quelle?
N0Thing
2018-02-12, 10:55:16
Ampere kommt in 12nm. Das ist nur ein "aufpolierter" 16nm Fertigungsprozess. Große Performancesprünge (und damit meine ich im besten Fall Faktor 2) sind nur bei einem richtigen Fertigungswechsel und neuer Architektur zu erwarten.
Hast du eine Quelle dafür, dass es definitiv 12nm sein werden? 10nm wären bei TSMC ja auch möglich.
dargo
2018-02-12, 11:00:54
Ich ging davon aus 12nm wäre sicher. Wenn es tatsächlich 10nm wird geht natürlich mehr.
Aber nicht viel. Die 10 hat sich halt Leo schon seit ca. einem Jahr zusammgesponnen. NV selbst hat allerdings immer von 12FFN gesprochen letztes Jahr. Von 10 kein sterbens Wörtchen.
10 bringt auch kaum mehr Performance, kostet aber extrem viel mehr als 12 im Verhältnis. Der einzige Chip, für den sich das wirklich gelohnt hätte, wär GV100 gewesen mAn, der ist aber nicht 10. Das lohnt sich 0 für NV. Für die SoCs gibts halt den Innovationsdruck, für GPUs nicht.
Grendizer
2018-02-12, 11:03:33
Quelle?
War nur ein Gerücht aus Taiwan, das auf einigen Seiten wiedergeben wurde
http://www.pcgames.de/Hardware-Thema-130320/News/AMD-und-Nvdia-Grafikkarten-werden-wieder-teurer-1247168/
Ist aber vermutlich auch nicht ganz an den Haaren herbeigezogen, wie man ja auch an der Preisentwicklung für DDR4 Speicher sieht.
dargo
2018-02-12, 11:11:39
Gerüchte reichen mir nicht, eigentlich sollte es bei einer Preissteigerung sowie Senkung immer eine offizielle Aussage geben. Dass es bei der aktuellen Lage die neuen GPUs wie den bald erscheinenden Ampere höchstwahrscheinlich treffen wird möchte ich nicht anzweifeln.
@HOT
Ich könnte mir durchaus vorstellen, dass GA106 und GA107 in 10nm kommen. Erstens weniger Risiko durch wesentlich kleinere Dies, zweitens kommen beide später.
N0Thing
2018-02-12, 11:18:47
Aber nicht viel. Die 10 hat sich halt Leo schon seit ca. einem Jahr zusammgesponnen. NV selbst hat allerdings immer von 12FFN gesprochen letztes Jahr. Von 10 kein sterbens Wörtchen.
10 bringt auch kaum mehr Performance, kostet aber extrem viel mehr als 12 im Verhältnis. Der einzige Chip, für den sich das wirklich gelohnt hätte, wär GV100 gewsesen, der ist aber nicht 10. Das lohnt sich 0 für NV. Für die SoCs gibts halt den Innovationsdruck, für GPUs nicht.
Mit 12nm kann ich mir schwerlich eine ganze neue Generation an GPUs samt dafür notwendigen Performance-Zuwachs vorstellen. Abgesehen von geringeren Kosten und weniger Leckströmen bietet der ja auch nichts an Verbesserungen gegenüber dem bisherigen 16nm.
Bei 10nm bekommt man immerhin mehr Transistoren auf die gleiche Fläche und vielleicht auch noch einen geringeren Stromverbrauch hin.
N0Thing
2018-02-12, 11:44:36
Es hat mit der Frage zu tun, was man dieses Jahr noch von der Vega-Architektur zu erwarten hat, z.B. ein kleinerer Vega anstatt Polaris und mit welcher Konkurrenz sich diese Produkte dann auseinander setzen müssten.
Mit 12nm kann ich mir schwerlich eine ganze neue Generation an GPUs samt dafür notwendigen Performance-Zuwachs vorstellen. Abgesehen von geringeren Kosten und weniger Leckströmen bietet der ja auch nichts an Verbesserungen gegenüber dem bisherigen 16nm.
Bei 10nm bekommt man immerhin mehr Transistoren auf die gleiche Fläche und vielleicht auch noch einen geringeren Stromverbrauch hin.
Quark. Nächstes Jahr kommen dann 3 7nm Chips für Performance bis Enthusiast und dann passt das wieder.
N0Thing
2018-02-12, 12:27:36
Quark. Nächstes Jahr kommen dann 3 7nm Chips für Performance bis Enthusiast und dann passt das wieder.
Was ist Quark? Dein Einwand ergibt keinen Sinn.
Dino-Fossil
2018-02-12, 12:28:42
Quark. Nächstes Jahr kommen dann 3 7nm Chips für Performance bis Enthusiast und dann passt das wieder.
Bedeutet aber im schlimmsten Fall immer noch ein Jahr ohne konkurrenzfähige Angebote.
Grendizer
2018-02-12, 13:05:56
Die UVP wurde doch ums Release herum angehoben....
http://www.pc-magazin.de/news/radeon-rx480-kaufen-release-preis-lieferbar-bestellen-3196446.html
Die UVP-Preise beginnen für die 8-GB-Variante bei 269 Euro.....
Kann mich noch dunkel dran erinnern, das es wegen der Euro Preise damals ziemliche Diskussionen gab.
dargo
2018-02-12, 13:16:01
Die UVP wurde doch ums Release herum angehoben....
http://www.pc-magazin.de/news/radeon-rx480-kaufen-release-preis-lieferbar-bestellen-3196446.html
Die von PC-Magazin haben keine Ahnung was eine UVP ist. P10 Full begann bei 199$ für die 4GB Version.
https://www.roadtovr.com/amd-rx-480-gpu-price-specs-release-date-virtual-reality/
Die 8GB Version war entsprechend etwas teurer. Auf jeden Fall aber unter 250$, siehe AotS Grafik.
Grendizer
2018-02-12, 13:21:58
Die von PC-Magazin haben keine Ahnung was eine UVP ist. P10 Full begann bei 199$ für die 4GB Version.
https://www.roadtovr.com/amd-rx-480-gpu-price-specs-release-date-virtual-reality/
Die 8GB Version war entsprechend etwas teurer. Auf jeden Fall aber unter 250$, siehe AotS Grafik.
Ja es geht mir um die Euro Preise und die waren damals deutlich höher und darum ging die Diskussionen ja auch...
https://geizhals.de/?phist=1460506&age=9999
https://geizhals.de/?phist=1450841&age=9999
250 Euro waren erst am 08.11. erreicht.
Edit: Augenscheinlich war die UVP wohl bei 255 Euro für die 8 Gb Karte gelegen, die 4 Gb bei 215.
Locuza
2018-03-05, 06:08:03
Part 374 of Primitive Shader Saga:
btw what happened to Primitive Shaders? There's barely any info other than marketing stuff. I was looking forward to it
CS index culling + draw merging is a portable solution. Given how many devs have yet to adopt a portable solution, it is hard to justify exposing an AMD specific solution when we have a lot of other higher priority Vulkan tasks pending.
https://twitter.com/TimothyLottes/status/970441675175813120
BoMbY
2018-03-20, 17:11:55
Auch wenn es nicht wirklich neu ist, hier nochmal eine Folie aus der März 2018 Investor Präsentation:
https://i.imgur.com/aVpbe5wh.png (https://i.imgur.com/aVpbe5w.png)
Immerhin stellt es nochmal klar, dass es außer der neuen Vega Mobile keine weitere Vega-Gaming GPU dieses Jahr geben soll, und das es die 7nm Vega, jedenfalls in 2018, nur als Radeon Instinct SKU geben wird.
Hübie
2018-03-20, 19:15:29
So inflationäre Nutzung des Wortes Premium wirft die Frage nach deren Definition selbiges auf. Es hieß auch Premium VR mit Polaris Crossfire. Gab es jemals einen Test mit aktuellen VR Titeln und CFX? :|
Digidi
2018-03-20, 20:30:02
Part 374 of Primitive Shader Saga:
https://twitter.com/TimothyLottes/status/970441675175813120
Interessant ist das er Primitive Shaders für die Lösung von Ray Tracing Problemen hält:
https://twitter.com/matiasgoldberg/status/975839454173847553
Daredevil
2018-03-20, 20:38:12
So inflationäre Nutzung des Wortes Premium wirft die Frage nach deren Definition selbiges auf. Es hieß auch Premium VR mit Polaris Crossfire. Gab es jemals einen Test mit aktuellen VR Titeln und CFX? :|
Als selbstbewusste Firma hast du keine Konkurrenten, sondern nur Mitbewerber. Also definierst du das Portfolio nicht auf der Basis vom Markt, sondern von deinen eigenen Produkten.
Da ist Vega natürlich AMDs Premium Produkt ( Zumal man ja eh nicht die Wahl hat anhand von zwei Karten ), das sagt ja auch schon alleine der Preis aus.
BoMbY
2018-03-20, 22:42:09
Interessant ist das er Primitive Shaders für die Lösung von Ray Tracing Problemen hält:
https://twitter.com/matiasgoldberg/status/975839454173847553
Primitive Shader werden da sicher nicht Schaden:
Announcing Real-Time Ray Tracing (https://gpuopen.com/announcing-real-time-ray-tracing/)
AMD is announcing Radeon™ ProRender support for real-time GPU acceleration of ray tracing techniques mixed with traditional rasterization based rendering. This new process fuses the speed of rasterization with the physically-based realism that users of Radeon ProRender expect for their workflows. At a high level, the process achieves these results by using rasterization to draw basic structures and surfaces before a ray tracing process is used to compute advanced light-effects like reflections, shadows and transparency.
Locuza
2018-03-21, 08:05:25
Interessant ist das er Primitive Shaders für die Lösung von Ray Tracing Problemen hält:
https://twitter.com/matiasgoldberg/status/975839454173847553
Viel allgemeiner scheinen die Entwickler sich eine programmierbare Geometriepipeline zu wünschen, wo die Primitive Shaders nach einem Konzept mit mehr Freiraum klingen.
Das Ganze bezieht sich nicht direkt auf RayTracing, aber in Kombination damit und welche Einschränkungen man gerade bei der aktuellen Geometriepipeline ausbaden muss.
BoMbY
2018-03-21, 16:08:31
Vega Mobile Linux Patches: AMD Posts Open-Source Driver Patches For Vega 12 (https://www.phoronix.com/scan.php?page=news_item&px=AMDGPU-Vega-12-Patches)
Vega Mobile Linux Patches: AMD Posts Open-Source Driver Patches For Vega 12 (https://www.phoronix.com/scan.php?page=news_item&px=AMDGPU-Vega-12-Patches)
Ist Vega Mobile nicht Vega 11?
BoMbY
2018-03-21, 16:59:54
Nein, "Vega 11 Mobile" ist (wie "Vega 5 Mobile", "Vega 8 Mobile" und "Vega 10 Mobile") ein SKU-Name für die Raven Ridge iGPU.
"Vega12" und "Vega10" sind Chip-Codenamen, und die SKU-Namen für "Vega10" sind unter anderem "Vega 56" und "Vega 64".
"Vega Mobile" ist derzeit ein Sammelname für die Vega12-basierten Grafikkarten, was das Ding auf der Linken Seite hier ist, was vor kurzem vorgestellt wurde:
https://i.imgur.com/YtamuDE.jpg
Da wird es sicher auch verschiedene Produkte von geben, vielleicht eine "Vega 24 Mobile" und eine "Vega 20 Mobile".
Edit: Zwischen "Vega10" und "Vega12" gab es wohl mal einen "Vega11", was meiner Meinung nach irgendwas in Richtung RX 590 hätte werden sollen, aber das Ding wurde wohl spätestens als Raja gegangen ist eingestampft.
Mir ist schon klar, dass "Vega 11 Mobile" ein Produkt- und kein Codename ist. Trotzdem vermisse ich einen Vega 11.
BoMbY
2018-03-21, 17:16:20
Wie gesagt: Nach allem was ich weiß wurde dem Vega11 Chip Ende letzten Jahres der Gnadenschuss gegeben. Wirklich bekannt darüber ist aber praktisch nichts, alles nur Spekulatius.
Dino-Fossil
2018-03-21, 17:17:50
Ja, den hätte es vermutlich gegeben, wenn die Performance von V10 besser gewesen wäre.
Hätte sich V10 klar mit GP102 angelegt (also nicht nur in einigen wenigen Titeln), wäre zwischen V10 und P10 locker Platz für einen V11.
So bekäme man vermutlich nur eine etwas bessere Effizienz bei vermutlich höheren Herstellungskosten, aber vergleichbarer Performance, womit P10 wohl nach wie vor attraktiver für AMD ist.
Thunder99
2018-03-21, 17:19:35
Spannende Frage ist gab es schon ein Silizium...
Brillus
2018-03-21, 19:44:18
Nein, "Vega 11 Mobile" ist (wie "Vega 5 Mobile", "Vega 8 Mobile" und "Vega 10 Mobile") ein SKU-Name für die Raven Ridge iGPU.
"Vega12" und "Vega10" sind Chip-Codenamen, und die SKU-Namen für "Vega10" sind unter anderem "Vega 56" und "Vega 64".
"Vega Mobile" ist derzeit ein Sammelname für die Vega12-basierten Grafikkarten, was das Ding auf der Linken Seite hier ist, was vor kurzem vorgestellt wurde:
https://i.imgur.com/YtamuDE.jpg
Da wird es sicher auch verschiedene Produkte von geben, vielleicht eine "Vega 24 Mobile" und eine "Vega 20 Mobile".
Edit: Zwischen "Vega10" und "Vega12" gab es wohl mal einen "Vega11", was meiner Meinung nach irgendwas in Richtung RX 590 hätte werden sollen, aber das Ding wurde wohl spätestens als Raja gegangen ist eingestampft.
Das sind wahrscheinlich 2 verschiedene Chips die du da gepostet hast, daher Manns auch sein das der Intel Vega 11 ist.
Digidi
2018-03-24, 09:11:08
Patente zu Primitive Shaders aus dem Byond3d Forum:
http://www.freepatentsonline.com/20180082399.pdf
http://www.freepatentsonline.com/20180082470.pdf
source:
https://forum.beyond3d.com/threads/amd-vega-10-vega-11-vega-12-and-vega-20-rumors-and-discussion.59649/page-258
Unicous
2018-03-25, 22:22:05
Das sind wahrscheinlich 2 verschiedene Chips die du da gepostet hast, daher Manns auch sein das der Intel Vega 11 ist.
Man sollte generell nie auf Bomby hören wenn er irgendetwas behauptet ohne Quellen zu haben:
bridgman
This is not for the Kaby Lake GPU.
https://www.phoronix.com/forums/forum/hardware/graphics-cards/1014360-amd-posts-open-source-driver-patches-for-vega-12?p=1014511#post1014511
bridgman
The product has not been announced yet, so there should not be any good info out there about what it will be.
Sometimes stuff leaks out, but I haven't seen any for Vega12 yet.
https://www.phoronix.com/forums/forum/hardware/graphics-cards/1014894-radeon-vega-12-support-called-for-pulling-into-linux-4-17-kernel?p=1014971#post1014971
John Bridgman ist ein AMD-Mitarbeiter
https://linkedin.com/in/john-bridgman-3a906417
Brillus
2018-03-26, 00:06:18
Man sollte generell nie auf Bomby hören wenn er irgendetwas behauptet ohne Quellen zu haben:
https://www.phoronix.com/forums/forum/hardware/graphics-cards/1014360-amd-posts-open-source-driver-patches-for-vega-12?p=1014511#post1014511
https://www.phoronix.com/forums/forum/hardware/graphics-cards/1014894-radeon-vega-12-support-called-for-pulling-into-linux-4-17-kernel?p=1014971#post1014971
John Bridgman ist ein AMD-Mitarbeiter
https://linkedin.com/in/john-bridgman-3a906417
Ah den 2. kannte ich noch nicht alsokein Vega mobile.
BoMbY
2018-03-26, 13:21:21
Hat irgendjemand behauptet die Kaby Lake GPU wäre Vega12? :rolleyes:
Unicous' permanentes getrolle wird auch nicht besser ...
Semi-Custom Chips haben bisher immer noch seine eigenen Codenamen bekommen, genauso wie sie andere PCI-IDs haben ...
Mangel76
2018-03-28, 12:48:05
Hat irgendjemand behauptet die Kaby Lake GPU wäre Vega12? :rolleyes:
Phoronix vermelden Support-Einträge im Linux-Kernel zugunsten von AMDs Vega 12 Grafikchip. ... Wir würden ja immer noch als gute Möglichkeit ansehen, das sich hierunter schlicht der Vega-Grafikchip in Intels Kaby-Lake-G verbirgt – dies würde zeitlich gut zusammenpassen. Leonidas (http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2627-maerz-2018)
BoMbY
2018-03-28, 13:45:42
Jedenfalls ist Vega12 kein Kaby-G, und es ist keine geheime Monster GPU:
https://i.imgur.com/SsfbqLD.jpg
Zur Erinnerung (https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-vega12&id=f4538c17a4cc0963fc65ff7860bd28bbd339139f):
{0x1002, 0x69A0, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_VEGA12},
tm0975
2018-03-28, 14:11:18
Jedenfalls ist Vega12 kein Kaby-G, und es ist keine geheime Monster GPU:
https://i.imgur.com/SsfbqLD.jpg
Zur Erinnerung (https://cgit.freedesktop.org/~agd5f/linux/commit/?h=amd-staging-drm-next-vega12&id=f4538c17a4cc0963fc65ff7860bd28bbd339139f):
{0x1002, 0x69A0, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_VEGA12},
in welcher relation steht die leistung zu einer 580? hat das jemand im kopf?
Unicous
2018-03-28, 15:11:17
Ich möchte noch einmal auf folgenden Satz hinweisen:
"Vega Mobile" ist derzeit ein Sammelname für die Vega12-basierten Grafikkarten, was das Ding auf der Linken Seite hier ist, was vor kurzem vorgestellt wurde:
:rolleyes:
BoMbY
2018-03-28, 16:42:10
Ich weiß nicht was Du mir sagen willst? Ich kann Deine kruden Gedanken nicht lesen?
Ich kann nichts dafür, dass AMD Vega12 bisher als "Radeon Vega Mobile GPU (http://ir.amd.com/news-releases/news-release-details/amd-reports-fourth-quarter-and-annual-2017-financial-results)" bezeichnet hat, aber trotzdem scheinbar Workstation GPUs damit plant:
https://i.imgur.com/BfwzkRf.jpg
https://i.imgur.com/3MpCUeY.jpg
https://i.imgur.com/UsMOz6I.jpg
Edit: Im Juni letzten Jahres ist der Name VEGA12 zum ersten mal aufgetaucht als: "AMD FirePro VEGA12XT WORKSTATION FCST" (das war laut einem Eintrag bei Linkedin übrigens ungefähr der Zeitpunkt des Tapeouts).
Edit2: Das kann auch immer noch ein MXM-Modul sein, wie zum Beispiel die AMD FirePro S4000X (https://www.amd.com/en-us/products/graphics/server/s4000x#3), was mit einem MXM-PCIe-Adapter (http://www.pcidv.com/en/products.asp?id=628) praktisch überall laufen kann zu Testzwecken.
Unicous
2018-03-28, 17:10:05
Ich lese nirgendwo die Nummer 12. ¯\_(ツ)_/¯
Ich lese hingegen immer wieder in deinen Posts Wortkonstellationen die den Indikativ implizieren, nicht jedoch den Konjunktiv.:uponder:
Ich persönlich hätte nichts dagegen solange du deine Gedankengänge klar als diese ausweisen würdest. Jedoch liest man hier (und zwangsläufig auch in anderen Foren in denen du aktiv bist) nicht, dass du lediglich spekulierst.:uponder: Im Gegenteil, man kommt eher zu dem Ergebnis dass du allein die Deutungshoheit gepachtet hast.
Nirgendwo gibt es eine Angabe oder einen Hinweis, dass "Vega Mobile" explizit Vega12 ist.
Du lieferst sogar selbst Beweise, dass es (auch?) eine Desktop Lösung seien könnte. Es kann alles und nichts sein. Es kann für eine komplette Produktpalette stehen, es könnte auch ein WS-only Produkt sein. AMD könnte auch das Codenamen-Schema umgestellt haben, da es weiterhin keine Vega11 in PRO oder XT Ausführung gibt wohl aber ein Endprodukt namens Vega11 in Form einer iGPU. Vega 20 ist auch M.I.A..
Ich frage mich daher weiterhin wie du so sicher sein kannst, dass nur du allein die Wahrheit kennst.:uponder:
Dass du das als Trollen auslegst kann ich verstehen. Wenn man keine Rechenschaft ablegen will für die z.T. haltlosen Behauptungen die man tätigt gerät man schnell in die Defensive.
Argo Zero
2018-03-28, 17:47:19
Möchte noch jemand rote Karten haben? Bitte vortreten.
Ansonsten bitte sachlich weiter diskutieren.
Das Die von Vega Mobile sieht größer aus im Verhältnis zum HBM als das Die von Kabylake G, dann ist der Intel-Vega tatsächlich semi-Custom. Zudem denke ich, dass V12 noch 14LPP ist.
Ich nehme aber an, bei dem zu Ende gehenden Mining-Hype und den zu erwarteten Preiseinbrüchen wird man mittelfristig auf Kostensenkung aus sein und ich hab da die Theorie, dass AMD sowohl Vega 10 als auch Vega Mobile auf 12nm on the fly shrinken könnte, das bedeutet, es ändert sich nichts außer dem Chip. Die doch eher geringen verbesserten Eigenschaften fallen mMn da kaum ins Gewicht. Ob da jetzt 50-100MHz mehr bei rumkommen wird eh kaum auffallen und die Kartenhersteller könnten das auch einfach mit geringerer TDP kompensieren. Allerdings wäre ein 12nm V10 nur noch 410-420mm² groß, mMn ein gewichtiges Argument für den "Shrink". Der Aufwand hält sich aufgrund der Nähe zu 14LPP sicherlich auch ziemlich in Grenzen.
Hinzu kommt in der zweiten Jahreshälfte der HBM2 Speicher der zweiten Generation, welcher die Kosten nochmals reduzieren wird. Ich denke mittlerweile, dass die Massenverfügbarkeit mit diesen beiden Optionen dieses Jahr wirklich noch kommt.
Ravenhearth
2018-03-30, 18:14:48
Das Die von Vega Mobile sieht größer aus im Verhältnis zum HBM als das Die von Kabylake G, dann ist der Intel-Vega tatsächlich semi-Custom. Zudem denke ich, dass V12 noch 14LPP ist.
Dachte ich auch, aber auf der AMD-Folie ist das Bild von Kaby-Lake-G horizontal gestaucht :redface: Guckt man sich die Intel-Folien an und vergleicht da Kaby-Lake-G mit AMDs Grafik von Vega Mobile, dann haben beide die exakt gleiche Größe und Form. Also imho ist das ein und derselbe Chip. Ob der Codename allerdings Vega12 ist, oder ob letzteres nicht doch ein anderer Chip ist, keine Ahnung. Gibt gute Argumente für beides.
vinacis_vivids
2018-03-30, 18:45:34
AMD "inhouse" Vega mobile wird mit 28CUs +2GB HBM² spekuliert während Intel-semi custom max. 24CUs+4GB HBM² baut.
BoMbY
2018-03-30, 19:00:50
Wie im anderen Thread erwähnt wird die Intel Custom "RX Vega M" GPU als "Polaris 22" bei TechPowerUp und Aida64 geführt, außerdem sind alle Einträge bisher auch mit "gfx804" erfolgt, was auf GCN4 schließen lässt. Wenn die Bezeichnung "Polaris 22" wirklich von AMD stammt, hatte ich also Unrecht damit, dass AMD immer eigene Codenamen für Semi-Custom-Gedöns nutzt - scheinbar gilt das dann nicht für reine dGPUs.
Bei der GPU handelt es sich scheinbar um einen Zwitter von Polaris (GCN4) und Vega (HBM/HBCC), aber auf jeden Fall ist es nicht "Vega12".
Ravenhearth
2018-03-30, 19:25:44
AMD "inhouse" Vega mobile wird mit 28CUs +2GB HBM² spekuliert während Intel-semi custom max. 24CUs+4GB HBM² baut.
Eine handfeste Information ist das dennoch nicht gerade.
Wie im anderen Thread erwähnt wird die Intel Custom "RX Vega M" GPU als "Polaris 22" bei TechPowerUp und Aida64 geführt, außerdem sind alle Einträge bisher auch mit "gfx804" erfolgt, was auf GCN4 schließen lässt. Wenn die Bezeichnung "Polaris 22" wirklich von AMD stammt, hatte ich also Unrecht damit, dass AMD immer eigene Codenamen für Semi-Custom-Gedöns nutzt - scheinbar gilt das dann nicht für reine dGPUs.
Bei der GPU handelt es sich scheinbar um einen Zwitter von Polaris (GCN4) und Vega (HBM/HBCC), aber auf jeden Fall ist es nicht "Vega12".
Wenn es nicht Vega12 ist, könnte es doch trotzdem noch Vega Mobile sein, oder nicht? Wenn man "Polaris22" in Hades Canyon wirklich als "Vega M" verkauft, ist der Schritt zu "Vega Mobile" minimal. Dass beide Chips anscheinend exakt gleich groß, spricht ebenfalls dafür.
robbitop
2018-03-31, 09:50:27
Es ist aber irgendwo auch merkwürdig, zwei ähnlich große Dice aufzulegen, wenn man RnD mäßig so klamm ist wie AMD. 28 CUs und 24 CUs ist nicht gerade ein großer Unterschied. Ggf sind bei Kabylake G auch einfach 4 CUs deaktiviert?
amdfanuwe
2018-03-31, 10:38:29
Ggf werden bei Semicustom Chips die Entwicklungskosten dem Kunden aufgebrummt.
Wenn der Chip nachher seitens des Kunden nicht geordert wird, hat AMD immer noch was dran verdient.
Der Vega Mobile ist von der Höhe und Fläche her interessant. Fehlt nur noch ein "Mobile" Ryzen 8/6/4 Core und es sollten sich vergleichbare günstigere AMD Syteme wie mit Intels MCM Lösung bauen lassen.
Das Teil ist wie XBox X, hat halt teilweise das Frontend und auch die CUs von Polaris, weil die schlicht kleiner sind.
Dachte ich auch, aber auf der AMD-Folie ist das Bild von Kaby-Lake-G horizontal gestaucht :redface: Guckt man sich die Intel-Folien an und vergleicht da Kaby-Lake-G mit AMDs Grafik von Vega Mobile, dann haben beide die exakt gleiche Größe und Form. Also imho ist das ein und derselbe Chip. Ob der Codename allerdings Vega12 ist, oder ob letzteres nicht doch ein anderer Chip ist, keine Ahnung. Gibt gute Argumente für beides.
Vielleicht ist V12 ja auch doch was anderes als Vega Mobile. Ein 32 oder 36-NCU-Chip mit GDDR-Speicher für Desktop beispielsweise.
BoMbY
2018-03-31, 11:05:10
Ggf werden bei Semicustom Chips die Entwicklungskosten dem Kunden aufgebrummt.
Wenn der Chip nachher seitens des Kunden nicht geordert wird, hat AMD immer noch was dran verdient.
Ja, Du kannst mal davon ausgehen, dass AMD Semi-Custom-Entwicklung nicht kostenlos machen wird. Eventuell sind das nicht die vollen Kosten die verrechnet werden, je nach Kunde und Aussicht auf Erfolg, aber die sind sicher kein Wohlfahrtsverein.
Und wie ich schon mehrfach gesagt habe: Ich gehe davon aus das Vega11 ein größerer Chip mit GDDR ist/war, nur dass dieser gestrichen wurde. Und ich bin weiterhin davon überzeugt, dass Vega12 die angekündigte Mobile dGPU mit HBM ist.
BoMbY
2018-04-01, 17:28:02
Da sind übrigens Vega20 Patches aufgetaucht:
https://cgit.freedesktop.org/~agd5f/linux/log/?h=vg20-dkms-4.13
Zum Beispiel:
+ /* Vega 20 */
+ {0x1002, 0x66A0, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_VEGA20},
+ {0x1002, 0x66A1, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_VEGA20},
+ {0x1002, 0x66A2, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_VEGA20},
+ {0x1002, 0x66A3, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_VEGA20},
+ {0x1002, 0x66A7, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_VEGA20},
+ {0x1002, 0x66AF, PCI_ANY_ID, PCI_ANY_ID, 0, 0, CHIP_VEGA20},
https://cgit.freedesktop.org/~agd5f/linux/commit/?h=vg20-dkms-4.13&id=a95549de353b967c1dcc725389542a350ae5af6e
Hübie
2018-04-01, 18:13:12
Ist das Vega @7nm?
BoMbY
2018-04-01, 18:58:11
Ja, das dürfte es wohl sein ...
Soweit immer noch akkurat:
https://i.imgur.com/aMCmtlC.jpg
SKYNET
2018-04-01, 19:17:00
Ja, das dürfte es wohl sein ...
Soweit immer noch akkurat:
https://i.imgur.com/aMCmtlC.jpg
32GB kann man streichen, das kommt ziemlich sicher erst 2020 oder später.
verbrauch dürfte AMD typisch eher hoch ausfallen denke ich, gutmütig geschätzt 220W
PCIe 4.0 sollte wohl als gesichert sein
AffenJack
2018-04-01, 19:20:33
32GB kann man streichen, das kommt ziemlich sicher erst 2020 oder später.
verbrauch dürfte AMD typisch eher hoch ausfallen denke ich, gutmütig geschätzt 220W
PCIe 4.0 sollte wohl als gesichert sein
32GB sind eher sehr wahrscheinlich. Das Ding ist eine Professionel-GPU, da wird es bestimmt 32Gb haben.
Hübie
2018-04-01, 19:38:46
32GB kann man streichen, das kommt ziemlich sicher erst 2020 oder später.
verbrauch dürfte AMD typisch eher hoch ausfallen denke ich, gutmütig geschätzt 220W
PCIe 4.0 sollte wohl als gesichert sein
Auf welcher Basis vermutest du das alles? :|
Zur Erinnerung: Volta (GV100) ist demnächst mit 32 GB HBM2 verfügbar und mit besseren binning Prozessen könnten durch 7nm 200 Watt oder weniger herauskommen. Ich bin mir aber gerade nicht über die Zahlen zu dem Prozess von GloFo im Klaren.
PCIE4: Gibt afaik noch keine zertifizierten Systeme. Ist da was für dieses Jahr angekündigt?
Achill
2018-04-01, 21:00:09
[..]
PCIE4: Gibt afaik noch keine zertifizierten Systeme. Ist da was für dieses Jahr angekündigt?
IBM's Power9 soll es schon können: https://en.wikipedia.org/wiki/POWER9#I/O
Bei AMD soll es mit Zen2 (Matisse) kommen...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.