PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

fondness
2016-09-23, 13:41:24
Zurzeit spekulierte Daten:

Vega10:
- 4096 SPs
- 64 CUs
- 2048 bit HBM2
- 512 GB/s Speicherbandbreite
- 8-16GB VRAM
- Leistung ~GP104
- Anfang 2017

Vega11:
- angeblich Mainstreampart, genauere Daten unbekannt
- H1/2017

Vega20:
- 4096 bit HBM2
- 1 TB/s Speicherbandbreite
- 16-32GB VRAM
- GMI Links
- 1/2 double precision rate
- Mitte/Ende 2017

Quellen:
http://www.fudzilla.com/news/graphics/41669-vega-20-gpu-comes-in-late-2017
http://videocardz.com/63715/amd-vega-and-navi-roadmap

Offizielle Roadmap von AMD:

http://s22.postimg.org/ll6azorfl/AMD_Next_Gen_Vega_GPU_and_Navi_GPU_2017_2018.jpg

iuno
2016-09-23, 13:47:34
Kleiner Typo bei der Busbreite von Vega 20 ;)

Kleine Faktensammlung als Erinnerung:
Bzgl. der Verfuegbarkeit der HBM Stacks von Hynix waere noch zu sagen, dass Hynix HBM2 stacks offiziell seit Q3 fuehrt. Allerdings gilt das nur fuer die 4Hi-Variante, also Stacks mit insgesamt 5 slices und 4 GiB. 8Hi Stacks, und damit die Moeglichkeit fuer AMD 16 GiB an 2048 Bit zu verbauen (Vega 10) sollen ab Q4 verfuegbar werden.
Den Produktionsstart von HBM2 mit 8 GByte pro Stack plante SK Hynix bisher für das vierte Quartal 2016.
http://www.golem.de/news/sk-hynix-hbm2-stacks-mit-4-gbyte-ab-dem-dritten-quartal-verfuegbar-1607-122152.html

Da sollte man also das Databook von Hynix im Auge behalten: http://www.skhynix.com/eng/support/technicalSupport.jsp
Wenn keine 8Hi Stacks dort auftauchen, wird es sonst wohl nichts mit 16 GiB, oder es sind halt doch 4096 Bit.

Im OpenCL Treiber laufen VEGA 10 und VEGA 11 zusammen mit GREENLAND und RAVEN1X unter GFX9. GFX8 waren ICELAND, TONGA, CARRIZO, BERMUDA, RACERX und FIJI; GFX8.1, AMUR, STONEY, ELLESMERE und DERECHO.

Und auf der Investor Presentation im August wurde offiziell H1 2017 als Termin genannt: https://s3.amazonaws.com/towerassets/docs/AMD_2016_Other_SL_Investor%20Presentation%20August%202016_08012016.pdf

Rest ist Speku, also los ;p

fondness
2016-09-23, 13:49:37
Kleiner Typo bei der Busbreite von Vega 20 ;)


Thx. :)

reaperrr
2016-09-23, 22:27:28
V10 hat 16GB, die Frage stellt sich gar nicht. Das ist eines der Verkaufsargumente für das Ding ggü. dem GP102, da es ja leistungstechnisch wohl wenn überhaupt eher Gleichstand gibt.
Ich sehe V10 maximal einen einstelligen Prozentwert vor der 1080, von daher wären aus Kosten-Gründen im Consumer-Bereich 8GB sinnvoller, da man preislich kaum bis gar nicht über die 1080 gehen kann/wird.

Hübie
2016-09-24, 02:26:49
Macht es eigentlich Sinn V11 als P10-Ersatz zu handeln? Oder habe ich das jetzt falsch verstanden? P10 ist doch Performance...

iuno
2016-09-24, 04:04:26
Macht es eigentlich Sinn V11 als P10-Ersatz zu handeln? Oder habe ich das jetzt falsch verstanden?
IMHO nicht, dafuer dass man ja offenbar weniger GPUs bringen will, war Polaris wohl zu kurz auf dem Markt. WhyCry ist bzgl. dieser Aussage auch bereits zurueckgerudert. Zwischen P10 und V10 liesse sich schon Platz fuer einen Chip finden.
Aber etwas seltsam ist es schon, wenn V10 auch schon nur 2 Stacks hat. Vielleicht ist V10 schon eher als kleinerer Begleiter von V11 gedacht. Oder V11 bekommt doch kein HBM.

Glaubt ihr eigentlich, dass Vega es in Notebooks schaffen wird? Bei Fiji hat man sich ja nicht getraut :D
Auch wenn mich die Dinger nicht interessieren, waere es schon nett (sicher auch fuers Image), irgend ein Hersteller koennte mal ein richtiges Gaming-Notebooks mit AMD CPU und GPU hinstellen.

dargo
2016-09-24, 09:23:17
Oder V11 bekommt doch kein HBM.

Das würde wiederum irgendwie gegen die Roadmap sprechen.

uweskw
2016-09-24, 09:37:10
Ich sehe V10 maximal einen einstelligen Prozentwert vor der 1080, von daher wären aus Kosten-Gründen im Consumer-Bereich 8GB sinnvoller, da man preislich kaum bis gar nicht über die 1080 gehen kann/wird.

Das wird wohl auf den Prozess ankommen. Wenn Vega 10 tatsächlich nur auf 1300MHz kommt, wirst du recht behalten.
Ich geb aber die Hoffnung nicht auf, dass die bis dahin 16-1700MHz durchgehend schaffen ohne zu viel Spannung zu benötigen.


edit: Hier sollten 8GB HMB2 eigentlich ausreichend sein. Oder kennt jemand ein Real-World Szenario in dem die 4GB HBM von Fury limitieren und die 6GB einer 980TI noch ausreichen?

greetz
US

HOT
2016-09-24, 10:01:02
V10 wird sicher 4 Stacks haben, V11 nur zwei. Ergo hat V10 16GB und V11 8GB. Als Profichip wird V20 dann 4 teure 8er-Stacks haben, ergo 32GB. Und für die Groß-APU wird man eh V11 einsetzen, nicht V10.

Außerdem:
2011 -> AMD 2GB - NV 1,5GB
2012 -> AMD 3GB - NV 2GB
2013 -> AMD 4GB - NV 3GB
2015 -> AMD 8GB - NV 4-6GB
2017 -> AMD 16GB - NV 8-12GB, das geht gar nicht anders

Fiji ist hier ne totale Ausnahme, weil einfach nicht mehr als 4GB drin waren. Wäre mehr drin gewesen, hätte man mehr verbaut, die Frage stellt sich nicht.

Wenn V11 kommt ersetzt der nicht den Chip P10, dieser rutscht dann einfach ins Mainstreamsegment ab.

Rabiata
2016-09-24, 16:04:54
Wenn V11 kommt ersetzt der nicht den Chip P10, dieser rutscht dann einfach ins Mainstreamsegment ab.
Wird drauf ankommen was die Herstellung der Karten kostet (ich unterstelle mal daß P/L mindestens so gut wie bei Polaris wird). Wenn dann V11 nicht mehr kostet als P10, ergibt es keinen Sinn mehr, P10 weiter herzustellen. P10 wäre schlichtweg EOL.

Aber vielleicht liegt V11 ja zwischen P10 und V10 in Preis und Leistung. Ob es sinnvoll wäre da noch einen Chip reinzuquetschen, sei mal dahingestellt. Aber AMD hat so etwas mit Bonaire schon mal gemacht, eine Wiederholung ist von daher nicht ausgeschlossen.

Bleibt die Frage ob P10 so billig herzustellen ist daß er im Mainstreamsegment zu verkaufen geht. Ich denke, dafür müßte AMD die Preise noch weiter Richtung R7 370 drücken.

Korvaun
2016-09-25, 08:12:23
V11 1:1-Ersatz für P10? Das kommt mMn hauptsächlich darauf an wie stark die Architekturverbesserungen von VEGA gegenüber Polaris sind. Wenn Polaris eher nur ein "Testchip" für 14nm war dann macht es schon Sinn den schnell wieder zu ersetzten. Kostet halt extra Geld was AMD gerade nicht üppig hat...

victore99
2016-09-25, 10:17:11
Kann auch eine Segmentsersetzung sein. Also dass die Segmenter ersetzt werden. Denn Polaris soo schnell ersetzen? Not Rly.

Vvtl macht man es so: Vega (der sehr kleine, der ja angeblich Polaris ersetzen soll) ist rund 30 bis 40% schneller und übernimmt den Preispunkt von Polaris vvtl so plus 30/40€, also so 300€. Polaris 10 kriegt nen extremeren Cut (also auf rund 1792 Shader) um Ausbeutung und damit Preise zu verbessern und der Cut geht auf rund 150€, der Full dann auf 200/220 Straße.
Dann darunter der Kleine Polaris ab 100€ Straße (cut, die Full sind zu wertvoll...)

Das ist das einzige, was Sinn ergibt, wenn man davon ausgeht, dass AMD P10 nicht in die Tonne kloppen will.

HOT
2016-09-25, 10:28:13
V11 wird sicherlich seine 300mm² haben. P10 von den Kosten her zu ersetzen ist glaube ich ziemlich absurd.
P10 -> 36CUs, GDDR5
V11 -> 48-52CUs, HBM (2 Stacks) (braucht >460GB/Sec)
V11 -> 64CUs, HBM (4 Stacks) (braucht >640GB/Sec)

BlacKi
2016-09-25, 10:45:55
V11 wird sicherlich seine 300mm² haben. P10 von den Kosten her zu ersetzen ist glaube ich ziemlich absurd.

man wird polaris so oder so benötigen, wie will man sonst ein ganzes line up bilden ohne polaris...

tatsache ist das polaris aber in einem segment versucht zu fischen, welcher ihm eigentlich zu groß ist. hart an der grenze, 100mhz weniger würden dem chip besser stehen.
nächstes jahr:

p11 =RX550
p10 salvage =RX560
p10 =RX570
v11 =RX580*

*hier wurde polaris ersetzt.

könnte sein das man wieder das X einführt bei der RX 580x. 590 ist ja traditionell für einen möglichen dual chip reserviert.

Botcruscher
2016-09-25, 10:56:06
P10 zu ersetzen oder dran herum zu schnippeln ist doch totaler quatsch. Mit P11 ist es der einzige aktuelle Chip. Außerdem passt das Verhältnis zur 1060. Ökonomisch wäre ein Plazierung zwischen 1070/80 und nahe an der Titan für neue Produkte optimal.

Die nächste Frage ist ob Greenland mit seinen 64CU und den 2 Stapeln jemals der geplante Vollausbau war. Als Massenprodukt hätte da genau so gut Resteverwertung drin sein können. Recheneinheiten sind billig.

HOT
2016-09-25, 11:04:52
[...]

könnte sein das man wieder das X einführt bei der RX 580x. 590 ist ja traditionell für einen möglichen dual chip reserviert.
Bei AMD nicht. 69x0 -> 79x0 -> 290 -> 390

Aber sonst hast du recht, man wird das X wieder mitnehmen.

RX580 -> V11 Pro - RX580X -> V11 XT
RX590 -> V10 Pro - RX590X -> V10 XT

horn 12
2016-09-25, 11:28:45
Vega 10 wie schnell sollte jener beim Großen Chip werden
hoffe doch sehr mal eine Fury X doppelte Performance mal erreichen zu können
Vor Allem zwecks Ultra HD - Primal und Co.

Sollte Vega 10 echt nur 20 bis 30% auf eine Fury X drauflegen spar ich mit das Update.
Außer AMD bringt die Karte für 400 bis 450 Euro, was zwecks 8GB HBM oder gar 16GB HMB (550+ Euro) fast unmöglich scheint.

HOT
2016-09-25, 13:09:49
Ohne die Probleme der Fury, also mit deutlich besserer Auslastung und 50% mehr Takt, dürfte das Teil schon 50-80% über der Fury liegen, je nach Anwendung. Dementsprechend wird das Teil auch schon 1,6GHz HBM mit 4096Bit brauchen, hätte also 60% mehr Speicherbandbreite als diese (was ich auch für die wahrscheinlichste Kombination halte bei V10), um die Leistung auch auf die Strasse zu bringen. Wie gesagt, die Frage stellt sich nicht, ob das Teil 16GB hat. Mit 4 Stacks ist das sehr sicher und das Teil benötigt 4 Stacks.
V11 bekommt sicherlich 2 Stacks mit 2GHz und V20 4 Stacks mit 2 GHz. Passt doch hervorragend zur SKHynix' Produkten. Anzunehmen, ein 12TFlops-Chip von AMD käme mit 2 Stacks aus ist doch absurd. Schon ein V11 mit entsprechenden Taktraten und 48CUs hätte mehr Rechenleistung als Fiji und bräuchte also ebenfalls die 512GB/Sec, was mit 2 Stacks grade so erreichbar ist.

Achill
2016-09-25, 13:22:52
Was spricht denn gegen 490 und 490X für Vega und die Dual-Lösung (wenn diese kommt) dann wie immer 495/495X.

Finde es aber müssig über GPU-Namen zu spekulieren.

Isen
2016-09-25, 13:31:52
Weil es kein fetterer Polaris ist. Sondern halt eben GCN 5

Der_Korken
2016-09-25, 14:07:04
Es wäre ziemlich inkonsistent, wenn man mit der 400-Serie erst das X aus dem Namensschema entfernt, nur um es dann mit der gleichen Serie wieder neu einzuführen. Wenn Vega noch in die 400er Serie hätte kommen sollen, hätten sie P10 und P11 einen Zehner tiefer, damit die 480 auch noch frei bleibt für den Salvage-Chip. Dass man wegen der Architektur ein 400er-Branding vermeidet, sehe ich nicht so eng. Das war bei der 200er und 300er-Serie auch Kraut und Rüben.

victore99
2016-09-25, 19:22:15
Trotzdem klingt 500 einfach Besser... Aber die Namen sind eh Schall und Rauch und scheißegal.

BlacKi
2016-09-25, 19:41:18
Weil es kein fetterer Polaris ist. Sondern halt eben GCN 5
was hat der gcn stand mit dem namen zu tun? es wird genug refresh karten in der 500er reihe geben die nicht den gcn 5 standard haben werden. man wird nach wie vor alte chips mit neuem namen versehen.

iuno
2016-09-25, 20:59:07
Bitte nicht schon wieder :eek:

Mal was anderes: denkt ihr, dass V10 standardmassig wieder eine AIO WK bekommt? Gerade wenn der Chip nicht so besonders gross wird, wird die Kuehlung doch wieder eine Herausforderung. Zudem steigt die Effizienz bei niedrigeren Temperaturen. Dafuer ist man bei customs wieder komplett auf die Partner angewiesen, wobei das ja bei der Fury ganz gut geklappt hat. Aber der Chip war auch gross und entsprechend leicht zu kuehlen.

Agent117
2016-09-25, 22:40:20
Bei 225W TDP wäre das schon gut möglich und für einen kleinen Formfaktor wohl auch notwendig.

Bei der Fury hatte die Partner ja sehr leise, gute Kühler gebaut, die über das PCB hinausragten und so noch Luft von der Rückseite ansaugen können. Bei der Sapphire TriX ging das mit 1,5 Sonne unter Last.
Ich behaupte mal einen Kühler mit gleichen Formfaktor wie der der RX480 Referenz, kürzerem PCB mit mehr Platz zum Luftansaugen und ansonsten wertiger gebaut mit mehr Heatpipes und vlt Vapor X Kammer könnte man bei 225W auf 3 Sonne bekommen; das wäre noch OK als Referenz meiner Meinung nach.

Korvaun
2016-09-26, 08:03:58
Bitte nicht schon wieder :eek:

Mal was anderes: denkt ihr, dass V10 standardmassig wieder eine AIO WK bekommt? Gerade wenn der Chip nicht so besonders gross wird, wird die Kuehlung doch wieder eine Herausforderung. Zudem steigt die Effizienz bei niedrigeren Temperaturen. Dafuer ist man bei customs wieder komplett auf die Partner angewiesen, wobei das ja bei der Fury ganz gut geklappt hat. Aber der Chip war auch gross und entsprechend leicht zu kuehlen.

Ich kanns mir nicht vorstellen. V10 soll ja wohl in ganz anderen Mengen hergestellt und verkauft werden als FuryX (die eher eine kaufbare Machbarkeitsstudie ist). Nach den Problemen mit der fiependen Wakü und dem doch nicht unproblematischen allgemeinen Handling einer solchen Karte ist ein ordentlicher Standardkühler mMn auf alle Fälle die sinnvollere Wahl. Ob das AMD auch so sieht ist natürlich was ganz anderes ;)

Solange es wieder ganz normal Custom-Karten auch vom Topmodell gibt wäre das aber auch nicht so wichtig ob die Referenzkarte Wakü hat oder nicht...


Edit: Zusätzliches Problem ist dann noch der Vergleich zu den normalen Karten die im idle/Desktop die Lüfter anhalten und dann 0dB Karten sind. Da ist Wakü doch stark im Nachteil solange da nicht was ähnliches angeboten wird...

Complicated
2016-09-26, 08:50:22
Die FuryX hat sich häufiger verkauft als die Titan-Serie. Wann fängt bei dir die Machbarkeitsstudie an? Ebenso die Fury und die Nano. Alles aus dem selben Die.

Isen
2016-09-26, 10:19:16
was hat der gcn stand mit dem namen zu tun?

Vieles.

tm0975
2016-09-26, 10:42:53
Mal was anderes: denkt ihr, dass V10 standardmassig wieder eine AIO WK bekommt?

ich hoffe nicht. eine fury X nitro für 500 € bei der vorstellung wäre mit sicherheit ein verkaufsschlager geworden. die fury nitro war super leise und gut gekühlt.

Botcruscher
2016-09-26, 11:11:48
Die FuryX hat sich häufiger verkauft als die Titan-Serie. Wann fängt bei dir die Machbarkeitsstudie an? Ebenso die Fury und die Nano. Alles aus dem selben Die.

:freak:

Ist der Vergleich jetzt dein Ernst?

HOT
2016-09-26, 11:29:45
Den Fehler wird AMD denke ich nicht noch mal machen. FuryX war ein Sonderfall.

Complicated
2016-09-26, 12:24:31
:freak:

Ist der Vergleich jetzt dein Ernst?
Was heisst mein Ernst? Wer zur FuryX "Machbarkeitsstudie" sagt, der muss doch mal erklären ab welcher Stückzahl er das so definiert. Denn es gibt einige GPUs die weniger verkauft wurden und nicht so genannt wurden. Das permanente anhängen negativer Etiketten an AMD Produkte geht mir halt auf den Geist.

Botcruscher
2016-09-26, 12:49:41
Gegen alle Verkauften GM200 ist Fiji eine Machbarkeitsstudie. Titan hat nicht die Aufgabe fette Verkäufe zu generieren. Das ist ein Enthusiasten Produkt und Prestige-Bringer für den Rest.
Das AMD oder ein Hersteller an Fiji auch nur annähernd Gewinn gemacht hat bezweifele ich mal sehr stark. Format C hatte sich zur "Begeisterung" der Hersteller mehr als deutlich geäußert. Die überragenden Vielfalt an Fiji-Karten zeigt den kümmerlichen Rest. Fiji ist so ein extremer Sonderfall, dass die 980TI immer größere Runden drum fährt. Eigentlich verrecken immer die Produkte von NV am Speicher während AMD Karten weiter nutzbar sind. Insgesamt gibt es an der Karte nichts schön zu reden. AMD hat genau gewusst wo die Karte landet und AMD muss sich auch der enormen Verspätung von Vega bewusst gewesen sein. Damit bleiben eben nur zwei Gründe für den Chip: Er war billig und ein HBM Test.

tm0975
2016-09-26, 12:52:27
aus db-sicht hätte amd fiji sicherlich nicht auflegen dürfen. aber dann hätte ich keine nano und ich finde das kartenformat echt klasse. fiji war in erster linie lernen für vega.

Hübie
2016-09-26, 14:16:31
Die FuryX hat sich häufiger verkauft als die Titan-Serie. Wann fängt bei dir die Machbarkeitsstudie an? Ebenso die Fury und die Nano. Alles aus dem selben Die.

Ist das eine Vermutung oder gibt es dazu Quellen? Von welcher Titan sprichst du überhaupt? Titan Classic hat sich exzellent verkauft.
Ich hoffe inständig dass sich Fiji für AMD auszahlt, was die Produktion eines solchen Chips angeht. Denn man macht für gewöhnlich nicht zwei Mal den gleichen Fehler. Es könnte also eine breite Verfügbarkeit von Vega geben, wenn die Prozesse gut genug optimiert sind. Die schwierigsten Aufgaben sind meiner Beobachtung nach package assembly und auch yield des HBM-RAMs.
Welche Fertigungsstruktur nutzt HBM2 eigentlich? :|

Locuza
2016-09-26, 14:52:20
[...]
Welche Fertigungsstruktur nutzt HBM2 eigentlich? :|
http://www.kitguru.net/components/graphic-cards/anton-shilov/sk-hynix-demos-hbm2-memory-chips-opens-way-for-32gb-graphics-cards/?PageSpeed=noscript

HBM1 wurde angeblich mit 29nm (2x nm) hergestellt und der kommende HBM2-Speicher soll mit 20nm produziert werden (2z nm).

Sunrise
2016-09-26, 15:36:17
Die "Verschiebung" von Navi soll übrigens mit der Verfügbarkeit von HBM3 zusammenhängen, der erst 2019/2020 verfügbar sein wird. Insofern gibt das der Vega20-Spekulation nochmal etwas mehr Gewicht.

Es ergibt sich also ein klares Bild:

Fiji -> abhängig von HBM1-Verfügbarkeit
Vega10 -> abhängig von HBM2-Verfügbarkeit
...
Navi -> abhängig von HBM3-Verfügbarkeit (bei AMD auf den Roadmaps noch als "Next-Gen Memory" umschrieben).

Botcruscher
2016-09-26, 16:22:34
Da ist eher interessant wie brutal sich die 970 verkauft hat und wie schlecht dagegen die 980. Das Preisziel des kleinen Vega dürfte damit klar sein. Sonst kann man nicht konkurrieren.

PS: Zu HBM3 sei an diese Nachricht (http://arstechnica.com/gadgets/2016/08/hbm3-details-price-bandwidth/) erinnert. Warum man dafür Navi verschieben muss erschließt sich mir nicht. Da wird es eher Zeit den DDR4 auf den Mobos los zu werden.

Dazu dürfte GDDR6 von allen am wichtigsten sein.

HOT
2016-09-26, 16:23:54
V11 wird zwischen 250 und 350€ landen sollen, das dürfte klar sein. V10 dann 400€+.

iuno
2016-09-26, 16:36:25
Was soll HBM3 ueberhaupt sein? Hynix hat afaik nach HBM2 noch keine Plaene vorgestellt. Samsung sagt auch nur dass alles viel besser werden soll, ohne irgendwelche handfesten Plaene oder Daten.
HBM2 ist trotz Strukturverkleinerung ggue. HBM1 im Volumen mehr als 3x so gross. Ganz locker geht das alles nicht. Und am Ende kann es immer noch sein, dass Nvidia bei Samsung alles aufkauft.
Dieses Geruecht impliziert auch, dass beide Navi Chips mit HBM kommen. Man wuerde also schon wieder das high-end ersetzen (oder oben draufsetzen) ohne unten was neues nachzuschieben. Da wuerde ich noch keine Schluesse ziehen.
Aber das gehoert eh in den Navi Thread...

HOT
2016-09-26, 16:40:35
Falscher Thread, ansonsten:
http://arstechnica.com/gadgets/2016/08/hbm3-details-price-bandwidth/

Locuza
2016-09-26, 16:50:44
Samsung gibt grob 2019/20 für "HBM3" an, mit vagen Aussagen zu den Spezifikationen und Verbesserungen.
Navi bis 2020 im schlimmsten Fall verschoben confirmed? :eek:
Oder schafft es SK Hynix ein Jahr vor Samsung zu beliefern? :cool:

Wir haben zwei "Quellen" die sich teilweise widersprechen, aber immerhin von einer Server was auch sonst was Roadmap sprechen.
Es muss unter Umständen gar nichts verschoben worden sein, sondern es geht "nur" um die "professionellen" Marktsegmente, wo die Produkte oft viele Monate nach den ersten Consumer-Products erscheinen.

Chill your horses würde ich sagen, jedenfalls bis sich der Nebel etwas mehr lichtet.

Gipsel
2016-09-26, 18:03:45
Bleibt bitte beim Thema!

F5.Nuh
2016-09-26, 23:53:36
Ich blicke kaum noch durch :freak:

Hatte meine r290x vor Monaten für 200 € verkauft um eine GTX 1070 zu holen. Da waren oder sind die Preise noch immer zu hoch, da kein richtiger AMD Konkurrent da ist.

Warten auf Vega? Bisher blicke ich 0 durch was die vermutliche Leistung und release angeht.

HOT
2016-09-27, 00:12:29
Ganz ehrlich? Hol dir die 1070. Das Warten auf Vega macht nur bedingt Sinn, da V10 wohl vor Mai nächsten Jahres nicht zu erwarten ist.

horn 12
2016-09-27, 06:43:21
Abverkauf auf andere Karten abgewälzt?

http://videocardz.com/63736/amd-launches-new-embedded-radeon-gpus

Dorn
2016-09-27, 08:22:55
Das Warten auf Vega macht nur bedingt Sinn, da V10 wohl vor Mai nächsten Jahres nicht zu erwarten ist.Wie kommst zu dieser Annahme?

Botcruscher
2016-09-27, 10:43:40
Weil Q1/Q2 durch den Äther schwirrt.

Abverkauf auf andere Karten abgewälzt?

http://videocardz.com/63736/amd-launches-new-embedded-radeon-gpus
Das ist doch zu 110% Polaris. Da kommt ganz sicher kein Tonga und mit Vega hat das schon mal überhaupt nichts gemein.

Korvaun
2016-09-27, 11:25:02
Ich blicke kaum noch durch :freak:

Hatte meine r290x vor Monaten für 200 € verkauft um eine GTX 1070 zu holen. Da waren oder sind die Preise noch immer zu hoch, da kein richtiger AMD Konkurrent da ist.

Warten auf Vega? Bisher blicke ich 0 durch was die vermutliche Leistung und release angeht.

Leistung grob auf 1080/1070(Custom)-Niveau. Optimistisches Gerücht Q1/2017, also Release bestenfallse nach der CES2017 (Mitte/Ende Januar2017), typischerweise aber eher März 2017. Pessimistisches Gerücht H1/2017, also Juni 2017.

Kannst du so lange warten? Willst du so lange warten? Mit ner guten 1070er Custom bist du keinesfalls schlecht bedient...

Hübie
2016-09-27, 12:03:02
Abverkauf auf andere Karten abgewälzt?

http://videocardz.com/63736/amd-launches-new-embedded-radeon-gpus

Wie hohl is der Typ eigentlich (ich meine WhyCry):facepalm:
Und was hat das mit Abverkauf, geschweige denn Vega zu tun?

Ailuros
2016-09-27, 12:15:36
Wie hohl is der Typ eigentlich (ich meine WhyCry):facepalm:



Sein Nachnahme ist BecauseYouShould :freak:

Nakai
2016-09-27, 12:18:09
Embedded hat nix mit Abverkauf zu tun.
Die Laufzeiten von embedded Produkten sind sowieso sehr lang. Da hat AMD eigentlich noch eine sehr kurze Laufzeit der Produkte.

HOT
2016-09-27, 12:28:40
Leistung grob auf 1080/1070(Custom)-Niveau. Optimistisches Gerücht Q1/2017, also Release bestenfallse nach der CES2017 (Mitte/Ende Januar2017), typischerweise aber eher März 2017. Pessimistisches Gerücht H1/2017, also Juni 2017.

Kannst du so lange warten? Willst du so lange warten? Mit ner guten 1070er Custom bist du keinesfalls schlecht bedient...

In den "Leaks" war von Q2 die Rede und das ist auch realistisch, wenn man annimmt, dass das Teil nicht mehr in 14LPP erscheinen könnte, sondern in 14HP.
Q2 ist sicherlich eher Juni als April. Das kennen wir ja.
Wenn das Teil 12TFlops ohne Bandbreitenlimits auf die Beine bringt wird man auf jeden Fall mindestens auf 1080-Niveau landen. Vielleicht schafft man es ja bis dahin den DX11-Treiber endlich mal zu renovieren. Das wird ja immer kritischer, je mehr Leistung die Dinger haben.

Ich nehme an, ein realistischer Termin für V10-Launch ist Mai 2017, für V11 dann August.

Deswegen sagte ich ja auch, warten im Bedarfsfall lohnt sich nicht, dafür ist das noch zu lange hin. Wenn man wirklich was braucht sollte man grundsätzlich kaufen.

Korvaun
2016-09-27, 13:35:28
Was man auch nicht vergessen sollte ist wie die diesjähringen Vorstellungen über die Bühne gingen. Vorstellung+Verkauf der Ref.-Karte zuerst, Custom-Karten erst Wochen später in kleinen Mengen... wenn das bei VEGA wieder so läuft kann man auf den Vorstellungstermin gedanklich noch mal 3-4 Wochen draufpacken bis man *wirklich" was sinnvoll kaufen kann ;)

HOT
2016-09-27, 14:08:11
Ein durchaus gewichiges Argument. Wobei man nach den Erfahrungen dieser Lanches nicht vielleicht doch etwas anders agieren sollte, insbesondere AMD. Man wird sehen.

Hübie
2016-09-27, 15:04:42
Rein vom Launch her fand ich die 970 am besten. Wäre die Krüppelgeschichte nicht, wäre dies ein weißer Fleck auf der sonst schwarzen Jacke. :D

Edit: Und so etwas wünsche ich mir von AMD. :smile:

Botcruscher
2016-09-27, 15:12:05
insbesondere AMD
Mein Ironiedetektor ist gerade in einer spontanen Singularität entschwunden.

Hübie
2016-09-27, 15:24:59
Wieso? Er hat doch Recht. Die Launches von AMD werden immer durch interne Maulwürfe manipuliert. Ich sitz oft mit einer Facepalm hier. Es ist einfach nur noch peinlich. Das wird sich hoffentlich nun endlich ändern. Vega wird als Fiji done right gehandelt. ;)

victore99
2016-09-27, 20:37:26
interne Maulwürfe, interessant, wenn auch wahrscheinlich nur als Scherz gemeint. Fiepende Fury X, PCi-E bei der 480 (was von im vgl zu AMD kleinen Fischen festgestellt wurde (Hardwareredaktionen), während AMD davon "überrascht" war), und dann das Talent quasi aller 480-Customs, immer irgendeine Kleinigkeit zu versauen. die laute Nitro, die Strix mit ihrer Lüftersteuerung, Powercolor und deren "Dont run Furmark on it".... schon suspekt, während bei der 1000er-Serie irgendwie alles glattging, bei der 900er genauso (ausgenommen natürlich die Cachegeschichte beim 204)

horn 12
2016-09-27, 22:25:22
Sein Nachnahme ist BecauseYouShould :freak:

Sorry, im Eifer des Gefechtes dachte ich in der Früh es wäre der Fiji GPU Chip welchen AMD neu vermarket auf einer weiteren Server Karte
War nur 3 Minuten im Netz und wohl zu hastig!

Thunder99
2016-09-28, 10:04:29
interne Maulwürfe, interessant, wenn auch wahrscheinlich nur als Scherz gemeint. Fiepende Fury X, PCi-E bei der 480 (was von im vgl zu AMD kleinen Fischen festgestellt wurde (Hardwareredaktionen), während AMD davon "überrascht" war), und dann das Talent quasi aller 480-Customs, immer irgendeine Kleinigkeit zu versauen. die laute Nitro, die Strix mit ihrer Lüftersteuerung, Powercolor und deren "Dont run Furmark on it".... schon suspekt, während bei der 1000er-Serie irgendwie alles glattging, bei der 900er genauso (ausgenommen natürlich die Cachegeschichte beim 204)
Liegt aber ab den Boardpartnern, nicht an AMD.

Wird nun Vega 11 als kleiner Vega gehandelt? Bis vor einiger Zeit war das doch der Große :confused:

HOT
2016-09-28, 10:26:51
Jo V10 ist wohl die große Variante mit 64CUs, V11 wird wohl so um die 48 CUs haben und V20 gibts jetzt auch noch offenbar als Profivariante. Ob der 14nm oder 7nm ist, ist bisher unklar, aber es wird dort offenbar bei den 64CUs bleiben.

Hübie
2016-09-28, 11:06:51
Als ob man es nicht ahnen konnte... X-D

Ailuros
2016-09-28, 11:21:45
Als ob man es nicht ahnen konnte... X-D

grrrrrr.....:ubash2:

HOT
2016-09-28, 11:52:52
:eek: :popcorn: :weg:

AlphaNUSS
2016-09-28, 11:57:50
Ich hoffe das dauert nicht mehr allzu lange. Bei AMD gibt es seit 3 Jahren nicht neues im 350-400€ Bereich.

Nakai
2016-09-28, 12:20:52
Vega20 wird kein Vega10-Refresh mit "nur" 4096 SPs.

Es ist auch nicht klar, wie bei Vega die CUs umgekrempelt wurden. Viele AMD Patente gehen in eine interessante Richtung mit verschieden-große SIMDs. Wie genau das nun implementiert ist, da müssen wir uns noch gedulden. Im Grunde wird dadurch die Perf/Watt gesteigert.

Ich könnte mir vorstellen, dass jegliche 16er SIMD auch in anderen SIMD-Modis arbeiten kann, also im SIMD8, SIMD4 oder SIMD2-Modus. Durch die 64Bit Maskierung könnte man theoretisch die Wavefronts komprimieren. Also wenn eine 64er Wavefront eben nur weniger als 32 valide Work-Items hat, wird die Wavefront auf 32 beschnitten und die SIMD arbeitet im SIMD8-Modus mit gleicher Latenz, aber eben mit höherer Perf/Watt. da die Hälfte der Slots "abgeschaltet" werden.

ODER, je BIG SIMD16 gibt es eine zusätzliche little SIMD8/4/2/1, welche dann dynamisch umgeschalten wird (eben anhand der Maskierung). Man müsste dementsprechend die Multiplexer zur Registerfile anpassen.

Mehrperformance wird dadurch erstmal nicht erreicht, jedoch eine bessere Perf/W und womöglich kann der Takt dadurch etwas in die Höhe getrieben werden. Die 12 TFLOPs FP32-Leistung sprächen für 1,5 GHz und wenn ich auf P10 schiele, klingt das gar nicht mal so schlecht.
Die Rohleistung sollte einen Sprung von Faktor 2 gegenüber P10 machen. Mehrperformance sollte maximal auf diesem Niveau liegen (je nachdem wie gut man skaliert).

horn 12
2016-09-29, 07:12:01
Gut möglich das Vega doch früher kommt und bereits zur CES 17 vorgestellt wird mit Verfügbarkeit Ende Jänner - Anfang Februar 2017.

Iruwen
2016-09-29, 11:14:33
Als ob.

maximus_hertus
2016-09-29, 12:00:55
Gut möglich das Vega doch früher kommt und bereits zur CES 17 vorgestellt wird mit Verfügbarkeit Ende Jänner - Anfang Februar 2017.

Wenn AMD selber von Juni spricht (H1 = Juni, sonst würde man von Early 17 oder Q1 sprechen), sollte man auch nichts vorher erwarten.

Hübie
2016-09-29, 12:41:43
Gut möglich das Vega doch früher kommt und bereits zur CES 17 vorgestellt wird mit Verfügbarkeit Ende Jänner - Anfang Februar 2017.

Klar. Auch gut möglich dass wir 2017 schon auf dem Mars landen. Möglich ist vieles. Aber wahrscheinlich oder realistisch eher weniger... :tongue:

disap.ed
2016-09-29, 13:32:13
Wenn AMD selber von Juni spricht (H1 = Juni, sonst würde man von Early 17 oder Q1 sprechen), sollte man auch nichts vorher erwarten.

Ist ein Bluff #believe ... not

Dorn
2016-09-29, 15:02:51
Ist ein Bluff #believe ... not
Damit die alten Furys noch gekauft werden? :biggrin:

Hübie
2016-09-29, 15:35:22
Vega20 wird kein Vega10-Refresh mit "nur" 4096 SPs.

Es ist auch nicht klar, wie bei Vega die CUs umgekrempelt wurden. Viele AMD Patente gehen in eine interessante Richtung mit verschieden-große SIMDs. Wie genau das nun implementiert ist, da müssen wir uns noch gedulden. Im Grunde wird dadurch die Perf/Watt gesteigert.

Ich könnte mir vorstellen, dass jegliche 16er SIMD auch in anderen SIMD-Modis arbeiten kann, also im SIMD8, SIMD4 oder SIMD2-Modus. Durch die 64Bit Maskierung könnte man theoretisch die Wavefronts komprimieren. Also wenn eine 64er Wavefront eben nur weniger als 32 valide Work-Items hat, wird die Wavefront auf 32 beschnitten und die SIMD arbeitet im SIMD8-Modus mit gleicher Latenz, aber eben mit höherer Perf/Watt. da die Hälfte der Slots "abgeschaltet" werden.

ODER, je BIG SIMD16 gibt es eine zusätzliche little SIMD8/4/2/1, welche dann dynamisch umgeschalten wird (eben anhand der Maskierung). Man müsste dementsprechend die Multiplexer zur Registerfile anpassen.

Mehrperformance wird dadurch erstmal nicht erreicht, jedoch eine bessere Perf/W und womöglich kann der Takt dadurch etwas in die Höhe getrieben werden. Die 12 TFLOPs FP32-Leistung sprächen für 1,5 GHz und wenn ich auf P10 schiele, klingt das gar nicht mal so schlecht.
Die Rohleistung sollte einen Sprung von Faktor 2 gegenüber P10 machen. Mehrperformance sollte maximal auf diesem Niveau liegen (je nachdem wie gut man skaliert).

Mein Verständnis dafür sagt mir dass wieder die duty cycles erhöht würden, was ein Teil des Takts und Perf / W auffrisst. Klar. Ein Gewinn dürfte es geben. Was machen dann die "leeren" SIMD-Units? Könnte man mittels shifting das nicht besser lösen (auslasten)? :redface:

MR2
2016-09-29, 17:20:06
http://fudzilla.com/news/graphics/41724-vega-10-with-hbm2-to-launch-this-year

Vega 10 with HBM2 will launch this year
- für den Profi Markt.

Hübie
2016-09-29, 17:25:13
Mein Bauchgefühl sagt immer wieder: "Vega 20 ist 2xVega 10" :freak: Keine Ahnung warum...

Ansonsten; kann gut sein dass Vega 10 Ende '16 an den Profimarkt gelangt, aber wohl ähnlich wie GP100 in homöopathischen Dosen.

Nakai
2016-09-29, 17:38:58
Mein Verständnis dafür sagt mir dass wieder die duty cycles erhöht würden, was ein Teil des Takts und Perf / W auffrisst. Klar. Ein Gewinn dürfte es geben. Was machen dann die "leeren" SIMD-Units? Könnte man mittels shifting das nicht besser lösen (auslasten)? :redface:

Nein, es geht darum, dass man die SIMDs so konfiguriert, dass es am wenigstens Bubbles gibt. Eine 16er SIMD wird einen 16er, 8er, 4er, 2er und skalaren Task jeweils gleich schnell verarbeiten. Jedoch sollte man für einen 8er Task eben eher eine 8er SIMD verwenden, weil dadurch eben 8 "freie" Slots eingespart werden können (vice versa für alles andere). Dadurch steigt die Perf/W, weil man eben für spezielle Aufgaben eben spezielle Einheiten hat.
Es eventuell fallen könnte, wäre die Perf/mm².

http://fudzilla.com/news/graphics/41724-vega-10-with-hbm2-to-launch-this-year

Vega 10 with HBM2 will launch this year
- für den Profi Markt.

Lol, will man da NV nachahmen, mit dem GP100-Launch? ;D

Für AMD macht es keinen Sinn, erst Profi und dann Consumer anzustreben. Eher ist es ein "Paper-Launch" mit professionellem Hintergrund. ;)

MR2
2016-09-29, 17:41:50
@Nakai

Jep, das waren auch so meine Gedanken:-) Vega wäre so wichtig jetzt im Desktop Markt, aber wenn man nicht genügend hat....dann der Treiber sowieso noch braucht.

iuno
2016-09-29, 17:52:26
Vega 10 with HBM2 will launch this year
"Launch" ;p
Ich bin gespannt. Wenn die letzten Infos nicht kompletter Unsinn waren aber wohl "nur" FP16/FP32, vielleicht ja auch eher fuer Workstations?
Waere schoen, wenn sie dann auch mal wirklich was praktisches zu zeigen haetten, was Eindruck macht. Z.B. HIP Ports, Caffe@OpenCL oder irgendwas in die Richtung. Einfach um zu zeigen, dass die FLOPs auch was wert sind :ugly:

kruemelmonster
2016-09-29, 18:03:02
Liegt aber ab den Boardpartnern, nicht an AMD.

Es liegt in AMDs ureigenstem Interesse dass die Boardpartner vernünftige Karten produzieren; AMD könnte die AIBs genauso an die Kandare nehmen wie NV das mit ihrem Greenlight Programm macht...vllt hindert ja nur die amerikanische Prüderie AMD daran ein Rotlicht Programm auf die Beine zu stellen. ;D

victore99
2016-09-29, 19:01:17
Es liegt in AMDs ureigenstem Interesse dass die Boardpartner vernünftige Karten produzieren; AMD könnte die AIBs genauso an die Kandare nehmen wie NV das mit ihrem Greenlight Programm macht...vllt hindert ja nur die amerikanische Prüderie AMD daran ein Rotlicht Programm auf die Beine zu stellen. ;D
wenn schlechte Kartendesigns das Rote Licht bekämen, gäbe es bei AMD keine Referenzdesigns mehr...

aber RLY? AMD sagt also: "hier habt ihr die GPU, is uns egal was ihr damit macht"?

Setsul
2016-09-29, 19:20:09
@MR2: Hype ein bisschen runterdrehen, deine eigene Quelle sagt
Our well-informed sources have confirmed that Vega 10, AMD’s first HBM 2 card will by announced before the end of this year, at least for the professional market.

[...]

The fact that AMD / RTG plans to launch the card this year, doesn’t mean that they will have too many to sell. The general idea is to get the customers excited and ship in volume in early 2017.

"Vega 10 with HBM2 will launch this year" ist meiner Meinung nach das falsche Zitat.

Auch wieder mit klassischem Fudzilla "Typo": "will by announced".

fondness
2016-09-29, 19:36:12
aber RLY? AMD sagt also: "hier habt ihr die GPU, is uns egal was ihr damit macht"?

Das ist natürlich Blödsinn. zB fiept schon lange keine AMD-Karte mehr, selbst die sehr stromhungrigen 390 oder Fury-Karten nicht, was natürlich kein Zufall war/ist.

Botcruscher
2016-09-29, 19:46:03
Zumindest Partnerkarten auf Basis des Referenzdesigns sollten ab Tag eins verfügbar sein. CAD Pläne raus, Verbrauch angeben, intern gegen testen.
Ansonsten kann dieses Jahr auch der 31.12 sein. Die Wahl den Profimarkt zuerst zu bedienen ist mehr als korrekt. Da kann bei geringerem Preisdruck in aller Ruhe die Fertigung hochgefahren werden.

aufkrawall
2016-09-29, 19:53:27
Das ist natürlich Blödsinn. zB fiept schon lange keine AMD-Karte mehr, selbst die sehr stromhungrigen 390 oder Fury-Karten nicht, was natürlich kein Zufall war/ist.
Jede Karte macht elektrische Geräusche unter bestimmten Bedingungen.

reaperrr
2016-09-29, 20:19:14
Das ist natürlich Blödsinn. zB fiept schon lange keine AMD-Karte mehr, selbst die sehr stromhungrigen 390 oder Fury-Karten nicht, was natürlich kein Zufall war/ist.
Meine 470 8GB Nitro+ ist zurückgegangen, weil die Spulen den Lüfter übertönt haben.

Dass es einfach ein Montags-Exemplar gewesen sein kann mag sein, aber pauschal richtig ist deine Aussage definitiv nicht.

kruemelmonster
2016-09-30, 11:36:56
wenn schlechte Kartendesigns das Rote Licht bekämen, gäbe es bei AMD keine Referenzdesigns mehr...

YMMD ;D

Das ist natürlich Blödsinn. zB fiept schon lange keine AMD-Karte mehr, selbst die sehr stromhungrigen 390 oder Fury-Karten nicht, was natürlich kein Zufall war/ist.

Und was ist mit den weiteren Karteneigenschaften wie Lüftergeräusche, Wärmeabgabe etc...gibt es irgendwelche Richtlinien nach denen AMD ein AIB-Design auch ablehnen würde, oder wird einfach alles "genehmigt" solange die Karte ein Bild ausgibt?

iuno
2016-10-04, 13:35:30
http://www.anandtech.com/show/10704/globalfoundries-updates-roadmap-7-nm-in-2h-2018
Die Info von WhyCry bzgl. Vega 20 als 7nm Produkt fuer Ende 2017 kann man spaetestens damit getrost vergessen.

N0Thing
2016-10-04, 13:53:08
Die Info von WhyCry bzgl. Vega 20 als 7nm Produkt fuer Ende 2017 kann man spaetestens damit getrost vergessen.

Die Informationen sind doch schon fast zwei Monate alt (http://globalfoundries.com/newsroom/press-releases/globalfoundries-extends-roadmap-to-deliver-industry-s-leading-performance-offering-of-7nm-finfet-technology), die Behauptung, Vega würde noch 2017 in der 7nm Fertigung produziert, oder gar marktreif sein, von Anfang an klar falsch.

Test chips with IP from lead customers have already started running in Fab 8. The technology is expected to be ready for customer product design starts in the second half of 2017, with ramp to risk production in early 2018.

HOT
2016-10-04, 13:54:23
V20 Ende 17 war doch nie die Rede von oder? Macht auch 0 Sinn. 1 1/2 Jahre muss der V10 schon auf dem Markt bleiben, bevor er ersetzt werden kann. V20 Ende 2018 ist realisitisch. Wenn 7nm, dann könnte es sich bis 2019 verzögern, man kennt das ja. Deshalb vermute ich, dass der in 14HP kommt.
Man sollte auch nicht vergessen, dass Qualcomm sicher ebenfalls wieder großes Interesse an 7nm GloFo haben dürfte.

Agent117
2016-10-04, 14:06:08
V20 Ende 17 war doch nie die Rede von oder? Macht auch 0 Sinn. 1 1/2 Jahre muss der V10 schon auf dem Markt bleiben, bevor er ersetzt werden kann. V20 Ende 2018 ist realisitisch. Wenn 7nm, dann könnte es sich bis 2019 verzögern, man kennt das ja. Deshalb vermute ich, dass der in 14HP kommt.
Man sollte auch nicht vergessen, dass Qualcomm sicher ebenfalls wieder großes Interesse an 7nm GloFo haben dürfte.

"It should not take more than six to nine months after the Vega 10 launch"... schreibt zumindest Fudzilla
http://www.fudzilla.com/news/graphics/41669-vega-20-gpu-comes-in-late-2017

So wie ich das sehe wird Vega 20 vor allem ein HPC Chip und Vega 10 ein reiner Gaming Chip. Die Specs implizieren das schon recht deutlich.

Ailuros
2016-10-04, 14:19:03
Die Info von WhyCry bzgl. Vega 20 als 7nm Produkt fuer Ende 2017 kann man spaetestens damit getrost vergessen.

Ich sagte doch dass sein Nachname "BecauseYouShould" ist :freak:

iuno
2016-10-04, 14:36:43
V20 Ende 17 war doch nie die Rede von oder?
Hm, dann habe ich wohl beide Quellen vermischt, sorry

Hübie
2016-10-04, 14:44:09
Welche Specs :|

HOT
2016-10-04, 14:56:45
Um das mal klar zu trennen, weil hier viel durcheinanderläuft.
Angeblich wird V10 (und V11) reine Consumerchips (ich glaub das das nicht ganz korrekt ist, weil mMn V11 wichtig wird für die Groß-APU) und V20 soll dann die Profivariante sein, die 1:2 DP haben und zusätzliches I/O Gedöns+PCIe4.0 mitbringen soll, sowie 4 8er HiStacks und das in 14nm (eher früher) oder 7nm (eher später), je nach "Quelle". V20 ist also gewissermaßen Greenland und 2018 als Releasejahr ist sicher.

Agent117
2016-10-04, 15:10:54
Welche Specs :|

Natürlich nichts ofizielles:)

Aber die Quellen nannten ja für Vega 20:

- 1:2 FP64/FP32
- 4096Bit SI
- GMI Link
- 4096SP

Für Vega 10 hingegen:

- 1:16 FP64/FP32
- 2048Bit SI
- 4096SP@ ~1,50Ghz

Zu Vega 11 stand da nix.
Wenn das bisherige Stimmt dann sollte er 2560SP @ ~ 1,50Ghz haben.

HOT
2016-10-04, 15:29:02
V10 wurde ein solches Speicherinterface nicht bestätigt, ganz im Gegenteil. Die Profivariante, die noch dieses Jahr angekündigt werden soll, hat 16GB und das ist derzeit nur mit 4 Stacks überhaupt möglich.

Also zu 95% sicher:
V10 mit 4 Stacks 4096Bit 16GB in 4er HiStacks
V11 mit 2 Stacks 2048Bit 8GB in 4er HiStacks
V20 mit 4 Stacks 4096Bit 32GB in 8er HiStacks

Auch die Speicherbandbreite, die nötig ist für 12TFLOPs ist nicht erreichbar mit 2 Stacks. Man wird mMn deutlich mehr als 512GB/sec brauchen, das wird da nicht reichen, die hat ja schon Fiji. Ich nehme an, dass V10 und V11 mit 1,6GHz HBM2 kommen werden, also V10 820GB/sec haben wird und V11 410 oder 512, je nach Taktung - V11 soll ja auch erst Mitte 2017 erscheinen, hier sind auch 2 GHz denkbar. V20 würde dann 1024GB/sec haben. Schon Polaris XT müsste 320GB/sec+ haben, die 256GB/sec momentan sind einfach zu knapp bemessen - und der hat weniger als die Hälfte der angepeilten Rechenleistung des V10. GCN braucht einfach ca. 1/4 mehr Bandbreite als Paxwell.

Mich würd mal interessieren, wie diese Quatsch-Einschätzung zustandekommt, dass V10 nur 2 Stacks haben soll ...

Der_Korken
2016-10-04, 16:00:29
Mich würd mal interessieren, wie diese Quatsch-Einschätzung zustandekommt, dass V10 nur 2 Stacks haben soll ...

Warum sollte es Quatsch sein, dass V10 mit zwei HBM-Stacks auskommt? Man hätte mit 512GB/s fast das gleiche Verhältnis von Rechenleistung und Bandbreite wie P10. Wenn AMD den Bandbreitenhunger besser in den Griff bekommt, wie Nvidia, dann können 512GB/s gut hinkommen. 4 Stacks würden die Karten vielleicht viel zu teuer für das angepeilte Marktsegment machen (gibt es eigentlich 2GB-Stacks?). Da verzichtet man lieber auf 5% Leistung, als irgendwie auf 4 Stacks hochzugehen.

Mich wundert an den von Agent117 geposteten Specs aber, dass V10 und V20 so dicht zusammenliegen sollen. Bei Hawaii hat die ganze 1:2 DP-Geschichte dem Chip kaum Nachteile beim Gaming eingebracht. Die Taktraten waren ordentlich, die Effizienz nicht schlechter als die von Tahiti/Tonga und auch die Perf/mm war gemessen an den eigenen Chips und GK110 sehr gut. Warum also 2 Chips mit 4096SPs auflegen? Man deaktiviert den ganzen HPC-Kram und schleppt halt ein paar mm² an Ballast mit, spart sich dafür aber ein ganzes Chipdesign.

iuno
2016-10-04, 16:16:45
Hynix hat inzwischen auch das Databook fuer Q4 aktualisiert. Demnach haben sie noch keine 8Hi Stacks.
Bleibt Samsung, die 8Hi urspr. genau wie Hynix fuer Q4 angesetzt haben, und die Frage nach dem richtigen Termin. Ansonsten muessen es fuer 16 GiB natuerlich 4096 Bit sein.

@HOT deine Spekulationen passen aber auch nicht zusammen. V10 haette mit 2048@2Gbps ein aehnliches Bandbreite/FLOPS Verhaeltnis wie Polaris, dazu neue µArch und das sollte fuer Consumerkarten reichen. V11 auf die HPC APU? Dann soll V11 1:2 DP:SP bekommen und V10 nicht? V11 mit multi TFLOPs (4?) FP64? Wohl eher nicht. Ausser man benutzt das vorab als Testlauf fuer V20, was aber auch wenig Sinn ergibt, imho.

Agent117
2016-10-04, 16:45:46
Warum sollte es Quatsch sein, dass V10 mit zwei HBM-Stacks auskommt? Man hätte mit 512GB/s fast das gleiche Verhältnis von Rechenleistung und Bandbreite wie P10. Wenn AMD den Bandbreitenhunger besser in den Griff bekommt, wie Nvidia, dann können 512GB/s gut hinkommen. 4 Stacks würden die Karten vielleicht viel zu teuer für das angepeilte Marktsegment machen (gibt es eigentlich 2GB-Stacks?). Da verzichtet man lieber auf 5% Leistung, als irgendwie auf 4 Stacks hochzugehen.

Mich wundert an den von Agent117 geposteten Specs aber, dass V10 und V20 so dicht zusammenliegen sollen. Bei Hawaii hat die ganze 1:2 DP-Geschichte dem Chip kaum Nachteile beim Gaming eingebracht. Die Taktraten waren ordentlich, die Effizienz nicht schlechter als die von Tahiti/Tonga und auch die Perf/mm war gemessen an den eigenen Chips und GK110 sehr gut. Warum also 2 Chips mit 4096SPs auflegen? Man deaktiviert den ganzen HPC-Kram und schleppt halt ein paar mm² an Ballast mit, spart sich dafür aber ein ganzes Chipdesign.

Mit 512GB/s könnte das in der Tat etwas knapp werden. Da muss man mal abwarten bis es mehr Infos gibt, ob AMD zum Beispiel Tiled based rasterization
oder besseres Caching implementiert.

Ansonsten ging ich davon aus dass AMD HPC und Gaming fortan trennt - wie Nvidia mit Gp100 und GP102. Beide 3840SP; GP100 jedoch knapp 30% größer.
Ich gebe dir Recht, dass Hawaii unter dem HPC Ballast kaum gelitten hat, könnte mir aber auch vorstellen dass mittlerweile noch mehr HPC Kram (GMI/NV-Link z.B.) hinzugekommen ist, so dass ein heutiger HPC Chip gegenüber seinem Gaming Pendant mehr in der Größe wächst als vor 3-4 Jahren.

AMD wird meiner Meinung nach nicht jede Generation mit Nvidia im High-End HPC Markt konkurrieren. Man wird eher versuchen im Markt halbwegs Fuß zu fassen; hier gibt es sicher in Ländern wie China oder Indien viel Potential.
Vega 20 wird dann mindestens so lange wie Hawaii auf dem Markt sein; einen Volta Konkurrenten für HPC wird man nicht auflegen. Wichtiger ist es 2017 mit Zen, Vega 20 und der Zen APU eine konkurenzfähige Alternative zu Nvidia und Intel besonders in den Genannten Märkten zu haben und sich durch gute Softwarearbeit zu etablieren. Daher lohnt es sich dann einen eigenen Chip aufzulegen wenn dieser sagen wir 5 Jahre am Markt ist. DP Perf/W wird natürlich etwas schlechter sein als bei Volta aber gut.....

HOT
2016-10-04, 17:00:25
Vega10 hat keine 8er HiStacks, das ist einfach Schwachsinn. Die werden wieder bei Hynix beziehen und auch bei Samsung wär ich vorsichtig. Vielleicht hat V11 2x2GHz, was dann wieder zu den 512GB/sec passen könnte, aber bei V10 kann man auch das denke ich ausschließen. Bleiben also nur 4 Stacks übrig, das halte ich für absolut sicher (so sicher man sich eben sein kann bei der Informationslage). Und 512GB/s sind einfach zuwenig für 12TFLOPs, P10 hat 5,2TFLOPs und da reichen 256GB/s hinten und vorne nicht. Die Info ist einfach nicht korrekt mMn. Hynix bietet eben AFAIK nur 1,6 oder 2,0GHz an, da 2 Stacks kategorisch ausscheiden, wird es wohl 4x 1,6GHz werden, was auch mit abstand die realistischste Kombination wird. Bei V10 ist mMn defintiv SKHynix Entwicklungspartner, nicht Samsung. Das wird schon beim Fiji Deal vertraglich festgezurrt worden sein. Was die Kosten damit zu tun haben sollen erschließt sich mir nicht. Ich denke, dass 2 8er Stacks deutlich teurer sein werden anfangs als 4 4er Stacks. Die werden per se dem Profimarkt vorbehalten sein. Dann kommt ja auch noch der 512Bit Billig-HBM auf uns zu, der auch in mehr Stapel verbaut wird/werden muss.

Und es wird wie bei Fiji genau ein Package für Vega geben, ich kann mir einfach nicht vorstellen, dass man da variieren wird. Sowohl V10 XT als auch V10 pro werden 16GB haben und das ist ein Verkaufsargument!

Botcruscher
2016-10-04, 17:23:58
Profimark wird doch ganz sicher mit abgedeckt. AMD leidet eh unter chronischem Vielfaltmangel. 512GB/s reichen einfach nicht. Betrachten wir doch einfach mal die andere Seite. Dem Interposer dürfte die Anzahl fast egal sein. Dessen Kosten sind imo fast fix. Der HBM dürfte ziemlich heftig mit den Lagen nach oben skalieren. Zusammenbau wird mit mehr Stapeln noch mal komplexer sollte aber spätestens seit Fiji erprobt sein. Imo sehr wenig Anzeichen von nur 2 auszugehen.

Der_Korken
2016-10-04, 17:34:18
Gibt es denn auch 2Hi-Stacks? Ansonsten käme man bei 4 Stacks auf 16GB, was imho völlig unnötig und zudem extrem teuer sein dürfte. Das würde nur Sinn ergeben, wenn man mit GP102 konkurrieren könnte und selbst dann könnte man trotz ~100mm² weniger Diespace immer noch die höheren Fertigungskosten haben.

HOT
2016-10-04, 17:43:22
Es WIRD 16GB geben in dem Segment, in dem V10 aktiv wird. Warum ist das so schwer zu akzeptieren? Und das ist auch nicht unnötig, das ist Unsinn. Der Verbrauch wird weiter wachsen und dann kann man froh sein, dass man 16GB hat. Wie gesagt, das ist ein Verkaufsargument. Immer dieses Geblubber, dass irgendeine Speichergröße, die grad angesagt ist immer ausreicht. Das ist noch nie der Fall gewesen. Bei der HD6970 war man froh über die 2GB, bei der Tahiti war man froh über 3GB, bei Hawaii war man froh über 4 und bei Hawaii v.2 war man froh über 8. Warum soll sich das jetzt ändern? So ein Quatsch...
Warum kaufen die Leute gerne die 480? Wegen dem Verbrauch? Der Leistung? Nein, es sind zwei Gründe warum die 480 sich gut verkauft und warum die immernoch teurer ist als die 1060:
- 8GB RAM
- Freesync

Das ist auch der Grund, warum ich mir grad ne 480 bestellt hab und keine 1070, obwohl ich schon auf dem Kauf-Button hing bei der 1070, denn Preis/Leistung ist bei der KFA² momentan einfach ein echter Knaller. Aber mein nächster Monitor wird Freesync haben, kein GSync. Mit dem Scheiss verprellen die Käufer und die checkens einfach nicht.

Botcruscher
2016-10-04, 17:52:47
Gibt es denn auch 2Hi-Stacks?
Natürlich. Eine 8GB Version kommt da ganz sicher. Das sollte imo auch eine weile reichen.

iuno
2016-10-04, 17:53:26
Gibt es denn auch 2Hi-Stacks? Ansonsten käme man bei 4 Stacks auf 16GB, was imho völlig unnötig und zudem extrem teuer sein dürfte.
Nein, noch nicht. Ich bin auch nicht sicher, ob 2Hi bei solchen GPUs ueberhaupt je interessant werden. Das ist vielleicht nur was fuer SoCs als "Cache", wo es noch weiteren, langsamer angebundenen Speicher gibt.
8 GiB machen bei der Karte noch weniger Sinn, dann hat man wieder dieselbe Situation wie mit der 290X<->Fury X. Aber vielleicht gibt es ja diesmal eine Salvage Variante mit 3 Stacks, analog zu Nvidia.
Natürlich. Eine 8GB Version kommt da ganz sicher. Das sollte imo auch eine weile reichen.
Alles klar und wo kann man den kaufen? :ulol: Und V11 soll dann 4 GiB bekommen?
Oder hast du eine Rechnung, die belegt, dass es wirtschaftlich irgendwie Sinn macht? Kosten fuer Interposer und Assembly sind fix. Gefertigt werden auch mehr 4Hi Stacks.

Agent117
2016-10-04, 18:02:17
Ob 16Gb für ega dann letztlich so das Verkaufsargument sind sei mal dahingestellt, aber was hat das denn mit 2048Bit oder 4096Bit SI zu tun?
Mit 2048 Bit hast du dann 2 8Hi-Stacks.
Mit 4096 Bit sind dann auch 4 4Hi-Stacks möglich.

Es würde mich doch sehr überraschen, wenn Samsung oder Hynix für ein 8Hi-Stack den doppelten preis wie für ein 4Hi-Stack verlangen. Und selbst dann wären 2 8Hi-Stacks billiger (kleinerer Interposer, kleinerer Chip da kleinerer Memory Controller).

Folglich ist Vega 10 mit2 8Hi Stacks wenn man denn 16Gb will günstiger herzustellen. Bleibt also noch die Frage ob 512Gb/s reichen. Zunächst entspricht das, wie schon jemand hier anmerkte, dem gleichen Flops/(Gb/s) Verhältnis wie dem der RX480. Da Vega 10 aber auch für UHD gedacht ist, könnte das knapp werden. Somit wären ggf. weitere Verbesserungen notwendig um den Bandbreitenbedarf zu verringern. Bessere Farbkompression, Tiled based rasterization (vmtl sehr aufwendig), mehr, schnellerer Chache kämen da in Frage.
Spricht doch alles recht klar für 2048Bit.

Vega 20 hat dann 4096 Bit wegen HPC.

HOT
2016-10-04, 18:07:55
Da es bislang keine 8er HiStacks gibt, ist die Frage akademisch. 16GB sind nur mit 4 Stacks möglich, Punkt Ende aus... Wie gesagt wird AMD schon Verträge mit SKHynix haben, die verbauen keinen Samsung-HBM. V11 wird 2 Stacks haben, V10 4 - das muss ja äußerst verwirrend sein...
8er Stacks werden frühestens Ende 2017, wohl eher 2018 in Finalprodukten verfügbar sein, alles andere halte ich für utopisch. Und dann sind die Dinger sicher sehr teuer, weil es keinen großen Markt dafür gibt. Man könnte neben V20 vielleicht auch V11 refreshen mit 16GB damit - wie gesagt erst 2018. Frühestens. V10 ist aus der Rechnung einfach raus.

Botcruscher
2016-10-04, 18:21:36
Alles klar und wo kann man den kaufen? :ulol: Und V11 soll dann 4 GiB bekommen?
Oder hast du eine Rechnung, die belegt, dass es wirtschaftlich irgendwie Sinn macht? Kosten fuer Interposer und Assembly sind fix. Gefertigt werden auch mehr 4Hi Stacks.

Wo ist jetzt dein Argument? 2Hi HBM2 ist ganz normal spezifiziert und steht bei Hynix auch auf der Seite, ebenso 8Hi. Das AMD 8GB Karten anbieten muss ist schon aus ökonomischen Gründen logisch. Die Bandbreite muss auch irgendwo her kommen. Das jetzt im Moment nichts im Katalog steht bedeutet übrigens überhaupt nichts.

iuno
2016-10-04, 18:34:04
8 GiB Karten haben sie ja auch. Mit P10 und vermutlich auch mit V11.
Natuerlich bedeutet es nicht zwangslaeufig etwas fuer die Verfuegbarkeit, dass etwas nicht im Katalog steht. Es soll im Gegensatz dazu aber etwas bedeuten, dass es auf einer Werbebroschuere fuer ungewisse Zukunft drin steht? Das musst du mir erklaeren.
Im Databook stehen die Produkte, die tatsaechlich gebaut und verkauft werden. Da war auch die erste Generation HBM drin bevor es Fiji zu kaufen gab. Und da gibt es keine Spur von 8Hi oder 2Hi, obwohl die Produktion fuer Q4 angekuendigt war. Im Gegenteil - in Q3 hat man dort noch 4Hi Stacks mit 1.6 und 2 Gbps als verfuegbar gelistet, laut dem Neuen von Q4 sind die Stacks mit 2 Gbps nicht verfuegbar und die mit 1.6 fehlen komplett.
Wo ist jetzt dein Argument?
Und wo ist deins? Wie gesagt, wenn du weitere Fakten hast oder was vorrechnen willst, gerne.
Es würde mich doch sehr überraschen, wenn Samsung oder Hynix für ein 8Hi-Stack den doppelten preis wie für ein 4Hi-Stack verlangen. Und selbst dann wären 2 8Hi-Stacks billiger (kleinerer Interposer, kleinerer Chip da kleinerer Memory Controller).
Mich auch, wenn das ganze dann erstmal laeuft. Ich weiss aber nicht, ob die einzelnen Slices und auch das base die fuer den Einsatz in verschieden hohen Stacks taugen. Vielleicht sind sie dafuer nicht vorgesehen, immerhin gibt es ja Unterschiede in der Durchkontaktierung und der "Logik". Inwieweit man da flexibel ist oder eben nicht kann ich aber nicht sagen.

Botcruscher
2016-10-04, 18:47:03
Die HBM Auflistung gab es aber nicht so extrem lange vor Fiji. Selbst die Gerüchte über den doppel HBM waren um einiges älter.
Bis Vega sind es noch gut 4-6 Monate. AMD ist Exklusivkunde. Wenn die 2Hi haben wollen bekommen die den. Anders ist die Menge+Bandbreite nicht zu erreichen. Das/ob V11 mit 8 kommt ist kein Argument. Irgendwie muss mit einer 1080TI samt Billigram konkurriert werden.

Es würde mich doch sehr überraschen, wenn Samsung oder Hynix für ein 8Hi-Stack den doppelten preis wie für ein 4Hi-Stack verlangen. Und selbst dann wären 2 8Hi-Stacks billiger (kleinerer Interposer, kleinerer Chip da kleinerer Memory Controller).

Der ist ganz sicher deutlich teurer als doppelt so viel. Für Kostenparität müssten Zusammenbau und Yield extrem gut sein.
Das Bandbreitenproblem bleibt trotzdem.

Agent117
2016-10-04, 21:39:32
Mich auch, wenn das ganze dann erstmal laeuft. Ich weiss aber nicht, ob die einzelnen Slices und auch das base die fuer den Einsatz in verschieden hohen Stacks taugen. Vielleicht sind sie dafuer nicht vorgesehen, immerhin gibt es ja Unterschiede in der Durchkontaktierung und der "Logik". Inwieweit man da flexibel ist oder eben nicht kann ich aber nicht sagen.

Da weiß ich leider auch nichts genaueres wie das gelöst ist. Gibt aber hier ein par HBM Experten die das vlt sagen können. Selbst wenn 8-Hi Stacks ein eigenes Basis DIE erfordern und aufwendigere Slices muss das Gesamtpaket aber dadurch nicht zwingend teurer sein als die gleiche Speichermenge bei doppelt sovielen halbhohen Stacks.


8er Stacks werden frühestens Ende 2017, wohl eher 2018 in Finalprodukten verfügbar sein, alles andere halte ich für utopisch. Und dann sind die Dinger sicher sehr teuer, weil es keinen großen Markt dafür gibt. Man könnte neben V20 vielleicht auch V11 refreshen mit 16GB damit - wie gesagt erst 2018. Frühestens. V10 ist aus der Rechnung einfach raus.

Hast du eine Quelle dafür, dass 8-Hi Stacks erst frühstens Ende 2017 kommen? Was ich jetzt grob gehört habe ist Q1 bis Q2 17 noch drinn.
V11 mit 16GB HBM2? MMn mit das unwahrscheinlichste Szenario.
V11 wird doch am wahrscheinlichsten 256Bit GDR5X haben. Das deckt sich dann auch damit dass AMD an GDR5X gearbeitet hat, wenn Polaris das tatsächlich nicht kann.


Der ist ganz sicher deutlich teurer als doppelt so viel. Für Kostenparität müssten Zusammenbau und Yield extrem gut sein.
Das Bandbreitenproblem bleibt trotzdem.

Sind also die 8-Hi Slices anders als die 4er? Und falls ja dann soviel komplexer dass das Auswirkungen auf die Yields hat? Die Dinger sind doch gleich groß und die par Kontaktstellen die sie vlt mehr haben sollten doch nicht zu spürbar schlechteren Yields führen oder übersehe ich was?

iuno
2016-10-04, 21:47:29
Man muss halt mindestens schon mal die Baenke anders in Channels aufteilen. Bei 8Hi Stacks gibt es nur noch 1 Channel pro slice, was wir bisher gesehen haben waren 4Hi Stacks mit jeweils 2 Channels pro slice.
Wie gesagt, das koennte man schon auch flexibel gestalten, ich weiss aber nicht, ob Hynix das auch wirklich so macht. Vielleicht koennte z.B. Gipsel dazu was sagen, ich habe aber gerade ein Déjà vu, zu dem Thema habe ich hier glaube ich schonmal gefragt :ulol:
Ich glaube auch weniger, dass es eine Komplexitaetsproblem der DRAM Dies ist, sondern eine Frage der Masse, die Produziert wird. Der DRAM an sich ist ja eigentlich heute nichts besonderes und sollte an sich relativ billig sein.

Mit Ende 2017 meint er fertige Produkte, also Grafikkarten. Wenn die Stacks in Masse gefertigt werden, dauert es bis zum Einsatz und Verkauf auf einem finalen Produkt ja durchaus noch eine Weile.

Botcruscher
2016-10-04, 22:34:31
Sind also die 8-Hi Slices anders als die 4er? Und falls ja dann soviel komplexer dass das Auswirkungen auf die Yields hat? Die Dinger sind doch gleich groß und die par Kontaktstellen die sie vlt mehr haben sollten doch nicht zu spürbar schlechteren Yields führen oder übersehe ich was?

"paar" Kontaktstellen??? Beim IO alleine komm ich bei voller Durchkontaktierung(ohne zusätzliche Reserven) auf 9216 vs 5120. Jeder davon ist eine potentielle Fehlerquelle. Gleichzeitig hast du durch löten und Positionierung viel mehr Arbeitsschritte. Das braucht Maschinen und Zeit.

Ich glaube auch weniger, dass es eine Komplexitaetsproblem der DRAM Dies ist, sondern eine Frage der Masse, die Produziert wird. Der DRAM an sich ist ja eigentlich heute nichts besonderes und sollte an sich relativ billig sein.
Die Kunst liegt bei der Herstellung der TSV und dem ordentlichen verbinden der Microbumps.

iuno
2016-10-04, 23:47:36
"paar" Kontaktstellen??? Beim IO alleine komm ich bei voller Durchkontaktierung(ohne zusätzliche Reserven) auf 9216 vs 5120. Jeder davon ist eine potentielle Fehlerquelle. Gleichzeitig hast du durch löten und Positionierung viel mehr Arbeitsschritte. Das braucht Maschinen und Zeit.
Die Frage war nach einzelnen Slices, nicht ganzen Stacks. Also Slice A aus einem 8Hi Stack vs. Slice B aus einem 4Hi Stack.
Und warum soll man alles komplett durchkontaktieren? Wenn es billiger ist, alles gleich zu machen anstatt die Slices nur den channels entsprechend zu kontaktieren, kann das ja nicht so teuer sein :tongue:
Die Frage ist uebrigens ernst gemeint. Ist es von den yields her nicht vertretbar, die Chips so "vorzuselektieren"?
Genau sind es uebrigens 212 Signal Pins pro Channel, also nochmal >60% mehr als von dir in der Rechnung beruecksichtigt :D
Die Kunst liegt bei der Herstellung der TSV und dem ordentlichen verbinden der Microbumps.
TSVs brauchen 8Hi Slices genauso wie 4Hi slices, und zwar auch gleich viele. Natuerlich hat man beim Stapeln mehr Fehlerquellen, gibt es inzwischen Zahlen dazu, wie oft da was schief geht?

Mal was anderes: Gibt es eigentlich Bestrebungen, ob man in Leerlauf- oder Niedriglastsituationen einzelne Speicherkanaele abschalten oder zumindest selektiv niedriger Takten kann? Theoretisch ginge das ja auch mit GDDR, wenn z.B. dafuer gesorgt wird, dass primaer auf bestimmte Kanaele geschrieben wird. Lohnt sich das nicht, zu kompliziert, zu wenig Nutzen oder bekommt man es bei Bedarf nicht schnell genug wieder an?

Korvaun
2016-10-05, 07:38:18
Durch GDDR5X und gute Kompression der GPUs sehe ich den Druck für komplett neuen Speicher wie HBM stark gesunken. Es würde mich nicht wundern wenn VEGA 10/11 mit GDDR5X kommt. MMn hat sich AMD mit HBM etwas verrannt, der Kram ist einfach noch nicht Reif für preissensible Massenprodukte. HBM ist zur Zeit einfach noch nicht nötig um die aktuellen GPUs gut auszunutzen. GDDR5X tuts locker noch bis Navi/Volta kommt (2018/2019), bei Nv könnte ich mir selbst Volta mit GDDR5X problemlos vorstellen.

Leonidas
2016-10-05, 09:31:46
P10 von den Kosten her zu ersetzen ist glaube ich ziemlich absurd.



... richtig, wegen HBM. Sofern auch V11 HBM hat, kann man P10 von den Kosten her nie ersetzen. Ergo wäre Platz für beide.




Mein Bauchgefühl sagt immer wieder: "Vega 20 ist 2xVega 10" :freak: Keine Ahnung warum...


Dann müsste man all den Profi-Mist auch in Vega 10 reinbauen. Eher unwahrscheinlich ........ aber nicht unmöglich ;)

Hübie
2016-10-05, 09:45:25
Na ja war auch nur so ein Impuls, also völlig ohne Infos oder Halt. :)

Leonidas
2016-10-05, 12:06:22
Ich finde im Nachgang die These, das V10 bereits 4096 Bit hat, nicht verkehrt. Das mit den 2048 Bit ergab sich auch nur, weil Videocardz das Teil mit 512 GB/sec angegeben hatte. ABER: Bei Fudzilla - auf Basis derselben Quelle - findet sich diese Angabe nicht. Vermutlich haben Videocardz einiges zu interpretieren versucht - und haben somit falsche "Fakten" verbreitet, die eigentlich nur Annahmen sind.

Zurück zu V10: Auf 4096 Bit käme man nahe 1 TB/sec - muß man aber nicht, man kann auch billigeren HBM2 nehmen, das sind es 700-800 GB/sec. Dies ist für einen Fury-Nachfolger absolut passend.

Und V11? Der mit 2048 Bit und billigen HBM2 käme auf 350-400 GB/sec. Absolut perfekt, wenn man etwas schneller im Performance-Segment sein will als bisher mit der RX480 (256 GB/sec).

Sunrise
2016-10-05, 12:07:52
...Im Databook stehen die Produkte, die tatsaechlich gebaut und verkauft werden. Da war auch die erste Generation HBM drin bevor es Fiji zu kaufen gab. Und da gibt es keine Spur von 8Hi oder 2Hi, obwohl die Produktion fuer Q4 angekuendigt war. Im Gegenteil - in Q3 hat man dort noch 4Hi Stacks mit 1.6 und 2 Gbps als verfuegbar gelistet, laut dem Neuen von Q4 sind die Stacks mit 2 Gbps nicht verfuegbar und die mit 1.6 fehlen komplett.
8Hi sind IMHO praktisch ausgeschlossen, es gibt einfach keine Hinweise hierzu. 16GB HBM2 mit 4 Stacks, genau wie bei Fiji.

Das sind die gleichen Spekulationen die Fiji 2GB-Stacks angedichtet hatten, es waren aber immer nur 1GB (8GBit)-Stacks bei Hynix gelistet.

Allerdings verpflüfft es tatsächlich etwas, dass Hynix plötzlich von Q3 auf Q4 keine HBM2 2.0Gbps-Module mehr liefern kann. Also entweder ist das ein Schreibfehler und 1.6Gbps-Module sind bereits lieferbar und 2.0Gbps-Module nicht, oder aber da wurde die Produktion aus irgendwelchen Gründen gestoppt.

Ich bin mir nicht sicher, was ich vom neuen Databook halten soll.

Wenn ich wetten müsste, dann sind es weiterhin 4096bit mit max. 16GB HBM2 bei der großen SKU und 8GB HBM2 an einem 2048bit-SI bei der kleinen. Das reicht für eine GPU oberhalb Polaris locker aus und im High-End/Enthusiast hat man natürlich den vollen Ausbau. Das alles natürlich mit 1.6Gbps-Modulen, auch wenn die 1TB/s Durchsatz bei der großen SKU sich besser vermarkten lassen.

Hübie
2016-10-05, 12:10:51
Wie weit ist denn Samsung mit der "Billigvariante"? Fand das sehr interessant für eine Marktdurchdringung, denn dass braucht HBM schneller denn je.

Ailuros
2016-10-05, 12:34:01
Wie weit ist denn Samsung mit der "Billigvariante"? Fand das sehr interessant für eine Marktdurchdringung, denn dass braucht HBM schneller denn je.

http://arstechnica.com/gadgets/2016/08/hbm3-details-price-bandwidth/

Ich sehe 2019/2020 auf dem Bildchen. Registrier mal im Hinterkopf 2020 um auf Nummer Sicher zu gehen ;)

Hübie
2016-10-05, 13:04:15
Ich seh da nur für HBM3 2020, aber nicht für die low-cost HBM2-Variante. Oder bin ich gerade blind? :|

Und der Text sagt auch nix.
Meanwhile, Samsung has been working on making HBM cheaper by removing the buffer die, and reducing the number of TSVs and interposers. While these changes will have an impact on the overall bandwidth, Samsung has increased the individual pin speed from 2Gbps to 3Gbps, offsetting the reductions somewhat. HBM2 offers around 256GB/s bandwidth, while low cost HBM will feature approximately 200GB/s of bandwidth. Pricing is expected to be far less than that of HBM2, with Samsung targeting mass market products.

Botcruscher
2016-10-05, 13:34:30
Samsung sprach von low-cost HBM. Das kann quasi alles sein wobei HBM3 noch komplett offen ist.

Hübie
2016-10-05, 13:52:50
Also "has been working" deutet doch schon stark auf etwas hin dass du anfassen kannst. ;)

HOT
2016-10-05, 14:36:16
Das wird HBM für sowas wie Polaris-Klasse.

Hübie
2016-10-05, 14:48:09
Und genau darüber rede ich doch. :| Das Wort Billigvariante lässt keinen Interpretationsspielraum.

Nakai
2016-10-05, 21:24:50
Ratet mal was V11 wird...

horn 12
2016-10-05, 21:42:25
Das wirst Du uns wohl sagen,jetzt oder zumindest später
Viel wichtiger ist was Vega zu leisten vermag
Nur GTX 180 wäre enorm schwach, sollte zumindest die GTX 1080 TI erreichen können und dann hätte man mal zumindest ein Ass im Ärmel.

victore99
2016-10-06, 03:00:25
Das wirst Du uns wohl sagen,jetzt oder zumindest später
Viel wichtiger ist was Vega zu leisten vermag
Nur GTX 180 wäre enorm schwach, sollte zumindest die GTX 1080 TI erreichen können und dann hätte man mal zumindest ein Ass im Ärmel.
Mit dem GloFo-Samsung-Prozess ist "Nur" ein paar Prozent über GTX-1080-Leistung (bei vertretbarer Wattzahl!) schon ein Kunststück (vgl Packdichten- + Maximaltaktskalierung Tonga -> Polaris vs GM204 -> GP104).
Mit dem TSMC-Prozess sollte das aber schon klargehen (was nicht heißt "Effizienzwunder", sondern erstmal unter 300W).

Angeblich ist AMD mit dem Vega-Chipdesign ja fertig. Aber wir hier wissen irgendwie nichts. Kommen zwei bis drei Prozesse (GloFo-Samsung, TSMC, GloFo-IBM) infrage, von Hardwaredaten, Bauansätzen, Architekturkrams ganz zu schweigen.

fondness
2016-10-06, 19:09:33
Neuigkeiten zu VEGA:
http://wccftech.com/amd-vega-10-vega-11-magnum/

https://s18.postimg.org/pgvc073yh/AMD_Vega_architecture.jpg

The structure and configuration of SIMD units is entirely new. Each SIMD is now capable of simultaneously processing variable length wavefronts. It also includes clever new coherency features to ensure peak stream processor occupancy in each compute unit at all times and reduce access times to cache and HBM. Memory delta color compression has also been improved. We’ll talk about the new architecture a lot more in-depth in a forthcoming article.

Nightspider
2016-10-06, 19:16:40
Wenn Vega wirklich bessere Delta Color Compression besitztkann ich mich vielleicht sogar mit den (für HBM2) geringen 512GB/s anfreunden.

Wenn Vega aber wirklich noch dieses Jahr kommen soll, müssten wir dann nicht schon von Zauba und Co. neue Infosbröckchen haben?

Mandalore
2016-10-06, 19:19:39
Da man ja nicht wirklich weiß, ob Volta 2017 oder 2018 erscheint (mal heißt es so, dann so) und Vega wirklich "heiß" sein sollte, könnten wir dann mit nem Volta-Showdown 2017 zwischen beiden rechnen?

Nightspider
2016-10-06, 19:33:47
Klar aber nur wenn Volta auch 2017 erscheint wovon eher nicht auszugehen ist. Frühestens Ende 2017 wird Volta erscheinen.

aufkrawall
2016-10-06, 19:35:17
Ich denke auch nicht, dass man gegen Vega Volta braucht.
Mit GP102 kann man noch eine Menge Varianten bringen und mit diesen + GP104-Rebrands auch eine neue Reihe.

AffenJack
2016-10-06, 19:37:11
Da man ja nicht wirklich weiß, ob Volta 2017 oder 2018 erscheint (mal heißt es so, dann so) und Vega wirklich "heiß" sein sollte, könnten wir dann mit nem Volta-Showdown 2017 zwischen beiden rechnen?

Alles was in Richtung Volta 2017 für Consumer geht kannst du in die Tonne schmeißen. Nur weil es 2017 erste Samples von GV100 geben wird, die in die Supercomputer kommen, heißt es nicht, dass sonst was von Volta kommt.

Ich bin sehr gespannt bei Vega. Wenn die TDP Angaben stimmen, dann sieht das auf jeden Fall schon richtig gut aus und es könnte nen spannender Kampf GP104/GP102 gegen Vega10/11 werden. Konkurrenz wäre auf jeden Fall mal wieder wichtig.

Agent117
2016-10-06, 20:10:12
Wenn das stimmt dann ist das wohl der größte Schritt seit Tahiti.
Das ist in meinen Augen schon ein riesen Eingriff in die CUs; Details wird man aber erst noch erfahren.
1 Punkt an Nakai der das passende Patent zu den neuen SIMDs schon letzte Woche hier verlinkt hatte und vorher auch schon auf die neue Lösung hingewiesen hatte. Ich hätte nicht gedacht, dass sowas mit Vega schon kommt.

Der_Korken
2016-10-06, 20:13:38
Es wurde auch Zeit, dass sich endlich mal wieder deutlich was an der Architektur ändert. Tahiti feiert bald sein 5-Jähriges. Die variablen SIMD-Größen zur besseren Auslastung und/oder Energieeinsparung hat Nakai afaik schon vor einem halben Jahr für Polaris spekuliert. Damals dachte man noch, dass Polaris der große Sprung wird und nicht Vega.

iuno
2016-10-06, 20:23:29
Also wenn irgendwas an dem Artikel stimmt, ist das schon spannend.
Wenn sogar der Grossteil richtig sein sollte, wird es noch interessanter :D
Bei aller Vorfreude sollte man trotdzem nicht damit rechnen, dass Nvidia ernsthafte Probleme bekommt, selbst wenn sich Infos bewahrheiten sollten. Mit ihren Pascal Chips koennen sie aehnliche theoretische Werte erreichen. GP102 ist auf Ti und Titan nicht ausgebaut und kommt auf gute 10 TF, AMD muesste NV in Sachen Effizienz nicht nur ein- sondern ueberholen, bevor es da problematisch werden kann.
Interessant, und vielleicht am erfreulichsten, waere auch der Punkt, dass V11 demnach tatsaechlich P10 in diesem Preissegment ersetzen soll. Dann koennte HBM einfach insgesamt nicht so teuer sein, wie hier von einigen staendig wiederholt wird.
Besonders gespannt bin ich aber eigentlich auf die Profi Loesungen und was auf Seiten der Software passiert.

1 Punkt an Nakai der das passende Patent zu den neuen SIMDs schon letzte Woche hier verlinkt hatte und vorher auch schon auf die neue Lösung hingewiesen hatte. Ich hätte nicht gedacht, dass sowas mit Vega schon kommt.
Das hatten wir schon vor Monaten hier. Lustig daran ist eher, dass er das damals noch abgetan hat und jetzt seit den letzten Wochen vermehrt darauf hinweist.
Ich würde dieses Patent nicht für voll nehmen. Wir werden immer noch 64er Wavefronts sehen. Eventuell ist der GCP auf andere Wavefront-Größen angepasst, was ich nicht denke. Kurz, es werden wohl wieder 64SPs pro CUs, evtl ist Organisation anders, aber 4 SIMD16 sehe ich als alternativ los an. Ich denke die skalare Einheit wird erweitert bzw eine skalare Einheit wird hinzugefügt, welche dann deutlich mehr kann.
Aber nichts fuer ungut ;)

Aber warum baut AMD ploetzlich FPGAs? Auf Zauba gibt es uebrigens auch ein paar Eintraege von diesem Magnum Ding.

Nightspider
2016-10-06, 20:45:32
Vielleicht hatten die AMD Ingenieure ein paar Ideen wie man schnellere FPGAs bauen kann?

Vielleicht auch mal man diese mit HBM2 kombinieren kann, was aktuell ja noch kein anderer Hersteller kann.

horn 12
2016-10-06, 20:54:15
Also womöglich doch noch kaufbare Karten vor Weihnachten 2016
Preise werden dann aber hoch sein.
Rechne mit 650 bis 700 Euro zum Start hin.

[MK2]Mythos
2016-10-06, 21:56:54
Also womöglich doch noch kaufbare Karten vor Weihnachten 2016
Preise werden dann aber hoch sein.
Rechne mit 650 bis 700 Euro zum Start hin.
Und wie kommst du nun wieder darauf?

Hübie
2016-10-06, 22:27:38
Vielleicht sind die FPGAs eher für interne Zwecke. Man kann damit quasi alles simulieren. Nur deutlich aufwändiger.

Variable Wavefronts klingt nach fettem Interconnect und sehr guten schedulern... =)

Nakai
2016-10-06, 22:34:32
Neuigkeiten zu VEGA:
http://wccftech.com/amd-vega-10-vega-11-magnum/

https://s18.postimg.org/pgvc073yh/AMD_Vega_architecture.jpg

Wenn ihr mal alle Slots auf dem Diagramm zählt, kommt man worauf? Auf genau 16. Ich vermute eher, dass jegliche SIMD in verschiedene Modis arbyten kann, damit eben weniger Bubbles die SIMD leerlaufen lassen. AMD forscht definitiv in diese Richtung, wenn man andere Papers betrachtet. Da gibt es Papers welche die skalare Einheit bei Wavefronts mit wenigen validen Work-Items ausnutzen könnte. Das kann man Software-seitig lösen, indem man verschiedene Kernels anbietet, also einen für SIMDs und eine für die skalare Einheit. Ansonsten Hardwareseitig müsste man dann die Wavefronts neu-packen, also eine große Wavefront mit wenigen validen Work-Items wird einfach beschnitten. Dann muss das aber wieder mit der Latenz zusammenpassen. Die skalare Einheit derzeit wird hauptsächlich für Branches und Maskierung verwendet, und liefert diesbezüglich schon viele wichtige Informationen und beinhaltet notwendige Funktionalitäten.



Das hatten wir schon vor Monaten hier. Lustig daran ist eher, dass er das damals noch abgetan hat und jetzt seit den letzten Wochen vermehrt darauf hinweist.

Aber nichts fuer ungut ;)


Es steht sogar direkt im Patent, dass das nur eine "Beispiel-artige"-Konfiguration ist. Wie es genau aussieht, werden wir sehen, wenn es mit Vega kommt (kausal und temporal). Das AMD in die Richtung geht und forscht, das sollte klar sein. Aber diese Konfiguration im Patent würde ich als zu aufgebläht ansehen.

horn 12
2016-10-06, 22:52:28
Frage: Sollte damit Vega wirklich gut und schnell, sprich ordentlich ausgelastet werden
Möglich das Vega 10 POLARIS mal 2 auf die Waagschale legen kann ?

BlacKi
2016-10-06, 23:02:42
Neuigkeiten zu VEGA:
http://wccftech.com/amd-vega-10-vega-11-magnum/
die zahlen sehen mir zu krass aus für den selben fertigungsprozess.

20% mehr leistung bei 13% weniger verbrauch? das wären knapp 45% besseres perf/pro watt. die trollen doch nur^^

Nightspider
2016-10-06, 23:06:38
Alleine HBM2 verbessert die Perf/W schon beträchtlich. Vor allem da Polaris stark an der Bandbreite hängt. Verbessertes DCC tut sein Übriges.

AffenJack
2016-10-06, 23:09:14
die zahlen sehen mir zu krass aus für den selben fertigungsprozess.

20% mehr leistung bei 13% weniger verbrauch? das wären knapp 45% besseres perf/pro watt. die trollen doch nur^^

Mit ner starken Architekturüberarbeitung ist das doch durchaus möglich, siehe Maxwell. Polaris war am Ende in Sachen Architektur ja praktisch kaum was neues, auch wenn das Marketing das als so stark verändert in der Architektur gehypt hatte. Aber die Hoffnung besteht, dass das nun wirklich der Fall sein wird.

aufkrawall
2016-10-06, 23:10:57
Die Powergating-Features von Polaris wurden im Vorfeld allerdings hier auch ziemlich gehyped.

iuno
2016-10-06, 23:16:24
Es steht sogar direkt im Patent, dass das nur eine "Beispiel-artige"-Konfiguration ist. Wie es genau aussieht, werden wir sehen, wenn es mit Vega kommt (kausal und temporal). Das AMD in die Richtung geht und forscht, das sollte klar sein. Aber diese Konfiguration im Patent würde ich als zu aufgebläht ansehen.
Das ist klar, das hatten wir ja damals auch schon so besprochen.
War ja wie gesagt auch nicht boese gemeint und auch etwas unnoetig... :redface:

die zahlen sehen mir zu krass aus für den selben fertigungsprozess.
Unmoeglich ist es nicht, siehe Maxwell. NV bekommt pro FLOP idR. aktuell mehr raus. Aber natuerlich muss man abwarten, es nuetzt ja nichts, jetzt schon ohne weitere Infos die Erwartungen wieder ins Unermessliche steigen zu lassen. Vor allem da die ersten Infos sich widersprochen haben und Teile des Artikels auf diesen aufbauen.

Nakai
2016-10-07, 00:07:00
Das ist klar, das hatten wir ja damals auch schon so besprochen.
War ja wie gesagt auch nicht boese gemeint und auch etwas unnoetig... :redface:


Blablub => vergessen :D

Es gibt wirklich viele Möglichkeiten, was AMD mit dem Patent alles anstellen könnte. Es kommt aber drauf an, einen guten Sweetspot zu finden.
Vega wird kein Polaris sein. Polaris ist (für mich) eine 20nm-Architektur auf 14Finfet geshrinkt. Mehr nicht.

Vega wird aus der AMD-Folie etwa 50% bessere Perf/watt haben gegenüber Polaris. HBM2 wird das nicht vollständig auffangen können. Die Änderungen im Patent sprechen eher für einen höhere Perf/W, aber ohne die Performance zu erhöhen.

Botcruscher
2016-10-07, 00:32:06
Mal sehen was am Ende an der Tabelle stimmt. Mit dem Rinnsal an Bandbreite müsste AMD massiv an Kompression und Speichersystem gearbeitet haben. Eine massive Steigerung auf das Level von NV bezweifle ich mal sehr stark. Da muss man aber mindestens hin um das Level einer 1070 zu erreichen. Dazu für 250€ und dem größten noch nicht erhältlichen HBM? Nähhhh...
Polaris ist (für mich) eine 20nm-Architektur auf 14Finfet geshrinkt. Mehr nicht.
Für mich bleibt die Frage was AMD eigentlich die ganzen Jahre seit der 28nm Gen getrieben hat. Außerhalb der Konsolenapus ist da irgendwie ein schwarzes Loch.

Nightspider
2016-10-07, 00:41:04
Redest du jetzt von Vega 11? Mit besserer DCC und höhrer Bandbreite würde selbst Polaris schon nur noch 30% hinter einer 1070 sein schätze ich.
Mit neuer Architektur und deutlich besserem Frontend dürfte selbst der kleine Chip locker mit der 1070 konkurrieren können.
Vega 10 sehe ich immer noch mind. 20% vor der GTX1080 in Games. Wenn das Frontend gut wird könnte Vega 10 im Vollausbau sogar vor der Titan X (Pascal) liegen.
Schließlich ist Titan X (P) nichts weiter als ein beschnittener 450mm² Chip.

Da müsste schon viel schiefgehen damit Vega10 mit HBM2 mehr als 20% langsamer in Games wird als die Titan X (P).

Für mich bleibt immer noch die Frage ob wir Gamer auch eine 16GB Variante bekommen werden.

Botcruscher
2016-10-07, 01:02:14
Wieso höhere Bandbreite? V11 wird da mit nur einem Stapel angegeben. Das ist exakt Polarisniveau. Die 30% müssen da erst mal raus geprügelt werden. Um die 16GB bei V10 musst du dir da schon keine Sorgen mehr machen weil anders gehen die 8 für V11 überhaupt nicht. Sprünge in der Größenordnung sind mir einfach zu unrealistisch.

Nightspider
2016-10-07, 01:47:51
Ein Stapel macht doch gar keinen Sinn. Wie willst du denn den Interposer schneiden?

iuno
2016-10-07, 01:50:48
http://www.golem.de/1604/sp_120098-117145-i_rc.jpg

Der_Korken
2016-10-07, 01:51:20
Ich finde es eigenartig den V11-Chip mit nur einem Stack auszustatten. Ich hätte erwartet, dass die 8Hi-Stacks deutlich teurer (also mehr als doppelt so teuer) wie 4Hi-Stacks sind. Vor allem könnte man zwei 4er Stacks durch das doppelte Interface deutlich niedriger takten, z.B. mit nur 1,5Ghz (=384GB/s), was zusätzlich billiger als voller 2Ghz-Speicher ist.

Nightspider
2016-10-07, 01:51:22
Platzverschwendung. :tongue:

@Korken: Sehe ich auch so.

iuno
2016-10-07, 01:55:38
Und? wie grob wird der gefertigt, 65 nm? Wen juckt das bei einer 300+€ Karte. Andere Komponenten werden dafuer wieder ein paar Ct. billiger ;p
Wenn die Infos stimmen, impliziert das, dass es auch oekonomisch Sinn macht. Ansonsten wuerde man man ja nicht den Unsinn betreiben, P10 schon wieder durch ein teureres Produkt im selben Preisbereich abzuloesen.

Zwei Stacks mit 1.6 Gbps sind also billiger als ein Stack mit 2 Gbps? Zahlen bitte. DRAM mit 2 Gbps an sich ist doch ueberhaupt kein Problem. Seit etlichen Monaten raetseln wir an der Sache rum, ohne dass einer wirklich handfeste Daten hat. Natuerlich muss man weitere Infos abwarten, aber wenn sich das bewahrheitet waere es doch toll, denn es wuerde zeigen, dass HBM in Masse gefertigt eben nicht astronomisch teuer ist. Daher macht es bei der Informationslage imho keinen Sinn, jegliche neuen Infos direkt als nichtig abzutun.

Locuza
2016-10-07, 02:09:09
WTF-News verkaufen also ein altes Patent schon als Fakt für Vega?
Zeit gesunden Abstand von der Behauptung zu nehmen.

Aber dennoch kann man erwarten das so eine Umsetzung früher oder später kommt, ebenso bei Nvidia, die vermutlich dann auch zusätzlich wie GCN eine skalere ALU umsetzen werden.

Bezüglich V11 erscheint mir ein Single-Stack wenig sinnvoll, einzig die Perf/Watt ist ein Argument und demgegenüber stehen höhere Fertigungskosten für die gleiche Bandbreite, dass ist auch ein Grund wieso ich Vega 10 als kleinere GPU eingeschätzt habe, da erst 2 Stacks sich in einem Bereich befinden, wo das in meinen Augen lohnenswert erscheint.

Leonidas
2016-10-07, 07:57:55
WTF-News verkaufen also ein altes Patent schon als Fakt für Vega?


Stimmt. Das Bild von WCCF Tech stammt im Vordergrund aus der Patentschrift, im Hintergrund haben sie nur einen stylischen WCCF-Tech-Hintergrund druntergepappt.

Ich finden den Link leider nicht mehr. War auch hier im Forum zu sehen.

dargo
2016-10-07, 08:25:46
Platzverschwendung. :tongue:

Macht doch Intel auch, auch wenn es mit einem Interposer sicherlich nicht 1:1 vergleichbar ist.
http://www.hardwareluxx.de/community/f139/intel-ivy-bridge-haswell-skylake-gekoepft-erfahrungen-ohne-hs-mit-gewechseltem-tim-891243-287.html#post24056316

HOT
2016-10-07, 10:30:25
Die Namen klingen plausibel, der Artikel auch, aber bei den Specs hat sich einfach einer Unsinn ausgedacht, denn der "V11" den die das spekulieren ist ein Polaris mit HBM @1,5GHz. Das kann nur Unsinn sein, denn der hätte auch die gleiche Größe - das ist in allen Belangen vollkommen sinnlos sowas zu machen. Da würde dann immer noch ein Chip fehlen, weil die Lücke immer noch gigantisch wäre. Zudem können die ihe Bandbreite nicht so niedrig ansetzen, das ist nunmal kein Maxwell. Da hat sich gewaltig jemand einen zusammengesponnen.

V10: 64CUs, 1,5GHz, 4x 1,6GHz HBM
V11: mindestens 44CUs, 1,5GHz, 2x 1,6GHz HBM

Anders ergibt das einfach keinen Sinn.

iuno
2016-10-07, 11:01:02
Ich finden den Link leider nicht mehr. War auch hier im Forum zu sehen.http://www.freepatentsonline.com/20160085551.pdf
...

BlacKi
2016-10-07, 11:12:58
Alleine HBM2 verbessert die Perf/W schon beträchtlich. Vor allem da Polaris stark an der Bandbreite hängt. Verbessertes DCC tut sein Übriges.
gibts da eigentlich ungefähre werte wieviel an dieser stelle eingespaart werden kann? fiji blieb mir da nicht besonders positiv in erinnerung, selbst als nano.

Der_Korken
2016-10-07, 11:44:43
V10: 64CUs, 1,5GHz, 4x 1,6GHz HBM
V11: mindestens 44CUs, 1,5GHz, 2x 1,6GHz HBM


Für V11 nennt WCCF-Tech 7 TFlops. Das wären dann sowas wie 36CUs @1,5Ghz oder 40CUs @1,4Ghz. Zu den 256GB/s würde das schon passen, allerdings wird es für die 1070 dann wahrscheinlich nicht reichen. Es wäre dann eher ein P10-Replacement als ein Zwischenschieber für P10 und V10.

HOT
2016-10-07, 11:51:36
Genau das ist absolut sinnfrei.

tm0975
2016-10-07, 12:12:14
fiji blieb mir da nicht besonders positiv in erinnerung, selbst als nano.

die nano nimmt gut 100 watt weniger als die 390x und ist dabei schneller. deine erinnerung scheint dir einen streich zu spielen. es ist eher so, dass polaris nicht deutlich effizienter ist als die nano, zumindest die komplette karte.

wenn amd mit HBM gegen eine nvidia karte mit gddr5-speicher antreten muß, werden wir keinen preiskampf seitens amd sehen. leider war das auch schon zu fiji-zeiten so. eine fury nitro X! wäre zu 500 € ein verkaufsschlager geworden. aber vielleicht war amd zu dieser zeit noch nicht auf massengeschäft aus. da bleibt nur zu hoffen, dass das mit vega anders wird.

Palpatin
2016-10-07, 12:17:02
eine fury nitro X! wäre zu 500 € ein verkaufsschlager geworden, wenn sie 8GB speicher gehabt hätte. aber vielleicht war amd zu dieser zeit noch nicht auf massengeschäft aus. da bleibt nur zu hoffen, dass das mit vega anders wird.
ich habe es mal gefixed ;).
Das die Nano viel effizienter als die 390x war ist allerdings fakt. fast doppelt so viel fps pro watt, bei gleicher architektur gleichem prozess.

Dino-Fossil
2016-10-07, 12:21:45
Ich glaub zwar auch nicht so recht an den Gehalt solcher Gerüchte, aber es bliebe immer noch die Möglichkeit, dass AMD gegenüber den Vorgängern die fps/Flops-Effizienz deutlich verbessert hat.
Dann wären 7 TFlops ca 1070-Leistung.

Sunrise
2016-10-07, 12:40:07
Genau das ist absolut sinnfrei.
Nur dann, wenn man es so darstellen will.

V11 gegen 1070 (Performance für wenig Geld), da P10 da keine Chance hat. P10 ist maximal für 1060-Performance zu gebrauchen, egal was man damit anstellt. Der Chip macht irgendwann zu und die Verlustleistung ist schon jetzt grenzwertig ggü. NV.

V10 ist für alles drüber gedacht, und zwar ab der 1080.

Wo ist jetzt das Problem? Wenn AMD bei Vega wirklich einiges noch ändern wird, dann bleibt nur noch der Preis als Gegenargument übrig, weil HBM deutlich teurer werden wird als GDDR5.

Jedoch wird VEGA laut AMD auch mit HBM kommen und diese Aussage ist schon recht deutlich gewesen.

Wenn AMD das irgendwie hinbekommt, dann sollten sie das tun, es kann nur besser werden.

iuno
2016-10-07, 12:47:07
fps/Flops-Effizienz
Was ich mich dabei aber auch frage ist, ob das ueberhaupt ein hauptsaechlich durch Hardware bedingtes Problem ist oder sich durch diese komplett loesen laesst. Es gibt ja durchaus Spiele (auch ohne AC), bei denen das Verhaeltnis von Rohleistung zu Performance zwischen AMD und Nvidia "stimmt". Insofern kann es nicht sein, dass das Frontend prinzipiell mit der Menge an CUs "ueberfordert" ist, das trifft nur in bestimmten Szenarien zu. Sicher gibt es da hardwareseitig Verbesserungspotenzial aber wenn der Shader Compiler und der ganze Treiber Stack auch weiterhin weniger effizient arbeiten, schlaegt sich das halt auch in FPS nieder.
Ein bisschen sollte es aber generell auch schon helfen, dass die Takte steigen. Ich meine wenn man statt 44 CUs bei 1 GHz (Hawaii) beispielsweise 32 CUs in weiterhin 4 Shader Engines bei 1,4 GHz betreibt, sollte doch pro FLOP mehr hinten rauskommen?! Im Ansatz sieht man das ja schon bei Polaris, allerdings fehlt es halt doch an manchen Stellen wie den ROPs, oder der Bandbreite(?).
Wenn sie das in den Griff bekommen und mit den Spannungen besser umgehen, waere imho schon viel geholfen.

Nightspider
2016-10-07, 13:10:46
Zwei Stacks mit 1.6 Gbps sind also billiger als ein Stack mit 2 Gbps? Zahlen bitte. DRAM mit 2 Gbps an sich ist doch ueberhaupt kein Problem. Seit etlichen Monaten raetseln wir an der Sache rum, ohne dass einer wirklich handfeste Daten hat. Natuerlich muss man weitere Infos abwarten, aber wenn sich das bewahrheitet waere es doch toll, denn es wuerde zeigen, dass HBM in Masse gefertigt eben nicht astronomisch teuer ist. Daher macht es bei der Informationslage imho keinen Sinn, jegliche neuen Infos direkt als nichtig abzutun.

*2 Stacks mit 1.6 Gbps und halber Kapazität!
Billiger? Vielleicht kaum oder sogar minimal teurer. Dennoch hast du doppelt so viele Pins und brauchst nur ein winziges HBM PHY zusätzlich und hast doppelte Bandbreite für kaum Mehrkosten.
Kaum Mehrkosten oder wieder knapp an der Bandbreite hängen wie Polaris, was ist wohl besser?

Macht doch Intel auch, auch wenn es mit einem Interposer sicherlich nicht 1:1 vergleichbar ist.
http://www.hardwareluxx.de/community/f139/intel-ivy-bridge-haswell-skylake-gekoepft-erfahrungen-ohne-hs-mit-gewechseltem-tim-891243-287.html#post24056316

Intel nutzt doch keinen Interposer. Dort wird wird der eDRAM Chip auf diese...ähm..."Miniplatine" aufgelötet?
Wäre aber mal interessant zu wissen wo dort die Grenzen liegen und warum man die HBM eDRAM Chips auch so verlöten kann.
Sooo viel mehr Pins hat der HBM Stack ja auch nicht als der eDRAM würde ich mal sagen. :confused:

dargo
2016-10-07, 13:15:37
Intel nutzt doch keinen Interposer.
Habe ich auch nicht geschrieben. Der Interposer bezieht sich selbstverständlich auf AMD und HBM.

HOT
2016-10-07, 13:22:27
Nur dann, wenn man es so darstellen will.

V11 gegen 1070 (Performance für wenig Geld), da P10 da keine Chance hat. P10 ist maximal für 1060-Performance zu gebrauchen, egal was man damit anstellt. Der Chip macht irgendwann zu und die Verlustleistung ist schon jetzt grenzwertig ggü. NV.

V10 ist für alles drüber gedacht, und zwar ab der 1080.

Wo ist jetzt das Problem? Wenn AMD bei Vega wirklich einiges noch ändern wird, dann bleibt nur noch der Preis als Gegenargument übrig, weil HBM deutlich teurer werden wird als GDDR5.

Jedoch wird VEGA laut AMD auch mit HBM kommen und diese Aussage ist schon recht deutlich gewesen.

Wenn AMD das irgendwie hinbekommt, dann sollten sie das tun, es kann nur besser werden.
Nein es ist sinnfrei. Der Chip wäre genauso groß wie Polaris aber den zu ersetzen ist absolut unverhältnismäßig. P10 kann noch mal ordentlich upgegraded werden mit 9 oder 10Gbps VRAM - mit dem üblichen AMD-Bonus bei neuerer Software (siehe Tahiti) würde dann P10 irgendwann in die Nähe seiner üblichen Rechenleistung kommen - da ist absolut absehbar, dass er den 1060 irgendwann deutlich überflügeln wird. Ein V11 muss aber mindestens 8 TFLOPs bringen um mindestens zwischen 1070 und 1080 zu landen, denn dort ist künftig das lukrative 300€-Segment, das muss definitiv ein Produkt plaziert werden, 7TFLOPs ist bei Weitem zu wenig für V11 um konkurrenzfähig zu sein. Darunter deckt P10 ja schon alles gut ab. Und die Bandbreite führt das Ganze dann völlig ad absurdum, denn selbst wenn V10 in Sachen Effizeinz bei der Rechenleistung zu Pascal aufschließen kann, ist die Bandbreite ein ganz anderer Fall und im besagten Artikel wird auch nur von verbesserter DCC gesprochen, was den Abstand nicht derart verringern wird. Wie man es auch dreht und wendet es ist und bleibt Unsinn.
Da hat eben einer die bisherigen Mutmaßungen in einer Tabelle zusammengefasst:
V10 mit 64CUs @12TFLPs = 1,5GHz und den (garantiert falschen) 512GB/s (mit 2 2GHz 8er Stacks :hammer:) -> P10 mit 36CUs @1,5GHz = 7TFLOPs für V11 und der muss dann ja nur einen Stack haben (weil V10 dann ja 2 hat :freak:), deshalb 256GB/s. Völliger nonsens mMn. Das passt alles überhaupt nicht zusammen. Wenn 512GB/s bei 12TFLPs offensichtlich wenig ist, dann ist 256GB/s bei 7TFLOP lächerlich.

Nightspider
2016-10-07, 13:23:16
Habe ich auch nicht geschrieben. Der Interposer bezieht sich selbstverständlich auf AMD und HBM.

Dann komm doch nicht mit "Macht doch Intel auch". Andere Technik -> nicht vergleichbar

Ailuros
2016-10-07, 13:28:46
Nein es ist sinnfrei. Der Chip wäre genauso groß wie Polaris aber den zu ersetzen ist absolut unverhältnismäßig. P10 kann noch mal ordentlich upgegraded werden mit 9 oder 10Gbps VRAM - mit dem üblichen AMD-Bonus bei neuerer Software (siehe Tahiti) würde dann P10 irgendwann in die Nähe seiner üblichen Rechenleistung kommen - da ist absolut absehbar, dass er den 1060 irgendwann deutlich überflügeln wird. Ein V11 muss aber mindestens 8 TFLOPs bringen um zwischen 1070 und 1080 zu landen, denn dort ist künftig das lukrative 300€-Segment, das muss definitiv ein Produkt plaziert werden, 7TFLOPs ist bei Weitem zu wenig für V11. Und die Bandbreite führt das Ganze dann völlig ad absurdum, denn selbst wenn V10 in Sachen Effizeinz bei der Rechenleistung zu Pascal aufschließen kann, ist die Bandbreite ein ganz anderer Fall und im besagten Artikel wird auch nur von verbesserter DCC gesprochen, was den Abstand nicht derart verringern wird.

Es kann alles SCHON Sinn machen wenn man das richtige Produkt fuer den richtigen Zielmarkt kategorisiert und auch aus sterilen FLOP Zahlen nicht zu schnell vorzeitige Schlussfolgerungen zieht.

Als ich vor etlichen Monaten behauptete dass es NICHT mehr als 64 clusters auf den ersten Vega chips giebt schriehen die meisten auch "unmoeglich"....

Dino-Fossil
2016-10-07, 13:33:03
Was ich mich dabei aber auch frage ist, ob das ueberhaupt ein hauptsaechlich durch Hardware bedingtes Problem ist oder sich durch diese komplett loesen laesst.

Ich denke auch nicht, dass es ein reines Software- oder reines Hardwareproblem ist.
Vermutlich auch keines mit einer ganz einfachen Lösung, sonst hätten wir die schon längst gesehen - gerade auf der Treiberseite (jetzt mal vorausgesetzt, dass auch AMD nicht nur unfähige Entwickler beschäftigt).
Wobei Aussagen wie die seitens der Doom-Entwickler zum Shader-Compiler ja durchaus vermuten lassen, dass AMD nach wie vor einiges an Potential auf der Treiberseite verschenkt.

Vermutlich ist GCN aber eben eine Architektur, der bestimmte Szenarien (Engines?) einfach besser liegen als andere und z.T. auch darauf angewiesen, dass man sie richtig füttert, um das Potential zu entfalten.

HOT
2016-10-07, 13:34:52
Es kann alles SCHON Sinn machen wenn man das richtige Produkt fuer den richtigen Zielmarkt kategorisiert und auch aus sterilen FLOP Zahlen nicht zu schnell vorzeitige Schlussfolgerungen zieht.

Als ich vor etlichen Monaten behauptete dass es NICHT mehr als 64 clusters auf den ersten Vega chips giebt schriehen die meisten auch "unmoeglich"....
Darum gehts nicht, es passt einfach hinten und vorne nicht zusammen.

Sunrise
2016-10-07, 13:35:09
Nein es ist sinnfrei. Der Chip wäre genauso groß wie Polaris aber den zu ersetzen ist absolut unverhältnismäßig.
Warum ist V11 genauso groß wie P10? Irgendwie verstehe ich nicht, was du mir (uns) sagen willst. Woher willst du das wissen und woher diese Erkenntnis?

P10 ist in dieser aktuellen Form am Ende. Etwas mehr Bandbreite wird dem Chip nicht helfen, eine 1070 zu schlagen.

dargo
2016-10-07, 13:36:39
Dann komm doch nicht mit "Macht doch Intel auch". Andere Technik -> nicht vergleichbar
Arbeite bitte an deiner Leseverständlichkeit.

Ailuros
2016-10-07, 13:39:00
Darum gehts nicht, es passt einfach hinten und vorne nicht zusammen.

Was genau soll nicht zusammen passen?

iuno
2016-10-07, 13:52:08
Macht doch Intel auch, auch wenn es mit einem Interposer sicherlich nicht 1:1 vergleichbar ist.
Wenn es um "Platzverschwendung" geht, ist es wohl ueberhaupt nicht vergleichbar. Das Package ist doch eh viel groesser als der Chip (Pins zum Board) und das Substrat im Vergleich zum Si Interposer natuerlich viel billiger.

Billiger? Vielleicht kaum oder sogar minimal teurer.
Du solltest vielleicht mal genauer lesen, was du so zitierst und schreibst, oder wechselst du wirklich einfach staendig deine Meinung?

Ich hätte erwartet, dass die 8Hi-Stacks deutlich teurer (also mehr als doppelt so teuer) wie 4Hi-Stacks sind.
Sehe ich auch so.
.
Dennoch hast du doppelt so viele Pins und brauchst nur ein winziges HBM PHY zusätzlich und hast doppelte Bandbreite für kaum Mehrkosten.
Kaum Mehrkosten oder wieder knapp an der Bandbreite hängen wie Polaris, was ist wohl besser?
Das ist wieder dieses Kleinreden und zwar sowohl absolut als auch relativ. 1024 Bit HBM SI brauchen mehr Platz als 64 Bit GDDR5 SI. Insofern koennte man genauso sagen dass es Unsinn ist, P10 mit 256b auszustatten, 320b waeren doch genauso gegangen und haette kaum Mehrkosten gebracht. Zumal es in diesem Fall einfach mal eine Verdoppelung der Flaeche ist, die fuers SI drauf geht.
Natuerlich ist mehr besser, aber das bestimmt nunmal nicht die Technik sondern die Oekonomie.

Intel nutzt doch keinen Interposer. Dort wird wird der eDRAM Chip auf diese...ähm..."Miniplatine" aufgelötet?
Wäre aber mal interessant zu wissen wo dort die Grenzen liegen und warum man die HBM Chips auch so verlöten kann.
Sooo viel mehr Pins hat der HBM Stack ja auch nicht als der eDRAM würde ich mal sagen. :confused:
Das ist kein HBM Stack sondern ein DRAM die. IIRC binden sie die mit 512b an. AMD macht sowas bisher nicht, weil es bei der Speichermenge uninteressant ist und sie wohl auch kein passendes Interface haben oder entwickeln wollen.
Im Prinzip kann man aber auch HBM Stacks genauso verbauen, wenn man das mit der Kontaktierung im Substrat hinbekommt. Wenn 512b da so die Grenze ist hat ein Stack halt nur 4 Kanaele. Das ginge z.B. mit einem 2Hi Stack mit den bekannten slices.

Hübie
2016-10-07, 14:49:14
Oh, eine HOT-Prognose. :D

Botcruscher
2016-10-07, 16:00:19
Als ich vor etlichen Monaten behauptete dass es NICHT mehr als 64 clusters auf den ersten Vega chips giebt schriehen die meisten auch "unmoeglich"....

Unmöglich ist es nicht... es ist für 2017 schlicht lächerlich. Bei NV steht dann inzwischen der "Refresh" an während AMD noch immer an einem Konter zur 1080 bastelt. Guten Nacht wenn die TI wirklich mit billigen GDDR5 kommt. AMD scheint in der Zeitschleife zu hängen und eine Strategie gegen Maxwell zu verfolgen.

Nightspider
2016-10-07, 16:01:48
Arbeite bitte an deiner Leseverständlichkeit.

Arbeite bitte daran überflüssige Kommentare wegzulassen. Intel: Kein Interposer und viel, viel weniger Verbindungen nötig.


Du solltest vielleicht mal genauer lesen, was du so zitierst und schreibst, oder wechselst du wirklich einfach staendig deine Meinung?

Wat? Wo habe ich meine Meinung gewechselt? :| Ich sagte das ein Stack Platzverschwendung sei und man für wenig Aufpreis wahrscheinlich die doppelte Bandbreite bekommen würde.


1024 Bit HBM SI brauchen mehr Platz als 64 Bit GDDR5 SI. Insofern koennte man genauso sagen dass es Unsinn ist, P10 mit 256b auszustatten, 320b waeren doch genauso gegangen und haette kaum Mehrkosten gebracht. Zumal es in diesem Fall einfach mal eine Verdoppelung der Flaeche ist, die fuers SI drauf geht.
Natuerlich ist mehr besser, aber das bestimmt nunmal nicht die Technik sondern die Oekonomie.

1024 Bit HBM brauchen mehr Platz wo? Auf dem Interposer? Dort ist jedenfalls viel ungenutzte Fläche wenn nur ein Stack verwendet wird neben einem ~450mm² Chip. HBM2 braucht zwar mehr Platz als HBM1 aber zwei Stacks könnten trotzdem nebeneinander passen. Ob das der Fall ist wissen wir natürlich nicht aber ich würde lieber einen minimal größeren Interposer bezahlen als so viel Potential zu verschenken.
Denn ein einziger Stack sieht mir nach viel verschenktem Potential aus und 256GB/s klingt viel zu wenig für Vega11. Außer natürlich Vega ist deutlich schlechter als wir erwarten und benötigt gar nicht so viel Bandbreite. :rolleyes:

Und was erzählst du für ein Unsinn mit 320 Bit SI? Wie willst du das realisieren?

Klar brauchst du doppelt so viel Platz fürs PHY für zwei Stacks aber die sind trotzdem so klein das es sich meiner Meinung nach lohnen würde. Bei Fiji waren die auch relativ klein und da hatte man sogar ein 4096 Bit SI. Wieso sollten da 2048 Bit (2 HBM2 Stacks) zu viel sein für einen 450mm² Chip in 14nm?
Klar ist das alles eine Preisfrage und AMD kann das sicherlich auch besser einschätzen als wir aber es sieht erstmal unlogisch aus.


Das ist kein HBM Stack sondern ein DRAM die. IIRC binden sie die mit 512b an. AMD macht sowas bisher nicht, weil es bei der Speichermenge uninteressant ist und sie wohl auch kein passendes Interface haben oder entwickeln wollen.
Im Prinzip kann man aber auch HBM Stacks genauso verbauen, wenn man das mit der Kontaktierung im Substrat hinbekommt. Wenn 512b da so die Grenze ist hat ein Stack halt nur 4 Kanaele. Das ginge z.B. mit einem 2Hi Stack mit den bekannten slices.

eDRAM ist kein HBM? :eek: No way. Der eDRAM wird übrigens bei Intel mit nur 64 Verbindungen angebunden. Das ist nur 1/16tel eines HBM2 Stacks.
AMD konnte sich bisher auch nicht einfach 22nm TriGate eDRAM mit der Qualität herstellen, wie Intel es seit Jahren tut für so schnellen eDRAM, der sich so leicht verbauen lässt. Das AMD es bisher nicht gemacht hat, dürfte viele Gründe haben aber ist hier nicht das Thema.

Der_Korken
2016-10-07, 16:11:06
Klar brauchst du doppelt so viel Platz fürs PHY für zwei Stacks aber die sind trotzdem so klein das es sich meiner Meinung nach lohnen würde. Bei Fiji waren die auch relativ klein und da hatte man sogar ein 4096 Bit SI. Wieso sollten da 2048 Bit (2 HBM2 Stacks) zu viel sein für einen 450mm² Chip in 14nm?
Klar ist das alles eine Preisfrage und AMD kann das sicherlich auch besser einschätzen als wir aber es sieht erstmal unlogisch aus.

Wo kommen die 450mm² her? Ich dachte bei ein vs. zwei Stacks geht es um V11? Den hätte ich irgendwo in der Region 250-280mm² vermutet (wenn V10 irgendwas um die 400mm² hat).

Nightspider
2016-10-07, 16:26:07
Ups, ja klar. War ein Brainfart. Vega11 wird natürlich eher um die 250-300mm² groß sein schätze ich.

iuno
2016-10-07, 16:34:35
Wat?
Lies einfach nochmal in Ruhe durch was jeder jeweils geschrieben hat und was du geantwortet hast. Ich zitiere jetzt hier nicht nochmal die ganze Konversation fuer dich.
Und es geht direkt weiter:

1024 Bit HBM SI brauchen mehr Platz als 64 Bit GDDR5 SI.
1024 Bit HBM brauchen mehr Platz wo? Auf dem Interposer?
Ganz genau, auf dem Interposer. Weil das SI (vor allem GDDR5) auch dort verbaut wird...

Und was erzählst du für ein Unsinn mit 320 Bit SI? Wie willst du das realisieren?
Das ist kein Unsinn, sondern schlichtweg genauso hypothetischer Kram wie das, was du von dir gibst. Und genau so habe ich es auch dargestellt.

Bei Fiji waren die auch relativ klein
Du hast aber schon mitbekommen, dass die Stacks in der Flaeche deutlich mehr als doppelt so gross sind? Zumal V11 sicher nirgendwo bei 450mm² landet.

eDRAM ist kein HBM? :eek: No way.
Wie gesagt, dann gib dir einfach mal ein kleines bisschen Muehe, dich klar auszudruecken:
Wäre aber mal interessant zu wissen [...] warum man die HBM Chips auch so verlöten kann.

Der eDRAM wird übrigens bei Intel mit nur 64 Verbindungen angebunden. Das ist nur 1/16tel eines HBM2 Stacks.
Quelle? Dass das Zeug mit >6 Gbps laeuft wuerde ich doch mal bezweifeln, aber das ist nur ein Gefuehl.

Nightspider
2016-10-07, 17:00:33
Mein Gott da habe ich halt ein mal HBM statt eDRAM geschrieben. Ergibt sich doch aus dem Zusammenhang was gemeint ist. ^^

Quelle:
http://www.anandtech.com/show/7744/intel-reveals-new-haswell-details-at-isscc-2014

The 128MB eDRAM is divided among eight 16MB macros. The eDRAM operates at 1.6GHz and connects to the outside world via a 4 x 16-bit wide on-package IO (OPIO) interface capable of up to 6.4GT/s.

Ganz genau, auf dem Interposer. Weil das SI (vor allem GDDR5) auch dort verbaut wird...

Ja du hast mich verwirrt mit deinem komischen Vergleich von 64 Bit GDDR5 SI und 1024Bit HBM SI. Klar ist es etwas größer aber wayne wenn es zig mal so schnell ist.

Ich frag aber auch mal so rum: Wieso sollte AMD V11 mit einem Stack und 256GB/s herausbringen wenn man das auch mit einem 256Bit SI schaffen würde?
Meinst du das Vega so stark auf HBM2 optimiert wurde das es nicht geht oder ein Design mit GDDR5 zu entwickeln zu teuer wäre?
Der größte Vorteil von HBM2 ist ja die Bandbreite. Stromverbrauch und Platzersparnis stehen an zweiter und dritter Stelle.

Hier wurde ja immer gesagt das HBM2 so teuer wäre aber das dürfte ja nicht der Fall sein wenn sogar der neue Mainstream-Chip V11 mit HBM2 kommt, selbst wenn es nur ein Stack ist.
Einen extra Interposer zu verlöten, viel mehr Silizium zu benötigen klingt für mich nicht ganz schlüssig wenn man nicht mal ein bisschen mehr drauf gibt um 2 Stacks zu verbauen und potential einiges an Leistung freiwerden zu lassen. (Mit 2 Stacks hätten wir kein Bandbreitenlimit mehr)

Das klingt imo alles noch nicht ganz schlüssig. Da sind noch zu viele Unbekannte im Spiel.

fondness
2016-10-07, 17:08:35
Unmöglich ist es nicht... es ist für 2017 schlicht lächerlich. Bei NV steht dann inzwischen der "Refresh" an während AMD noch immer an einem Konter zur 1080 bastelt. Guten Nacht wenn die TI wirklich mit billigen GDDR5 kommt. AMD scheint in der Zeitschleife zu hängen und eine Strategie gegen Maxwell zu verfolgen.

Wenn die 12 TFLOPs stimmen, also 4096 SPs bei 1,5Ghz Takt plus Architekturverbesserungen, dann sollte doch mehr als GTX 1080 Speed möglich sein.
Dann würde auch ein kleinerer Vega11 als GTX1070 Konkurrent Sinn ergeben. Dass man P10 nach nicht mal einem Jahr gleich wieder ersetzt halte ich für ziemlich unwahrscheinlich.

Skysnake
2016-10-07, 17:14:14
Mal ganz davon abgesehen, das ich 2 Stacks als viel wahrscheinlicher als ein Stack halte. Wer sagt denn, das ein Vega + 1 HBM2 Stack überhaupt einen Silizium Interposer braucht?

iuno
2016-10-07, 17:33:21
Quelle:
http://www.anandtech.com/show/7744/intel-reveals-new-haswell-details-at-isscc-2014
Danke. Bisher war ich von 512 Bit ausgegangen, irgendwo hatte ich das mal aufgeschnappt.
Darueber habe ich jetzt auch ein entsprechendes Paper gefunden: http://www.cse.usf.edu/~sghosh/paper/ISSCC2014.pdf
Dort steht, dass es fuer read bzw. write separate Busse gibt, also sind es fuer "den" Datenbus insgesamt 128 Bit, was demnach immerhin schonmal einem HBM Channel entspraeche :D

Ich frag aber auch mal so rum: Wieso sollte AMD V11 mit einem Stack und 256GB/s herausbringen wenn man das auch mit einem 256Bit SI schaffen würde?
Meinst du das Vega so stark auf HBM2 optimiert wurde das es nicht geht oder ein Design mit GDDR5 zu entwickeln zu teuer wäre?
Der größte Vorteil von HBM2 ist ja die Bandbreite. Stromverbrauch und Platzersparnis stehen an zweiter und dritter Stelle.
Das ist irgendwie kein Argument, man muss schon die Kombination aller Vorteile sehen. Ansonsten kann man auch wieder argumentieren, dass man Fiji irgendwie auch ohne HBM hinbekommen haette.
Ein Grund der mir einfaellt ist simpel, aber ohne Zahlen schwer zu ueberpruefen: Vielleicht gibt man einfach nur 8 Hi Stacks bei Hynix in Auftrag und faehrt damit insgesamt deutlich billiger. Die Tatsache, dass HBM in den Mainstreammarkt kommt, kann auch gerade dadurch motiviert sein, die Stacks zu einem Massenprodukt zu machen.

Hier wurde ja immer gesagt das HBM2 so teuer wäre aber das dürfte ja nicht der Fall sein wenn sogar der neue Mainstream-Chip V11 mit HBM2 kommt, selbst wenn es nur ein Stack ist.[...]
Das klingt imo alles noch nicht ganz schlüssig. Da sind noch zu viele Unbekannte im Spiel.
Meine Rede ;)

Setsul
2016-10-07, 18:14:06
Gehen wir mal kurz durch was "sicher" ist. Wer mir dabei schon widersprechen will, kann das machen, aber darauf basieren eben meine Schlüsse.

1. Der kleine Vega hat mehr Leistung als P10. Es gäbe einfach keinen Sinn Polaris jetzt schon wieder zu ersetzen. Außerdem wäre der größe Vega dann entweder nur auf Höhe des GP104 (passt nicht zu den 12 TFlops) oder es wäre eine riesige Lücke zwischen den beiden und AMD hätte nichts als Konkurrenz zur 1070/1080.

2. Der kleine Vega hat definitiv 8GB, der große definitiv mehr, also wahrscheinlich 16GB, schlimmstenfalls 12GB. Man kann einfach nicht bei wesentlich stärkeren Karten weniger Speicher anbieten als bei der RX 470. Oder eine FirePro mit 7 TFlops aber 4GB.

3. P10 hängt stark an der Bandbreite. Braucht man denke ich nicht zu diskutieren.

4. Der große Vega sollte zumindest irgendwo in Richtung GP102 an Rohleistung haben, eher sogar mehr, also eben die besagten 12 TFlops. Viel weniger ergibt einfach keinen Sinn.


Jetzt Vermutungen:
1. Der Abstand zwischen P10, kleinem und großem Vega sind alle ähnlich. Bei über doppelter Rohleistung für den großen Vega sollte der kleine also irgendwo in der Nähe von 40-50% über P10 liegen.

2. Der kleine Vega sollte von der Leistung her irgendwo in der Nähe des GP104 landen.

Daraus ergeben sich dann 4 Möglichkeiten für die Bandbreite:
1. Bei <=256 GB/s und keiner Verbesserung der benötigten bits/Flop hängt der kleine Vega absolut lächerlich hart an der Bandbreite.
2. Bei <=256 GB/s und <50% Verbesserung bezüglich bits/Flop hängt man immernoch stärker an der Bandbreite als P10.
3. Bei 256 GB/s und >50% besserem bits/Flop hängt man weniger stark an der Bandbreite als P10.
4. Bei >=400 GB/s hängt man weniger stark an der Bandbreite als P10.

1 schließe ich aus, da lächerlich.
2 erscheint auch extrem ungünstig.
3 würde bedeuten dass AMD in einer Generation von mehr bits/Flop auf weniger bits/Flop als nVidia kommt. Sofern Vega nicht überraschenderweise TBR ist scheint das eigentlich unmöglich.
4 klingt realistisch.

Deutet also in Richtung von 2 HBM Stacks.

Dann zur Machbarkeit:
Wenn 8 Hi Stacks in der Tat noch nicht verfügbar sind, kann es keinen kleinen Vega mit nur einem Stack und 8GB geben. Weniger ergeben wie gesagt keinen Sinn.
Solange also keine 8 Hi Stacks verfügbar sind, deutet das auch auf 2 Stacks hin.


Und zuletzt die Kosten:
Annahme: Ein zweiter HBM Stack ist zu teuer.
Die Kosten dafür wären ein größerer Interposer, eine zweiter Stack und etwas Platz auf dem Die für ein 1024b HBM SI.
Daraus ergibt sich aber, dass sich der erste Stack auch nicht lohnen kann. Wenn man mit 256 GB/s auskommen könnte, dann wäre GDDR5(X) viel billiger als HBM + Interposer.
Effizienz ist ja schön und gut aber wenn die ganze Karte nur 150W braucht, kann man auch mit 30W mehr leben, wenn man sich dafür den Interposer spart. Zur Not baut man einen größeren Chip und spart dann wieder ein paar Watt durch niedrigere Taktraten.
Außer natürlich der Platz den das GDDR5(X) SI braucht ist teurer als Interposer + HBM. In dem Fall wäre aber der zweite Stack sinnvoll, schließlich kosten nochmal 1024b HBM SI, ein Stack und etwas mehr Interposer dann definitiv weniger als ein paar CUs. Also lieber mehr Bandbreite und ein paar CUs weniger. Es sei denn 256 GB/s wären schon mehr als genug, aber siehe oben, das scheint mir extrem unrealistisch.

Botcruscher
2016-10-07, 18:50:44
Wenn die 12 TFLOPs stimmen, also 4096 SPs bei 1,5Ghz Takt plus Architekturverbesserungen, dann sollte doch mehr als GTX 1080 Speed möglich sein.
Dann würde auch ein kleinerer Vega11 als GTX1070 Konkurrent Sinn ergeben. Dass man P10 nach nicht mal einem Jahr gleich wieder ersetzt halte ich für ziemlich unwahrscheinlich.

AMD braucht im Moment bei einem Vergleich von RX480 und 1060 gut 34% mehr Rohleistung(Leistungsunterschied+- mal vernachlässigt). 1080 mal Milchmädchen sind exakt 12TFlops. Ohne massive Verbesserungen sagt die OC Version der 1080 da auf jeden Fall hallo. GP102 samt der ganzen anstehenden Resteverwertung liegt da weeeeeeiiiiiiit außer Reichweite. Dazu im Paket vermutlich auch noch deutlich billiger in der Herstellung. Die Situation wäre ok, WENN AMD denn wenigstens in den angestrebten Segmenten massiv Druck machen könnte. Mit einem zweiten P10 kommt auf jeden Fall keine Butter aufs Brot, dazu viel viel zu spät.

P10 wird auf keinen Fall ersetzt. Der wandert ins 150 bis 200€ Segment wo er auch hin gehört.

dargo
2016-10-07, 19:50:55
AMD braucht im Moment bei einem Vergleich von RX480 und 1060 gut 34% mehr Rohleistung(Leistungsunterschied+- mal vernachlässigt).
Wie kommt man wieder auf diese absurden Zahlen? Selbst in einem GoW 4 welches durch NV promotet wird liegt die RX480 mit der GTX1060 in 1080p gleichauf, in 1440p ist erstere 5% vorne.
https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/3/#diagramm-gears-of-war-4-auf-dem-fx-8370-2560-1440

Bei 5,48 vs. 4,74 TFLOPs.

Edit:
Kleine Korrektur... dies trifft auf die FX-CPU zu. Beim i7 Skylake ist die RX480 in 1080p 6% hinter der GTX1060, in 1440p 4% vorne.

Botcruscher
2016-10-07, 20:05:05
Wiki sagt 3855 wobei 4372 boost besser hingekommen wären.

dargo
2016-10-07, 20:08:50
Dann hat Wiki keine Ahnung. Die rechnen dann mit dem Basistakt von 1506Mhz während die Referenz in der Regel mit ~1850Mhz taktet.

gedi
2016-10-07, 20:22:28
Witzig wie klein hier im 3DC P10 gemacht wird. Soo langsam ist P10 nicht und ab 1.45G geht das Teil richtig gut. Ich habe noch nie eine GPU verbaut gehabt, welche eigentlich immer das + an Takt 1:1 in Performance ummünzt - ungeachtet der API.

Vega darf kommen, da habe ich gar keine Angst - das Teil wird definitiv schnell.

aufkrawall
2016-10-07, 20:44:03
Damit kannst du vielleicht ~10% auf die Customs draufrechnen, und du benutzt schon Wasserkühlung.
In WQHD bist du damit im Schnitt ca. auf MSI 390X Gaming-Niveau, bei vielleicht gerade mal 100W weniger Verbrauch. Tolle Wurst.

gedi
2016-10-07, 20:51:56
:rolleyes:

Setsul
2016-10-07, 21:28:30
Also wenn man mit den Werten rechnet
https://www.computerbase.de/2016-06/radeon-rx-480-test/5/
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/
kommt man auf 23-24%.

Wenn sich bei Vega etwas verbessert, dann am wahrscheinlichsten fps/Flops.

Man sollte sich auch nicht jetzt schon auf die 12 TFlops versteiffen, nicht einmal AMD weiß momentan dass das exakt 12,0 TFlops werden. Das kann alles mögliche sein, Basistakt, Boosttakt, man kann das Ziel noch völlig verfehlen oder weit darüber hinausschießen.

Wenn bei 12 TFlops schon Ende wäre, reicht es definitiv gegen GP104 und definitiv nicht gegen GP102. Selbst die Titan XP kommt schon auf 11 TFlops, übertaktet fast 14 TFlops, also wird das mit 12 TFlops gegen einen vollen GP102, der selbst unübertaktet schon 12 Tflops hinlegen sollte, wirklich nichts.

fondness
2016-10-07, 21:38:38
Damit kannst du vielleicht ~10% auf die Customs draufrechnen, und du benutzt schon Wasserkühlung.
In WQHD bist du damit im Schnitt ca. auf MSI 390X Gaming-Niveau, bei vielleicht gerade mal 100W weniger Verbrauch. Tolle Wurst.

Das halte ich für zu niedrig angesetzt. Das Referenzdesign der RX480 taktet meist unter 1,2Ghz und liegt laut CB fast exakt auf 390 Niveau. 1,3-1,35 Ghz sollten reichen für die 390X Gaming.

gedi
2016-10-07, 21:44:02
Meine 480 rechnet in RotTR ~25% schneller als Dargos 390. Nur mal so ganz nebenbei.

aufkrawall
2016-10-07, 21:50:21
Mit 1,3Ghz ist P10 im Schnitt gerade so auf 390X Stock-Niveau, es gibt auch deutliche Negativbeispiele:
https://www.techpowerup.com/reviews/MSI/RX_480_Gaming_X/9.html
(nicht immer ganz so extrem)
Und die MSI 390X Gaming taktet mit 1,1Ghz (der OC-Modus, der in Reviews meist genutzt wird). Das wird ca. das Niveau P10@1,4Ghz sein.

gedi, es geht um Durchschnittswerte. Verrechnen wir BF4 mit RoTR, kommen wir bei dem Gleichstand raus...

Das find ich ja das Bedauerliche bei P10: Sie habens nicht geschafft, die IPC durchgängig zu erhöhen, sondern sie sogar teilweise zu verschlechtern. Und das nach der langen Zeit...

gedi
2016-10-07, 21:59:20
Ich hatte ne 290x mit 1.225G und die war doch ca. 10% langsamer als P10 mit 1.48G (mein finales 24/7-Setting). Das die IPC im Angesicht der Specs nicht berauschend sein wird (32ROPS wtf.) war klar. Wenn man P10 allerdings unter die Arme greift, dann läuft er prächtig - gerade weil er so mickrig ausfiel.

Oromis16
2016-10-07, 23:08:08
Vielleicht ist der Grund für eure unterschiedlichen Ergebnisse der (nicht mit-)übertaktete Speicher? :)

BlacKi
2016-10-08, 00:23:15
die nano nimmt gut 100 watt weniger als die 390x und ist dabei schneller. deine erinnerung scheint dir einen streich zu spielen.
oder deine, denn eine 390 läuft ziemlich am limit. eine nano läuft mit pt drossel. wird vega auch so ne drosselkarte?

die 390 als referenz vorzuzeigen das passt euch so^^ gegen eine 390 kann fiji eigentlich nur gut aussehen^^

MechWOLLIer
2016-10-08, 01:15:28
Das find ich ja das Bedauerliche bei P10: Sie habens nicht geschafft, die IPC durchgängig zu erhöhen, sondern sie sogar teilweise zu verschlechtern. Und das nach der langen Zeit...
Die IPC von Polaris ist nie unter der von Hawaii und fast immer besser. Mal weniger, mal mehr.

aufkrawall
2016-10-08, 01:30:40
Begründung?

Locuza
2016-10-08, 01:46:01
[...]
Das find ich ja das Bedauerliche bei P10: Sie habens nicht geschafft, die IPC durchgängig zu erhöhen, sondern sie sogar teilweise zu verschlechtern. Und das nach der langen Zeit...
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/

Es gibt keine technischen Anhaltsstellen wieso die IPC bei GCN Gen 4 schlechter sein sollte als bei den Vorgängern, ganz im Gegenteil, die Instruction-Buffer-Sizes sind um ein 1/3 größer, der L2$ ist effektiver geworden und das Geometry-Frontend ist besser und ebenso die Delta-Color-Compression für eine effektiv höhere Bandbreite.
Ansonsten sind die GCN ALUs größtenteils gleich geblieben, wobei sich diese stets ein wenig verbessert haben, ab GCN Gen 3 wurde die skalare ALU etwas aufgebohrt, neue Features wie schnellere Compute Pre-Emption wurden implementiert und auch die Cross-Lane-Operations innerhalb der SIMDs wurden erweitert.

Wenn der P10 Probleme hat sich in Szene zu setzen, dann liegen die Flaschenhälse nicht auf Seiten der Geometrie und/oder es fehlt schlicht an Rohbandbreite, wo die DCC nicht grundlegend das Bild wenden kann.

aufkrawall
2016-10-08, 02:23:49
Tonga war eine Verlegenheitslösung und Tahitis Frontend ziemlich unterdimensioniert für den Vollausbau. Die Frontend-Verbesserungen haben sicher ordentlich Transistoren verschlungen, nach der Definitionen könnte man auch fast mehr Shadereinheiten als IPC-Verbesserung heranziehen. ;)
Also sollte man für einen fairen Vergleich Hawaii nehmen, auch wenn man da nicht 1:1 messen kann. Und gegenüber diesem ist die Performance (aka Verhältnis von Takt & IPC) unter Berücksichtigung von
-Transistor-Count
-Die-Größe und
-Stromverbrauch
einfach nur bescheiden.

N0Thing
2016-10-08, 02:46:24
Wenn die 12 TFLOPs stimmen, also 4096 SPs bei 1,5Ghz Takt plus Architekturverbesserungen, dann sollte doch mehr als GTX 1080 Speed möglich sein.
Dann würde auch ein kleinerer Vega11 als GTX1070 Konkurrent Sinn ergeben. Dass man P10 nach nicht mal einem Jahr gleich wieder ersetzt halte ich für ziemlich unwahrscheinlich.

Wenn sich ein Vega mit der GTX 1080 anlegen kann, dann wird man den salvage chip gegen die GTX 1070 stellen und nicht einen extra Chip dafür heran ziehen.

Tonga war eine Verlegenheitslösung und Tahitis Frontend ziemlich unterdimensioniert für den Vollausbau. Die Frontend-Verbesserungen haben sicher ordentlich Transistoren verschlungen, nach der Definitionen könnte man auch fast mehr Shadereinheiten als IPC-Verbesserung heranziehen. ;)

Für einen IPC Vergleich zwischen verschiedenen Architekturen eines Herstellers bieten sich Chips mit der gleichen Anzahl an Recheneinheiten schon an. Ansonsten betrachtet man die fps/Transistor, nur interessiert sich dafür eigentlich niemand.

Locuza
2016-10-08, 02:53:15
Tonga war eine Verlegenheitslösung und Tahitis Frontend ziemlich unterdimensioniert für den Vollausbau. Die Frontend-Verbesserungen haben sicher ordentlich Transistoren verschlungen, nach der Definitionen könnte man auch fast mehr Shadereinheiten als IPC-Verbesserung heranziehen. ;)
Also sollte man für einen fairen Vergleich Hawaii nehmen, auch wenn man da nicht 1:1 messen kann. Und gegenüber diesem ist die Performance (aka Verhältnis von Takt & IPC) unter Berücksichtigung von
-Transistor-Count
-Die-Größe und
-Stromverbrauch
einfach nur bescheiden.
Doppelt soviele Rasterizer/Geometry-Engines zu besitzen bestimmt, aber AMD hat auch die Implementierung jeder einzelnen Geometry-Engine verbessert, von der Investition her steht da sicher dennoch ein insgesamt positives Ergebnis.

Hawaii als GCN Gen 2 würde sich im Vergleich genau zwischen Gen 1 und Gen 3 einordnen, da gibt es nun einmal keinen Unterschied bei den ALUs, womit sich die Aussage rechtfertigen lassen würde, dass die IPC sogar teilweise gesunken ist.

Wenn du allgemein einfach nur sagen möchtest, dass der Fortschritt gering erscheint, ja, angesichts der ständigen Negativspirale von AMD auch kein Wunder.

aufkrawall
2016-10-08, 03:10:54
Letztlich interessiert das Gesamtpaket in der Gesamtbetrachung, da kann man doch nicht eben mal Rohleistung & Bandbreite völlig weglassen (letztlich sind die Ursachen bei der Bewertung der Leistung auch eher von sekundärem Interesse).
Fakt ist, dass einzelne Spiele bei insgesamt vergleichbarer Leistung zu Hawaii Auffälligkeiten nach unten hin aufweisen (und oben, der Vollständigkeit halber).
Wenn es z.B. an der Bandbreite liegt, hätte die DCC eben noch besser sein müssen. Sie liegt aber nur mit viel gutem Willen bei DX11-Spielen auf Maxwell-Niveau.
Wie bei GTX 980 vs. 780 Ti hat Polaris den Vorteil des höheren Takts gegenüber Hawaii. Im Gegensatz zum Nvidia-Duell kann sich hier die neue, kleinere GPU aber nicht als Gewinner abzeichnen. Sie braucht den höheren Takt, um nicht abgehängt zu werden, und Hawaii hat auch noch DP an der Backe.
Einfach nur eine schlechte Vorstellung.

Locuza
2016-10-08, 07:28:22
Für den Endkunden ja, aber mir ging es um hauptsächlich um den Kontext, dass die IPC sogar teilweise gesunken ist.
Die DCC an sich ist möglicherweise bei Polaris besser (gegenüber Maxwell), da Polaris ebenso wie Pascal mehrere Kompressionsformate unterstützt, GCN Gen 3 und Maxwell konnten nur 2:1 verwenden.
Das ist vermutlich als Außenstehender schwer zu bewerten, da die Umsetzung abhängig vom Raster-Vorgang ist und wie die Daten zwischengespeichert werden.
AMD hat aber insgesamt natürlich irgendwo etwas aufzuholen.

Allgemein kann aber auch Nvidia die fehlende Rohbandbreite nicht gänzlich überbrücken, alle aktuellen Polaris und Pascal GPUs hungern ein wenig an der Bandbreite, wo die Skalierung gegenüber dem Vorgänger besonders schwach ausfällt, wenn die DCC nur noch beschränkt oder gar nicht aushelfen kann.

Und eine schwache Vorstellung ist natürlich relativ, in meinen Augen schlägt sich AMDs Armut einfach "endlich" deutlich nieder, die Ressourcen reichen allgemein nicht mehr aus, um Schritt für Schritt mithalten zu können.

HOT
2016-10-08, 09:52:57
Und P10 vs. R9 R390 ist auch 256GB/s vs. 384GB/s. Der Unterschied ist schon gigantisch und wir wissen, dass selbst 384 vs. 320GB/s (290) noch bis 10% gebracht hat. Dafür schlägt sich P10 sehr gut. Der Effizienzsprung ist nicht zu übersehen.
Ich nehme an, dass schon 9GB/s RAM für P10 optimal gewesen wäre, 8GB/s ist halt einen Tick zuwenig manchmal. Ich nehme an, das 288GB/s mit DCC ein optimales Ergebnis erzielt hätte und bei 320GB/s gibts noch den letzten %. Als Refresh wär das also ne gute Idee. Das macht die V11-Idee mit den nur 36CUs noch idiotischer ;).

Hübie
2016-10-08, 10:07:45
Wer sagt das Polaris' refresh nicht direkt Modifikationen am IMC erhält und GDDR5X verbaut wird?

HOT
2016-10-08, 10:12:49
Durchaus möglich. Wobei AMD ja IMC-Designs eh lizenziert hat, vielleicht ist das auch jetzt schon kein Problem. Wie bekannt ist, hat AMD ja nie die GDDR5X-Fähigkeit abgelehnt oder dementiert, die haben ja nur gesagt die 4xx-Generation verwendet keinen.
Wenn man es auf die Spitze treibt könnte man P10 mit neuer IMC-IP in 14LPP+ auflegen. :D

BlacKi
2016-10-08, 12:21:39
Tonga war eine Verlegenheitslösung und Tahitis Frontend ziemlich unterdimensioniert für den Vollausbau. Die Frontend-Verbesserungen haben sicher ordentlich Transistoren verschlungen, nach der Definitionen könnte man auch fast mehr Shadereinheiten als IPC-Verbesserung heranziehen. ;)
Also sollte man für einen fairen Vergleich Hawaii nehmen, auch wenn man da nicht 1:1 messen kann. Und gegenüber diesem ist die Performance (aka Verhältnis von Takt & IPC) unter Berücksichtigung von
-Transistor-Count
-Die-Größe und
-Stromverbrauch
einfach nur bescheiden.
man sollte aber beachten das p10 ist schon effizient ist! die leistung einer 390(X) mit fast halbem SI! deshalb fand ich den vergleich zu tonga passender.

dargo
2016-10-08, 12:31:45
man sollte aber beachten das p10 ist schon effizient ist! die leistung einer 390(X) mit fast halbem SI!
Zur Bandbreite gehört schon etwas mehr als reines SI.

MechWOLLIer
2016-10-08, 12:37:43
Begründung?
Ich bin kein Fan von Eigenwerbung. Aber den Link gabs ja direkt unter dem Kommentar.
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/

fondness
2016-10-08, 13:52:03
Wenn sich ein Vega mit der GTX 1080 anlegen kann, dann wird man den salvage chip gegen die GTX 1070 stellen und nicht einen extra Chip dafür heran ziehen.


Meine Spekulation ging natürlich dahin, dass Vega10 full - wie ich auch schrieb - schneller als eine 1080 wäre und man Vega10 Salvage gegen die 1080 stellen könnte, wodurch man noch eine Chip für die 1070 bräuchte.
Wenn Vega10 "nur" 1080 Speed erreicht, macht ein extra Chip für die 1070 natürlich keinen Sinn, das ist klar.

BlacKi
2016-10-08, 14:18:49
Zur Bandbreite gehört schon etwas mehr als reines SI.
die paar mhz.

dargo
2016-10-08, 16:07:25
Was sind schon 500Mhz, sind ja nur 64GB/s bei 256Bit SI. X-D Plus natürlich DCC die Hawaii/Grenada nicht hat.

Dorn
2016-10-08, 21:44:48
Meine Spekulation ging natürlich dahin, dass Vega10 full - wie ich auch schrieb - schneller als eine 1080 wäre und man Vega10 Salvage gegen die 1080 stellen könnte, wodurch man noch eine Chip für die 1070 bräuchte.
Wenn Vega10 "nur" 1080 Speed erreicht, macht ein extra Chip für die 1070 natürlich keinen Sinn, das ist klar.
Meine Vermutung welche ich schon vor paar Monaten geschrieben habe.

N0Thing
2016-10-09, 02:26:33
Meine Vermutung welche ich schon vor paar Monaten geschrieben habe.

Und wie damals würde ich mir das ebenfalls wünschen, glauben werde ich es erst, wenn das durch Reviews bestätigt wird. ;)

dildo4u
2016-10-09, 02:33:58
Wäre ein Witz wenn eine HBM2 Karte nicht mit der 1080 gleichzieht.Wobei es natürlich fahrlässig ist kein 1070 Gegner um 400€ zu haben.

N0Thing
2016-10-09, 02:58:26
Relevant ist nicht der HBM2-Speicher, sondern was die GPU zu leisten vermag. Eine Fury x hat sich auch in vielen Spielen mit einer GTX 980Ti schwer getan, "trotz" HBM-Speicher.

Korvaun
2016-10-09, 09:37:28
Meine Spekulation ging natürlich dahin, dass Vega10 full - wie ich auch schrieb - schneller als eine 1080 wäre und man Vega10 Salvage gegen die 1080 stellen könnte, wodurch man noch eine Chip für die 1070 bräuchte.
Wenn Vega10 "nur" 1080 Speed erreicht, macht ein extra Chip für die 1070 natürlich keinen Sinn, das ist klar.

VEGA10/11 sollte man aber nicht mit den aktuellen nV-Karten vergleichen, sondern mit der "Pascal-Refresh-Generation". Die werden wohl relativ zeitgleich erscheinen im Frühjahr 2017. Das heißt dann aber auch das VEGA10 mindestens 10% auf ne 1080er drauflegen muss um 2017 gegen eine 2080er (?) zu bestehen. Gleiches gilt dann für Salvage-Lösungen und entsprechend bei VEGA11.

fondness
2016-10-09, 09:53:01
VEGA10/11 sollte man aber nicht mit den aktuellen nV-Karten vergleichen, sondern mit der "Pascal-Refresh-Generation". Die werden wohl relativ zeitgleich erscheinen im Frühjahr 2017. Das heißt dann aber auch das VEGA10 mindestens 10% auf ne 1080er drauflegen muss um 2017 gegen eine 2080er (?) zu bestehen. Gleiches gilt dann für Salvage-Lösungen und entsprechend bei VEGA11.

Naja, die GTX 1080 ist bereits der Vollausbau und taktet auch schon relativ hoch. Sonderlich viel Potential sehe ich da nicht mehr, und wenn man die GTX2080 etwas höher taktet, bedeutet das eben weniger OC-Spielraum. Was auch kein richtiger Mehrwert wäre. Okay etwas höher getakteten GDDR5X könnte man vielleicht verbauen. Das NV bei der GTX2080 extra ein neues Tapeout hinlegt kann man zwar nicht ausschließen, ob sich das allerdings rentiert darf bezweifelt werden.

Aber sei es drum. V11 macht für mich noch keinen wirklich Sinn. Im Grunde gibt es drei denkbare Szenarien:

1: Die Vega-Architektur ist so viel besser, dass es sich schon auszahlt P10 nach nur einem Jahr zu ersetzen. Möglicherweise weil man deutlich bessere Perf/Watt und/oder Perf/mm² erreicht.

2: V10 ist so viel schneller als ein P10, dass da noch ein zusätzlicher Chip dazwischen Sinn macht. Bei "nur" GP104-Leistung sehe ich das nicht, denn zwischen der GTX1070 und einer RX480 liegen kaum mehr als 100 EUR Preisdifferenz, IMO zu wenig für einen extra Chip. Gerade AMD kann sich einen solchen Luxus eigentlich nicht leisten.

3: V11 ist doch schneller als V10. Das scheint aber mittlerweile nicht mehr sonderlich realistisch. Denn zum einen gibt es schon Bestätigungen von einer Dual-V10, dann ist da noch V20 und zum anderen wurde V11 als "Mainstream-Part" jetzt schon mehrmals bestätigt.

HOT
2016-10-09, 10:04:11
Wäre ein Witz wenn eine HBM2 Karte nicht mit der 1080 gleichzieht.Wobei es natürlich fahrlässig ist kein 1070 Gegner um 400€ zu haben.
Das wird eh Vega11 leisten. Dafür ist der da.

Im Idealfall:

1060 (2060) -> P10 XT
1070 (2060Ti) -> V11 Pro (7 TFLOPs bei 44CUs 410GB/s)
1080 (2070) -> V11 XT (9,2 TFLOPs bei 48CUs 512GB/s)
1080Ti (2080) -> V10 Pro (10,2TFLOPS bei 60CUs 640GB/s)
TX (2080Ti) -> V10 XT (12TFLOPs bei 64CUs 820GB/s)

+/- 10%

so sieht es derzeit jedenfalls aus. Es gibt kein Bandbreitenlimit und die CUs sind wohl recht stark überarbeitet worden. Das wird man schon merken.

dargo
2016-10-09, 10:06:32
Wäre ein Witz wenn eine HBM2 Karte nicht mit der 1080 gleichzieht.

Genau... wer braucht schon Rohleistung X oder effiziente Software etc. Hauptsache man hat genug Bandbreite. 111elf


Wobei es natürlich fahrlässig ist kein 1070 Gegner um 400€ zu haben.
Was ist wenn V11 der Gegner für GTX1070 ist?

btw.
Gibt es überhaupt schon welche Gerüchte zu den CUs bei V11? Da tappe ich noch komplett im Dunkeln. Weiterhin 36CUs oder mehr? Wenn es weiterhin nur 36CUs mit mehr Takt sind sollte V11 dank HBM2 etwas kleiner ausfallen als P10 oder? Wobei Vega CUs nichts mehr mit P10 CUs gemeinsam haben. :uponder: Mal angenommen die 12 TFLOPs bei V10 stimmen. Dann dürfte der Salvage bei ca. 10 TFLOPs liegen. Das gibt natürlich eine große Lücke zum P10. Hier wäre V11 mit ~7 TFLOPs ganz praktisch. Dafür bräuchte AMD bei 36CUs aber schon knapp über 1,5Ghz Takt. Bei GloFo kaum vorstellbar. Kommt jetzt Vega von GloFo oder TSMC?

Edit:
Was ist denn jetzt mit der Bandbreite bei V11? Ein 8GB HBM2 Stack mit 256GB/s oder zwei 4GB low Cost HBM2 Stacks mit 400GB/s? Ersteres wäre etwas mager trotz verbesserter DCC bei angenommenen ~7TFLOPs (wobei die GTX1070 auch nur 256GB/s hat). Fragen über Fragen... :D

StefanV
2016-10-09, 11:30:19
Es wurde ja auch schon bestätigt, durch die Linux Treiber, dass P10 eher ein kleineres Update ist, wohingegen Vega ein größeres Update zu sein scheint. Denn das eine hat ja nur 'ne höhere Minor Nummer, Vega aber 'ne höhere Major Nummer. Daher kann man schon davon ausgehen, dass hier deutlich mehr geändert wurde als beim Polaris - und man sich daher auch mehr Zeit für Vega gelassen hat...
Dafür bräuchte AMD bei 36CUs aber schon knapp über 1,5Ghz Takt. Bei GloFo kaum vorstellbar. Kommt jetzt Vega von GloFo oder TSMC?
Genau, siehe Kaveri und Co...
Das hat also nix mit dem Prozess zu tun sondern der Architektur selbst, die nicht wirklich auf hohen Takt ausgelegt ist.

Ev. baut man ja etwas um, so dass man die Vega Chips 'nen ganzes Stückchen höher takten kann??

Hübie
2016-10-09, 11:39:26
Also man muss ja Fiji ersetzen -> Vega 11. Der Salvage schließt die Lücke so dass man auf Fury-non-X-Niveau kommt. Vega 10 ist dann GP104 auf Steroide (1080 OC)und V10 Salvage ordnet sich bei einer 1070 / GTX 980 Ti OC ein. So deckt man alles ab.
Wünschenswert wäre natürlich dass man GP102 kontert und somit eine waschechte 4k-Karte hat, aber ich lass mal die Kirche im Dorf. :D GP104 ist z.B. weder Fisch noch Fleich. Für 1440p zu schnell, für 4k zu lahm. Ideal eigentlich nur für 3440x1440. Somit wäre V10 also auch nix Halbes aber auch nix Ganzes.

victore99
2016-10-09, 11:41:08
Kanns eigentlich auch sein, dass es drei Vega-Chips gibt? Aus Diesize-Sicht passt auch über GP102 ein Chip drüber, der dann exakt GP104 x2 ist.

Und wenn der kleine Vega 11 wirklich sooo klein ist, V10 so auf GP104-Level ist (mit vvtl 400mm2?) dann klingts so, als würde da auch noch ein 600mm2 Monsterchip drüberpassen..

Screemer
2016-10-09, 12:19:26
Was ist eigentlich von der idee zu halten, das der grund für polaris einfach nur der customsoc für scorpio war. Keine großen unterschiede zur alten hardeware bei steigender perf. Da spart ms einen haufen kohle bei der anoassung von softwarefehler und tools.

victore99
2016-10-09, 12:57:06
Interessante These. Wenn P10 wirklich 1:1 der GrafikHW der Scorpio entspricht, ergibt sich daraus für MS und AMD ein Vorteil: AMD hat weniger Entwicklungskosten für den Grafikpart, MS niedrigere Kosten, und nach einiger Zeit dürften UWP-Apps echt genial auf P10 performen.

dargo
2016-10-09, 13:20:23
Was ist eigentlich von der idee zu halten, das der grund für polaris einfach nur der customsoc für scorpio war. Keine großen unterschiede zur alten hardeware bei steigender perf. Da spart ms einen haufen kohle bei der anoassung von softwarefehler und tools.
Eher Custom-SoC für die Playstation Neo. Ich gehe nicht davon aus, dass der Custom-SoC im Scorpio auf P10 basiert. Für 6 TFLOPs müsste das Ding mit knapp über 1,3Ghz takten. Das wäre sehr unüblich wenn ein Konsolen SoC mit höheren Taktraten läuft als die Desktop-Variante. Vor allem wegen den TDP-Grenzen. Scorpio müsste eher auf V11 basieren, nur halt ohne HBM oder AMD knallt für MS auf Polarisbasis mehr CUs in den Custom-SoC rein um die 6 TFLOPs zu erreichen. Zb. 44CUs @1066Mhz. Das SI muss eh geändert werden wenn die 12 Chips im Rendervideo kein Fake waren. Warum also nicht gleich größere Änderungen in Form von mehr CUs? Und sollte das Ding mit 44 CUs verkauft werden wird der SoC dann eh 48CUs haben. Bisschen Redundanz braucht man immer. Wenn mal ein CU Probleme macht würde alles in den Müll landen. Das kann sich keiner leisten.

Locuza
2016-10-09, 14:10:13
Es wurde ja auch schon bestätigt, durch die Linux Treiber, dass P10 eher ein kleineres Update ist, wohingegen Vega ein größeres Update zu sein scheint. Denn das eine hat ja nur 'ne höhere Minor Nummer, Vega aber 'ne höhere Major Nummer. Daher kann man schon davon ausgehen, dass hier deutlich mehr geändert wurde als beim Polaris - und man sich daher auch mehr Zeit für Vega gelassen hat...
[...]
Man kann effektiv fast gar nichts davon ableiten.
GCN Gen 1 wurde als v6 gelistet, Gen 2 als v7 und Gen 3 und Gen 4 als v8, wobei der OpenCL Treiber etwas präziser zu unterscheiden scheint und das als 8.1 listet, allerdings auch Stoney Ridge und das ist ein neues 28nm Design mit nur einem Excavator-Modul und 3 GCN CUs.
Ob die Änderungen gering ausfallen wie früher oder wesentlich umfangreicher, bleibt insofern offen.

horn 12
2016-10-09, 16:19:29
VEGA kommt!
Früher als gedacht
In einigen Wochen ist es soweit:

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/40601-amd-soll-fpga-boards-und-vega-gpus-auf-der-sc16-vorstellen.html

Linmoum
2016-10-09, 16:33:04
Soll
Offenbar
Gerüchte

Davon ab geht es auch nicht darum ob Vega kommt, sondern schlicht um die Vorstellung. Zwei paar Schuhe.

dargo
2016-10-09, 16:57:57
Egal, Hauptsache wir kriegen mehr Details. Es gibt immer noch zu wenig Infos.

Der_Korken
2016-10-09, 17:19:45
HWLuxx spricht von 6 TFlops/s DP, also 1:2. Bisher ging man von 1:16 aus. (Sind es wirklich 1:16 oder konnte AMD nicht schon immer 1:4 DP ohne zusätzlichen Hardware-Aufwand? Bei Nvidia gibt es dedizierte DP-Einheiten, bei AMD nicht).

AnarchX
2016-10-09, 17:35:40
HWLuxx spricht von 6 TFlops/s DP, also 1:2. Bisher ging man von 1:16 aus. (Sind es wirklich 1:16 oder konnte AMD nicht schon immer 1:4 DP ohne zusätzlichen Hardware-Aufwand? Bei Nvidia gibt es dedizierte DP-Einheiten, bei AMD nicht).
Bei den VLIW-Architekturen gab es wohl keinen großen Aufwand. Aber mit GCN war das Einsparpotential durchaus vorhanden, wie man an Fiji sieht, der mit 4 TFLOPs DP wohl netter gewesen wäre.

Die Artikel (Luxx, Heise) basieren wohl alle auf WCFTech. Das Greenland/Vega10 >=4 TFLOPs (DP) leisten könnte, wurde ja schon durch geleakte AMD-Folien angedeutet. Das Projekt Greenland/Vega10 dürfte wohl schon seit 2015 in Richtung Tapeout gegangen sein, Interposer-Validierung und HBM2-Vefügbarkeit haben den Marktstart wohl etwas verzögert.

iuno
2016-10-09, 17:48:11
HWLuxx spricht von 6 TFlops/s DP
Klassiker.
hwl bezieht sich auf den Artikel bei heise und der wiederum auf WCCF.
Aus
Wahrscheinlich fährt AMD die Karte bei doppelter Genauigkeit auch nicht so weit auf nur 1/32 herunter, wie es Nvidia derzeit bei den Grafikkarten macht
wird
die Architektur soll 12 TFLOPS bei einfacher Genauigkeit erreichen und für FP64 sollen es immerhin noch 6 TFLOPS sein.
Dabei steht in der letzten Meldung von WCCF nicht mal derartiges drin. Nur Videocardz hatte es davon, dass V10 1/16 und erst V20 1/2 bekommen soll.

BlacKi
2016-10-09, 18:22:12
VEGA kommt!
Früher als gedacht
In einigen Wochen ist es soweit:

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/40601-amd-soll-fpga-boards-und-vega-gpus-auf-der-sc16-vorstellen.html
also so in 6 monaten auf dem markt. so wie bei p10, erste lauffähige vorstellung im dez. und kaufbare referenzkarten im mai, september dann leise custom karten:wink:

AnarchX
2016-10-09, 18:36:09
Was ist denn 1XKing? Die PN und der Beschreibungsaufbau deutet auf AMD, aber mit 102-B... ist die Boardnummer eigentlich sehr alt, man ist ja mittlerweile bei 102-D... . Oder es ist ein abweichendes Projekt.


PRINTED CIRCUIT BOARD ASSEMBLY(VIDEO GRAPHICCARD)MAGNUM FPGAPROTOTYPE BOARD FOR DTV WITH1XKING P/N:102-B25431-00 (FOC)
https://www.zauba.com/import-printed-circuit-board-magnum-hs-code.html

Hübie
2016-10-09, 18:53:45
VEGA kommt!
Früher als gedacht
In einigen Wochen ist es soweit:

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/40601-amd-soll-fpga-boards-und-vega-gpus-auf-der-sc16-vorstellen.html

HW Luxx schreibt von Heise und Heise von WTF-Tech mit ihren "Sources" ab. Also verbreite mal nicht so eine Hysterie wo es nix zu berichten gibt.
Wurde schon vor Tagen (http://wccftech.com/amd-vega-10-vega-11-magnum/) durchgekaut, HWL pennt aber.

Isen
2016-10-09, 19:18:15
@iuno,

schon geil die Presse, nicht wahr :D
Infos die durchaus richtig sind, werden nicht verfolgt. Auch wurscht.

Ende des Jahres fängt es an (im Nov.) und zieht sich mit tam tam durchs neue Jahr hindurch.
Hoffentlich kriegt das AMD so auch hin, ganz schöner Brocken an neuem den sich, Lisa da aufgebaut hat, den sie in kurzer Zeit raus boxen will.
Hoffentlich haben sie die Spitzel(Leaker) schön in den Kellern verfrachtet.