PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 [45] 46 47 48 49 50 51

Nightspider
2016-09-19, 09:57:01
Da Polaris noch ziemlich stark durch die Speicherbandbreite limitiert wird könnte ich mich schon ein Rebranding mit höheren Taktraten und 9Gbps VRAM vorstellen. Das wären immerhin +12,5% Speicherbandbreite, welche in vielen Spielen fast 1:1 in mehr fps umgesetzt werden würden.

Eventuell gibts ja auch einen kleinen Refresh von Polaris mit leichten Verbesserungen in der Architektur und GDDR5X PHY. Das wäre zwar wahrscheinlich schon übertrieben aber würde mit +50% an Speicherbandbreite ordentlich mehr fps bringen, gerade wenn Polaris in zukünftigen DX12 Titeln mehr Leistung auf die Straße bringen kann.
Dennoch ist die GDDR5X Möglichkeit die Unwahrscheinlichste.

tm0975
2016-09-19, 10:00:05
also 2 namensschemata, eines für die 2 vega und eines für die 2 "polaris-refresh" halte ich für ziemlich ungeeignet. ich hoffe nicht, dass sich amd bzw. der ominöse amd-praktikant sowas ausdenkt. ein echter MacGuffin :biggrin:

Complicated
2016-09-19, 10:04:11
Das hat doch AMD genau so gehandhabt mit der Fury, FuryX und der Fury Nano über den R9 3xx Modellen.

tm0975
2016-09-19, 10:14:54
aber da war es ein chip, jetzt kommen 2!

Dino-Fossil
2016-09-19, 10:17:38
Was wann im Gaming-Bereich ankommt können wir doch noch gar nicht genau sagen.
Am Ende kommt der kleinere Vega noch parallel zur 4xx serie, der größere aber erst wenn schon 5xx raus ist - und dann kann das Schema schon wieder etwas anders aussehen.

tm0975
2016-09-19, 10:22:53
darum spekulieren wir ja. und erstes halbjahr heißt bei amd gerne 28.06. und damit ca 1 jahr nach polaris.

Elkinator
2016-09-19, 11:07:11
Die RX 490 war doch nur ein Fehler, daraus wurde eine R9 490.
Das wird wohl eine reine OEM-Karte-

HOT
2016-09-19, 12:09:15
...und entspreicht wahrscheinlich einer RX 470.

HOT
2016-09-19, 12:10:53
Also Fury wird bei Vega denke ich schon genutzt werden. Fury X5 bis Fury X9 oder sowas.

Elkinator
2016-09-19, 12:12:53
Könnte auch eine umgelabelte R9 390 sein, aber was die bei OEM-Karten machen kann uns eh total egal sein.

Der OEM will es und AMD liefert, tolle Sache:O

HOT
2016-09-19, 14:05:29
Ich glaub nicht, dass man den teuren Hawaii mit dem teuren PCB noch in den OEM-Bereich drückt. Das wird ganz sicher Polaris sein.

iuno
2016-09-19, 15:03:12
Ich bin mir auch sicher, dass Vega nicht RX 4xx wird. Es wird ueberall klar gemacht, dass es eine neue Generation ist.
Wenn die bei AMD es ernst meinen, duerfen sie aber auch kein Polaris in die 500er Serie uebernehmen. Fuer refreshes gibt es jetzt die 5 ganz am Ende und das wurde auch klar so gesagt. Ansonsten haetten sie auch Bristol Ridge in das neue Schema nehmen koennen, das ist aber nicht passiert.
Hoffentlich bekommen die APUs ab RR dann auch endlich mal ordentliche Namen, Platz dafuer wurde ja geschaffen.
Oder wofuer soll der sonst sein? 460 ist schon salvage und ein kleinerer Chip kommt nicht mehr. Dafuer hat man oben wieder keinen Platz.
IMHO ist das wieder nicht durchdacht.

P10: 460/470
V10: 580/590
V11: Fury

haette man gleichzeitig laufen lassen koennen, aber nicht

P10: 470/480
V10: 580/590

Und ueber 590 gibt es halt nix mehr.
Daraus wuerde ich aber wiederum auch nicht automatisch schliessen, dass es nur einen Vega Chip (etwa 590 & Fury oder nur Fury) fuer Gamer gibt, weil es am unteren Ende genausowenig Sinn ergibt. Insofern wird es wohl doch wieder auf refreshes hinauslaufen

Der Beitrag ist jetzt vielleicht etwas wirr, aber was will man machen ;D

http://i.imgur.com/edtrjH6.jpg

Nochmal zu RR: Die werden dann wohl alle "RX 560, R 550" o.ae. heissen. Oder kommt da noch ein Chip von dem wir bisher nichts wissen, ein Iceland Nachfolger als companion-GPU fuer APUs?

Und 60 FPS in FHD in DOTA, was ist das ueberhaupt fuer ein Massstab? Das schaffen ja alte APUs :rolleyes:

Warum koennen die das nicht einmal richtig machen?

Hübie
2016-09-19, 15:32:27
Dennoch ist die GDDR5X Möglichkeit die Unwahrscheinlichste.

Rein vom Designaufwand betrachtet ist es gar nicht mal so unwahrscheinlich und es gab ja auf linkedin auch ein Profil wo ein AMD Mitarbeiter an GDDR5X arbeitete. Man wird wohl auch bestehende Masken teils weiter verwenden können, was die Kosten nicht in astronomische Höhen schnellen lässt. Jedes 5X-Modul hat einen nativen fallback auf GDDR5, was eben im Umkehrschluß bedeutet, man muss "nur" etwas dran flanschen um doubled prefetching zu haben.
Ich hoffe also schon auf GDDR5X für P10-Refresh.

HOT
2016-09-19, 15:55:44
Da ich für GDDR5X genau keine Zukunft sehe, wird das wohl nicht passieren. GVxxx wird wohl komplett auf HBM und GDDR5 setzen (die gibts ja auch offenbar nur ab GV106 wie bei GM2xx, kleinere bleiben Pascals) und AMD setzt bei Vega komplett auf HBM, Navi wird sicherlich auf GDDR6 setzen (das ist sowieso wieder nur Mainstream - und da stand auch nur neue Speichertechnologie - GDDR6 ist eine neue Speichertechnologie). Das ist die 5xx-Generation. Ich wette, dass Vega komplett außer der Reihe läuft. Das sind alles Furys. Da gibts dann eben ne ganze Fury-Serie.

Hübie
2016-09-19, 17:11:45
Na wenn DU das sagst, muss es ja stimmen X-D SCNR

dildo4u
2016-09-19, 17:17:01
Ich sehe auch nicht das Nvidia HBM in was anderem als ihrer 1300€ Karte nutzt,alles ab 400€ bis 800?€ wird GDDR5 X nutzen.

dargo
2016-09-19, 17:19:08
Ich sehe auch nicht das Nvidia HBM in was anderem als ihrer 1300€ Karte nutzt...
Welche soll das sein?

iuno
2016-09-19, 17:27:12
Ich hoffe also schon auf GDDR5X für P10-Refresh.
Schoen waers schon. Wer weiss schon wann und was Navi genau bringt. Moeglicherweise muss P10 noch einige Jahre durchhalten und dafuer sehen die Karten imho nicht gerade ueberzeugend aus.

Welche soll das sein?
Volta Titan, als ob die billiger wird als die Pascal.
GVxxx

Elkinator
2016-09-19, 17:55:47
Bei Polaris hat AMD eh auch Apple als Kunden, wenn eine neue Revision leistungsmässig etwas bringt, dann wird ihnen Apple diese GPUs nach einem Jahr sicher gerne abnehmen.

Apple hat bei 28nm sicher nicht gerne jahrelang die selben GPUs gekauft, aber 20nm wurde halt nichts.

HOT
2016-09-19, 18:18:48
Das ist ne Frage der Kosten. Wenn das wirtschaftlich ist, wird NV genauso auf HBM setzen. Bringt ja auch andere Vorteile. Insbesondere GV104 und GV100 dürften auf 2 bzw. 4 HBM-Stacks setzen. GV106 ist sicherlich wieder 256Bit GDDR5.

davidzo
2016-09-19, 18:44:22
Hat eigentlich mal jemand infrage gestellt ob es wirklich zwei Vega chips sind, und nicht vielleicht doch nur ein chip und ein dual-GPU Projekt?

Zwei Chips mit HBM die beide als "Fury" gebrandet den Enthusiast-Markt bedienen macht einfach wenig Sinn und passt nicht zur bisherigen AMD-Strategie. Das kann man viel eher mit nem salvage chip machen, der dann womöglich aufgrund der Stückzahl sogar billiger ist. AMD setzt eher im mainstream Bereich auf Vielfalt, weil hier viel eher die Stückzahlen gemacht werden. Zwei Enthusiast chips und keine mainstream+ performance chips in einer generation sind sehr untypisch.

Enthusiast mit HBM + performance mit GDDR5X würde Sinn machen, aber das widerspricht ja den Gerüchten, wonach beide Chips HBM haben sollen.

Sollten es dennoch zwei verschiedene HBM chips sein, so kann man viel eher davon ausgehen dass zwischen den Chips ein gehöriger Abstand ist und dies auch marketingtechnisch ausgeschlachtet wird. Eine RX590 und eine Fury X macht mehr Sinn als zweimal Fury.
Polaris kann man dann direkt von rx480 nach rx580 weiterreichen, wäre nicht das erste mal das AMD den chip beim rebranding nicht herunter rated. OEMs und Hersteller lieben sowas, so kann man die alten PCBs und Bauteile einfach weiterverwenden, neues BIOS und das wars.

Elkinator
2016-09-19, 19:06:49
Es sidn sogar 3 Chips mit GCN5.

Aus einer RX 480 wird nie eine RX 580, das Namensscheme erlaubt das nicht.
Früher ging das noch, weil es da kein Namensschema mit klaren Richtlinien gab!

iuno
2016-09-19, 19:21:52
Hat eigentlich mal jemand infrage gestellt ob es wirklich zwei Vega chips sind
Ja, schon oft.

Zwei Chips mit HBM die beide als "Fury" gebrandet den Enthusiast-Markt bedienen macht einfach wenig Sinn und passt nicht zur bisherigen AMD-Strategie. Das kann man viel eher mit nem salvage chip machen, der dann womöglich aufgrund der Stückzahl sogar billiger ist. AMD setzt eher im mainstream Bereich auf Vielfalt, weil hier viel eher die Stückzahlen gemacht werden.
Es behauptet ja auch keiner, dass das so kommen muss.
Es ist noch sehr vieles moeglich und genauso unklar. So koennte es z.B. auch sein, dass V10 ausschliesslich als Salvage fuer Gamer als 590 kommt und der Vollausbau dann nur fuer Radeon Pro oder die HPC APU.

Zwei Enthusiast chips und keine mainstream+ performance chips in einer generation sind sehr untypisch.
V10 = Performance, V11 = Enthusiast. Mainstream bleibt Polaris. AMD hat seit Jahren kein Lineup mehr komplett ersetzt.

Enthusiast mit HBM + performance mit GDDR5X würde Sinn machen.
Nein. Warum auch?

Sollten es dennoch zwei verschiedene HBM chips sein, so kann man viel eher davon ausgehen dass zwischen den Chips ein gehöriger Abstand ist
Wer behauptet denn, dass sie nahe beieinander liegen sollen?
Ist dir der Abstand von 2 Stacks und ~4k SP zu 4 Stacks mit ~6k SP nicht gross genug?

Polaris kann man dann direkt von rx480 nach rx580 weiterreichen, wäre nicht das erste mal das AMD den chip beim rebranding nicht herunter rated. OEMs und Hersteller lieben sowas, so kann man die alten PCBs und Bauteile einfach weiterverwenden, neues BIOS und das wars.
Nur haben sie extra das neue Schema eingefuehrt, erklaert, die einzelnen Stellen festgelegt und auch betont, dass es fuer neue Revisionen die '5' am Ende gibt.
Das ganze so darzulegen ergibt einfach keinen Sinn, wenn es ein halbes Jahr spaeter wieder komplett gekippt wird.

davidzo
2016-09-19, 19:47:39
Nur haben sie extra das neue Schema eingefuehrt, erklaert, die einzelnen Stellen festgelegt und auch betont, dass es fuer neue Revisionen die '5' am Ende gibt.
Das ganze so darzulegen ergibt einfach keinen Sinn, wenn es ein halbes Jahr spaeter wieder komplett gekippt wird.


Oh das habe ich übersehen, hätte wohl die letzten seiten genauer lesen müssen ;)

hm, dann macht es aber aus demselben grund marketingtechnisch sinn, dass eine vega rx 5xx erscheint. wozu führt man schließlich das RX-system ein und bekräftigt das jetzt nochmal, wenn man mit vega gar nicht gedenkt das rx-namensschema zu benutzen, sondern fury.

Elkinator
2016-09-19, 20:11:05
Vielleicht wird V10 eine RX 5XX, mit teildefekt werden das dann eh 2-3 Karten.
V11 wird dann eine Fury 2 oder ähnlich.

Wie bei NVIDIA, wo es eine Titan an der Leistungsspitze gibt

[MK2]Mythos
2016-09-19, 22:25:07
Vielleicht wird V10 eine RX 5XX, mit teildefekt werden das dann eh 2-3 Karten.
V11 wird dann eine Fury 2 oder ähnlich.

Wie bei NVIDIA, wo es eine Titan an der Leistungsspitze gibt

Genau davon gehe ich auch aus.

Palpatin
2016-09-19, 23:26:35
Vielleicht wird V10 eine RX 5XX, mit teildefekt werden das dann eh 2-3 Karten.
V11 wird dann eine Fury 2 oder ähnlich.

Wie bei NVIDIA, wo es eine Titan an der Leistungsspitze gibt
Gehe bei V11 auch von 3 Karten aus:
Fury 2, Fury X2 und Fury Nano 2.
V10:
R590, R590X und ?

iuno
2016-09-20, 00:53:19
Vielleicht wird V10 eine RX 5XX, mit teildefekt werden das dann eh 2-3 Karten.
Und wo sollen die drei Karten reinpassen, wenn nur die "590" frei ist? Oder will man die technisch basierte Nomenklatur schon wieder umwerfen (z.B. 8 = 2048 Bit statt 256), weil mit Vega ja ein neues Zeitalter beginnt? :ulol:

Oh das habe ich übersehen, hätte wohl die letzten seiten genauer lesen müssen ;)
Das ist das Problem an solchen Threads, das steht nicht nur in den letzten Seiten sondern wohl eher die letzten paar Hundert.

Gehe bei V11 auch von 3 Karten aus:
Fury 2, Fury X2 und Fury Nano 2.
Und wie soll so eine Nano aussehen? Da kann man grad den kleinen Vega nehmen und auf die Haelfte der Stacks, grossen Interposer und Chip verzichten.
Falls V11 wirklich als solches Monster ueber V10 kommt wird das Ding schweineteuer, davon baut und vor allem kauft doch keiner eine gleich teure Spar-Version.
Bei Fiji war das ja noch sinnvoll, weil der Chip eh wenig Speicher hatte und schlecht skaliert hat. Im Prinzip war die Nano die sparsamere, kleinere 290X. Mit V10 haette man aber schon einen effizienteren und vor allem aktuellen Chip genau im Segment darunter. Dazu waere V10 im besonderen Formfaktor wenigstens auch ordentlich zu kuehlen.

V10:
R590, R590X und ?
Ja... ganz bestimmt nicht. Man schmeisst doch nicht das X hinten weg und stellt es mit neuer Bedeutung vorne an, nur um es direkt wieder einzufuehren.

Hübie
2016-09-20, 04:18:42
Auf dem Bild steht afair >256 Bit für 9; 256 Bit für 8 und alles darunter unwichtiger Schrott X-D

Leonidas
2016-09-20, 06:50:37
Man muß auch klar sagen, das es das Schema für die 400er Serie ist. Die 500er Serie könnte ein gänzlich anderes Schema oder auch ein nur leicht abweichendes Schema fahren.

victore99
2016-09-20, 07:12:07
Ohne das Schema zu verändern, kommt man zu sehr ungünstigen Namen, aber am Ende kann es uns ja auch egal sein, wie die Karten heißen. Wichtiger sind die Chips, und von denen wissen wir absolut nichts. Nur, dass einer "fiji done right" ist und einer - Vielleicht sogar derselbe - wahrscheinlich mit 4 Stacks hbm daherkommt.
Welcher Prozess? Kommen inzwischen 2, wenn nicht sogar 3 in Frage.
Wieviele Chips? Keine Ahnung. Vega 10 ist ja bestätigt, aber wenn AMD von einer Familie spricht, kann auch ne Dualkarte gemeint sein. Oder Zwei, vielleicht sogar 3 oder mehr Chips. Wir gehen hier nur meist von zweien aus, weil das am meisten Sinn ergibt.
Taktansatz? Ungewiss. Kann sein, dass AMD unseren Fiji 2.0 mit 4k Shadern etc. Und 2 Stacks HBM auf 400mm2 packt und die Taktraten ähnlich Polaris ausfallen.
Oder, dass AMD den mit 4 Stacks ausstattet und den aber auf 600mm2 bringt, der aber auch auf 1,5 bis 1,6G läuft.

Also? Aktuell haben wir weit größere Unklarheiten als die verdammte Nomenklatur, weil hier irgendwie keiner was über die Chips weiß / sagen darf.

HOT
2016-09-20, 10:30:26
Das mit "Fiji done right" überzeugt mich auch nicht. Das könnte auch nur Greenland sein, welcher dann aber zwar 64CUs hätte, aber mit Fiji genau gar nicht vergleichbar ist. Der Rest dürfte über und unter 64CUs liegen.

victore99
2016-09-20, 10:49:31
Ist aber das einzige Informationshäppchen, was vielleicht auf Vega bezogen sein kann.
Außerdem - ich habs ja als Beispiel genannt, das wir hier absolut nichts wissen. Auch weil die Aussagen schwammig as fuck sind.

Nakai
2016-09-20, 10:53:45
Wurde schon gepostet?
http://fudzilla.com/news/graphics/41643-amd-vega-10-scores-24-tflops

FP16:FP32 2:1? Ist in Ordnung. :)

victore99
2016-09-20, 11:11:30
Wurde schon gepostet?
http://fudzilla.com/news/graphics/41643-amd-vega-10-scores-24-tflops

FP16:FP32 2:1? Ist in Ordnung. :)
Und 2:1 ist das einzige wirklich "neue". 12TFlop (also der Bereich) sind schon lange klar... Egal ob 6k Shader @1G oder 4k Shader @1,5G.

dildo4u
2016-09-20, 11:14:15
16 GB hat AMD nix gegen die 1070?Die Karte startet mit 16GB doch mindestens bei 600€.

Gipsel
2016-09-20, 11:18:54
16 GB hat AMD nix gegen die 1070?Die Karte startet mit 16GB doch mindestens bei 600€.:freak:
Das Teil konkurriert eher mit der TitanX und GP100. Die vermutlich auch existierende kleine Version namens Vega11 kommt wohl nur mit 2 Stacks (8GB). Das dürfte dann der Gegner für GP104 werden.

Sunrise
2016-09-20, 11:28:19
Und 2:1 ist das einzige wirklich "neue". 12TFlop (also der Bereich) sind schon lange klar... Egal ob 6k Shader @1G oder 4k Shader @1,5G.
Jup, ist weiterhin leider nicht wirklich viel Neues. Anhand dieser Daten und falls wirklich noch ein Vega 11 kommen sollte, sind es dann bei Vega 10 wohl doch 6144 ALUs wie schon spekuliert, denn ein Vega 11 mit 4096 ALUs sollte eher höher takten und kann dann auch mit 1070/1080 konkurrieren.

Theoretisch könnte AMD natürlich auch erstmal Vega 10 launchen, da die Titan X dermaßen teuer ist und zumindest bis zu einer denkbaren 1080 Ti herunterskalieren, weil sie das für den HPC- und generell professionellen Markt brauchen (das Maximum auf dem aktuellen Prozess bei GloFo bzw. TSMC) um gegen NV anzugehen.

Da man zu Vega 11 praktisch nichts hört, könnte der stark deaktiviert evtl. auch mit nur 2 Stacks (2x4GB HBM2) gegen eine 1070/1080 antreten.

Auf jedenfall wäre ein Zeichen nötig, und zwar Vega 10 mit >550mm² Die und 4 Stacks, sodass man wirklich alles abdecken könnte. Kostentechnisch glaub ich, dass man aufgrund der GloFo-WSA da sogar ganz gute Preise dafür bekommen könnte. Es sind eben weiterhin Ausbeute und HBM2-Verfügbarkeit das Problem, und natürlich das ganze Assemblieren, das den Preis hochtreibt.

Nakai
2016-09-20, 11:29:38
1,5 Ghz stehen noch in den Sternen. Mehr als 400mm² wird Vega10 wohl nicht groß sein, sonst wäre der Abstand zwischen P10 und V10 zu groß. Oder V11 ist nicht der große Chip, sondern ein kleiner Vega. ;)

V11 mit 256bit GDDR5X und ~3000 SPs?

V11:
6 SEs
8 CUs pro SE
3072 SPs
DP:SP - 1:16
256Bit GDDR5X
~320GB/s
Perf: P10 x 1.4~1.5


V10:
8 SEs
8 CUs pro SE
4096 SPs
DP:SP - 1:2
2 HBM2
~512GB/s
Perf: P10 x 1.8~2.0

Setsul
2016-09-20, 11:46:49
Vega 10 = klein
Vega 11 = groß
Dachte ich zumindest.
AMD sortiert doch nach Zeit, nicht nach Leistung/Größe, um die Leute ein bisschen zu verwirren.

Für 6 TFlops DP / 12 TFlops SP bräuchte man, wenn man von 64 CUs / 4096 SPs ausgeht, knapp 1,5 GHz. Wäre natürlich sehr gut, wenn man das schafft, aber es wäre wieder ein ungewöhnlich großer Abstand zu P10, wobei wir das ja auch schon mit P11 haben.
Die 16 GB HBM2 stören mich etwas, aber es kann natürlich gut sein, dass AMD den höheren Preis akzeptiert um nicht 2 verschiedene Linien mit Interposern laufen lassen zu müssen.
Ich meine es kaufen jetzt schon leute die W9100 mit 32GB und das bei nur 2,6 TFlops DP, wenn Vega 11 dann mit 9 TFlops DP daherkommt sähen 16GB recht mikrig aus.
8 Hi stacks würden auch erklären, wieso AMD 2017 geplant hat. 4 Hi stacks gibt es schon ein paar.

Könnte natürlich genauso gut sein, dass wieder mal Vega 10/11 Verwirrung besteht, siehe Thread und edit, und fudzilla den großen Vega meint.


In Sachen Namen werfe ich hier mal ein paar Vermutungen hin.
4xx = GCN4 ist Schwachsinn. Bei den 2xx hatten wir alles, Terascale 2, GCN1, GCN2 und auch GCN3. 3xx ähnlich.
Gehen wir mal davon aus, dass AMD mit 5 nur Revisionen bezeichnet, so wie angekündigt, und keine X Versionen mehr kommen. Also keine 490 und 490X. Dann reicht die 400er Serie für Vega einfach nicht mehr. Mit Branding wie die Fury könnte man zwar 2 oder 3 Karten unterbringen, aber Vega 10 und 11 ergeben mindestens 4. Man könnte natürlich Vega 10 bei den 400ern (bzw Fury ähnlich) unterbringen und Vega 11 dann bei den 500ern, aber was macht man dann mit den niedrigeren 500ern? Vega 10 Rebrand ein paar Monate nach dem ursprünglichen Launch? Ergibt auch keinen Sinn.
Deshalb nehme ich an, je nachdem ob man die 590 für eine Dual-Karte freihalten will:
Vega 10 full = 590 oder 580
Vega 10 salvage = 580 oder 570
Polaris 10 full = 570 oder 560 (Rebrands freuen uns doch immer)
Polaris 10 salvage = 560 oder 550
Damit ist man dann die enorme Lücke zwischen 460 und 470 auch los, der Polaris 11 bleibt weiter im Mobile/Apple und unter den 50er Nummern ist sowieso immer nur das große Mini-Chip Rebranding Spektakel.
Gleichzeitig ist man "zahlenmäßig" auf Augenhöhe mit nVidia. Konkurrenz zur 1060 heißt 550/560 (3GB) bzw. 560/570, zur 1070 570/580 und zur 1080 dann die 580/590.
Vega 11 bekommt dann wieder lustiges Namensbranding, Fury oder Rage oder was auch immer.


Noch ein bisschen Spekulatius fürs Volk:
1. Theoretisch kann man natürlich Vega jeweils in 2 verschiedenen Versionen mit 4 bzw 8 Hi Stacks bringen um auf 8 bzw. 16 für Consumer und 16 bzw. 32GB für die besser betuchte Kundschaft zu kommen. Halte ich aber für unwahrscheinlich. Es könnte also sein, dass AMD eine 180° Kehre macht von der Fury und von "4GB reichen doch, wir haben mehr Bandbreite" nicht zu "Wir haben genauso viel wie die 1080, aber mehr Bandbreite, sind also besser" geht, sondern gleich zu "Ihr wolltet mehr VRAM? Wir haben doppelt so viel VRAM wie nVidia. Und fast die doppelte Bandbreite" springt.

2. Wenn AMD >5% Defektrate bei den HBM stacks erwartet, könnten sie theoretisch 1 oder 2 192 oder 256bit GDDR5(X) SI noch an V10 dranschrauben. Dann kann man die entsprechenden >10% mit nur einem HBM stack trotzdem noch verwerten, was den Platzbedarf für das zusätzliche SI ausgleicht. Das gibt automatisch auch eine Möglichkeit eine zweite salvage Version unterzubringen (keine Ahnung wie die Yields bei GF aussehen und was AMD erwartet für V10) mit der man dann auch die Lücke zwischen P10 und V10 schließen kann.

Das wäre dann auch ein entsprechender Kandidat für die 490.
Aber die Theorie ist schon sehr verrückt. Bis jetzt liegt mein Tipp immernoch auf 2x P10, nachdem AMD ewig auf "2x RX 480 vs 1080" herumgeritten ist.

Ailuros
2016-09-20, 11:47:29
http://videocardz.com/63700/exclusive-first-details-about-amd-vega10-and-vega20

Nochmal afaik schon seit geraumer Zeit gibt es nichts ueber 64 CUs bei allem Vega und obwohl mich die Finger kitzeln die jeweiligen Fehler oben und auch anderswo zu korrigieren halt ich lieber meine Klappe.

Locuza
2016-09-20, 11:47:39
Videocardz will ein Haufen an legitimer Informationen zugespielt bekommen haben:
Finally we have something very interesting to share. The details you are about to read are coming from a very good source. The same source confirmed mobile Polaris specs weeks before it was released. It all turned out to be true. The only thing that you need to know, is that information is from internal server roadmap.

AMD VEGA 10
Vega 10 will be released in first quarter of 2017, it has 64 Compute Units and 24TF 16-bit computing power. Vega 10 is based on 14nm GFX9 architecture. It comes with 16GB of HBM2 memory with a bandwidth of 512 Gbps. The TBP is currently expected at around 225W. Meanwhile, dual Vega 10 will be released in second quarter of 2017 and TBP should be around 300W.

AMD VEGA 20
Now here’s something interesting that we didn’t know yet. Vega20 will use 7nm GFX9 architecture. It will feature 32GB of HBM2 memory with 1 TB/s of bandwidth. TBP is around 150W and it will support PCI-Express 4.0. It will also have 64 Compute Units.

So what does GFX9 really mean? It’s an internal codename for architecture, for instance Hawaii was GFX7 and Polaris was GFX8.

AMD VEGA 11 and NAVI 10 & 11
We have also learned that AMD is planning to replace Polaris 10 with Vega 11 next year. The specs were not released and we can only expect Vega 11 to share the same fabrication node with Vega 10 (14nm).

If our source has correct information then Navi 10 and 11 are currently planned for 2019. It means that roadmap has changed and Navi is pushed back one year in the schedule.

We will keep you updated if we learn more.
http://videocardz.com/63700/exclusive-first-details-about-amd-vega10-and-vega20

Ailuros
2016-09-20, 11:55:33
Ick war schnoeller :P

Spass beiseite, ein paar Fehler stecken schon drin ;)

Setsul
2016-09-20, 11:56:28
Wenn der große Vega ein großer Chip werden soll (>500mm²), aber nur 64 CUs hat, dann müssten die CUs + scheduling hardware >50% größer sein als bei Polaris. Große Veränderungen schön und gut, aber ist das nicht etwas extrem?

Ailuros
2016-09-20, 11:57:15
Wer sagt dass der chip wirklich so gross ist?

Elkinator
2016-09-20, 12:03:54
In Sachen Namen werfe ich hier mal ein paar Vermutungen hin.
Nicht nötig!

4xx = GCN4 ist Schwachsinn.
Nein!

Bei den 2xx hatten wir alles, Terascale 2, GCN1, GCN2 und auch GCN3. 3xx ähnlich.
Damals gab es auch kein Namensschema, langsdam sollte man das aber echt mal verstehen, der Link wurde eh gepostet...

Dann reicht die 400er Serie für Vega einfach nicht mehr.
Die 490 reicht für Vega nicht, weil eine 4 davor ist udn die für GCN4 stehe^^^

2. Wenn AMD >5% Defektrate bei den HBM stacks erwartet
AMD kauft keine defekten Stacks!

könnten sie theoretisch 1 oder 2 192 oder 256bit GDDR5(X) SI noch an V10 dranschrauben.
Nein, können sie nicht...

HOT
2016-09-20, 12:09:20
Alles sehr komisch. Schon in 2018 dann ein 7nm-GPU? Ziemich optimistisch. Navi verschoben und stattdessen ein V20 als Ersatz?
V10 wird auch keine Bäume ausreißen mit 14LPP gegen GP102, geschweige denn GV100. Vega10 (=Greenland) müsste eigentlich in 14HP umgesetzt werden - das wär aber ein sehr knappes Zeitfenster und könnte allerdings die doch starke Verzögerung von Greenland erklären. Irgendwie ganz komisch. Es macht den Eindruck, als würde AMD so echt den Anschluss verlieren.
Nach neuem Namensschema könnte das dann wie folgt aussehen:
V10 XT RX590, V20 XT dann RX595
V10 Pro RX580, V20 Pro dann RX585
V11 XT RX570
V11 Pro RX560
Fury wirds nicht geben mMn, man spielt nicht ganz oben mit.

Man wird einfach jede Generetion jetzt einfach passend benamsen und die Generation bleibt ohne Rename einfach so lange aktuell bis sie EOL geht. Polaris bleibt also wahrscheinlich in jetziger Form aktuell. Ersetzen wird man da sicherlich nix, da V11 schon deutlich schneller sein wird als P10. Vielleicht setzt man die Chips noch in 14HP um, wenn man 14LPP nicht so lange produzieren möchte und bringt noch einen RX475/485.

Elkinator
2016-09-20, 12:14:43
Vega 20 hört sich sehr nach frei erfunden an.

Die GPUs werden doch nummeriert, warum also 20 und somit 12-19 auslassen?

HOT
2016-09-20, 12:28:23
Weil er Vega 2.0 ist? Im Gegenteil, das ist alles so bescheuert, das kann sich eigentlich keiner ausdenken...

davidzo
2016-09-20, 12:32:04
We have also learned that AMD is planning to replace Polaris 10 with Vega 11 next year.

Das macht viel mehr Sinn, Vega11 ist dann ein performance chip, der ähnlich wie Tonga vs Tahiti gebraucht wird um Polaris 10 konkurrenzfähiger zu machen (auch wenn das bei tonga kaum geklappt hat).
In diesem Zusammenhang könnte es allerdings im Gegensatz zu Tonga eher um die Energieeffizienz gehen, also das Powergating von P11, ein paar Verbesserungen zur besseren skalierung und ggf. ein speichercontroller der auch mit GDDR5x umgehen kann.

HOT
2016-09-20, 12:35:13
Die kommen sich nicht in die Quere, da Polaris immer deutlich langsamer sein wird. Da wird nix ersetzt, das wär echt sinnlos. Da hat einfach jemand was falsch verstanden. V11 nimmt einfach den Platz im Performance-Segment ein und Polaris rutscht einfach ein Preisniveau tiefer und fertig.
In jetziger Form wäre V11 dann im 250-400€-Sergment angesiedelt, P10 dann 120-250€. V10 dann >400€, mehr ist nicht drin, wenn das Teil in 14LPP kommt.

Agent117
2016-09-20, 12:35:18
Bitte löschen, sry für Doppelpost

Agent117
2016-09-20, 12:35:58
Vega 20 hört sich sehr nach frei erfunden an.

Die GPUs werden doch nummeriert, warum also 20 und somit 12-19 auslassen?


Weil Vega 20 ja wohl ein Shrink von Vega10 auf 7nm sein soll....oder auch nicht ganz.

Vega10 mit 4096SP wurde ja schon seit längen genannt; gab da ja mal eine recht zuverlässige Quelle.

Ansonsten ist aber einiges sehr komisch von dem was videocardz schreibt.

1:
Vega 20 in 7nm? 7nm ist frühstens Ende 2018, eher H1 2019 zu erwarten.
Vega 20 käme dann etwa 2 Jahre nach Vega 10 als pseudo Shrink mit einem
4096Bit HBM SI statt 2048 wie bei Vega 10? Wozu braucht man die
doppelte Bandbreite bei weiterhin 4096SP und vmtl etwas höheren Takt?

2:
2019 Soll dann auch Navi kommen. Entweder Vega 20 ist dann der Compute
Chip und ein kleiner Navi ersetzt Polaris, ein großer kommt für Enthusiast Gaming.

3:
mit 12TF kann Vega 10 unter DX11 vlt die 1080 schlagen, nicht aber die 1080 Ti. Unter DX12 wird man sich teilweise mit GP102 anlegen können, die Performancekrone kann jedoch nicht geholt werden.

4:
Vega 11 als Ersatz für Polaris 10? P10 lebt dann nur etwa 1 Jahr?[/QUOTE]

iuno
2016-09-20, 12:36:52
4xx = GCN4 ist Schwachsinn. Bei den 2xx hatten wir alles, Terascale 2, GCN1, GCN2 und auch GCN3. 3xx ähnlich.
http://www.4gamer.net/games/329/G032949/20160711092/SS/029.jpg
:rolleyes:
Damals gab es auch kein Namensschema, langsdam sollte man das aber echt mal verstehen, der Link wurde eh gepostet...
Natuerlich gab es auch damals ein Namensschema :ulol:
Und das ist jetzt auch genug zum Thema


Alles sehr komisch. Schon in 2018 dann ein 7nm-GPU?
Ich lese da nichts von 2018


und Polaris bleibt in jetziger Form aktuell.
Da widerspricht die Quelle ganz klar und das ist auch der Punkt, der fuer mich am wenigsten Sinn ergibt. Als ob V11 P10 ersetzen soll...

Vega 20 hört sich sehr nach frei erfunden an.

Die GPUs werden doch nummeriert, warum also 20 und somit 12-19 auslassen?
Weil es ein offenbar ein Shrink/Ueberarbeitung von V10 sein soll, da macht das nur Sinn.


Spass beiseite, ein paar Fehler stecken schon drin ;)
Dann lass doch mal deinen Spass beiseite und erleuchte uns entweder oder hoere auf es uns alle 2 Posts unter die Nase zu reiben.

Das macht viel mehr Sinn, Vega11 ist dann ein performance chip, der ähnlich wie Tonga vs Tahiti gebraucht wird um Polaris 10 konkurrenzfähiger zu machen
Tonga wurde wenn man mal ehrlich ist ueberhaupt nicht gebraucht und ist angefallen, weil 20 nm ausgefallen ist.
Wenn V10 mit 64 CUs bei 1,5 GHz kommt, braucht man V11 wohl eher als Lueckenfueller. Und mit HBM wird das deutlich teurer als P10. Damit tritt man doch nicht gegen GP106 an

Ich bin mal gespannt, ob im Q4 Databook von Hynix noch 8Hi Stacks auftauchen. Ansonsten bekaeme V10 schon 4 Stacks bei nur 1 Gbps. Wohl aus Gruenden der Speichermenge und Effizienz. V20 dann dasselbe mit 8Hi.
Geht eigentlich noch jemand von 1:2 FP64 aus oder wird das gestrichen fuer 2:1 FP16?

Nakai
2016-09-20, 12:38:01
Wer sagt dass der chip wirklich so gross ist?

Tja, jeder mit etwas Hirn hat schon bemerkt, dass V10 ~400mm² sein wird, evlt sogar ein Tick kleiner. Wenn man eine HPC-APU baut, darf man die Größe nicht sonderlich sprengen.

HOT
2016-09-20, 12:41:16
iuno
Wenn Navi in 2019 kommt, wird V20 in 2018 kommen, sonst würd er zur Navi-Generation gehören und man würde keinen "Shrink" planen. Das ergibt sich daraus einfach. Außerdem wäre er sowohl in 7HP als auch N7 denkbar, muss also nicht zwingend GloFo sein.
Tja, jeder mit etwas Hirn hat schon bemerkt, dass V10 ~400mm² sein wird, evlt sogar ein Tick kleiner. Wenn man eine HPC-APU baut, darf man die Größe nicht sonderlich sprengen.
Wenn das ein Profichip ist, wird der wohl kaum so klein sein.

dargo
2016-09-20, 12:41:21
3:
mit 12TF kann Vega 10 unter DX11 vlt die 1080 schlagen, nicht aber die 1080 Ti. Unter DX12 wird man sich teilweise mit GP102 anlegen können, die Performancekrone kann jedoch nicht geholt werden.

Warum nicht? Die GTX1080TI kommt auf 10,8 TFLOPs. Selbst die Titan X kommt auf 11 TFLOPs.

iuno
2016-09-20, 12:47:02
iuno
Wenn Navi in 2019 kommt, wird V20 in 2018 kommen, sonst würd er zur Navi-Generation gehören und man würde keinen "Shrink" planen. Das ergibt sich daraus einfach.
Da waere ich mir noch nicht so sicher. Navi muss nicht zwangslaeufig neue GFX IP bekommen. Auch sonst ist nichts ueber Navi bekannt, ausser "Scalability", was alles und gar nichts bedeuten kann.

Sunrise
2016-09-20, 12:52:11
Ich lese da nichts von 2018.
Man muss eigentlich nur 1+1 zusammenzählen. Laut Lisa Su (http://www.globalfoundries.com/newsroom/press-releases/2016/09/14/globalfoundries-extends-roadmap-to-deliver-industry-s-leading-performance-offering-of-7nm-finfet-technology) gehen sie recht aggressiv auf 7nm, weil es dazwischen nichts geben wird. Erste Produkte wird es dann irgendwann bis Mitte 2018 geben. Dadurch, dass man mit Vega wieder an die Limits der TDP kommen wird (bei 64CUs mit ca. 1,5GHz), könnte man zwischen Navi noch eine 2. Generation einschieben, denn NV wird nach Vega auch irgendwann mit Volta refreshen.

Was dieses Vega-DUAL-Monstrum wieder soll weiß ich allerdings nicht. IMHO gänzlich unnötig, außer AMD möchte NV da mit dem Preis attackieren und das Ding für einen Kampfpreis ggü. einer Titan X auf den Markt bringen.

ilibilly
2016-09-20, 12:53:33
Warum nicht? Die GTX1080TI kommt auf 10,8 TFLOPs. Selbst die Titan X kommt auf 11 TFLOPs.

Ganz einfach weil amd tflops weniger wert sind :)
1060 vs rx480. 4,3 tflop vs 6tflop. ,also brauchts ca 40% mehr tflops als NV

BlacKi
2016-09-20, 12:58:10
Ganz einfach weil amd tflops weniger wert sind :)
1060 vs rx480. 4,3 tflop vs 6tflop. ,also brauchts ca 40% mehr tflops als NV
er spielt nur amd favorisierende lowlvl api spiele, könnte also passen^^

Nakai
2016-09-20, 13:01:49
Wenn das ein Profichip ist, wird der wohl kaum so klein sein.

Ok, gehen wir doch von Fiji aus. Wenn V10 etwa 10 Milliarden Transistoren hat (eine Milliarde mehr als Fiji) und etwa die gleiche Packdichte wie P10 hat, dann kommt man auf ~400mm² raus. Aber dank HBM2-PHYs könnte man etwas an der Packdichte schrauben. Ergo 25~26 MioTransen/mm2 sind möglich. Und dann liegt man nicht über 400mm2. ;)

Elkinator
2016-09-20, 13:04:11
Eigentlich ergibt es keinen Sinn P10 durch V10 zu ersetzen.

V10 wird überhalb von P10 ansetzen.
P10 wird eine neue Revision bekommen um die Lücke zu V10 zu verringern.


Wozu braucht man die
doppelte Bandbreite bei weiterhin 4096SP und vmtl etwas höheren Takt?
Es kommt auch Low-Cost-HBM mit nur 512bit Anbindung, glaub 2019 will Samsung den liefern können.

Vega 11 als Ersatz für Polaris 10? P10 lebt dann nur etwa 1 Jahr?
Das ist arger Unsinn, Vega mit HBM wird Polaris mit GDDR5 nicht ersetzen.
Die Karte wäre teurer in der Herstellung.
Da glaube ich eher an eine neue Revision von P10 mit mehr Takt für die man dann auch Apple als fixen Abnehmer hätte.

BlacKi
2016-09-20, 13:09:00
das ersetzen ließt sich für mich als wollte man den RX x80 platz nächstes jahr mit einem vega chip belegen, mehr nicht.

PS: sind 16gb hbm2 nicht etwas heftig? vor allem nicht etwas heftig teuer?

Nakai
2016-09-20, 13:12:18
V11 wird nicht P10 ersetzen, sondern eher nach oben ergänzen.

V11 ungefähr 1.2~1,4 P10. Meine letzte Prognose wird wohl etwas übers Ziel hinausgeschossen haben.

dargo
2016-09-20, 13:19:34
Ganz einfach weil amd tflops weniger wert sind :)

Es ging mir um den letzten Satz.


1060 vs rx480. 4,3 tflop vs 6tflop. ,also brauchts ca 40% mehr tflops als NV
Das rechne bei der RX480 mit einem avg. Takt von 1150-1180Mhz nochmal nach. ;)

Agent117
2016-09-20, 13:40:38
Mal angenommen:
GTX1060 mit 1750Mhz realen Takt und RX480 mit 1150Mhz realen takt sind es
4480GFlops vs. 5300GFlops, also braucht AMD 18% mehr Leistung.
Im Mittel ist die 1060 etwas schneller und die RX480 taktet etwas höher als die angenommenen 1150 Mhz. Ich denke 25% treffen es ganz gut; unter DX11 eher etwas mehr.

Da reicht dann ein V10@12TFlops nicht aus für die Performancekrone.
Ich kann mir auch nicht vorstellen, dass AMD noch fiel am Shader Compiler und Command Prozessor feilt um die DX11 Auslastung zu verbessern; man wird sich eher auf DX12 und Vulkan konzentrieren

Der_Korken
2016-09-20, 13:57:48
Man kann doch jetzt noch nicht sagen, dass die Perf/Flop einfach so bleibt wie bei Polaris. Wer weiß wie lange AMD schon an Vega strickt. Man hat ja gesehen, was Nvidia mit Maxwell für einen Sprung gemacht hat gegenüber Kepler, trotz gleicher Fertigung.

Die Theorie, dass der 64CU-Chip bereits der Big Vega ist, finde ich interessant. Taktmäßig ist von Polaris aus viel Luft nach oben, sodass man zwischen P10 und V10 auch ein V11 mit z.B. 42 CUs passt, der sich mit HBM und mehr Takt noch stark genug von P10 absetzen kann.

Setsul
2016-09-20, 14:00:45
@Ailuros: Das würde bedeuten, dass AMD es aufgeben hat mit dem GP102 zu konkurrieren. Auch fürs Profi Segment gibts dann nichts bis frühestens 2018 falls Navi bei TSMC in 10nm produziert wird, ansonsten 2019.
Außerdem heißt das, dass P10 nach weniger als einem Jahr durch den kleinen Vega mit HBM ersetzt wird. So kann man sich auch die Marge zerstören.
Zu der Zeit als das geplant wurde, war P10 auch als ~ 1060 bei <150W gedacht.

@Elkinator: Generation != GCN Generation. Schau dir die Folien an bei denen dann auf einmal steht "Desktop Branding". Da steht dann auf einmal nichts mehr von GCN. Warum wohl? Weils bei Mobile völlig anders ist und man beim Desktop es wahrscheinlich auch nicht von oben bis unten (440 und anderes Kleingedöns) durchhält. Bestenfalls bedeutet RX 4xx GCN4, aber die nachdem die mysteriöse 490 ja eine R9 werden soll, ist das egal.

http://cdn.wccftech.com/wp-content/uploads/2016/07/AMD-rx-400-series-nomenclature-768x404.jpg

Es geht um den Interposer und die Verbindungen. Und theoretisch möglich ist alles, die Frage ist, ob es sinnvoll ist.

@iuno: Siehe Elkinator. Entweder ist eine von beiden Folien falsch oder aus 4xx = 100% GCN4 wird selbst auf dem Desktop nichts.



Ich sehe wenig Grund P10 und P11 soweit auseinander zu positionieren, um dann mit wesentlichen teuereren Chips, sowohl in der Entwicklung, als auch in der Herstellung, nur so um sich zu werfen. Am besten Greenland noch ein dritter Chip?

Elkinator
2016-09-20, 14:04:50
Die Perf/Flop wird mit DX12/Vulkan eh besser.

Zwischen NVIDIA und AMD gibt es da nicht viel Unterschied.

HOT
2016-09-20, 14:06:21
Ok, dann ist V10 wohl doch nicht viel größer als Hawaii, das kann man sicherlich sagen. Und der Schluss ist dann naheliegend, dass man mit NV im GP102/GP100/GV100-Bereich nicht konkurrieren möchte. Also keine Big-Chips bis Navi. Und wenn V20 7nm ist, ist Navi ebenso 7nm.

V11 wird nicht P10 ersetzen, sondern eher nach oben ergänzen.

V11 ungefähr 1.2~1,4 P10. Meine letzte Prognose wird wohl etwas übers Ziel hinausgeschossen haben.
Wie gesagt, da ist sicherlich was missverstanden worden. V11 wird den Chip P10 nicht ersetzen, sondern nur seine Stellung im Markt.

Die Perf/Flop wird mit DX12/Vulkan eh besser.

Zwischen NVIDIA und AMD gibt es da nicht viel Unterschied.

Wenn SM6.0 und FL12_0 zum Einsatz kommt dürfte sich das leidige DX12-Thema, dass da nix bei rumkommt, auch erledigt haben.

Ailuros
2016-09-20, 14:23:20
@Ailuros: Das würde bedeuten, dass AMD es aufgeben hat mit dem GP102 zu konkurrieren. Auch fürs Profi Segment gibts dann nichts bis frühestens 2018 falls Navi bei TSMC in 10nm produziert wird, ansonsten 2019.
Außerdem heißt das, dass P10 nach weniger als einem Jahr durch den kleinen Vega mit HBM ersetzt wird. So kann man sich auch die Marge zerstören.
Zu der Zeit als das geplant wurde, war P10 auch als ~ 1060 bei <150W gedacht.


Eine einzige sterile Zahl sagt gar nichts von sich aus. Nicht dass es so sein muss, aber es reicht hypothetisch eine hoehere Packdichte auf einem hypothetischen Vega um gegen N chip zu konkurrieren.

dargo
2016-09-20, 14:52:44
Mal angenommen:
GTX1060 mit 1750Mhz realen Takt und RX480 mit 1150Mhz realen takt sind es
4480GFlops vs. 5300GFlops, also braucht AMD 18% mehr Leistung.
Im Mittel ist die 1060 etwas schneller und die RX480 taktet etwas höher als die angenommenen 1150 Mhz. Ich denke 25% treffen es ganz gut; unter DX11 eher etwas mehr.

Du kannst mir gerne zeigen unter welchem Spiel @DX12/Vulkan die GTX1060 25% schneller als die RX480 ist.

Agent117
2016-09-20, 15:02:25
Der Vorteil von 25% bezog sich auf die Spieleleistung pro Flop Rechenleistung; nicht umsonst habe ich die GFlops mit hingeschrieben.

HOT
2016-09-20, 15:08:33
Das bleibt aber nicht so. Unter DX12 wird die Rechenleistung schon im Vorteil sein.

Dino-Fossil
2016-09-20, 15:20:39
Man brauch nicht lange darüber zu diskutieren, dass AMD Karten aktuell abseits von Vulkan und DX12 häufig ein Problem haben, die theoretische Rohleistung optimal in Spieleleistung umzumünzen.
Da liegen NVidia-Karten tendenziell besser.
Und gerade die "großen" AMD-Chips haben da relativ gesehen Probleme.

Mit Polaris hat AMD ja offenbar versucht, daran schon etwas zu arbeiten, und ich hoffe, dass der Punkt in Vega ebenfalls angegangen wird (und auch nochmals erfolgreicher).
Wenn es (endlich) gelingt - und auch abseits von DX12/Vulkan anschlägt - sehe ich eigentlich keine Probleme für Vega, ein sehr deutliches Leistungsplus einzufahren.
Selbst wenn der Chip am Ende etwas kleiner ausfällt, als spekuliert.

Setsul
2016-09-20, 15:25:44
@Ailuros: Höhere Packdichte hatte Polaris auch schon und es hat definitiv nicht gereicht. Vega müsste also nur durch Architektur in einem einzigen Schritt von niedrigerer perf/mm² und niedrigerer perf/W als nVidia auf höhere perf/mm² und höhere perf/W (sonst keine <300W TDP) kommen?

@dargo: Es geht um fps/Flops. Bei 18% mehr Rohleistung für die RX 480 kommt man auf 25% mehr Flops/fps, wenn man sagt die 1060 ist im Schnitt 7% schneller. 1750MHz vs 1150MHz, wenn eine custom höheren Takt hält, geht die Rohleistung ja auch wieder hoch.
Also ich finde das jetzt nicht völlig abwegig.

Ailuros
2016-09-20, 16:02:11
@Ailuros: Höhere Packdichte hatte Polaris auch schon und es hat definitiv nicht gereicht. Vega müsste also nur durch Architektur in einem einzigen Schritt von niedrigerer perf/mm² und niedrigerer perf/W als nVidia auf höhere perf/mm² und höhere perf/W (sonst keine <300W TDP) kommen?

Drueckt man ein Auge zu fuer perf/W und konzentriert sich nur auf perf/mm2 liegt Polaris 10 im Vorsprung im Vergleich zu GP106. Bei einer hypothetischen Packdichte von 26Mio/mm2 werden es fuer 12Mrd. Transistoren um die 460mm2 und das sind natuerlich frei erfundene Zahlen. Der springende Punkt ist nach wie vor dass die area von sich aus als sterile Zahl wenig bis gar keine Bedeutung hat, wenn man nicht ueber mehr Konstanten bescheid weiss.

HOT
2016-09-20, 16:18:35
Die müssen glaub ich viel am DX11-Treiber ändern. MMn sind große Änderungen seit Omega nicht mehr passiert und das war mehr ein Bugfixing und brachte IP8-Kompatibilität. Seither ist so gut wie nichts passiert in DX11 außer etwas bugfixing hier und da. Sicherlich wird am Crimson-Nachfolger massiv an DX11 und OpenGL gearbeitet. Die großen Arbeiten am Treibertool und am Tuningtool, am DX12- und Vulkan-Treiber sind jetzt erstmal erledigt. Die Konzentration muss wieder auf DX11 liegen und OpenGL bzw. Linux-OpenGL.

Und ist auch klar, was da wieder bedeutet mit V10: Der kommt dann Q2, das wäre dann also Mai (!), das schaffen die mal wieder nicht ganz, also wirds eher Juni, dann gibts wieder keine Custom-Designs und es gibt wieder zuwenig Chips - mit September 2017 ist man gut bedient bei Vega. Und V11 launchen die dann wieder erst im August. Dann ist der V10-Shrink kaum vor Ende 2018 zu erwarten, das wird aber ziemlich sicher 2019, das stimmt schon. Und Navi ist vor Ende 2019 eine Illusion. Das sind sicher dann wieder 2 Chips über V20, denn der hat dann vllt. P10-Ausmaße.
28nm Tock -> IP8 (Tonga/Fiji) 2014
14nm Tick -> IP8.1 (Polaris) 2016
14nm Tock -> IP9 (Vega) 2017
7nm Tick -> IP9.1 (Vega2) 2019
7nm Tock -> Navi 2020

Der_Korken
2016-09-20, 16:54:15
Bei den Perf/Flop-Betrachtungen kommt es auch immer drauf an, ob man Full oder Salvage vergleicht. Da finde ich den Vergleich von CB immer sehr aufschlussreich:

https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/#abschnitt_die_einheitenskalierung_im_benchmark

Man sieht, dass P10 mit 36CUs gerade mal 4,3% schneller als die 32CU-Variante ist, obwohl sie 12,5% mehr Flops/s hat (der Rest ist identisch). Das Maximum ist Anno mit 10%. Dadurch schrumpft der Vorsprung von Nvidia von 25% auf ~16%, wobei ich jetzt nicht weiß, ob sich die Nvidia Salvages nicht auch deutlich verbessern an der Stelle.

davidzo
2016-09-20, 17:04:36
Ich kann mir auch nicht vorstellen, dass AMD noch fiel am Shader Compiler und Command Prozessor feilt um die DX11 Auslastung zu verbessern; man wird sich eher auf DX12 und Vulkan konzentrieren
Es gibt auch andere Stellschrauben um die Auslastung der shader zu erhöhen.
Alleine die Bandbreite hat auf AMD chips eine große Auswirkung auf die Effizienz, denn Polaris10 profitiert sehr stark von Speicherübertaktung. HBM würde da einiges zur besseren Auslastung der shader beitragen.


Man kann doch jetzt noch nicht sagen, dass die Perf/Flop einfach so bleibt wie bei Polaris. Wer weiß wie lange AMD schon an Vega strickt. Man hat ja gesehen, was Nvidia mit Maxwell für einen Sprung gemacht hat gegenüber Kepler, trotz gleicher Fertigung.

Ich denke auch dass da viel Luft nach oben ist. Da Vega ja eine größere Architekturänderung als Polaris ist, kann man erwarten dass entweder die Auslastung nach oben geht, oder die Taktbarkeit pro Watt, oder sogar beides.
Taktraten auf Pascal-Niveau sind nicht unmöglich.

BTW, gibt es eigentlich schon eine klare Verneinung der TSMC-Theorie?
Eine Zeitlang hieß es doch dass Vega wohl erstmal wieder von TSMC kommen soll.
Wenn ja, dann hätte man auch Fertigungstechnisch eine Verbesserung, da TSMCs 16nm wohl sparsamer ist und besser taktet als GloFos 14nm. Dann lässt sich freilich zwischen der DIE-Größe von Polaris10 und Vega10 keinerlei Vergleich ziehen...


Die Theorie, dass der 64CU-Chip bereits der Big Vega ist, finde ich interessant. Taktmäßig ist von Polaris aus viel Luft nach oben, sodass man zwischen P10 und V10 auch ein V11 mit z.B. 42 CUs passt, der sich mit HBM und mehr Takt noch stark genug von P10 absetzen kann.

40CUs, mehr Speicherbandbreite und mehr Takt würde völlig ausreichend um sich 20-30% von P10 abzusetzen.
Das wäre imo ein sinnvoller V11, durch HBM und ggf. TSMC dann effizienztechnisch auch voll auf der Höhe mit Pascal und leistungsmäßig im gamers sweet spot zwischen 1070 und 1060. Damit wäre der wirtschaftliche Mindestabstand zu P10 gewahrt und der V10 und auch ein Salvage V10 passen noch dazwischen.





Ich sehe wenig Grund P10 und P11 soweit auseinander zu positionieren, um dann mit wesentlichen teuereren Chips, sowohl in der Entwicklung, als auch in der Herstellung, nur so um sich zu werfen. Am besten Greenland noch ein dritter Chip?

Das sehe ich auch so, der Abstand zu P10 sollte mindestens 30% betragen, sonst lohnt sich V11 nicht.
Allerdings ist die Lücke zwischen mainstream (P11) und performance (P10) immer die Größte, auch wenn AMD diese beiden Segmente dieses mal auch ziemlich niedrig anlegt. Das war schon bei rv635-rv670, bei rv730-rv770, capverde-pitcairn, etc. so

Die Lücke zwischen einem"feature-per money-chip" für DAUs wie P11 und einer "performance-per-money" ernsthaften gamer lösung wie P10 ist immer die Größte Lücke in jedem Lineup.

Elkinator
2016-09-20, 17:17:37
BTW, gibt es eigentlich schon eine klare Verneinung der TSMC-Theorie?
Ja, wiel AMD durch das WSA an GF gebunden ist.

Wenn ja, dann hätte man auch Fertigungstechnisch eine Verbesserung, da TSMCs 16nm wohl sparsamer ist und besser taktet als GloFos 14nm.
Ob das so ist wage ich mal zu bezweifeln, man kann schlecht GCN4 in 14LPP mit Pascal in 14FF+ vergleichen und daraus ableiten welcher Prozess sparsamer ist.
Ausserdem hat GF 2 14nm Prozesse.
Polaris wird in Bulk gefertigt, Vega könnte auch in SOI kommen.

Die Lücke zwischen einem"feature-per money-chip" für DAUs wie P11
Warum ist jemand der P11 kauft ein DAU?

HOT
2016-09-20, 17:30:56
Da das vor Mai eh nix wird mit Vega ist 14HP durchaus drin mMn.

dargo
2016-09-20, 17:32:18
Der Vorteil von 25% bezog sich auf die Spieleleistung pro Flop Rechenleistung; nicht umsonst habe ich die GFlops mit hingeschrieben.
Das passt trotzdem hinten und vorne nicht. Es sei denn du betrachtest nur DX11. Das war die letzte Messung unter low level.
http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

Da siehst du fast überall die RX480 vorne. Nach meiner Rechnung hat die RX480 ca. 15% mehr theoretische Aluleistung als die GTX1060 (Referenz vs. Referenz). In Doom schlagen diese auch voll durch. Und ich betrachte hier nicht die Vulkanleistung bei Nvidia im Vergleich sondern die höhere OpenGL Leistung. Vulkan war damals bei NV noch durch den Treiber kaputt. Ein neuer Vergleich mit neueren Treibern und Spielpatches könnte aber durchaus nicht schaden. Denn auch unter RotTR hat sich was getan.

iuno
2016-09-20, 17:34:45
Die großen Arbeiten am Treibertool und am Tuningtool, am DX12- und Vulkan-Treiber sind jetzt erstmal erledigt. Die Konzentration muss wieder auf DX11 liegen und OpenGL bzw. Linux-OpenGL.

Bei letzterem wird mMn nicht mehr viel passieren. Die Treiber sind konform, das reicht denen. Prioritaet ist hier eher der ganze neue Computing stack (ROC), open sourcing/upstreaming, damit man endlich die ordentliche Basis hat, auf der man arbeiten kann. Und natuerlich entsprechende Tools und Unterstuetzung, damit das Zeug auch benutzt wird, wie etwa aktuell bei Prorender gesehen.
Da fehlt es teilweise noch an essentiellen Dingen, bugfixing wird natuerlich weiterhin betrieben. Aber Performanceverbesserungen fuer den OGL Treiber interessieren niemanden wirklich, vor allem wenn die Leute das eh nicht benutzen wollen.
Drueckt man ein Auge zu fuer perf/W und konzentriert sich nur auf perf/mm2 liegt Polaris 10 im Vorsprung im Vergleich zu GP106.
Redest du jetzt von FLOPs/mm² oder realer Performance? P10 ist gute 15% groesser...

HOT
2016-09-20, 17:45:01
OpenGL wird für Vega10-Profi echt wichtig sein, wenn man da auch was verkaufen will.

Gipsel
2016-09-20, 17:50:37
Ja, wiel AMD durch das WSA an GF gebunden ist.Das ist nicht exklusiv. Es begründet zwar eine enge Partnerschaft von AMD und GF und setzt Zielmengen für bei GF zu ordernde Wafer, aber sie können auch woanders fertigen lassen. Die Bedingungen dafür wurden beim letzten Update des WSA sogar flexibler gestaltet, sprich, es wird für AMD tendentiell einfacher, woanders fertigen zu lassen (die Option hat sich AMD auch Geld kosten lassen). Und diese Flexibilität betrifft insbesondere GPUs (hier muß AMD von vornherein nur einen bestimmten Anteil bei GF fertigen lassen, CPUs und APUs müssen mit ein paar Ausnahmen dagegen standardmäßig von GF kommen).

Nakai
2016-09-20, 19:58:37
Ich vermute langsam, dass Vega umgekrempelte CUs hat. Ob wir nochmal CUs mit 4x16er Konfiguration sehen werden? Es gibt einige Patente und Papers seitens AMD die in eine andere Richtung deuten. :)

€: Wir wissen nur, wieviele SPs Vega10 hat => 4096 SPs. Aber wie die einzelnen CUs aufgebaut sind, kA. Es gibt ja schon Ansätze, um dynamisch die Wavefront-Größen anzupassen, wenn es die Maskierung der einzelnen Work-Items zulässt. Kurz, bei 64er Wavefronts mit nur 32 validen Workitems, könnte man in 4 Takten auf einer SIMD8 ausführen.
Vll, können die SIMD16 zu zwei SIMD8 gesplittet werden. Das wäre aber doppelter Verwaltungsaufwand, würde aber wieder mehr Möglichkeiten mit der doppelten FP16-Rate ermöglichen.

robbitop
2016-09-20, 20:26:47
Die Perf/Flop wird mit DX12/Vulkan eh besser.

Aber doch nicht völlig automatisch. Mit DX12/Vulkan hat man die Möglichkeit mittels Intrinsics den Shadercompiler zu umgehen und die ALUs effizienter auszulasten. Das liegt aber leider in der Hand (und des Könnens) der Entwickler.

Nicht jeder hat einen Tiago Sousa und einen Axel Gneiting. (die Leute bei id, die auch schon vorher für Crytek gearbeitet haben)

dargo
2016-09-20, 20:47:45
Hmm...
Seitens der Entwickler gefragt seien die Shader Intrinsics für spezielle Funktionen von Radeon-GPUs, wie sie derzeit Doom unter Vulkan nutzt.
http://www.golem.de/news/grafikarchitektur-amds-vega-erscheint-im-ersten-halbjahr-2017-1609-123264.html

robbitop
2016-09-20, 20:49:40
Das heißt noch lange nicht, dass jedes Studio das Know How (und die Zeit) hat, das ähnlich gut wie id hinzubekommen.

Die Frage ist auch, welche "Entwickler" gemeint sind. Ist da nicht aufgelistet.

Es wäre ja schön und wünschenswert, wenn die Ergebnisse auf allen neuen Vulkan/DX12 Spielen mit denen von Doom vergleichbar sein werden. Da das aber von der Zeit und den Fähigkeiten des jeweiligen Entwicklers abhängt, würde ich nicht automatisch darauf wetten, dass das überall der Fall sein wird.

dargo
2016-09-20, 20:53:39
Wenn kleinere Studios es nicht wollen oder können wird es kaum jemanden stören.

robbitop
2016-09-20, 20:55:42
Ich spreche nicht von kleinen Studios. Ich spreche nur über AAA.

dargo
2016-09-20, 20:58:03
Wir werden sehen was die Zukunft zeigt. Jedenfalls ist die Performance unter DX12/Vulkan ohne Shader Intrinsics bei GCN nicht automatisch unterirdisch wie diverse Tests zeigen. Ich sehe es als einen netten, weiteren Bonus neben AC. Wann kam eigentlich GPUOpen? Ohne würde es höchstwahrscheinlich auch keine Shader Intrinsics in Doom geben.

robbitop
2016-09-20, 20:59:21
Gibt es außer Doom noch andere Spiele, bei denen GCN im GPU-Limit signifikant zulegt durch DX12/Vulkan?
Auch AC bringt offenbar nicht völlig automatisch mehr Leistung. Auch hier liegt eine Menge Verantwortung beim jeweiligen Entwickler. War es nicht so, dass es bei RotTR nichts/nicht viel gebracht hat im GPU-Limit?

Jedenfalls scheint es keinen Automatismus durch die LL-APIs zu geben, die GCN im GPU-Limit signifikant nach vorn bringt. Es ist schön, dass es die Möglichkeit gibt und es ist wünschenswert, dass es möglichst viele hinbekommen. Es wäre gut für AMD und damit auch gut für diesen völlig kaputten Grafikkartenmarkt. Dennoch sollte man immer ein wenig skeptisch sein.

victore99
2016-09-20, 21:04:07
Das vielleicht nicht, aber die Großen Studios werden für ihre Flaggschiffe schon wen finden.
Assassin's Creed? Battlefield? COD? Far Cry? GTA? Wär doch gelacht, wenn die nicht irgendeinen verrückten finden würden. Und abgesehen von diesen Blockbuster-Titeln ist die Performance eh gut genug, um für nahezu alles auszureichen.
Aber andererseits wird es immer so etwas wie Anno 2205 geben - Top-Reihe, und trotzdem extremst langsam programmiert.

Wenn man jetzt z.b. Bei Fiji per Vulcan irgendwie das Frontend umgehen kann, dürfte da schon deutlich mehr Performance rauskommen..

robbitop
2016-09-20, 21:05:29
Als wenn das Priorität hätte. Für AMD, die gerademal 20-30 % Marktanteil - vom PC-Markt! - haben. Zumal die Spiele auf AMD Karten ja dennoch gut laufen.

Bei Fijii ist das Front-End nicht unbedingt der einzige bzw wichtigste Bottleneck. Der Nutzungsgrad der ALUs ist einfach ziemlich schlecht. Sieht man in Doom, wie gut die Karte performt wenn dank Intrinsics die Auslastung erhöht wird.

Elkinator
2016-09-20, 21:10:41
AMD hat bei Konsolen ca. genau 100% Marktanteil!

victore99
2016-09-20, 21:11:27
Als wenn das Priorität hätte. Für AMD, die gerademal 20-30 % Marktanteil haben. Zumal die Spiele auf AMD Karten ja dennoch gut laufen.
Schon mal versucht 2205 auf ner R9 380 zu spielen? Geht Quasi nicht. Läuft eben nicht gut.
Und AMD hat nen scheiß Marktanteil, ok. Und? Dann gibts auf GTX-1080-PCs Eben krasse Frameraten. Und auf Konsole läuft nichts.
Z.b. Läuft Uncharted 4 auf der PS4 ja relativ gut. Warum? Weil Sony die Konsole kennt und entsprechend zu programmieren weiß. Die Herausforderung sind eben hohe Rendering-Auflösungen und gute Frameraten auf Konsolen. Und warum den ganzen Geschwindigkeitskrams von der Konsole nicht auch aufn PC portieren?

dargo
2016-09-20, 21:13:26
Auch AC bringt offenbar nicht völlig automatisch mehr Leistung. Auch hier liegt eine Menge Verantwortung beim jeweiligen Entwickler. War es nicht so, dass es bei RotTR nichts/nicht viel gebracht hat im GPU-Limit?

Das Spiel brauchte erstmal ein halbes Jahr bis es vernünftig auf Radeons lief. Das müsste sich eine Redaktion mal aktuell nochmal anschauen. Die Frametimes sind jedenfalls @DX12 erste Sahne.

robbitop
2016-09-20, 21:13:53
AMD hat bei Konsolen ca. genau 100% Marktanteil!
Ist nicht vergleichbar da andere APIs. Bzw noch hardwarenäher. Zumal auch hier zu hinterfragen ist, wie gut das Ergebnis der Auslastung beim Gro der Multititel ist. Würde mich nicht wundern, wenn vor allem die Exclusives die ALUs voll auslasten.

Schon mal versucht 2205 auf ner R9 380 zu spielen? Geht Quasi nicht. Läuft eben nicht gut.
Und AMD hat nen scheiß Marktanteil, ok. Und? Dann gibts auf GTX-1080-PCs Eben krasse Frameraten. Und auf Konsole läuft nichts.
Z.b. Läuft Uncharted 4 auf der PS4 ja relativ gut. Warum? Weil Sony die Konsole kennt und entsprechend zu programmieren weiß. Die Herausforderung sind eben hohe Rendering-Auflösungen und gute Frameraten auf Konsolen. Und warum den ganzen Geschwindigkeitskrams von der Konsole nicht auch aufn PC portieren?
Siehe oben.

dargo
2016-09-20, 21:16:21
Aber genau mit Shader Intrinsic Functions will man diese Nähe am PC bringen. ;)
https://www.youtube.com/watch?v=P7RSszCPt68

robbitop
2016-09-20, 21:17:41
Aber genau mit Shader Intrinsic Functions will man diese Nähe am PC bringen. ;)
https://www.youtube.com/watch?v=P7RSszCPt68
Und dennoch ist es nicht das gleiche. Die APIs sind anders. Muss also wieder Aufwand getrieben werden, es auf dem PC auch zu tun (wenn man es schon für die Konsole getan hat). Und dennoch garantiert es nicht, dass jedes Studio dazu fähig ist. Es ist überhaupt erstmal zweifelhaft, ob auch alle Studios alles aus den Konsolen holen (Auslastung der ALUs). Die Exclusives tun das sicherlich. Sicher auch die ein oder andere 3rd Party. Aber alle? Zweifelhaft. Insbesondere wenn man sich anschaut, wie heterogen die Ergebnisse von der Masse der Spiele auf Konsolen ist.

dargo
2016-09-20, 21:21:05
Was ist so schwer daran mal einfach abzuwarten wie es von den Entwicklern angenommen wird?

Foobar2001
2016-09-20, 21:22:06
Intrinsics erhoehen nicht die Auslastung. Im Gegenteil.

robbitop
2016-09-20, 21:24:07
Was ist so schwer daran mal einfach abzuwarten wie es von den Entwicklern angenommen wird?
Jemand behauptete, dass mit DX12/Vulkan automatisch die Auslastung steigt. Und das ist zweifelhaft. Das hat nichts damit zu tun, dass man jetzt die nächsten 12-24 Monate warten muss, eh man die Diskussion weiterführen kann.

Foobar2001
2016-09-20, 21:26:30
Ich sag's mal so: Das Problem was AMD am PC wirklich hat ist ein anderes als hier jemals diskutiert wurde. Und es ist eins ihrer Software, die einfach schon seit bestehen der Firma konsequent grauenhaft ist.

Es gab historisch mehrere Generation in denen NVIDIA mit schlechterem Chip trotzdem auf gleichem oder hoeherem Niveau kompetitiv sein konnte. Tahiti haette Kepler ermorden muessen wenn es nur um die Hardware ginge.

Teilweise loesst sich das Problem mit Vulkan/DX12 indem sie die Verantwortung einfach auf die Entwickler abwaelzen, aber nicht in allen Punkten.

robbitop
2016-09-20, 21:30:09
IIRC deutete die GDC (?) Präse von id an, dass man mittels Intrinsic den suboptimalen Shadercompiler bei AMD umging. Auch twitterte Tiago, dass Intrinsics und AC der Schlüssel für die Performance seien.


Tiago Sousa @idSoftwareTiago
@dankbaker @AndrewLauritzen @ryanshrout @Roy_techhwood @AMDRadeon Async is awesome, we gained about 3ms up to 5ms on consoles(huge for 60hz)


Tiago Sousa @idSoftwareTiago
@dankbaker @AndrewLauritzen @ryanshrout @Roy_techhwood @AMDRadeon Async/ AMD GPU intrinsics were key for hitting perf on consoles <3

http://wccftech.com/async-compute-praised-by-several-devs-was-key-to-hitting-performance-target-in-doom-on-consoles/

dargo
2016-09-20, 21:32:05
@Foobar2001
Selten so einen Blödsinn gelesen. Der Wunsch nach "mehr Kontrolle" kam von den Entwicklern!

robbitop
2016-09-20, 21:34:54
Rate mal, was Foobar beruflich macht. Das hat er hier im Forum bereits gepostet. Er kann es von allen am besten von uns allen beurteilen.

Elkinator
2016-09-20, 21:37:52
Posten kann man vieles, seine Postings lassen einen halt dann doch etwas an der glaubwürdigkeit zweifeln.

dargo
2016-09-20, 21:42:03
Rate mal, was Foobar beruflich macht. Das hat er hier im Forum bereits gepostet. Er kann es von allen am besten von uns allen beurteilen.
Dann erkläre mir mal wie das bei ~20% mehr Aluleistung (R9 280X vs. GTX770) gehen soll.
Tahiti haette Kepler ermorden muessen wenn es nur um die Hardware ginge.

robbitop
2016-09-20, 21:50:31
Posten kann man vieles, seine Postings lassen einen halt dann doch etwas an der glaubwürdigkeit zweifeln.
Dann hast du offenbar längst nicht alle gelesen.

Dann erkläre mir mal wie das bei ~20% mehr Aluleistung (R9 280X vs. GTX770) gehen soll.
Hat es dich nie gewundert, dass Tahiti mit 33 % mehr Recheneinheiten und 50 % mehr Bandbreite GK104 seinerzeit nicht deutlich schlagen konnte?
In Doom würde es vermutlich der Fall sein. Die Intrinsics umgehen IIRC den wohl ziemlich schäbigen Shadercompiler. Zumindest geht das aus der id Präse hervor - die ich im Moment leider nicht wiederfinde.

edit:
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Benchmark-Test-1195242/

In Doom liegt eine R280X @1050MHz in FHD in Vulcan 66 % vor einer GTX770 @1241 MHz. Die ursprüngliche GK104 (GTX680) hatte nur 1006 MHz. Das könnte man schon als "ermorden" bezeichnen. Insbesondere Taktnormiert. Sie ist weiterhin je nach Auflösung 11-17% schneller als eine GTX780. Doom zeigt, was mit der HW theoretisch möglich ist.

Unicous
2016-09-20, 22:17:44
Posten kann man vieles, seine Postings lassen einen halt dann doch etwas an der glaubwürdigkeit zweifeln.

Du hingegen hast dieses Luxusproblem erst gar nicht. :up:


:rolleyes:

iuno
2016-09-20, 22:57:46
Dann erkläre mir mal wie das bei ~20% mehr Aluleistung (R9 280X vs. GTX770) gehen soll.
Etwa im selben Verhaeltnis steht die 1070 zur 480 und letztere wird in dem Duell auch ordentlich verhauen :rolleyes:

In Doom liegt eine R280X @1050MHz in FHD in Vulcan 66 % vor einer GTX770 @1241 MHz. Die ursprüngliche GK104 (GTX680) hatte nur 1006 MHz.
Und die urspr. 7970 lief mit 925 MHz, nur um fair zu bleiben.
66% sind schon uebel, aber so viele Jahre danach juckt es halt keinen mehr. Man muss sich schon wundern und an den Kopf fassen was da nicht stimmt. Wenn der Compiler wirklich so schaebig ist nach all den Jahren GCN ist das ein Armutszeugnis. Insbesondere mit Vulkan, wo ja sogar das "Frontend" auch noch wegfaellt und durch die App uebernommen wird. Man bekommt ja schon SPIR-V und muss "nur noch" von dort aus arbeiten.

Intrinsics erhoehen nicht die Auslastung. Im Gegenteil.
Mit steigender Leistung impliziert das, dass die Effizienz steigt. D.h. "normal" wird irgend ein Muell zusammenkompiliert, der unnoetig viel Zeit braucht, Einheiten blockiert und auch noch langsam zum Ergebnis kommt :ulol:

Mich wuerde ja mal interessieren, was genau mit intrinsics geloest wird und warum das offenbar so ein Problem fuer AMD ist.

victore99
2016-09-20, 23:02:04
Wenn Doom/ID zeigt, was mit der HW möglich ist, dann frage ich mich, warum ein Studio wie Blue Byte trotz "Jahrelanger Arbeit" sowas wie Anno 2205 (ich erwähne es oft, i know) dermaßen in den Sand setzen kann, dass dort alles, was nicht auf den Namen Paxwell hört, gleich für die Tonne ist?
Fury X auf 970er-Niveau, und die 960 kämpft mit GTX 780 oder R9 390X?

robbitop
2016-09-20, 23:04:44
Trotz der GTX770 verkürzt Tahiti mit der GHz Edition den Taktvorteil. Das kann man dann fast taktnomiert nennen. :)

Taktvorteil 680 ggü 7970: 9 %
Taktvorteil 770 ggü 7970 GHz: 5 %

Die GTX770 in dem PCGH Test ist um über 200 MHz übertaktet.

iuno
2016-09-20, 23:04:44
@victore99: Keine Experten, andere Praeferenzen, ... ¯\_(ツ)_/¯
@robbitop: ist schon klar, war ja auch nur eine Randbemerkung.

robbitop
2016-09-20, 23:05:27
Hat auch was mit DevRel und Treiberarbeit zu tun.

"id" schreibt man übrigens explizit klein.

HOT
2016-09-20, 23:07:41
Was ich mich viel mehr frage, ist, ob der Shadercompiler für GCN so komplex ist, dass man den einfach nicht effizient hinbekommt - oder was da das Problem ist, dass man jetzt schon 5 Jahre die Leistung einfach auf der Strasse liegen lässt, Marktanteil einbüßt und Hochleistungschips verramschen muss.. ergibt irgendwie nicht so recht Sinn das Ganze.

victore99
2016-09-20, 23:09:04
Trotz der GTX770 verkürzt Tahiti mit der GHz Edition den Taktvorteil. Das kann man dann fast taktnomiert nennen. :)

Taktvorteil 680 ggü 7970: 9 %
Taktvorteil 770 ggü 7970 GHz: 5 %

Die GTX770 in dem PCGH Test ist um über 200 MHz übertaktet.
Ergibt vor allem auch soviel Sinn, alles Taktnormiert zu betrachen, weil immer die Taktbarkeit dieselbe ist. Ne 7970 läuft ja wie ne 770 auch auf Maximal 1,4G...

iuno
2016-09-20, 23:16:04
Hat auch was mit DevRel und Treiberarbeit zu tun.
Das meine ich u.A. mit "andere Praeferenzen". Keine Ahnung, ob NV da was gemacht hat aber im Prinzip wird es so einem Studio schlciht recht egal sein. Jedes Team hat begrenzte Ressourcen und die muss man sich halt Anteilen. Man schaue sich die Marktanteile und den Aufwand an und entscheide. Zumal Konsolen dort ueberhaupt gar keine Rolle spielen, man sich also auch nicht wirklich eingehend mit GCN beschaeftigen muss.

Was ich mich viel mehr frage, ist, ob der Shadercompiler für GCN so komplex ist, dass man den einfach nicht effizient hinbekommt
Zumindest nicht, wenn man an der falschen Stelle spart :P
Keine Ahnung, wie viele (gute) Leute AMD da die letzten Jahre eingestellt hat, aber NV kann sich offensichtlich ganz anderes Personal leisten.
Interessant ist diesbezueglich auch radv. Der freie Radeon Vulkan Treiber entstand von zwei Unabhaengigen, weil es wohl noch ein Weilchen dauert bis AMD den Kram offengelegt und upstream bekommt. Wenn radv so weit waere, wuerde mich mal interessieren, wie sich das Ding bei einem anspruchsvolleren Titel wie DOOM schlaegt, aber das gibt es ja bekanntlich nicht fuer Linux.

robbitop
2016-09-20, 23:19:06
Ergibt vor allem auch soviel Sinn, alles Taktnormiert zu betrachen, weil immer die Taktbarkeit dieselbe ist. Ne 7970 läuft ja wie ne 770 auch auf Maximal 1,4G...

Nur ein Bruchteil der User übertaktet. Das ist gar nicht marktrelevant. Zumal GK104 im Mittel sicher eher bei 1,2 GHz übertaktbar war und Tahiti auf 1,05. Aber ja: Takt apiwlt spätestens seit Maxwell eine große Rolle. Da hat AMD noch einiges nachzuholen.

Was ich mich viel mehr frage, ist, ob der Shadercompiler für GCN so komplex ist, dass man den einfach nicht effizient hinbekommt - oder was da das Problem ist, dass man jetzt schon 5 Jahre die Leistung einfach auf der Strasse liegen lässt, Marktanteil einbüßt und Hochleistungschips verramschen muss.. ergibt irgendwie nicht so recht Sinn das Ganze.

Ein nicht unwesentlicher Teil resultiert bei Doom auch sicherlich aus geschickten AC. Maxwell hat offenbar höhere Auslastung durch mehr Kontrolllogik pro Ausführungseinheit, besser Shadercompiler und man muss nicht so viele wavefronts füllen.

Nakai
2016-09-20, 23:24:10
AMD hat schon mit P10 einige Änderungen hierfür eingebaut. Das ist wohl nicht so einfach nutzbar. Es geht um absolute Echtzeitfähigkeit vom Frontend bis zum Backend.

robbitop
2016-09-20, 23:26:14
Laut CB (Vergleich Tonga vs Polaris - takt und einheitennormierter Vergleich) kommen wohl auch ca 10 % mehr Leistung pro Ausführungseinheit dabei heraus. Wenn man nicht gerade durch die Bandbreite limitiert ist.

N0Thing
2016-09-21, 00:04:12
Was ist so schwer daran mal einfach abzuwarten wie es von den Entwicklern angenommen wird?

Gerne, sofern nicht bei jeder Gelegenheit auf DX12 und Vulkan verwiesen wird, wenn es um die zukünftige Performance geht. ;)

Posten kann man vieles, seine Postings lassen einen halt dann doch etwas an der glaubwürdigkeit zweifeln.

Ganz im Gegenteil, seine Posting sind wesentlich glaubwürdiger als die die, die seine Glaubwürdigkeit anzweifeln.

Langlay
2016-09-21, 00:20:02
Zumal GK104 im Mittel sicher eher bei 1,2 GHz übertaktbar war und Tahiti auf 1,05.

Von Tahiti gabs Karten die 1.2 GHz ab Werk hatten. Also 1.05 is imo zuwenig.

horn 12
2016-09-21, 00:32:15
Könnte Vega 10 somit um die 50 bis 60% schneller werden als die Fury X Karte wenn die ca. 1,45 Ghz stimmen sollten und Optimierung der Fiji Chip erfahren haben sollte.

Foobar2001
2016-09-21, 00:39:56
@Foobar2001
Selten so einen Blödsinn gelesen. Der Wunsch nach "mehr Kontrolle" kam von den Entwicklern!
Beide Seiten waren daran interessiert.

Dann erkläre mir mal wie das bei ~20% mehr Aluleistung (R9 280X vs. GTX770) gehen soll.
Kepler hat ein sehr kleines Register-File und andere extrem beschissene Limitierungen bei den Shader-Einheiten. GCN 1.0 war seiner Zeit Jahre voraus. Im Prinzip ist RX 480 immer noch exakt das gleiche Design in den CUs bis auf kleinere Aenderungen.

Mit steigender Leistung impliziert das, dass die Effizienz steigt. D.h. "normal" wird irgend ein Muell zusammenkompiliert, der unnoetig viel Zeit braucht, Einheiten blockiert und auch noch langsam zum Ergebnis kommt :ulol:

Mich wuerde ja mal interessieren, was genau mit intrinsics geloest wird und warum das offenbar so ein Problem fuer AMD ist.
Gar nichts wird geloest. AMD hat schlicht Hardware die es erlaubt bestimmte Dinge effizienter zu loesen, die NVIDIA Hardware ueberhaupt nicht besitzt: Die Skalar-Einheit.

Hübie
2016-09-21, 00:44:38
Klar. ;)

Elkinator
2016-09-21, 00:47:25
Ganz im Gegenteil, seine Posting sind wesentlich glaubwürdiger als die die, die seine Glaubwürdigkeit anzweifeln.
Trolle halten halt immer zusammen...

Foobar2001
2016-09-21, 00:52:06
Ihr muesst mir ja nicht glauben, aber es waere sehr schoen wenn wir die Diskussion auf technischen Grundlagen fuehren koennten und die persoenlichen Anfeindungen lassen koennten. Das ist glaube ich im Interesse von allen die hier mitlesen.

Schaffe89
2016-09-21, 01:10:26
Da siehst du fast überall die RX480 vorne. Nach meiner Rechnung hat die RX480 ca. 15% mehr theoretische Aluleistung als die GTX1060 (Referenz vs. Referenz). In Doom schlagen diese auch voll durch.

Doom nutzt AMD Shader Intrinsic Functions, Progammierung like Assembler auf Hardwarebene.
Du hast dich doch damals bei Gameworkstiteln immer so aufgeregt (ich auch), dass Nvidia eine Blackbox mit Software nutzt die AMD benachteiligt oder eben nicht beteiligt.
Nun arbeitet AMD mit den Doom Entwicklern zusammen um mit dieser Funktion gesondert mehr Leistung herauszukitzeln und du zögerst keine Minute um damit die eigentliche Performance der AMD Karten zu propagieren.

Diese AMD´sche "Rebellion" scheint wirklich bei einigen super zu funktionieren.:tongue:

Insbesondere Taktnormiert. Sie ist weiterhin je nach Auflösung 11-17% schneller als eine GTX780. Doom zeigt, was mit der HW theoretisch möglich ist.

Gleicher Unsinn, weil Kepler dort massivst im V-ram Limit hängt.

Hübie
2016-09-21, 01:12:59
:facepalm: Auf so etwas hab ich gewartet.

iuno
2016-09-21, 01:17:30
Gar nichts wird geloest. AMD hat schlicht Hardware die es erlaubt bestimmte Dinge effizienter zu loesen, die NVIDIA Hardware ueberhaupt nicht besitzt: Die Skalar-Einheit.
Danke fuer die Klarstellung. Aber wenn es nur das ist, waere es dann nicht besser eine Extension fuer Vulkan zu bringen?
Dann ist das was bisher geschrieben wurde bzgl. der Intrinsics aber Unsinn, von wegen compiler bypass waere noetig usw... und trotzdem kommen AMD Karten so gerade mal auf das Niveau, was man eigentlich alleine von den Daten her schon erwarten wuerde.
Und ist AMD selber nicht klar gewesen, dass man die Skalareinheit bei Spielen brauchen kann oder warum haben sie die letzten 5 Jahre nie versucht das irgendwo reinzudruecken? Oder haben sie? :freak:

Ist bekannt, ob etwa in GNM die Nutzung der Skalareinheit vorgesehen ist?

Foobar2001
2016-09-21, 01:20:33
Danke fuer die Klarstellung. Aber wenn es nur das ist, waere es dann nicht besser eine Extension fuer Vulkan zu bringen?
Dann ist das was bisher geschrieben wurde bzgl. der Intrinsics aber Unsinn, von wegen compiler bypass waere noetig usw... und trotzdem kommen AMD Karten so gerade mal auf das Niveau, was man eigentlich alleine von den Daten her schon erwarten wuerde.
Und ist AMD selber nicht klar gewesen, dass man die Skalareinheit bei Spielen brauchen kann oder warum haben sie die letzten 5 Jahre nie versucht das irgendwo reinzudruecken? Oder haben sie? :freak:
Ich versteh nicht worauf du hinaus willst, die Intrinsics sind Extensions (GL_AMD_shader_ballot, GL_AMD_gcn_shader, GL_AMD_shader_trinary_minmax).

Und selbstverstaendlich wird die Skalareinheit andauernd benutzt (branches, uniform loads, descriptor loads, etc). Die technischen Details warum sie in Doom zusaetzlich hilft wurden in der Siggraph-Praesentation ziemlich detailiert beschrieben.

Ist bekannt, ob etwa in GNM die Nutzung der Skalareinheit vorgesehen ist?
Wie gesagt, die Skalareinheit wird andauernd benutzt, nur nicht in der bestimmten Form.

Locuza
2016-09-21, 01:27:59
[Salvage vs. Fullchip Skalierungsvergleich]
Dadurch schrumpft der Vorsprung von Nvidia von 25% auf ~16%, wobei ich jetzt nicht weiß, ob sich die Nvidia Salvages nicht auch deutlich verbessern an der Stelle.
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/7/

Da die 1060 GTX ebenso etwas an der Bandbreite hungert, würden weniger ALUs ein besseres Performance-Verhältnis ergeben und wenn die Bandbreite zusätzlich reduziert wird, dann sollte die Perf/Watt alleine schon wegen dem geringeren Takt an Effizienz gewinnen, selbst wenn das ALU:Bandbreite-Verhältnis gleich bleibt.

[Shader Intrinsics Support von ISVs]
Aber alle? Zweifelhaft. Insbesondere wenn man sich anschaut, wie heterogen die Ergebnisse von der Masse der Spiele auf Konsolen ist.
Bei allen ist das natürlich zweifelhaft, nach id Software habe ich aber mit DICE gerechnet, welche die Features auf der GDC angesprochen haben (Seite 94):
http://www.wihlidal.ca/Presentations/GDC_2016_Compute.pdf

Ich meine mich auch an ein PR-Video zu erinnern, wo ein DICE Mitarbeiter sich dazu geäußert hat.
Aktuell fehlt aber die Bestätigung über den Support.

IIRC deutete die GDC (?) Präse von id an, dass man mittels Intrinsic den suboptimalen Shadercompiler bei AMD umging. Auch twitterte Tiago, dass Intrinsics und AC der Schlüssel für die Performance seien.

Ich würde meinen der Wortlaut ging nicht in diese Richtung.
Praktisch geht es denke ich viel eher darum die speziellen Funktionen überhaupt ausnutzen zu können, da man sie direkt anspricht geht es am Compiler vorbei, aber man hat für all den ganzen Rest natürlich weiterhin Probleme, die man nicht umgehen kann (Seite 25):
http://advances.realtimerendering.com/s2016/Siggraph2016_idTech6.pdf

Dann erkläre mir mal wie das bei ~20% mehr Aluleistung (R9 280X vs. GTX770) gehen soll.
Indem Bezug ist der konkrete Anwendungsfall von Bedeutung.
Soweit ich mitbekommen habe ist Kepler sehr schlecht unter Compute-Aufgaben und das Register-File reicht nicht aus, um alle 192-ALUs bei Peakleistung zu füttern, heißt Kepler erreicht nie die theoretische Rohleistung in der Praxis.
Als Indikator könnte man den theoretischen ALU-Test (Die Altgediente B3D-Suite) bei Techreport heranziehen:
http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/4

Beim ALU-Durchsatz erreichen Maxwell und GCN praktisch ihre Peakleistung, Kepler (780 Ti) dagegen ist weit weg davon.
3,8-4,4 vs. 5,3 TF auf dem Papier.

Daneben hat Tahiti im Vergleich zum GK104 wie robbitop schon angemerkt hat eine wesentlich höhere Bandbreite.

Der Grund wieso Tahiti zum Launch mit dem GK104 konkurriert hat lag wahrscheinlich an mehreren Gründen, neuer Compiler und Treiber im Aufbau, schwache Geometrie-Leistung, viele Spiele folgten noch dem alten Designziel ohne Computing und diesbezüglich hat Nvidia mit Kepler einfach profitieren können.

Ich muss mich hier an Ailuros Aussage erinnern, dass metaphorisch bei Nvidia die Sektkorken gesprungen sind, als man erfahren hat das der GK104 ausreicht um mit Tahiti konkurrieren zu können.
Ohne die restlichen Schwachstellen hätte AMD rein von der Hardware vermutlich sehr wohl den GK104 verprügelt.

Du hingegen hast dieses Luxusproblem erst gar nicht. :up:
:rolleyes:
Wir haben aber das Luxusproblem ihn (Elkinator) ertragen zu müssen.

Was ich mich viel mehr frage, ist, ob der Shadercompiler für GCN so komplex ist, dass man den einfach nicht effizient hinbekommt - oder was da das Problem ist, dass man jetzt schon 5 Jahre die Leistung einfach auf der Strasse liegen lässt, Marktanteil einbüßt und Hochleistungschips verramschen muss.. ergibt irgendwie nicht so recht Sinn das Ganze.
Ich würde laienhaft mit einem Nein antworten, die Konsolenhersteller bekommen es offensichtlich hin.
AMD/ATI hat historisch das Problem in diesem Feld unterbesetzt zu sein.

iuno
2016-09-21, 01:45:56
Ich versteh nicht worauf du hinaus willst, die Intrinsics sind Extensions (GL_AMD_shader_ballot, GL_AMD_gcn_shader, GL_AMD_shader_trinary_minmax).
Ich will auf nichts hinaus, ich wusste nicht, dass es diese Extensions gibt. Man hat imho den Eindruck vermittelt dass es super neu ist, dabei aber offenbar "vergessen" die konkreten Erweiterungen mal im richtigen Zusammenhang zu nennen oder auch klarzustellen, dass es das teils schon zu OGL 4.3 Zeiten gab...

Und selbstverstaendlich wird die Skalareinheit andauernd benutzt (branches, uniform loads, descriptor loads, etc). Die technischen Details warum sie in Doom zusaetzlich hilft wurden in der Siggraph-Praesentation ziemlich detailiert beschrieben.

Wie gesagt, die Skalareinheit wird andauernd benutzt, nur nicht in der bestimmten Form.
Dann muss ich mir die Aufzeichnung mal anschauen

Hübie
2016-09-21, 01:46:51
Das mit den Sektkorken war gar nicht mal so metaphorisch... X-D
Man hatte Angst, als man die Specs zu Tahiti sah.

dargo
2016-09-21, 06:45:40
Hat es dich nie gewundert, dass Tahiti mit 33 % mehr Recheneinheiten und 50 % mehr Bandbreite GK104 seinerzeit nicht deutlich schlagen konnte?

Was rechnest du da? :tongue:

R9 280X hat 28% mehr Bandbreite als GTX770, bei der Aluleistung sind es auch keine 33%. Nach deiner Logik hat die RX480 80% mehr Alu-Leistung als die GTX1060. :freak:


edit:
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Benchmark-Test-1195242/

In Doom liegt eine R280X @1050MHz in FHD in Vulcan 66 % vor einer GTX770 @1241 MHz. Die ursprüngliche GK104 (GTX680) hatte nur 1006 MHz. Das könnte man schon als "ermorden" bezeichnen. Insbesondere Taktnormiert. Sie ist weiterhin je nach Auflösung 11-17% schneller als eine GTX780. Doom zeigt, was mit der HW theoretisch möglich ist.
So einen Test kannst du heute vergessen. Bei Nvidia hat Kepler schon lange keine hohe Priorität mehr. Zudem müsste man erstmal ausklammern wie stark die 2GB Speicher hier limitieren. Oder wie erklärst du dir, dass Tahiti 85% schneller als Pitcairn ist?

Etwa im selben Verhaeltnis steht die 1070 zur 480 und letztere wird in dem Duell auch ordentlich verhauen :rolleyes:

Komisch, dass ich davon unter DX12 nichts sehe. Und da werden keine Shader Intrinsics genutzt. Da wo sie genutzt werden liegt die RX480 nur knapp (oder besser gesagt grob um die theoretische Rohleistung die sie auch tatsächlich weniger hat) hinter der GTX1070.
Gerne, sofern nicht bei jeder Gelegenheit auf DX12 und Vulkan verwiesen wird, wenn es um die zukünftige Performance geht. ;)

DX12/Vulkan bietet einiges mehr als nur Shader Intrinsics.

:facepalm: Auf so etwas hab ich gewartet.
Einfach nicht drauf eingehen.

robbitop
2016-09-21, 07:49:00
Gleicher Unsinn, weil Kepler dort massivst im V-ram Limit hängt.
Die 780, die ich erwähnte, hat genau wie die 280X 3 GiB VRAM.

@Dargo
Wegen VRAM habe ich doch auch die 780 erwähnt.
Ich verglich bzgl Tahiti die 7970 GHz mit der GTX770. Nicht die R280X. Aber ja - ich habe beim Speichertakt nur aufs SI geschaut. Aber anstatt kleinkarriert über die genauen Differenzen in Prozent zu lamentieren, kann man auch einfach über die Grundaussage diskutieren. Tahiti hatte seinerzeit zu 7970 Zeit deutlich bessere Rohdaten als GK104 und das spiegelte sich damals (2012) nicht so in Spielen wieder. Genau darum geht es und was mit der HW möglich gewesen wäre.

dargo
2016-09-21, 08:50:40
Die GTX780 hat die gleiche Bandbreite wie die R9 280X. Bei der Rohleistung steht es bei den getesteten Karten bei der PCGH 4,75 TFLOPs vs. 4,3 TFLOPs. Aber wie schon gesagt bin ich vorsichtig bei so einem Test bei Nvidia wo es schon zwei neuere Generationen gibt. Ich erinnere da gerne an das Dilemma in Witcher 3 und Kepler. Kepler spielt bei Nvidia heute keine so große Rolle mehr.

Edit:
Bei den ganzen Rohleistungsvergleichen verstehe ich eine Sache nicht. Es wird ja gerne mit AMD verglichen. Wo waren die Vergleiche bei Nvidia zwischen zwei Architekturen? Schau dir einfach mal an was die GTX970 mit 4,38 TFLOPS in Doom bei deinem Link leistet und wie es bei der GTX780TI mit 6,37 TFLOPs aussieht. ;) Verstehe mich bitte nicht falsch, ich bin aber nach wie vor skeptisch was reine Rohleistungsvergleiche zwischen zwei verschiedenen Architekturen angeht. Egal ob innerhalb des selben IHV oder nicht.

Screemer
2016-09-21, 08:57:27
Die 780, die ich erwähnte, hat genau wie die 280X 3 GiB VRAM.


nvidia geht doch aber besser mit dem vram um :ugly:

Elkinator
2016-09-21, 10:45:31
Auch ohne Shader Intrinsics steigt die Leistung von GCN, zu behaupten da würde überhaupt nichts steigen ist lächerlich.

N0Thing
2016-09-21, 11:59:51
DX12/Vulkan bietet einiges mehr als nur Shader Intrinsics.


Klar. Aber es wäre doch sinnvoll, erst einmal abzuwarten wie es von den Entwicklern angenommen und umgesetzt wird, anstatt jetzt schon Prognosen über den Leistungsgewinn von AMD-Karten für die nächsten Jahre zu erstellen.

Nakai
2016-09-21, 13:16:13
https://forum.beyond3d.com/posts/1944839/

Wenn man nun noch verschieden große SIMD-Einheiten in einer CU verbaut, kann man bei bestimmten Branches eben bestimmte SIMD-Einheiten auswählen. Das wäre ein großer Sprung bzgl der Energieffizienz.

AMD geht definitiv den Weg, mit den neuen Patenten und einigen Papers, die einzelnen CUs deutlich "aufzuwerten". Eine CU ist eigentlich nichts anderes als ein RISC-InOrder-Kern, mit großen SIMDs und FFUs für Graphics. Es gibt so einige nette Patente, welche schon andeuten, in welche Richtung es geht.

Schaffe89
2016-09-21, 13:41:53
Auch ohne Shader Intrinsics steigt die Leistung von GCN, zu behaupten da würde überhaupt nichts steigen ist lächerlich.

Wer soll denn das behauptet haben?:rolleyes:
Aber ist ist schon eher wahrscheinlich den deutlichen Vorsprung in Doom den Shader intrinsics zuzuschreiben, als Directx12, denn wie wir wissen sind Vorzeigespiele wie Ashes of the Singularity mittlerweile auf einer GTX 1060 und rx480 gleichwertig performant.
Ich finds halt albern sich bei exlusiven Programmen wie Gameworks aufzuregen und dann gleichsam AMD Programme zu feiern und die als das gewohnte Leistungsbild in der Zukunft hinzustellen. Alberner gehts imho nicht.

Bei den ganzen Rohleistungsvergleichen verstehe ich eine Sache nicht. Es wird ja gerne mit AMD verglichen. Wo waren die Vergleiche bei Nvidia zwischen zwei Architekturen? Schau dir einfach mal an was die GTX970 mit 4,38 TFLOPS in Doom bei deinem Link leistet und wie es bei der GTX780TI mit 6,37 TFLOPs aussieht.

Denmach müsstest du bei Vergleichen zwischen AMD und Nvidia genauso skeptisch sein und die höhere theoretische Rohleistung bei AMD nicht nur bei den reinen Teraflops suchen, sondern auch andere Bereiche betrachten, beispielsweise Rasterizer Performance, Tesselationsleistung, dne Einfluss von tiled base rendering usw..Machst du aber nicht.
Genauso wahrscheinlich ist es dass die GTX 1060 in Zukunft den Vorsprung auf die rx480 erhöht, wie umgekehrt.

Eine HD 5870 hatte mit der VLI-W 5 Shadern im Endeffekt massivst mehr Rohleistung zur Verfügung, gebracht hat es nichts. Daher würde ich auch nicht behaupten wollen, eine rx480 habe mehr Rohleistung als eine GTX 1060, ich sehe das mittlerweile eher umgekehrt.

Achim_Anders
2016-09-21, 14:28:33
@News zu Vega. Das macht irgendwie alles nicht so richtig viel Sinn. Oder ist verstehe den Plan von AMD absolut nicht...
Jetzt soll in Q1 ein Chip kommen, der im Vollausbau ca. auf 1080 Niveau landen wird. Davon dann einen Salvage auf 1070 Niveau? Und Spätsommer 2017 wird Polaris dann durch einen Vega11 Chip abgelöst? Sind die Leaks so richtig zu deuten? Ich Frage mich immer mehr, ob eine 1070 trotz Freesync jetzt nicht doch der bessere Deal ist, da man diese schon heute nutzen kann...
Das liest sich für mich als Laie so, dass AMD extrem hinten dran ist.

Nightspider
2016-09-21, 14:35:36
Ich glaube auch das in der News zu viel Blödsinn drin steht.
Gerade mit Blick auf die 7nm Aussagen.... ...das ist wilde Stocherei im Dunkeln.

Elkinator
2016-09-21, 14:35:57
Das Gerücht ist auch ziemlich komisch, wahrscheinlich trollt da jemand die Presse.

Ist aber eh alles nur Rätselraten, ist ja noch nichtmal geklärt welche Fertigung man für Vega nutzen wird.

Der_Korken
2016-09-21, 14:43:49
Wenn die V10-Gerüchte mit 12 TFlops, Architekturverbesserungen und vier HBM2-Stacks stimmen, wäre V10 bereits der "Big Vega" und müsste schneller als eine 1080 werden. Es wäre eher ein Konkurrent für die 1080Ti, der gleichzeitig noch den Profimarkt abdecken soll. Der Unterschied zu P10 wäre dann groß genug, um den kleinen Vega und P10 parallel anzubieten. Aber im Moment ist das nichts weiter als ein Gerücht. Zu Polaris wurde hier auch alles mögliche spekuliert und es ist ganz anders gekommen.

Nightspider
2016-09-21, 14:45:54
Und mich würde es etwas wundern wenn AMDs Top Dog nur 512GB/s hat trotz HBM2.
Da kommt man doch bestimmt auch billiger ran.

dargo
2016-09-21, 14:58:21
Mich wundert am meisten der hohe Takt. :D Damit hatte ich nun gar nicht gerechnet. Aber gut, mit "nur" 4096 Shadern kommt man auch nicht anders auf satte 12 TFLOPs. Wobei ich diese 512GB/s auch etwas merkwürdig finde. Soviel kann eine verbesserte DCC gar nicht rausholen.

Edit:
Wobei... Titan X hat auch nur 480GB/s bei ~11TFLOPs. Hmm... :uponder:

Nightspider
2016-09-21, 15:02:36
DCC bringt dir ja auch nur in Spielen etwas. Bei HPC Anwendungen geht nichts über viel und schnellen VRAM.

Nakai
2016-09-21, 15:06:19
Es sind keine vier HBM2-Stacks sondern nur Zwei.

Nochmal mehr als 400mm² wird V10 wohl eher nicht haben (wenn dann nur leicht darüber). Wie auch, wenn das Ding auf einer HPC-APU verbaut wird.

Fiji hat praktisch eine Packdichte von 15MioTransen/mm², dank HBM. 7% mehr als Tonga und Fiji in etwa.

iuno
2016-09-21, 15:08:38
Wir wissen ja auch nicht, ob das 2*8Hi@1 Gbps oder 4*4Hi@500 Mbps sein sollen. Vielleicht will man ja moeglichst wenig Stacks haben, auch hinsichtlich der APU, dann ist bei 512 GBps halt Schluss...

Nakai
2016-09-21, 15:18:44
Wir wissen ja auch nicht, ob das 2*8Hi@1 Gbps oder 4*4Hi@500 Mbps sein sollen. Vielleicht will man ja moeglichst wenig Stacks haben, auch hinsichtlich der APU, dann ist bei 512 GBps halt Schluss...

Es werden immer 2 Stacks sein. Entweder 2 x 4GB (4Hi) oder 2 x 8GB (8Hi).

Unicous
2016-09-21, 15:19:27
2 Stacks (egal ob 4Hi oder 8Hi) würde die angeblichen 16 GB doch schon ad absurdum führen, allein das sollte doch schon zu bedenken geben.:wink:


@Nakai Wie kommt man mit 2 Stacks auf 8 bzw. 16 GB. Das müsstest du uns mal erklären.

dargo
2016-09-21, 15:24:05
@Nakai Wie kommt man mit 2 Stacks auf 8 bzw. 16 GB. Das müsstest du uns mal erklären.
8GB sollten mit zwei Stacks kein Thema sein. GP100 hat ja 4 Stacks @16GB.

Nakai
2016-09-21, 15:25:19
2 Stacks (egal ob 4Hi oder 8Hi) würde die angeblichen 16 GB doch schon ad absurdum führen, allein das sollte doch schon zu bedenken geben.:wink:


@Nakai Wie kommt man mit 2 Stacks auf 8 bzw. 16 GB. Das müsstest du uns mal erklären.

Pro HBM2-Stack sind es derzeit 4 GB (32Gb pro Stack; 4-Hi). Derzeit gibt es nur diese Konfiguration.

Laut SKHynix kommt aber noch HBM2 in einer 8-Hi Variante, ergo pro Stack 8 GB (64 Gb).

V10 wird wohl zwei HBM2-Stacks haben, ergo zwei Fälle und mit simpler Mathematik (Multiplikation!) kommt man auf das Endergebnis.
V10 mit zwei 4-Hi HBM2-Stacks => 2 x 4 GB = 8 GB
V10 mit zwei 8-Hi HBM2-Stacks => 2 x 8 GB = 16 GB

Der_Korken
2016-09-21, 15:25:31
Zwei Stacks bzw. 512GB/s als Vollausbau fände ich ziemlich wenig für die spekulierte Leistung von V10. Man hätte mehr Rechenleistung als GP100, aber deutlich weniger Bandbreite und Speicherausbau. Bei Spielen mag das noch Sinn machen, aber ich dachte immer dass gerade HPC-Anwendungen nach Bandbreite gieren?

Nakai
2016-09-21, 15:27:02
Zwei Stacks bzw. 512GB/s als Vollausbau fände ich ziemlich wenig für die spekulierte Leistung von V10. Man hätte mehr Rechenleistung als GP100, aber deutlich weniger Bandbreite und Speicherausbau. Bei Spielen mag das noch Sinn machen, aber ich dachte immer dass gerade HPC-Anwendungen nach Bandbreite gieren?

GP100 braucht das auch, wegen Deep-Learning.

Neuronale Netzwerke brauchen genausoviel Load-Performance wie Rechenleistung da ist, um gut zu funktionieren (im Worst-Case). CNNs sind aber durch shared Inputs und shared Gewichte, in der Lage etwas dahingehend einzusparen, wenn man Tiles gut in den Registern und im Cache zwischenspeichert.

Achim_Anders
2016-09-21, 15:34:44
Immerhin hat der Leak mich nun wieder total verunsichert... Zwischen 350-400€ bekomme ich dann erst 06/17 was von AMD, wenn das mit Vega11 als quasi Polaris Ersatz stimmt. Und einen richtiges Titan Pendant kann man sich auch kaum vorstellen bei diesen Infos. Da wäre die Lücke ja riesig zu Polaris..
Ich sehe das aber auch alles aus den Augen eines Käufers, der WQHD Freesync Graka möchte... Mal sehen was die Zukunft bringt

dargo
2016-09-21, 15:37:41
Und einen richtiges Titan Pendant kann man sich auch kaum vorstellen bei diesen Infos.
Bei 12 TFLOPs kannst du dir keinen Titan Pendant vorstellen?

Achim_Anders
2016-09-21, 15:45:43
Japp, aber auch nur, da ich die technischen Details mit den Bedenken lese, dass es Leaks sind.
Aus dem Gesichtspunkt Marketing und. Verkaufsstrategie macht es keinen, wirklich gar keinen Sinn ein Portfolio zu haben von Preisen 100-300€ und dann nichts, bis es bei 700-1200€ weiter geht. Wie gesagt, da ich genau in dem Preisbereich zwischen 300-450€ Suche, wäre das für mich der Worst Case, vielleicht sehe ich dad deswegen besonders (zu) kritisch. Ich wollte es nur einwerfen. Gerne kannst du mir deine Ansicht erläutern, wie du dir das Produktportfolio in Q1 2017 von AMD vorstellst anhand dieser Leaks.

dargo
2016-09-21, 15:51:35
Ich habe mich doch überhaupt nicht zum Portfolio von AMD für 2017 geäußert. An welchen handfesten Daten denn? Das könnte genauso Fake sein. Ich habe nur gefragt warum du dir anhand der angeblichen 12 TFLOPs keinen Titan Pendant vorstellen kannst?

Achim_Anders
2016-09-21, 16:00:19
Weil es keinen Sinn macht so ein Portfolio zu haben. Und als Unternehmen, welches Consumerprodukte verkauft ist ein sinnvolles Portfolio essentiell. Und eben da du dich nicht dazu geäußert hast, habe ich nachgefragt. Falls die 12tf stimmen für FullVega10, bedeutet das genau was für den Preisbereich von 300-450€? Dass er bis Mitte 2017 brach liegt und die 1070 keinerlei Konkurrenz bekommt? Kann so kommen, wäre aber irgendwie schon bitter. Gerne nochmal die Frage, wenn Vega 10 mit der Titan konkurrieren wird, wie schaut das Portfolio dann aus deiner Sicht aus?

Ich finde die Frage danach sinnvoll... Denn einen Plan muss AMD ja verfolgen. Da interessiert mich natürlich, wie dieser sein könnte.

dargo
2016-09-21, 16:10:49
Weil es keinen Sinn macht so ein Portfolio zu haben.
Für mich macht schon die Zusammenfassung von Leonidas auf der Hauptseite keinen Sinn.
Im zweiten Quartal 2017 soll hingegen eine DualChip-Lösung auf Basis von Vega 10 erscheinen – was man genauso als Hinweis darauf werten kann, das zumindest für das Jahr 2017 kein schneller AMD-Chip als eben Vega 10 geplant ist. Jene DualChip-Lösung wird nur mit einer TBP von 300 Watt genannt – was reichlich wenig erscheint angesichts von 225 Watt für die SingleChip-Lösung. In jedem Fall kann AMD mit dieser DualChip-Lösung rein technisch das Enthusiasten-Feld beackern, denn bis zu 8192 Shader-Einheiten samt bis zu 1 TB/sec Speicherbandbreite ergeben Hardware-Power im Übermaß. Selbst auf stark abgesenkten Taktraten sollte damit das Performanceniveau der Titan X (Pascal) sowie von (möglichen) weiteren GP102-basierten nVidia-Grafikkarten erreichbar sein. Die Frage ist nur, ob man im Zweikampf einer DualChip-Lösung (AMD) gegen eine SingleChip-Lösung (nVidia) nicht automatisch den kürzeren zieht – noch dazu in einer Zeit, wo der SLI/CrossFire-Support bei den Spieleentwicklern immer weniger auf Gegenliebe stößt.

Ein Dual-V10 mit 128 CUs konkurriert also mit GP102 wo die Singlelösung bereits 12 TFLOPs erreichen soll? :|

Achim_Anders
2016-09-21, 16:13:32
Ach jetzt habe ich dich verstanden. Für mir leid, saß auf der Leitung. Du siehst diesen Leak einfach nicht als wahr an und deswegen lohnt es nicht darüber zu diskutieren, weil er zu viele Ungereimtheiten hat? Ok :)

dargo
2016-09-21, 16:17:55
Bingo. ;)

N0Thing
2016-09-21, 16:42:28
Wenn der Sprung von der Polaris zur Vega-Architektur wie früher eher ein kleiner Sprung für die Performance bedeutet, dann würde Vega 10 mit 64 CU und den 12TF auf Höhe der GTX 1080 landen. Ein abgespeckter Chip könnte dann oberhalb der GTX 1070 positioniert werden. Dazu passt dann auch Dual-Vega als Gegner für die Titan und evtl. GP100.

Damit hätte AMD mit Vega 10 den Preisbereich von $400-$600 und mit Dual Vega auch oberhalb abgedeckt, darunter hat man Polaris.
So recht glauben kann ich an diese Leaks aber nicht, vor allem Vega 20 passt mit der Angabe der 7nm Fertigung nicht wirklich ins Bild.

BlacKi
2016-09-21, 16:42:30
Bei 12 TFLOPs kannst du dir keinen Titan Pendant vorstellen?
bei +-14tflops schon, 12 reichen nciht ganz.

stinki
2016-09-21, 16:44:43
Also ein Vega 10 mit 12TFlops, 2 HBM Stacks, 4K Shadern, 1.5GHz und 8/16GB RAM finde ich jetzt nicht so unwahrscheinlich.
Zwischen Polaris 10 (ca. 6TFlops) und Vega 10 (ca. 12TFlops) passt dann eigentlich noch ganz gut ein Vega 11 Chip (vielleicht ca. 8-9 TFlops ???).
Und ein Shrink als Pipe-Cleaner von Vega 10 auf Vega 20 macht auch Sinn. GF will in Q1/2017 mit der Risk-Production von "7nm" anfangen, das sollte für einen Chip-Launch im Sommer 2018 reichen.
Vega 10 wird halt hoffentlich irgendwo in Richtung GP104 von der Performance landen, vielleicht etwas drüber wenn alles gut geht (225W+).
Und um den Preis mache ich mir jetzt nicht so viele Sorgen, der wird im Vergleich zu Nvidia (1070, 1080) schon passen in Q1.
Und Nvidia bringt dann wahrscheinlich als Konter 1080Ti raus. Dann haben doch wieder alle etwas davon.

Navi wird halt die erste echte GCN 2.0 Architektur die mehr als 64CUs in einem Chip erlaubt, und das ist wahrscheinlich auch mit "new scalable design" auf der Roadmap Folie gemeint. Aber Navi wird dann wohl frühstens Anfang 2019 kommen. Aber ein 200-250mm^2 Chip in "7nm" mit 64 CUs und 4 HBM Stacks Mitte 2018 ist doch auch nicht so schlecht...

Agent117
2016-09-21, 16:48:30
Ein Dual-V10 mit 128 CUs konkurriert also mit GP102 wo die Singlelösung bereits 12 TFLOPs erreichen soll? :|

Bei dem TDP Budget von 300W wird die Dual Lösung vlt 18TFlops erreichen.
Das wird aber sowieso nur ein reines Prestigeprojekt, kaufen wird das kaum einer wegen der Michrorucklergeschichte. Halte es auch für Schwachsinn. Wenn das Marketing die Karte geschickt gegen die Titan stellt und sie deutlich schneller ist, sind vlt wieder mehr 0815 gamer von AMD begeistert.

Anders sähe es aus, wenn zwei Vega Chips auf einem Interposer miteinander verbunden wären und sich nach außen hin wie ein Chip verhalten. Soll heißen, dass der Commanc Prozessor vom einen Chip auch den anderen Chip ansprechen kann. Dann gäbe es keine Mikroruckler. AMD hat hieran wohl mal geforscht. Auf der GCN Roadmap steht jedoch erst bei Navi "Scalability", womit dies gemeint sein könnte.

Botcruscher
2016-09-21, 16:54:27
Die Spekulationen sind doch hoffentlich totaler Quatsch. Wenn nicht kann sich AMD gleich eingraben. Um 9 Monate später und nur zwei Chips wären ein schlechter Witz. Dazu lächerliche 1080er Leistung samt einer unbrauchbaren X2 . Alleine die Idee ist ohne vollkommen neues Konzept lächerlich.

Mal sehen wann MCM wieder hochkocht.

Zwischen Polaris 10 (ca. 6TFlops) und Vega 10 (ca. 12TFlops) passt dann eigentlich noch ganz gut ein Vega 11 Chip (vielleicht ca. 8-9 TFlops ???).
1/3 bis 1/4 ist die typische Verwertung aus der Restebox. Da passt überhaupt nichts.

N0Thing
2016-09-21, 16:57:13
Zwischen Polaris 10 (ca. 6TFlops) und Vega 10 (ca. 12TFlops) passt dann eigentlich noch ganz gut ein Vega 11 Chip (vielleicht ca. 8-9 TFlops ???).
Und ein Shrink als Pipe-Cleaner von Vega 10 auf Vega 20 macht auch Sinn. GF will in Q1/2017 mit der Risk-Production von "7nm" anfangen, das sollte für einen Chip im Sommer 2018 reichen.

Zwischen Polaris 10 und Vega 10 passt auch ein Salvage Vega 10 gut rein mit 9 TFlops.
Globalfoundries will übrigens nach eigener Aussage im Jahr 2018 mit der Risk Produktion beginnen, nicht schon 2017. :

http://www.globalfoundries.com/newsroom/press-releases/globalfoundries-extends-roadmap-to-deliver-industry-s-leading-performance-offering-of-7nm-finfet-technology
https://www.computerbase.de/2016-09/globalfoundries-7-nm-finfet/

Elkinator
2016-09-21, 17:01:27
Navi wird halt die erste echte GCN 2.0 Architektur
Dieser inoffizielle Mist nervt langsam!

stinki
2016-09-21, 17:03:20
Zwischen Polaris 10 und Vega 10 passt auch ein Salvage Vega 10 gut rein mit 9 TFlops.
Globalfoundries will übrigens nach eigener Aussage im Jahr 2018 mit der Risk Produktion beginnen, nicht schon 2017. :

http://www.globalfoundries.com/newsroom/press-releases/globalfoundries-extends-roadmap-to-deliver-industry-s-leading-performance-offering-of-7nm-finfet-technology
https://www.computerbase.de/2016-09/globalfoundries-7-nm-finfet/

Ups, um ein Jahr vertan, dann müsste AMD wohl N7 von TSMC nehmen, oder GF gibt mal ausnahmsweise richtig Gas...wobei abwarten, die Hoffnung auf GF stirbt zu letzt ;-)

stinki
2016-09-21, 17:07:02
1/3 bis 1/4 ist die typische Verwertung aus der Restebox. Da passt überhaupt nichts.

Dann ist Nvidia mit 11.8TFlops bei GP102 und 8.9TFlops bei GP104 wohl auch voll neben der Spur...

dargo
2016-09-21, 17:20:56
Wenn der Sprung von der Polaris zur Vega-Architektur wie früher eher ein kleiner Sprung für die Performance bedeutet, dann würde Vega 10 mit 64 CU und den 12TF auf Höhe der GTX 1080 landen.
Jetzt braucht also AMD bei V10 mit weiteren Optimierungen gegenüber P10 schon 35% mehr TFLOPs um mit GP104 gleichzuziehen? Das wird ja immer besser. ;D Da hier von manchen so gerne low level gehört wird beschränke ich mich überwiegend auf DX11.
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/

In 1440p liegt die MSI Gaming GTX1060 im Schnitt 10% über der RX480 Referenz die im Schnitt bei CB afaik auf 1180Mhz kommt. Nach meiner Rechnung braucht also AMD bei Polaris 10 ~21% mehr TFLOPs für gleiche Leistung in diesem Benchmarkparcour.

PS: ich habe mich für die MSI Gaming entschieden weil sie überall ihre 1936Mhz hält, ist einfacher zu rechnen. Mit Referenz RX480 vs. Referenz GTX1060 @1850Mhz avg. kommt man aufs selbe Ergebnis.

Bei dem TDP Budget von 300W wird die Dual Lösung vlt 18TFlops erreichen.

Dass der Takt bei der Duallösung deutlich runter muss um in die 300W zu passen, wenn schon die Singlelösung 225W haben soll ist mir schon klar. Sollte das Gerücht stimmen wirds ne Art Dual-Nano.

Botcruscher
2016-09-21, 17:21:42
Dann ist Nvidia mit 11.8TFlops bei GP102 und 8.9TFlops bei GP104 wohl auch voll neben der Spur...
AMD braucht mehr stumpfe Flops weil bei Spielen weniger ankommt. So wird mit Glück GP104(OC) erreicht. Dazu hat NV mit GP106 inzwischen 3 Chips draußen. Nummer 4 kommt noch. Die 4 hätte AMD dann in zwei Jahren gebracht. Dazu wird P10 eingestampft.:uclap:

BlacKi
2016-09-21, 17:22:34
Dann ist Nvidia mit 11.8TFlops bei GP102 und 8.9TFlops bei GP104 wohl auch voll neben der Spur...

erwartender 4k wert von vega mit 12tflops auf basis der fury x (100%) mit 8,5tflops = 141%

erwartender 4k wert von vega mit 12tflops auf basis der rx480 (72%) mit 5,5tflops = 157%

die FE 1080 hat 132%

die Txp hat 173%

hübie würde jetzt fragen ob ich langeweile habe...

und wie! ich geh mal ne runde paragon zocken mit den hässlichen slowdowns dank meiner r9 290...

dargo
2016-09-21, 17:28:10
nimm doch mal die fury x mit ihren 8,5tflops als vergleich her.
Ein ziemlicher Fehler die Fury als Basis zu nehmen. ;)

stinki
2016-09-21, 17:29:02
AMD braucht mehr stumpfe Flops weil bei Spielen weniger ankommt. So wird mit Glück GP104(OC) erreicht. Dazu hat NV mit GP106 inzwischen 3 Chips draußen. Nummer 4 kommt noch. Die 4 hätte AMD dann in zwei Jahren gebracht. Dazu wird P10 eingestampft.:uclap:

Was hat das mit meiner Aussage zu tun, dass zwischen Vega 10 ca. 12TFlops und Polaris 10 ca. 6TFlops noch ein weiter Chip passt (Vega 11) der einen ähnlichen Flops-Abstand wie GP102 (ca. 12TFlops) zu GP104 (ca. 9TFlops) hat?

Und ja, AMD bringt schon seit Jahren weniger reine Grafik-Chips raus als Nvidia, weil die sparen müssen...
Dafür designen die nebenher noch Consolen-Chips und CPUs...

N0Thing
2016-09-21, 17:29:27
Jetzt braucht also AMD bei V10 mit weiteren Optimierungen gegenüber P10 schon 35% mehr TFLOPs um mit GP104 gleichzuziehen? Das wird ja immer besser. ;D Da hier von manchen so gerne low level gehört wird beschränke ich mich überwiegend auf DX11.
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/

In 1440p liegt die MSI Gaming GTX1060 im Schnitt 10% über der RX480 Referenz die im Schnitt bei CB afaik auf 1180Mhz kommt. Nach meiner Rechnung braucht also AMD bei Polaris 10 ~21% mehr TFLOPs für gleiche Leistung in diesem Benchmarkparcour.


Ich habe einfach geschaut, wie eine RX 480 gegenüber einer GTX 1080 abschneidet und da liegt die Nvidia-Karte bei Computerbase im Durchschnitt um 72% vorne. Vega 10 hat angeblich 75% mehr CUs und soll doppelt so viele TFlops schaffen und das bei 50% mehr Stromverbrauch (evtl. wieder nur der Chip alleine?).

Aus den Werten, sollten sie denn stimmen, folgt für mich eine Grafikkarte, die sich vor die GTX 1080 setzen könnte, aber sicher nicht mit dem GP102 auf einer Wellenlänge ist. Wenn es doch so kommt, freue ich mich für AMD und über meine tolle nächste Grafikkarte, allein mir fehlt der Glaube.

Linmoum
2016-09-21, 17:34:24
Ich habe einfach geschaut, wie eine RX 480 gegenüber einer GTX 1080 abschneidet und da liegt die Nvidia-Karte bei Computerbase im Durchschnitt um 72% vorne. Vega 10 hat angeblich 75% mehr CUs und soll doppelt so viele TFlops schaffen und das bei 50% mehr Stromverbrauch (evtl. wieder nur der Chip alleine?).

Aus den Werten, sollten sie denn stimmen, folgt für mich eine Grafikkarte, die sich vor die GTX 1080 setzen könnte, aber sicher nicht mit dem GP102 auf einer Wellenlänge ist. Wenn es doch so kommt, freue ich mich für AMD und über meine tolle nächste Grafikkarte, allein mir fehlt der Glaube.
Die Bandbreitenlimitierung bei Polaris nicht vergessen, dürfte bei Vega kein Problem mehr darstellen.

Pirx
2016-09-21, 17:36:12
Die Bandbreitenlimitierung bei Polaris nicht vergessen, dürfte bei Vega kein Problem mehr darstellen.
sowie die nur 32 ROPs

BlacKi
2016-09-21, 17:36:35
Ein ziemlicher Fehler die Fury als Basis zu nehmen. ;)
habs oben editiert und eine 480 mit reingenommen, könnte ja sein das die 4gb der fury x limitieren.

Die Bandbreitenlimitierung bei Polaris nicht vergessen, dürfte bei Vega kein Problem mehr darstellen.
wenn man die fury x mit hbm mit rein nimmt siehts nicht besser aus.

Pirx
2016-09-21, 17:39:54
...
wenn man die fury x mit hbm mit rein nimmt siehts nicht besser aus.
Speicherlimitierung, niedrigere GCN-Version, ...

Leonidas
2016-09-21, 17:40:18
Für mich macht schon die Zusammenfassung von Leonidas auf der Hauptseite keinen Sinn.

Ein Dual-V10 mit 128 CUs konkurriert also mit GP102 wo die Singlelösung bereits 12 TFLOPs erreichen soll? :|


Also ersten wird DualChip nicht diese Taktraten bieten können wie SingleChip. Und zweitens kommt dann noch die CF-Effizienz abmildernd hinzu.

Zudem schaue ich nicht auf die 12 TF im Vergleich mit NV. Ich schaue, was AMD mit den 6 TF der RX480 erreicht hat und rechne von da aus hoch. Da dürffte es schon knapp werden, mit diesen 12 TF die 1080 wirklich zu erreichen.

BlacKi
2016-09-21, 17:46:16
Zudem schaue ich nicht auf die 12 TF im Vergleich mit NV. Ich schaue, was AMD mit den 6 TF der RX480 erreicht hat und rechne von da aus hoch. Da dürffte es schon knapp werden, mit diesen 12 TF die 1080 wirklich zu erreichen.
wie verrechnest du die werte? ich komme mit den werten der 480 ausgehend von 5,5tflops auf einen 4k wert von 157% was deutlich schneller ist wie eine 1080, aber nicht an die txp rankommt. aber selbst mit 6tflops der 480 kommt vega mit 12tflops auf 144%.

dargo
2016-09-21, 17:47:12
Also ersten wird DualChip nicht diese Taktraten bieten können wie SingleChip.

Schon klar... habs ja oben geschrieben.


Zudem schaue ich nicht auf die 12 TF im Vergleich mit NV. Ich schaue, was AMD mit den 6 TF der RX480 erreicht hat und rechne von da aus hoch. Da dürffte es schon knapp werden, mit diesen 12 TF die 1080 wirklich zu erreichen.
Wie kann man da was vom P10 hochrechnen wenn V10 kein aufgeblasener P10 ist? Und nochmal... ein P10 hat keine 6 TFLOPs, zumindest nicht die Referenz. Die hat je nach Test 5,30-5,44 TFLOPs. Für 6 TFLOPs braucht es dauerhaft anliegende 1302Mhz bei der GPU. Und das erreichen nicht mal viele Customs.

habs oben editiert und eine 480 mit reingenommen, könnte ja sein das die 4gb der fury x limitieren.

Mir gings dabei weniger um den Speicher, viel mehr gings mir um das Design von Fiji.

BlacKi
2016-09-21, 17:51:13
Wie kann man da was vom P10 hochrechnen wenn V10 kein aufgeblasener P10 ist?
von da aus kann man dann geringe verbesserungen nochmals obendrauf rechnen. massiv wird sich da nichts tun.

HOT
2016-09-21, 18:12:54
Also ersten wird DualChip nicht diese Taktraten bieten können wie SingleChip. Und zweitens kommt dann noch die CF-Effizienz abmildernd hinzu.

Zudem schaue ich nicht auf die 12 TF im Vergleich mit NV. Ich schaue, was AMD mit den 6 TF der RX480 erreicht hat und rechne von da aus hoch. Da dürffte es schon knapp werden, mit diesen 12 TF die 1080 wirklich zu erreichen.
Da die 480 ziemlich an der Bandbreite hängt ist das aber auch gewagt. Vielleicht sollte man von einer 470 von Sapphire (mit 8Gbps GDDR5) aus hochrechnen.

Nakai
2016-09-21, 18:17:13
Hier mal das Patent für variable SIMD-Units innerhalb einer CU.

fondness
2016-09-21, 18:44:47
AMD VEGA and NAVI Roadmap
http://videocardz.com/63715/amd-vega-and-navi-roadmap

Ailuros
2016-09-21, 19:16:12
AMD VEGA and NAVI Roadmap
http://videocardz.com/63715/amd-vega-and-navi-roadmap

Gib mir nur einen logischen Grund warum Vega 10 nur ueber 750 GFLOPs DP faehig sein sollte..... *seufz*

Der_Korken
2016-09-21, 19:21:27
Wenn V10 kein 1:2 DP kann, müsste AMD wie auf der Roadmap zu sehen den Hawaii-Chip bis 2018(!) mit durchschleifen. Das macht irgendwie keinen Sinn.

Ailuros
2016-09-21, 19:29:09
Wenn V10 kein 1:2 DP kann, müsste AMD wie auf der Roadmap zu sehen den Hawaii-Chip bis 2018(!) mit durchschleifen. Das macht irgendwie keinen Sinn.

Desktop SKUs werden wohl schon gebremste DP Werte haben, aber der chip wird wohl schon ueber 1:2 faehig sein. Was sich hier WhyCry zusammenreimt ist wohl laecherlich....1:2 erst in Mitte 2018 mit Vega20 und Hawaii immer noch in 2017 fuer HPC?

Triskaine
2016-09-21, 19:32:17
Wozu unnötige DP Performance verbauen, die Karten verkaufen sich sowieso nicht. Wieviele aktuelle Installationen setzen auf AMD? Die HPC Welt ist voll auf CUDA ausgerichtet, da braucht AMD mit ihrer halbgaren Toolchain gar nicht erst anrücken. Der Leiter der (Grafik)Compiler Truppe bei AMD ist übrigens vor ein paar Jahren zusammen mit ein paar Kollegen zu Nvidia gewechselt, sagt schon alles über die interne Lage dort.

stinki
2016-09-21, 19:32:31
Desktop SKUs werden wohl schon gebremste DP Werte haben, aber der chip wird schon ueber 1:2 faehig sein. Was sich hier WhyCry zusammenreimt ist wohl laecherlich....1:2 erst in Mitte 2018 mit Vega20? :freak:

Warten wir es ab, vielleicht wäre Vega 10 mit 1:2 für das was AMD wollte zu groß geworden und hätte zu viel verbraucht. Und mit nur 2 HBM Stacks nicht genug Bandbreite im Vergleich zu GP100...aber ich hätte auch 1:2 für den großen Vega erwartet...

Aber Vega 20 hört sich richtig gut an, mal abwarten ob das mit 2H2018 in "7nm" wirklich klappt, sein Gegner wird dann aber sehr wahrscheinlich GV100 (oder GV110) in TSMC 10nm sein.

Mir scheint AMD hat einen ganz eigenen "Plan" der nicht mehr wirklich viel mit dem zu tun hat was Nvidia die letzten Generationen abliefert...

Ailuros
2016-09-21, 19:38:23
Warten wir es ab, vielleicht wäre Vega 10 mit 1:2 für das was AMD wollte zu groß geworden und hätte zu viel verbraucht. Und mit nur 2 HBM Stacks nicht genug Bandbreite im Vergleich zu GP100...aber ich hätte auch 1:2 für den großen Vega erwartet...

Damit wuerden sie den HPC Markt quasi noch mehr an NV verschenken.

Aber Vega 20 hört sich richtig gut an, mal abwarten ob das mit 2H2018 in "7nm" wirklich klappt, sein Gegner wird dann aber sehr wahrscheinlich GV100 (oder GV110) in TSMC 10nm sein.

GV100 klingt mir zunehmend nach einem HPC only chip mit >7 TFLOPs DP, 1.0 TB/s unter 16FF+.

Triskaine
2016-09-21, 19:45:45
Damit wuerden sie den HPC Markt quasi noch mehr an NV verschenken.

Wie kann man etwas verschenken was man nicht hat? Mir ist nicht eine größere Installation bekannt die auf AMD setzt oder gesetzt hat. Nvidia hat inzwischen ein dermaßen starkes Ökosystem aufgebaut daß nicht einmal Intel einen Stich macht. AMD sollte seine knappen Mittel lieber aussichtsreicheren Märkten widmen, als irgendwelchen HPC Gespinsten hinterherzujagen.

stinki
2016-09-21, 19:48:33
Damit wuerden sie den HPC Markt quasi noch mehr an NV verschenken.
Ja, aber wie gesagt AMD arbeitet momentan scheinbar völlig lösgelöst von Nvidia an seinem ganz eigenen "Plan", wo auch immer dieser AMD und uns Consumenten hinführen wird...



GV100 klingt mir zunehmend nach einem HPC only chip mit >7 TFLOPs DP, 1.0 TB/s unter 16FF+.
Könnte natürlich immer noch sein, dann würde es wahrscheinlich auf TSMC "10nm" genau wie bei TSMC "20nm" keine Grafik-Chips geben und AMD und Nvidia würden beide direkt auf "7nm" wechseln.
Aus Konkurrenz-Sicht müsste Nvidia keinen "10nm" GV100 bringen da GP100 wahrscheinlich schon für alles reicht was AMD bis Vega 20 bringt.
Aber ich tippe trotzdem immer noch auf einen "10nm" GV100 (aber hey, selbst ich kann mich irren ;-)

Ailuros
2016-09-21, 19:50:55
Wie kann man etwas verschenken was man nicht hat? Mir ist nicht eine größere Installation bekannt die auf AMD setzt oder gesetzt hat. Nvidia hat inzwischen ein dermaßen starkes Ökosystem aufgebaut daß nicht einmal Intel einen Stich macht. AMD sollte seine knappen Mittel lieber aussichtsreicheren Märkten widmen, als irgendwelchen HPC Gespinsten hinterherzujagen.

In meinem Satz steht noch mehr aus gutem Grund.

Nach der Logik koennte sie auch gleich den workstation Markt vernachlaessigen und sich jegliches Vega20 oder was immer auf der roadmap steht auch gleich sparen.

iuno
2016-09-21, 19:51:32
Das ist schon ziemlicher Kaese, AMD schmeisst offenbar komplett hin. Mit 1/16 DP kann das Ding abstinken gegen KNL, von GP100 gar nicht zu sprechen. Warum stellen sie die FirePro S Serie nicht gleich komplett ein? Wer kauft jetzt und die naechsten 2 Jahre noch Hawaii? Die HPC APU, die fuer 17 angedacht war, kann man demnach auch vergessen. Vega 10 bekommt kein GMI. "Greenland" ist aufgegangen in eine abgespeckte Version und einen Shrink, der zwei Jahre spaeter kommt.
Da kann man nur hoffen, dass der Sparkurs was bringt und Zen, Polaris, Vega und die Konsolen wenigstens einigermassen Kohle einfahren, aber vorne mitfahren ist so nicht mehr drin.
Aber ich bin mal gespannt, wie sie die knapp 1500 MHz hinbekommen und was am Ende dabei raus kommt.

Schnoesel
2016-09-21, 20:28:19
Jedes mal das gleiche. Da werden irgendwelche Behauptungen, angebliche Leaks ich nenne es mal Bullshit als bare Münze genommen. Offenbar lernt man nichts aus den letzten Releases.

Schaffe89
2016-09-21, 22:22:20
Wie kann man da was vom P10 hochrechnen wenn V10 kein aufgeblasener P10 ist?

AMD macht seit GCN 1.0 bei den Shadern nur kleine inkrementelle Verbesserungen, was soll denn jetzt mit Vega 10 schon groß kommen?
Auf den Roadmaps sieht das nicht nach major Verbesserungen aus.

AMD wird eine GTX 1080 mit 4096 Shadern nicht schlagen können, wenn man dafür grob die Ausgangsbasis von Fijii und Polaris nimmt und realistische Taktraten von max 1000 bis 1200mhz anpeilt.

In WHQD ist eine GTX 1080 80% schneller, in Directx12 die aktuell pro AMD laufen sind es 60% im Vergleich zur rx480 stock.

Wenn also AMD kein 300 Watt Monster erschaffen will und die GPU im Zaum halten will, wird die mit 225 Watt nicht an eine GTX 1080 heranreichen.

Außerdem wird AMD keine GPU bei TSMC fertigen, sondern alle kommen von Globalfoundries und da diese weniger Expertise besitzen, wird auch dies der Grund für die Verschiebung und den späten Release sein.

Und dass Polaris gegen Vega 11 getauscht wird, glaube ich sofort, denn so wie ich das sehe wäre Polaris ein 20nm Chip gewesen, den man jetzt einfach in 14nm produziert hat, sozusagen aus der Not heraus, zudem ist der Chip auch nicht konkurrenzfähig, weder was Effizienz angeht, noch was die Produktionskosten angeht.
Zudem will den Chip keiner für Notebooks haben und auch der kleine Polaris wird hier kaum Design Wins ergattern können.

Achim_Anders
2016-09-21, 22:41:45
Hey Schaffe89: Das Vega 11 Polaris im Consumer Markt ersetzen soll ist schon seit Stunden von dem Leaker relativiert und negiert woren. Da glaubst du also vollkommen falsch.

Elkinator
2016-09-21, 22:51:30
Zudem will den Chip keiner für Notebooks haben und auch der kleine Polaris wird hier kaum Design Wins ergattern können.Dieses Aussage ist an Dummheit wohl nicht zu schlagen.
Polaris wird AMD von den OEMs (Apple,...) eh nur aus der Hand gerissen, davon kann NVIDIA aktuell nur träumen!

PrivateCeralion
2016-09-21, 23:33:08
noch was die Produktionskosten angeht.

Polaris ist also nicht konkurenzfähig, was die Produktionskosten angeht?

Arbeitest du bei AMD? Oder bei Global Foundrys? Oder weißt du, wie viel teurer ein 14nm Wafer ist? Oder wie hoch die Yieldrate ist? Oder kennst du die kosten pro Wafer?
Hier mal ein Beispiel:
GTX 1080 314cm^2 =17,7mm Kantenlänge
Rx 480 232cm^2 =15,2mm Kantenlänge

DPW=d*Pie*( d/4A - 1/sqrt(2A) )

für d habe ich 450mm angenommen.

GTX 1080 Chips pro Wafer= 450

RX 480 Chips pro Wafer= 619

Jetzt kommt dazu, dass bei einer gleichen Anzahl von Defekten pro Wafer die Yieldrate bei der GTX 1080 viel schlechter ist, da die Defekte auf weniger Chips vereilt werden.

Mit anderen Worten, du kannst gar nicht einschätzen, ob es sich lohnt.

Elkinator
2016-09-21, 23:37:14
Wie Wafer haben 300mm Durchmesser.

AMD zahlt aber bei GF schon weniger als andere Kunden, das WSA hat eben nicht nur Nachteile.

PrivateCeralion
2016-09-21, 23:51:02
Mit 300mm Durchmesser wären das:
187 GTX 1080 und 260 RX 480 Chips. + Wahrscheinlich bessere Yieldrate + Weniger kosten pro Wafer.

iuno
2016-09-22, 00:03:07
Und wieso vergleichst du mit GP104? P10-Konkurrenz ist GP106.

PrivateCeralion
2016-09-22, 00:15:40
Und wieso vergleichst du mit GP104? P10-Konkurrenz ist GP106.

Mir ging es gar nicht um den Vergleich zwischen konkurierenden Chips, sondern darum, dass ein kleiner Chip sehr viel wirtschaftlicher ist. Und Nvidia an einer GTX 1080 gar nicht so viel mehr verdient, wie AMD an einer RX 480.

Vielleicht ist es sogar ziemlich schlau, erst mal nur kleine Chips zu produzieren, um den neuen Prozess unter Kontrolle zu bekommen. Und 9 Monate später erst die großen Chips herauszuhauen.

Schaffe89
2016-09-22, 00:43:38
Hey Schaffe89: Das Vega 11 Polaris im Consumer Markt ersetzen soll ist schon seit Stunden von dem Leaker relativiert und negiert woren. Da glaubst du also vollkommen falsch.

Ok danke, wusste ich nicht, jedenfalls hätte einiges dafür gesprochen das zu machen, jedenfalls aus meiner Sicht.

Dieses Aussage ist an Dummheit wohl nicht zu schlagen.
Was willst du denn mit einem ineffizienten Chip im Notebook reißen, der nur auf Maxwell Niveau liegt? Das ist doch das Problem von P11 und P10, die mangelnden Design wins im Notebookbereich und die TDP´s bei kaum gesunkender Leistung, die Nvidia mit dem GP106 vorlegt und mit GP107 nachlegen wird, genau deswegen erschien ein Vega P11, also ein Polaris Update gar nicht unwahrscheinlich, aber nunja jetzt ist das scheinbar vom Tisch.

Apple verbaut doch nur AMD weil AMD so günstige Konditionen liefert, bei den geringen Absatzzahlen von Apple Produkten gegenüber anderen wie Acer oder Lenovo, ist das nur ein Tropfen auf den heißen Stein.

AMD zahlt aber bei GF schon weniger als andere Kunden, das WSA hat eben nicht nur Nachteile.

Erstmal kann man nur zu den Chipgrößen von AMD und Nvidia etwas sagen und über den verbauten Ram.
Und da ist der Nvidia Chip halt kleiner und leistungsfähiger. Letzten endes wird mans wieder bei den Margen sehen, dass AMD da keine Kostenvorteile bei Globalfoundries hat.
Bis dahin gilt es das offensichtliche zu negieren, bis man dann wieder eines besseren belehrt wird.

Polaris ist also nicht konkurenzfähig, was die Produktionskosten angeht?

Gegenüber GP106 kostet Polaris von den reinen Produktionskosten sicherlich erheblich mehr und das wird sich mit Vega 10 und HBM2 gegenüber GP104 noch verschlimmern und drückt die Margen.

Vielleicht ist es sogar ziemlich schlau, erst mal nur kleine Chips zu produzieren, um den neuen Prozess unter Kontrolle zu bekommen.

Nein, das genaue Gegenteil ist der Fall, weil sich die Käuferschaft mehr im Performancebereich orientiert >300 Euro und man damit Kohle verdienen kann.
Und eine rx480 ist sicher nicht besonders wirtschaftlich, man kann ja aktuell noch nicht mal die Nachfrage befriedigen ( was auf sehr schlechte Yieldraten hindeutet), einige Custumdesigns sind immernoch nicht gut lieferbar, ein His Customdesign ist jetzt erst verfügbar, weil man vorher offenbar gar keine Chips bekommen hat.

Elkinator
2016-09-22, 01:09:32
Auch falls die Yield bei TSMC etwas besser wäre, es bringt NVIDIA eh nichts, Apple nimmt einen Großteil der Kapazitäten weg und davor hat AMD NVIDIA die Kapazitäten vor der Nase weg gekauft.

mczak
2016-09-22, 01:34:06
Wenn V10 kein 1:2 DP kann, müsste AMD wie auf der Roadmap zu sehen den Hawaii-Chip bis 2018(!) mit durchschleifen. Das macht irgendwie keinen Sinn.
Naja also wenn es nur darum geht dass man keinen Hawaii-Chip mehr braucht würde auch 1:4 DP reichen bei den angeblichen 12 TFlop SP um Hawaii bei DP zu schlagen.
Dies allerdings zumindest bei den rohen Flops nur sehr knapp...

Leonidas
2016-09-22, 05:43:13
wie verrechnest du die werte? ich komme mit den werten der 480 ausgehend von 5,5tflops auf einen 4k wert von 157% was deutlich schneller ist wie eine 1080, aber nicht an die txp rankommt. aber selbst mit 6tflops der 480 kommt vega mit 12tflops auf 144%.


Kann man grob so überschlagen. Egal wie man es rechnet - man erreicht man voraussichtlich die 1080 (132%), aber nicht die TXP (173%). Und 157% werden es sicherlich nicht werden, eine perfekte Skalierung ist eine Illusion. Deswegen bin ich da vorsichtig, ob man in der Realität wirklich überhaupt 132% erreicht. Auch das will erst einmal erreicht werden.

Hinzu kommt die angesprochene Taktratenproblematik. Wenn AMD den Takt nicht schafft, gibt es auch keine 12 TFlops.




AMD VEGA and NAVI Roadmap
http://videocardz.com/63715/amd-vega-and-navi-roadmap


Leider gibt es hier Differenzen zur ersten Meldung:
Vega 10: zuerst Q1/2017, nun H1/2017
Dual Vega 10: zuerst Q2/2017, nun H2/2017

dargo
2016-09-22, 07:08:33
AMD wird eine GTX 1080 mit 4096 Shadern nicht schlagen können, wenn man dafür grob die Ausgangsbasis von Fijii und Polaris nimmt und realistische Taktraten von max 1000 bis 1200mhz anpeilt.

Du kannst uns gerne vorrechnen wie AMD mit 64CUs bei 1,0-1,2Ghz 12 TFLOPs erreicht. :rolleyes:

Foobar2001
2016-09-22, 07:14:19
Mir ging es gar nicht um den Vergleich zwischen konkurierenden Chips, sondern darum, dass ein kleiner Chip sehr viel wirtschaftlicher ist. Und Nvidia an einer GTX 1080 gar nicht so viel mehr verdient, wie AMD an einer RX 480.
Da liegst du jetzt aber wahrscheinlich falsch. Das ganze Board und die Spannungsversorgung samt Kuehler kosten wohl aehnlich (150W gegenueber 180W TDP ist jetzt kein riesiger Unterschied).

NVIDIA verlangt dafuer $700, AMD $300. NVIDIA hat also vor Steuern $400 mehr Umsatz pro Karte.

Ein 300mm 16FF Wafer kostet angeblich um die $5000. Bei 200 Chips pro Wafer bei GP104 sind wir also bei $25. Dazu kommen dann natuerlich noch packaging, loeten, etc. Aber ueber $50 mehr sind's eher nicht bei GP104 gegenueber Ellesmere. GDDR5X ist teuerer als GDDR5, aber sicher auch keine hundert Dollar.

Korvaun
2016-09-22, 08:14:15
Das soll AMDs Zukunft sein? Vega10 wenns gut läuft Anfang 2017 auf 1080ti/1080-Niveau? Und das wars dann für 2017, Refresh des Ganzen 2018, Navi erst 2019?

nV hat also gewonnen. 2017 kommt nen Pascal-Refresh der locker mit allem was AMD hat den Boden aufwischt, 2018 kommt dann Volta und vernichtet AMD endgültig...

p.S. das ist natürlich sehr zugespitzt ausgedückt ;)

tm0975
2016-09-22, 08:24:11
würde ich an AMD's stelle genauso machen. wenn alle über 400€ eh nvidia kaufen wollen, wozu dann einen chip rausbringen? sollen doch die, die eh ne nvidia karte kaufen wollen halt 700 bis 800 € ausgeben statt 600 vor einer generation. AMD konzentriert sich auf sein marktsegment und gut ist es. wenn ressourcen übrig sind, gbts vielleicht auch wieder mehr.

HOT
2016-09-22, 09:07:36
Das soll AMDs Zukunft sein? Vega10 wenns gut läuft Anfang 2017 auf 1080ti/1080-Niveau? Und das wars dann für 2017, Refresh des Ganzen 2018, Navi erst 2019?

nV hat also gewonnen. 2017 kommt nen Pascal-Refresh der locker mit allem was AMD hat den Boden aufwischt, 2018 kommt dann Volta und vernichtet AMD endgültig...

p.S. das ist natürlich sehr zugespitzt ausgedückt ;)
Die Leistungsspitze wird AMD nicht übernahmen, das ist jetzt schon klar, aber wie du das schreibst ist das natürlich total übertrieben. Jedoch gibts auch keine großen Chips offenbar wie beispielsweise Fiji. Damit kann man ganz oben sowieso nicht konkurrieren und will es offensichtlich auch gar nicht.

N0Thing
2016-09-22, 10:37:03
Du kannst uns gerne vorrechnen wie AMD mit 64CUs bei 1,0-1,2Ghz 12 TFLOPs erreicht. :rolleyes:

Vielleicht erreichen sie die 12TFlops auch gar nicht. Oder sie müssen vielleicht für die 12TFlops die TDP erhöhen, weil der Prozess nicht mehr hergibt.
So schön wie Polaris mal auf den Roadmaps und Folien ausgeschaut hat, war er dann am Ende ja leider doch nicht.


Das soll AMDs Zukunft sein? Vega10 wenns gut läuft Anfang 2017 auf 1080ti/1080-Niveau? Und das wars dann für 2017, Refresh des Ganzen 2018, Navi erst 2019?

nV hat also gewonnen. 2017 kommt nen Pascal-Refresh der locker mit allem was AMD hat den Boden aufwischt, 2018 kommt dann Volta und vernichtet AMD endgültig...

p.S. das ist natürlich sehr zugespitzt ausgedückt ;)

Zugespitzt oder nicht, das wurde schon seit Fermi so prophezeit und AMD strampelt immer noch.

HOT
2016-09-22, 10:39:37
Ja prophetisch ... hätte AMD seine Ressourcen auch nur ein bisschen besser eingesetzt, vor allem im Softwarebereich, wär das weniger prophetisch. So einen Quatsch kann man hinterher natürlich immer behaupten.
Und es ist klar, dass V10 sicherlich real bei 250W+ landen wird, das ist nicht schwer zu erraten - aber auch weit weniger tragisch, als du das jetzt machst.
Bei Polaris störts offensichtlich auch keinen, die verkaufen sich trotzdem wie blöd. Diese ganze Stromverbrauchsnummer ist dermaßen überschätzt...

chetigol
2016-09-22, 10:50:08
http://ht4u.net/news/32354_amds_grafikchip_vega_10_soll_angeblich_24_tflops_erreichen/

N0Thing
2016-09-22, 11:03:00
Ja prophetisch ... hätte AMD seine Ressourcen auch nur ein bisschen besser eingesetzt, vor allem im Softwarebereich, wär das weniger prophetisch. So einen Quatsch kann man hinterher natürlich immer behaupten.
Und es ist klar, dass V10 sicherlich real bei 250W+ landen wird, das ist nicht schwer zu erraten - aber auch weit weniger tragisch, als du das jetzt machst.
Bei Polaris störts offensichtlich auch keinen, die verkaufen sich trotzdem wie blöd. Diese ganze Stromverbrauchsnummer ist dermaßen überschätzt...

Vor dem deinem Edit habe ich mich gar nicht angesprochen gefühlt, aber auch jetzt verstehe ich nur bei der Hälfe, was du damit eigentlich sagen willst.

Warum es Quatsch sein soll, AMD noch nicht abzuschreiben, das möchte ich gerade von dir sehr gerne hören. :D

Des weiteren mache ich nichts tragisch, ich stelle nur die Richtigkeit der angeblichen Roadmap in Frage und halte Schlussfolgerungen der Sorte Vega 10 wird sich mit GP102 anlegen für zu optimistisch. Erinnere dich mal zurück an die Zeit vor dem Polaris Release, da wurde auch ganz schnell anhand von kleinen Informationshäppchen Polaris auf GP104 Level, oder als Ablösung der Fury und 980Ti eingeschätzt. E:\ Und der Stromverbrauch hat bekanntlich Einfluss auf den Kühler und damit auf die Lautstärke. Dass dies nicht jedem egal ist, kann man ja oft genug lesen. Mal ganz abgesehen davon, ob man den anvisierten Takt überhaupt innerhalb der erwarteten Leistungsaufnahme schafft.

Dass sich Polaris trotzdem gut verkauft liegt daran, dass P10 und P11 in dem Preis und Leistungsspektrum besser als die alten Karten sind und von Nvidia keine Konkurrenz vorhanden ist. Polaris ist nicht schlecht, das habe ich nie behauptet, aber eben nicht so gut, wie es einem Roadmaps und Präsentationsfolien angedeutet haben.

Hübie
2016-09-22, 11:04:55
@chetigol: A) bekannt, B) ist es offenbar zuviel verlangt einen Satz dazu zu schreiben :rolleyes:

Es handelt sich um die 24 TFLOP-News.

Nakai
2016-09-22, 11:13:09
Ich sage es nochmal, der Sprung von Perf/Watt von Polaris auf Vega auf der AMD Roadmap ist nicht alleine mit HBM2 erreichbar.

Die Perf/Watt-Angaben seitens AMD sind sowieso immer mit Vorsicht zu genießen. Höchstwahrscheinlich bemerkt man doch, dass die ursprünglichen Projektionen nicht ganz ausreichen werden, und man die Chips noch etwas näher ans Limit prügeln muss. Und dann geht die Perf/Watt wieder in den Keller.
Es ist eh schon bemerkenswert, dass man mit V10 an die 12 FP32-TFLOPs liefern möchte, da braucht man einen höheren Takt als P10. Der Chip muss diesbezüglich bei gleichem Takt zu P10 eine bessere W/mm² liefern, sonst bekommt man ein thermisches Problem'chen. Doppelt so schnell wie P10 bei nicht ganz doppeltem Verbrauch (150W -> 250W).

Ailuros
2016-09-22, 11:19:13
Vielleicht erreichen sie die 12TFlops auch gar nicht. Oder sie müssen vielleicht für die 12TFlops die TDP erhöhen, weil der Prozess nicht mehr hergibt.
So schön wie Polaris mal auf den Roadmaps und Folien ausgeschaut hat, war er dann am Ende ja leider doch nicht.

Ich wuerde liebend gerne wissen wer und wie genau die 12 TFLOPs rausgeleakt hat, denn Fudo glaube ich nicht selbst wenn er mich ueberzeugen will dass Milch weiss ist....:rolleyes: Zur Erinnerung mag durchaus sein dass ich schon seit langem falsch liege aber meine Infos sprechen nach wie vor von 16FF+ TSMC fuer Vega. Hier koennte ich unter Umstaenden eine 1.5GHz glauben, fuer 14LPP aber nicht, ergo muessen sich so manche AMD fans erstmal klar werden auf welcher Linie sie weiterspekulieren moechten und ob der insgesamte Zusammenhang auch keine Luecken hat...

Zugespitzt oder nicht, das wurde schon seit Fermi so prophezeit und AMD strampelt immer noch.

Man muss lediglich Dave Baumann's Aussage bei B3D finden wo er behauptet dass AMD mit nur zwei chips insgesamt pro Jahr auskommen kann. Natuerlich geht es, aber es hat auch stellenweise gravierende Nachteile.

Ich sage es nochmal, der Sprung von Perf/Watt von Polaris auf Vega auf der AMD Roadmap ist nicht alleine mit HBM2 erreichbar.

Die Perf/Watt-Angaben seitens AMD sind sowieso immer mit Vorsicht zu genießen. Höchstwahrscheinlich bemerkt man doch, dass die ursprünglichen Projektionen nicht ganz ausreichen werden, und man die Chips noch etwas näher ans Limit prügeln muss. Und dann geht die Perf/Watt wieder in den Keller.
Es ist eh schon bemerkenswert, dass man mit V10 an die 12 FP32-TFLOPs liefern möchte, da braucht man einen höheren Takt als P10. Der Chip muss diesbezüglich bei gleichem Takt zu P10 eine bessere W/mm² liefern, sonst bekommt man ein thermisches Problem'chen. Doppelt so schnell wie P10 bei nicht ganz doppeltem Verbrauch (150W -> 250W).

Der Vergleich mit P100 (einem dediziertem HPC chip zur Erinnerung) ist erstmal fuer den Hintern falls AMD tatsaechlich mit der ersten Vega Variante HPC links liegen laesst. Selbst wenn jegliche P100 Daten die benutzt werden sind nicht fuer den Vollausbau und mit Frequenzen die fuer ein fruehes Mitte 2016 16FF+ 610mm2 Monster gelten. Ich hab aber die einfachste Frage der Welt: wieso zum Henker braucht man theoretisch ein mGPU config von Vega wenn man mit einem einzigen chip hypothetisch schon die Konkurrenz niedermachen kann und dazu mit einem sehenswert kleineren chip?

Dino-Fossil
2016-09-22, 11:19:34
Mittlerweile sollte wirklich klar sein, dass man mit angeblichen geleakten Roadmaps und den Häppchen an Vorabinformationen vorsichtig sein sollte.

Es kann so kommen, oder ganz anders, wirklich mehr wissen wir eigentlich nicht.

Was (mal wieder) AMD's Zukunft angeht - viel hängt da aktuell von ZEN ab, denn das scheint klar der Hauptfokus zu sein, was eigentlich nicht verwundert.
Die GPUs sind im Vergleich zu nVidia durchaus Konkurenzfähig (es fehlen halt in der aktuellen 16/14nm-Gen einige Marktsegmente), aber die CPUs hängen einfach zu weit hinterher, als das sie damit außerhalb des low-end Bereichs noch jemanden hinter'm Ofen vorlocken können.

Man kann nur hoffen, das Zen halbwegs liefert, was man sich erhofft, denn das sollte wieder mehr Geld in die Kassen spülen, das AMD für die Entwicklungsabteilung braucht.
Wäre auch den Intel/nVidia Fanboys zu wünschen, es sei denn sie lassen sich gerne abzocken.
Wobei sicher schon die Einnahmen aus dem Polaris-Absätzen ein wenig helfen. Vermutlich war die Entwicklung von P10/11 gar nicht so teuer, ist ja doch noch recht nah an den Vorgängern.

dildo4u
2016-09-22, 11:25:58
Ich find die 12 Tflops nicht sonderlich bemerkswert wenn man sieht was Fury in dem Bereich geschafft hat,der Sprung ist in jedem Fall kleiner als von Titan Maxwell zu Titan Pascall also alles im Rahmen des Wahrscheinlichen.

Schaffe89
2016-09-22, 11:28:09
Du kannst uns gerne vorrechnen wie AMD mit 64CUs bei 1,0-1,2Ghz 12 TFLOPs erreicht. :rolleyes:

Die 12 Teraflops sind wohl imho nur ein grobes Ziel, welches AMD den Entwicklern vorgegeben hat, welches aber nachher nicht zu halten ist, schon gar nicht bei dem Prozess von Globalfoundries/Samsung.
Die Nvidia GTX 1050 wird ja ganz offensichtlich auch deutlich niedrigere Taktraten anpeilen, von~ max 1500mhz. Und da AMD eher auf Packdichte geht, kann man die 1465mhz die dafür nötig sind, sowieso eher vergessen.

nV hat also gewonnen. 2017 kommt nen Pascal-Refresh der locker mit allem was AMD hat den Boden aufwischt, 2018 kommt dann Volta und vernichtet AMD endgültig...

p.S. das ist natürlich sehr zugespitzt ausgedückt

Ich erinnere mich daran, dass Raja Koduri zum Release gesagt hat Polaris sei ein Chip für die nächsten 3 bis 4 Jahre. Scheinbar will man den wirklich ewig mitschleppen wie man das schon mit Hawai und Tahiti getan hat. Grafikseitig steht AMD für mich aktuell noch schlechter da als auf seiten der CPU, denn offenbar wird Zen kein totaler Fail, sondern zumindest etwas was sich verkaufen könnte.
Nvidia released dann nächstes Jahr entweder einen Refresh von Pascal oder ganz spät im Jahr bereits Volta.
Das ist 1:1 die gleiche Situation mit Hawai, die AMD Probleme einbrachte, so kanns imho nicht weitergehen, die brauchen auf jeden Fall die Trennung von Grafik und Prozessorsparte und ein Insolvenzverfahren der RTG. Denn wenn das wirklich stimmen sollte dass das für die nächsten Jahre alles ist, dann können sie sich gleich eingraben.

Und es ist klar, dass V10 sicherlich real bei 250W+ landen wird, das ist nicht schwer zu erraten - aber auch weit weniger tragisch, als du das jetzt machst.
Bei Polaris störts offensichtlich auch keinen, die verkaufen sich trotzdem wie blöd. Diese ganze Stromverbrauchsnummer ist dermaßen überschätzt...

Bei Polaris sind es ca 30 bis 100 Watt was die Range Custom GTX 1060 vs Custom rx480 angeht, das ist noch halbwegs in Ordnung im !Desktopbereich!.
Aber spätestens dann wenn Vega sich zwischen GTX 1070 und GTX 1080 platziert und ~100 Watt stock auf die GTX 1070 draufballert, kommt wieder das leidige Thema ala "Fermi" auf, allerdings könnte das, wenn AMD stramme 16GB HBM2 verbaut noch bisschen abgemildert werden.
Jedenfalls darf man gespannt sein, wenn es dann wieder heißen wird dass AMD aber unter Directx12 und in AMD Gaming Evolved Titeln aber an die Effizienz von Nvidia herankommt, oder so.

Nakai
2016-09-22, 11:30:08
Ich wuerde liebend gerne wissen wer und wie genau die 12 TFLOPs rausgeleakt hat, denn Fudo glaube ich nicht selbst wenn er mich ueberzeugen will dass Milch weiss ist....:rolleyes: Zur Erinnerung mag durchaus sein dass ich schon seit langem falsch liege aber meine Infos sprechen nach wie vor von 16FF+ TSMC fuer Vega. Hier koennte ich unter Umstaenden eine 1.5GHz glauben, fuer 14LPP aber nicht, ergo muessen sich so manche AMD fans erstmal klar werden auf welcher Linie sie weiterspekulieren moechten und ob der insgesamte Zusammenhang auch keine Luecken hat...


Nein, ich denke du liegst nicht falsch. Wieviel besser ist nun 16FF+ als 14LPP? ~10% mehr Packdichte und ~10% bessere Perf/W?

Ailuros
2016-09-22, 11:44:04
Nein, ich denke du liegst nicht falsch. Wieviel besser ist nun 16FF+ als 14LPP? ~10% mehr Packdichte und ~10% bessere Perf/W?

Ich wuensche ich wuesste ob die Frequenzen fuer GP107 real waren oder nur fuer irgend einen daemlichen laptop GPU chip. Im ersten Fall heisst es einfach dass 14LPP womoeglich mit hoeheren Leckstroemen zu kaempfen hat.

Und weil Du mein vorigens ninja-edit nicht aufgefangen hast: ich bezweifle ERNSTHAFT dass jemand Fudo mehr als 24 TFLOPs FP16 zugesteckt hat. Von FP32 bzw. FP64 war wohl nirgends die Rede und WhyCry hat einfach den Mist weitergestrickt. Wie waere es mit einem irrem scenario von 4/8/16 TFLOPs bei einer runden ~1GHz Frequenz und man erreicht die bunten 24 TFLOPs via mGPU mit niedrigerer Frequenz?

Bei 225W TDP und 4 TFLOPs DP hat man uebrigens 17.8 GFLOPs FP64/W, bei der mGPU sogar bei 20.0 GFLOPs FP64/W.

dargo
2016-09-22, 11:44:16
Die 12 Teraflops sind wohl imho nur ein grobes Ziel, welches AMD den Entwicklern vorgegeben hat, welches aber nachher nicht zu halten ist, schon gar nicht bei dem Prozess von Globalfoundries/Samsung.

Die 12 TFLOPs mit 64 CUs sind erstmal nur eine Zahl die jemand in den Raum geworfen hat. Daraus entstand erst die Diskussion. Keine Ahnung was daran wieder so schwer zu verstehen ist.

N0Thing
2016-09-22, 11:51:12
Ich wuerde liebend gerne wissen wer und wie genau die 12 TFLOPs rausgeleakt hat, denn Fudo glaube ich nicht selbst wenn er mich ueberzeugen will dass Milch weiss ist....:rolleyes: Zur Erinnerung mag durchaus sein dass ich schon seit langem falsch liege aber meine Infos sprechen nach wie vor von 16FF+ TSMC fuer Vega. Hier koennte ich unter Umstaenden eine 1.5GHz glauben, fuer 14LPP aber nicht, ergo muessen sich so manche AMD fans erstmal klar werden auf welcher Linie sie weiterspekulieren moechten und ob der insgesamte Zusammenhang auch keine Luecken hat...

Ich hoffe, Vega kommt von TSMC, sonst sehe ich ebenfalls keine Taktraten in dem Bereich von 1,5GHz. Hat Fudo eigentlich damals was zu Polaris zum besten gegeben, oder nur die Leaks von hier und von den anderen Seiten übernommen?


Man muss lediglich Dave Baumann's Aussage bei B3D finden wo er behauptet dass AMD mit nur zwei chips insgesamt pro Jahr auskommen kann. Natuerlich geht es, aber es hat auch stellenweise gravierende Nachteile.

Das stimmt, es schränkt das Angebot ein und man hat immer irgendwo eine Lücke oder muss auf Rebrands setzen.
Auf der anderen Seite ist es schon eine Weile her, dass AMD mehr als zwei neue Chips pro Jahr heraus gebracht haben. AFAIK im Jahr 2012 mit Tahiti, Pitcairn und Cape-Verde.
Es gibt also keinen Grund, warum AMD nun ausgerechnet jetzt deswegen untergehen oder platt gemacht werden sollte. Ich hoffe mit Navi können sie wieder über das ganze Spektrum Chips aus einer Generation anbieten.
E:\ AMD hat mit Polaris 10 und Polaris 11 ja schon zwei Chips, Vega wäre dann schon der dritte.

Ailuros
2016-09-22, 11:54:11
Ich hoffe, Vega kommt von TSMC, sonst sehe ich ebenfalls keine Taktraten in dem Bereich von 1,5GHz. Hat Fudo eigentlich damals was zu Polaris zum besten gegeben, oder nur die Leaks von hier und von den anderen Seiten übernommen?

Das stimmt, es schränkt das Angebot ein und man hat immer irgendwo eine Lücke oder muss auf Rebrands setzen.
Auf der anderen Seite ist es schon eine Weile her, dass AMD mehr als zwei neue Chips pro Jahr heraus gebracht haben. AFAIK im Jahr 2012 mit Tahiti, Pitcairn und Cape-Verde.
Es gibt also keinen Grund, warum AMD nun ausgerechnet jetzt deswegen untergehen oder platt gemacht werden sollte. Ich hoffe mit Navi können sie wieder über das ganze Spektrum Chips aus einer Generation anbieten.

Fudo bekommt sehr wohl verstreute Info-Fetzen; sein grosses Problem ist diese Infos richtig zu interpretieren. Ich will nicht ausschliessen dass er recht hat, aber mir ist eine um N% effizientere Architektur bei 64CUs@1GHz fuer nahezu "alles" lieber (siehe vorige posts oben....).

N0Thing
2016-09-22, 12:02:36
Ich find die 12 Tflops nicht sonderlich bemerkswert wenn man sieht was Fury in dem Bereich geschafft hat,der Sprung ist in jedem Fall kleiner als von Titan Maxwell zu Titan Pascall also alles im Rahmen des Wahrscheinlichen.

Kein Wunder, wenn man von dem gleichen Aufbau wie bei Fiji ausgeht, dann wären die 12 TFlops einfach nur Fiji@1,5GHz, also nur ein Shrink mit mehr Takt.

Kann ich nicht so recht dran glauben, dass dies schon alles gewesen sein soll.

Dino-Fossil
2016-09-22, 12:03:51
Ich hoffe, Vega kommt von TSMC, sonst sehe ich ebenfalls keine Taktraten in dem Bereich von 1,5GHz.


Oder 14nm läuft bei GF bis dahin besser. Auch da die Erfahrung bei GF mit großen GPUs bisher eher gering ausgefallen sein dürfte, ist da evtl. noch Potential.

Zur Anzahl: 2 Chips können mind. 4 Karten versorgen und damit mMn einen guten Teil des Portfolios abdecken, wenn man sich gut und sinnvoll aufstellt. Bei Polaris war der Fokus dafür allerdings wohl etwas zu weit unten angesetzt, jetzt fehlt halt das high-end am Desktop, auch da man durch den Fertigungssprung eigentlich keine größeren Chips rebranden kann.

Zumindest die kleinen Chips oft zu erneuern macht allerdings in Zukunft eh kaum noch Sinn, schon jetzt werden die entsprechenden Karten ja über Jahre auf beiden Seiten mit rebrands bedient, ohne das es ernsthaft Probleme macht.

Hübie
2016-09-22, 12:09:10
Ich sage es nochmal, der Sprung von Perf/Watt von Polaris auf Vega auf der AMD Roadmap ist nicht alleine mit HBM2 erreichbar.

Wer sagt das denn überhaupt? Ist doch per se schon Unfug und Bedarf keines weiteren Kommentar. Wenn dem so wäre könnte man einach Fiji mit HBM2 paaren. :freak:

Ich hege einfach weiterhin Zweifel daran, dass Vega GP102 toppen wird können. Das hält die Erwartung unten.

Elkinator
2016-09-22, 12:24:57
Schaffe mal wieder...

Vega wird doch eh nicht in 14LPP gefertigt, die nehmen sicher 14HP, weil dann der Sprung auf 7HP einfacher ist!

stinki
2016-09-22, 12:25:48
Mal eine Idee zum Vega11 (vielleicht gab es die hier schon):
Vielleicht ist Vega11 zum XBox-Scorpio das was Polaris10 zum PS4-Pro Chip ist.
Also ähnliche Anzahl an Shadern und ähnliches Speicher-Interface.
Das wären dann wahrscheinlich ca. 3K Shader (bei XBox mit ca. 1GHz) und 384Bit GDDR5 Speicher-Interface.
Wäre ein ähnlich merkwürdiger Chip wie es Tonga war...

Hübie
2016-09-22, 12:27:24
So in die Richtung dachte ich auch schon mal. Ich mein: Zwischen 2304 und 4096 ALUs gibt's ne Menge Spielraum. Sowohl über Takt, als auch über ALU-Anzahl. ROPs, TMUs und ACEs lasse ich mal der Einfachheit halber außen vor.

N0Thing
2016-09-22, 12:32:17
Oder 14nm läuft bei GF bis dahin besser. Auch da die Erfahrung bei GF mit großen GPUs bisher eher gering ausgefallen sein dürfte, ist da evtl. noch Potential.

Natürlich kann sich der Prozess mit der Zeit verbessern, aber vielleicht eher bei der Ausbeute als bei der Qualität? Bisher hat man im Verlauf der Zeit auch keine merklichen Sprünge bei Taktraten und Verbrauch im Verlauf der Produktion feststellen können.
Im Gegensatz zu Polaris 10 wäre Vega nochmal deutlich größer und erst Recht Neuland für Globalfoudries. Ich bleibe da eher skeptisch.


Fudo bekommt sehr wohl verstreute Info-Fetzen; sein grosses Problem ist diese Infos richtig zu interpretieren. Ich will nicht ausschliessen dass er recht hat, aber mir ist eine um N% effizientere Architektur bei 64CUs@1GHz fuer nahezu "alles" lieber (siehe vorige posts oben....).

Das alte Modell mit zwei Vega-Chips finde ich immer noch am sinnvollsten. Eine Art Fiji Shrink mit den Architekturverbesserungen von Vega, also Ausbaustufe 9, mit HBM2, woraus auch die Verspätung herrührt, der es mit GP104 aufnehmen kann. Aus der Richtung würde ein Vega mit angepeilten 12TFlops passen, FP16 und FP64 nicht.
Dann Mitte/Ende 2017 den großen Vega mit niedrigem Takt und den ganzen HPC-Features auf ca. 600mm².

Dual-Vega, Vega 20 und Vega 11 als Ersatz für Polaris erscheint mir eher wie Versagen mit Ankündigung.

N0Thing
2016-09-22, 12:38:23
So in die Richtung dachte ich auch schon mal. Ich mein: Zwischen 2304 und 4096 ALUs gibt's ne Menge Spielraum. Sowohl über Takt, als auch über ALU-Anzahl. ROPs, TMUs und ACEs lasse ich mal der Einfachheit halber außen vor.

Diese Lücke könnte man theoretisch auch mit einem Salvage Chip mit 3072-3584 Shader-Einheiten füllen und läge damit irgendwo im Bereich zwischen Fury X und GTX 1070.

Setsul
2016-09-22, 12:46:54
Meine Güte wurde hier viel geschrieben.

Ich greife jetzt mal seeeeehr weit zurück.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11162752#post11162752

@Ailuros: Rohleistung ist schön und gut, aber bei fps/mm² liegt AMD hinten. Mit der Ausnahme von Doom reicht es selbst unter DX12/Vulkan nicht für die 16% mehr Leistung, die man für gleiche fps/mm² bräuchte. Wenn man nicht davon ausgeht, dass AMD auf magische Weise jetzt plötzlich viel bessere Treiber aus dem Hut zieht, braucht man also weiterhin entweder mehr Rohleistung oder man braucht mehr Logik. In beiden Fällen würde ich sagen der best case ist, dass man nah an nVidia herankommt mit Vega, aber sie noch nicht überholt. "gegen 400mm²" klang für mich nach "irgendwo knapp unter 400mm²" und damit dann einen 471mm² wenn man vorher noch Probleme hatte mit 232 vs 200mm² war mir dann zu optimistisch. Bei 460mm² mit HBM statt GDDR5X, ohne dass man jetzt irgendwelche Details kennt, klingt es sehr realistisch.

Ich würde gar nicht versuchen erst die Transistoren für den großen Vega und dann die Packdichte abzuschätzen, sondern direkt mit den CUs zu arbeiten. Bei doppelter Fläche (inklusive Fixkosten), HBM statt GDDR5 und weniger als doppelt sovielen CUs wären die CUs eher größer bei Vega. Das sehe ich eher positiv, wenn man nicht mehr so massiv auf Packdichte geht, stehen 1,5GHz eigentlich nichts im Weg.

Also in Sachen Rohleistung eigentlich keine Probleme. Effizienzwunder müsste AMD auch nicht vollbringen.

Damit wäre nur eine Baustelle an der sich bei Vega wirklich viel ändern muss: fps/Flops. ~12 TFlops SP wären auf Augenhöhe mit GP102, aber bei jetzigem Stand würde das bei Weitem nicht ausreichen. Es wäre natürlich sehr schon, wenn AMD das in den Griff bekommt, es vereinfacht schließlich automatisch perf/mm² und perf/W.

GB/Flop könnte man hintenanstellen, mit 1 TB/s bei 4 Stacks ist man da nicht wirklich limitiert. Es würde auch erklären, wieso AMD für Navi "NextGen Memory" braucht.


Es gibt dann nur noch 2 Sachen, die mich wirklich stören an der Theorie:
1. Wenn man immernoch davon ausgeht, dass Greenland = 64 CU Vega (ob jetzt der selbe Chip oder nur Architektur ist egal), sehe ich absolut keine Möglichkeit, wie man 460mm² und 16C Zen (wobei die selbe Quelle auch von 2 HBM Stacks ausgeht, passt mMn wieder nicht zum großen Vega) auf einem Die oder auch nur einem Interposer unterbringen soll. MCM für eine APU scheint mir Schwachsinn.
2. Der große Vega käme vor dem kleinen. Es müsste schon ein riesiger Auftrag am großen Vega hängen, der auf keinen Fall 6 Monate länger warten kann, damit das Sinn ergibt. Erstens wieso mit dem größeren Chip anfangen? Zweitens hat die Konkurrenz für GP102 viel mehr Zeit als ein GP104 Konter. Je länger man wartet desto mehr 1070 und 1080 werden verkauft und desto weniger kann man vom kleinen Vega verkaufen. Die Titan XP wird eher nicht der große Verkaufsschlager sein und wer die wollte, hat sie wahrscheinlich schon zum Launch gekauft. Gleichzeitig deckelt man mit dem salvage vom großen Vega automatisch den Preis für GP104 und den kleinen Vega. Also großer vor kleinem Vega bedeutet man verkauft weniger Chips und dann auch noch zu einem niedrigeren Preis.

@Der_Korken: Das war mit beidem auf 4000MHz. Polaris hängt an der Bandbreite, ist doch bekannt.

In Sachen Roadmap: Kleiner Vega als Ersatz von P10 wurde ja zu Recht schon als Schwachsinn abgetan, an Vega glaube ich auch nicht wirklich. Was will man mit einem HPC Chip mit 200-300mm² (je nachdem ob GF 7nm ~ TSMC 10nm oder TSMC 7nm) in risk production? Wenn man soviel Geld dafür bekommt, dass sich risk production lohnt, kann man auch gleich einen größeren bauen und noch mehr Geld verlangen (siehe GP100). Ansonsten dauert es bis 2019 und dann sind 64 CUs einfach erbärmlich. Lieber 2017 einen ~600mm² 14nm Chip hinstellen, der nicht so effizient ist, aber dafür 2 Jahre früher. 2019/2020 kann man dann schon wieder den nächsten großen Profi/HPC Chip auf 7nm bringen.

MikePayne
2016-09-22, 13:00:38
Kann man abschätzen, in welcher Preisliga Vega 10 zu erwerben sein wird?
Danke im Voraus.

N0Thing
2016-09-22, 13:03:10
Vermutlich im Preisbereich zwischen GTX 1070 und GTX 1080.