PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 [51] 52 53 54 55 56 57 58 59 60 61

RoughNeck
2017-09-03, 20:11:20
Meiner Meinung werden sich die Custom Karten auch vor Oktober nicht blicken lassen, dafür ist es viel zu ruhig. AMD kann ja nicht mal die Nachfrage an Referenz Karten decken.

Screemer
2017-09-03, 20:14:47
"Radeon Software Crimson ReLive Edition - "Vega" Update will have OSD performance monitoring"

https://mobile.twitter.com/BlazeK_AMDRT/status/892016986628263936

nett! =)

seh grad der tweet ist schon einen Monat alt - wurde das schon gepostet?
die sollen erst mal ihren treiberbug bezüglich spannung und pstates fixen.

Screemer
2017-09-04, 11:04:04
hab ich grad auf reddit gefunden. da hat jemand mal die werte für unterschiedliche anzahl an cus durchgerechnet:

http://files.looncraz.net/Vega/Theo_CU_Scale.png (https://www.reddit.com/r/Amd/comments/6xqpot/vega_64_435_mhs_130w/dmihz4h/)

find ich sehr interessant. eine 48 cu version könnte also durchaus noch interessant sein.

tm0975
2017-09-04, 11:22:37
die 56 CU für 409 € sind also eine gute option.

Der_Korken
2017-09-04, 11:45:55
hab ich grad auf reddit gefunden. da hat jemand mal die werte für unterschiedliche anzahl an cus durchgerechnet:

http://files.looncraz.net/Vega/Theo_CU_Scale.png (https://www.reddit.com/r/Amd/comments/6xqpot/vega_64_435_mhs_130w/dmihz4h/)

find ich sehr interessant. eine 48 cu version könnte also durchaus noch interessant sein.

Wow, das Scaling ist ja wirklich unterirdisch. Woran liegt das? Das muss doch vorher bei internen Tests oder Simulationen aufgefallen sein? An der Speicherbandbreite kann es nicht wirklich liegen, denn da fehlen gerade mal 5% auf die ursprünglich geplanten 1000Mhz. Außerdem hat CB in ihrem Vega-Test die Skalierung mit dem Speichertakt getestet und bekam im Schnitt 4% Leistungssteigerung aus 16% mehr Speichertakt (wobei nicht klar ist, ob beide Karten die angegebenen 1700Mhz auch wirklich gehalten haben oder ob die mit dem schnelleren Speicher ein bisschen runtergetaktet hat). Wenn das Front-End das Bottleneck ist, dann würde ein V11 mit 44CUs und GDDR6 ziemlich gut aussehen. Allerdings wäre es schon etwas arm, wenn man 4 Jahren immer noch auf dem Skalierungsstand von Hawaii ist, welcher afaik der letzte Highend-Chip war, der wirklich gut gegenüber dem Vorgänger (Tahiti) skaliert hat.

Dino-Fossil
2017-09-04, 11:59:16
Ich schätze Vega benötigt einfach die diversen architektonischen Verbesserungen um das Potential der Architektur zu zeigen.
Solange die noch inaktiv sind oder (vermutlich) oft suboptimal laufen, ist man eben nur wenig über Fiji Niveau.
Man kann nur hoffen, das die Treiberabteilung in den nächsten Monaten noch aufholt und dieses Potential vermehrt freisetzt.

Fragman
2017-09-04, 12:08:57
Ich schätze Vega benötigt einfach die diversen architektonischen Verbesserungen um das Potential der Architektur zu zeigen.
Solange die noch inaktiv sind oder (vermutlich) oft suboptimal laufen, ist man eben nur wenig über Fiji Niveau.
Man kann nur hoffen, das die Treiberabteilung in den nächsten Monaten noch aufholt und dieses Potential vermehrt freisetzt.

ich habs schon mehrfach gefragt, gibt es dieses potenzial?
(und ohne die hardware zu aendern, fuer den fall es ist ein hardware problem)

gerade wenn man so manchen usertest anschaut, der mit den settings spielt, scheint es doch eher der fall zu sein, das die performance generell ok ist, nur das amd, zumindest bei der 64, ausserhalb des sweatspots betreibt.
die 56, mit den richtigen einstellungen, scheint ja ok zu sein.

Dino-Fossil
2017-09-04, 12:27:51
ich habs schon mehrfach gefragt, gibt es dieses potenzial?

Ich würde doch sagen ja.
Die FE war im Prinzip Fiji + mehr Takt, die RX hat ein paar % draufgelegt, wohl auch da inzwischen wenigstens der DSBR (manchmal?) aktiv ist und der Treiber wohl noch ein wenig optimiert wurde.
HBCC scheint teilweise auch ein paar % zu bringen, ist aber wohl noch zu sehr vom konkreten System abhängig, weswegen er wohl standardmäßig deaktiviert wurde.
Und dann gibt es noch die primitive shaders, die nochmal einen ordentlichen Boost bringen könnten - allerdings ist hier unklar wann die kommen und inwieweit der Treiber alleine viel reißen kann (also ohne konkrete Implementation im Spiel selbst).
Sachen wie FP16/RPM gibt es auch noch, die hängen allerdings definitiv von einer Implementation durch die Entwickler ab.

Darüber hinaus sicherlich noch ein paar % durch die übliche, langsame Treiberoptimierung.

Was das in der Summe macht und wie lange man darauf warten muss?
Da kann man genauso gut eine Kristallkugel befragen.

AffenJack
2017-09-04, 13:59:36
hab ich grad auf reddit gefunden. da hat jemand mal die werte für unterschiedliche anzahl an cus durchgerechnet:

http://files.looncraz.net/Vega/Theo_CU_Scale.png (https://www.reddit.com/r/Amd/comments/6xqpot/vega_64_435_mhs_130w/dmihz4h/)

find ich sehr interessant. eine 48 cu version könnte also durchaus noch interessant sein.

Wie hat er denn die Werte für eine 48CU Version berechnet? Ausrechnen kann man da nämlich sonst was.

N0Thing
2017-09-04, 14:11:51
hab ich grad auf reddit gefunden. da hat jemand mal die werte für unterschiedliche anzahl an cus durchgerechnet:

http://files.looncraz.net/Vega/Theo_CU_Scale.png (https://www.reddit.com/r/Amd/comments/6xqpot/vega_64_435_mhs_130w/dmihz4h/)

find ich sehr interessant. eine 48 cu version könnte also durchaus noch interessant sein.

Welche Benchmarks hat er denn als Basis für sein Diagramm herangezogen?

tm0975
2017-09-04, 14:12:10
bios modifiziert?

Screemer
2017-09-04, 14:15:37
Welche Benchmarks hat er denn als Basis für sein Diagramm herangezogen?
er hat die rechnenleistung vega56 herangezogen und entsprechend die rechenleistung mit weniger cus errechnet. so verstehe ich seinen post. die werte von vega64 sind wohl gemessen.

für alle anderen fragen müsst ihr ihn selber fragen. ich hab keinen reddit account und auch nicht vor mir einen zu erstellen: https://www.reddit.com/user/looncraz

nimmt man an dass seine daten korrekt sind, dann wäre ein vega48 mit 1,6ghz in etwa so schnell wie ein 1080 ref. hätte sicher einiges an platz gespart und mit mehr massetransistoren die taktbarkeit erhöht.

iuno
2017-09-04, 15:50:03
Unter Linux kann man CUs auch einfach deaktivieren. Messen liesse sich das also schon, fraglich nur, ob es was bringt. Wenn man das Diagramm anschaut will man wohl ausdruecken, dass ein V48 bei 1650 MHz schon so schnell waere wie ein V64 bei 1400 MHz. Dafuer muss aber wie immer die Spannung auch deutlich hoch und bei compute/viel shaderlast hat man das Nachsehen. Dass man bei 3D Workloads mit weniger CUs pro SE effizienter ist, ist ja naheliegend und nichts, was man erst seit Vega weiss.

fondness
2017-09-08, 18:53:43
Vega11 soll bereits gefertigt werden, Vega20 laut der Quelle wieder in 7nm:
http://www.digitimes.com/news/a20170908PD210.html

HOT
2017-09-08, 19:22:41
V20 könnte sowas wie ein neuer Tahiti werden. Da steht aber, dass AMD für V20 7nm bei TSMC benutzt - spannende Entwicklung. Aber durchaus plausibel, NV wird den eigenen 12FFN erst mal melken müssen und offenbar ist diesmal auch nur ein Konsolen SoC in Entwicklung, nämlich von Sony. Da wär also durchaus Platz und Kapazität vorhanden um V20 bei TSMC unterzubringen. Die GloFo-Leute haben mit der 7nm-CPU und APU (und Navi?) sicherlich alle Hände voll zu tun.

Agent117
2017-09-09, 12:49:07
Vega11 soll bereits gefertigt werden, Vega20 laut der Quelle wieder in 7nm:
http://www.digitimes.com/news/a20170908PD210.html

Dass der schon gefertigt wird steht da aber nicht. Da steht dass erwartet wird, dass Globalfoundries Vega 11 fertigen wird und dass SPIL seitens AMD angefragt wurde, das Packaging zu übernehmen.

Kann also durchaus sein, dass V11 erst zur Jahreswende aufschlägt.

Kriton
2017-09-09, 13:20:05
Hier steht, dass Vega 20 auf TSMC geht, nicht Vega 11. Wobei Vega 11 beim Packaging aber stärker auf Siliconware Precision Industries (SPIL) setzen soll als bisher ASE. Angeblich wegen der packaging yield problems.

https://www.techpowerup.com/236874/amd-to-change-suppliers-for-vega-20-gpus-on-7nm-hbm2-packaging-for-vega-11

BoMbY
2017-09-09, 21:44:12
Ich wette auch dieses Gerücht bezüglich eines anderen Fertigers als GloFo wird sich nicht bestätigen. Vega 11 vermutlich eher Ende Q1, und Vega 20 wird vermutlich 7LP von GloFo Ende 2018, und nur in kleinen Stückzahlen hauptsächlich für das Pro-Segment.

Agent117
2017-09-09, 23:55:01
Bisher war der Eindruck ja eher, dass GF 7nm vor TSMC auflegen wird. Würde auf das Gerücht auch nix geben. Vega11 erst Ende Q1 18 wäre aber schon sehr spät. In der derzeitigen Situation (Probleme bei assembling von Vega 10, drei verschiedene packages und angeblich auch schlechte yields bei GF) ist die Vergabe des Assemblings für Vega 11 dann vlt doch eine relativ dynamische Angelegenheit; die Entscheidung wird anhand der Erfahrungen mit Vega 10 und der Aussicht, wer die Probleme am schnellsten in den Griff bekommt getroffen.
Könnte auch bedeuten, dass GF Vega 11 schon ab Oktober produziert und man das Weihnachtsgeschäft noch mitnimmt.

Bin auch gespannt, ob man Vega 11 in der Zwischenzeit hinsichtlich hoher Taktraten noch etwas optimiert hat. Der Effizienzverlust bei V10 bei >1400
ist ja schon unmöglich.

victore99
2017-09-10, 00:21:32
wo soll sich Vega11 jetzt noch plazieren? Als Polaris-Ersatz wohl kaum, dafür ist GDDR5 einfach zu günstig und so viel effizienter ist Vega auch nicht. Über V10? das würde Stromverbrauch und alles extrem eskalieren lassen. Bis 7nm warten ergibt keinen Sinn, dann ist Navi oder sowas dazwischen schon lange fertig.

reaperrr
2017-09-10, 01:13:37
wo soll sich Vega11 jetzt noch plazieren? Als Polaris-Ersatz wohl kaum, dafür ist GDDR5 einfach zu günstig und so viel effizienter ist Vega auch nicht. Über V10? das würde Stromverbrauch und alles extrem eskalieren lassen. Bis 7nm warten ergibt keinen Sinn, dann ist Navi oder sowas dazwischen schon lange fertig.
Wenn V11 ebenfalls auf HBM2 setzt, und dann wohl nur 1 Stack, könnte man wohl auf ~1600MHz Durchschnitts-Chiptakt bei ~150W kommen (36 CUs wie bei P10 angenommen), zumindest um die 1060-6G und RX 580 OC um 10-15% zu schlagen bei noch akzeptablem Verbrauch würde es damit dann wohl reichen, außerdem käme man mit ziemlich kleinen und günstigen PCBs aus.

Evtl. stellt AMD dann auch die RX580 ein, um bei P10 nicht mehr selektieren zu müssen und Platz für den V11-Salvage zu lassen.

Digidi
2017-09-10, 01:21:50
Bei Vega sind ja auch noch nicht alle Features im Treiber aktiviert. Vega 10 geht da bestimmt noch mal ein bischen nach oben in Richtung 1080ti während Vega 11 dann auf Niveau zwischen 1070 und 1080 landet.

Aber das werden wir erst zu weihnachten sehen.

reaperrr
2017-09-10, 01:36:00
Bei Vega sind ja auch noch nicht alle Features im Treiber aktiviert. Vega 10 geht da bestimmt noch mal ein bischen nach oben in Richtung 1080ti während Vega 11 dann auf Niveau zwischen 1070 und 1080 landet.

Aber das werden wir erst zu weihnachten sehen.

DSBR ist meistens aktiviert und HBCC bringt in den meisten Spielen sehr wenig bis gar nichts.
Wieviel die Primitive Shader treiberseitig letztlich bringen werden ist noch nicht klar, aber allzu viel würde ich davon jetzt auch nicht erwarten.

@Standardtakt müsste der Treiber noch ca. 20% mehr Performance aus Vega rausholen, damit du recht behältst, das sehe ich momentan einfach nicht.

Digidi
2017-09-10, 02:09:16
DSBR ist meistens aktiviert und HBCC bringt in den meisten Spielen sehr wenig bis gar nichts.
Wieviel die Primitive Shader treiberseitig letztlich bringen werden ist noch nicht klar, aber allzu viel würde ich davon jetzt auch nicht erwarten.

@Standardtakt müsste der Treiber noch ca. 20% mehr Performance aus Vega rausholen, damit du recht behältst, das sehe ich momentan einfach nicht.
Ja hbcc ist zwar an, aber noch nicht so umgesetzt wie gewünscht genau so wie der DSBR. Vermute Mal das erst dann richtig gut läuft wenn auch "Primitive shader" geht. Alles andere was zurzeit aktive ist sind Notlösungen.


Der Schlüssel ist Primitive Shader und der DSBR und erst dann kommt auch HBCC zum tragen. Solange der DSBR noch auf die alte Pipeline zugreifen muss wird er ungünstig gefüttert.

=Floi=
2017-09-10, 16:22:21
primitive shader kann man jetzt schon begraben, weil das nachgepatched werden müsste.
das macht niemand und falls NV wirklich noch auf den zug aufspringen wird, ist es für vega eh zu spät.
an der shaderleistung scheitert es imho auch nicht?!

Kriton
2017-09-10, 16:42:10
PS sollen doch (auch) über Treiber kommen?!

HOT
2017-09-10, 17:09:50
primitive shader kann man jetzt schon begraben, weil das nachgepatched werden müsste.
das macht niemand und falls NV wirklich noch auf den zug aufspringen wird, ist es für vega eh zu spät.
an der shaderleistung scheitert es imho auch nicht?!
Die versprechen natürlich im Moment nichts, aber ich denke, dass es auf der Hand liegt, dass hier auch eine automatische Treiberaktivierung für alle APIs kommen wird. Das Feature wär nämlich akut sinnlos sonst und torpediert den ganzen Chip, weil der offensichtlich darauf ausgerichtet wurde. Effizient wird der erst wenn alles funktioniert. Die Software dafür ist noch nicht geschrieben, man versucht erst mal ne API überhaupt dafür anzubieten, erstmal nur für Vulkan und OpenGL, damit auch externe Devs (wie id/Bethesda) damit überhaupt arbeiten können auf deren Vulkan-Renderer. Man muss sich das klarmachen: Die haben vielleicht jetzt grad mal ne eigene API, mit der sie selbst Zugriff auf die Primitive-Shader nehmen können. Jetzt muss noch der Shadercompiler neu geschrieben werden, dass er die Geometry- und Vertexshader, die er bekommt, in Primitives zerlegen kann, die Vega dann ganz normal abarbeiten kann - jedenfalls hab ich das so verstanden. Das wird sicherlich noch 2 Treiberbranches dauern, aber ich schätze, wenn V20 auf den Markt kommt, werden die Primitive-Shader funktionieren.
Solange sollte man sich gut überlegen ob man Vega kauft, denn darauf spekulieren, dass das Ganze auch hinterher wirklich funktioniert, sollte man natürlich auch nicht.

TheGood
2017-09-10, 19:57:44
Also wo wird sich denn jetzt VEGA 11 positionieren? Ich verstehe das auch noch nicht wirklich, am Ende kann er eigetnlich nur ne VEGA 56 ablösen und kurz darunter sein, um mit einem kleineren Die kosten zu sparen. Ich sehe auch nicht dass zukünftig noch irgendwelche karten al 550 oder 530 ? verkauft werden können. Da RavenRidge ja auch einen VEGA drin hat und diese ja ordentlich wums haben soll. Ausser die Kombination ist dann wieder zu teuer. Aber genau dort müsste eigentlich AMD ansetzen und RavenRidge dort anbieten, damit die Komplett PC Hersteller das direkt so verkaufen müssten, da ist doch bares Geld für die gespart.

Ich bin echt gespannt wie sich das Portfolio von AMD ab dem 2. Halbjahr 2018 präsentieren wird.

Das muss ja praktsich schon noch ordentlich durcheinandergewirbelt werden.

Agent117
2017-09-10, 20:05:05
wo soll sich Vega11 jetzt noch plazieren? Als Polaris-Ersatz wohl kaum, dafür ist GDDR5 einfach zu günstig und so viel effizienter ist Vega auch nicht. Über V10? das würde Stromverbrauch und alles extrem eskalieren lassen. Bis 7nm warten ergibt keinen Sinn, dann ist Navi oder sowas dazwischen schon lange fertig.

Nach der bisherigen Perf/Shader von Vega 10 käme Vega 11 in der vermuteten Form mit 36 bis 44 CUs und höherem Takt als P10 eher als Ersatz für diesen in Frage mit einem Performanceplus von vlt 15%. Also Lücke zwischen 580 und 1070. V11 Salvage läge dann ziemlich genau auf 580 Niveau. Dazu wird der Chip sicherlich etwas größer als P10, was aber bei den Herstellungskosten kaum ins Gewicht fallen sollte. HBM schon eher. Die Frage ist nur, ob die teureren Herstellungskosten von V11 ggü. P10 sich durch den Mehrwert von V11 für Kunden rechtfertigen. Nur 15% schneller und etwas geringerer Verbrauch wäre für mich kein gutes Argument, zumal man ja auch unter der 1070 bleibt und auch weniger effizient ist.

Ist denn aufgrund der Übernahme des Packagings durch SPIL von V11 bestätigt, dass V11 HBM nutzen wird? Oder käme da auch GDR5(x) nach wie vor in Frage?

tm0975
2017-09-12, 09:50:12
war jetzt eigentlich eine Vega Nano offiziell angekündigt oder war das reine Spekulation?

http://www.tomshardware.de/radeon-rx-vega-nano-mini-itx,news-258292.html

habs gefunden. abe seit dem ist es ruhig geworden, oder? gibt es starttermine für die neue nano?

Der_Korken
2017-09-12, 10:12:02
Nach der bisherigen Perf/Shader von Vega 10 käme Vega 11 in der vermuteten Form mit 36 bis 44 CUs und höherem Takt als P10 eher als Ersatz für diesen in Frage mit einem Performanceplus von vlt 15%.

Die Skalierung von V56 auf V64 ist aktuell so mies, dass ich einen V11 mit 44CUs gar nicht so viel schlechter einschätzen würde als den aktuellen Stand der V56, sobald bei ersterer alle Vega-Features laufen. HBM wird allerdings schwer, da man aus Preisgründen nur einen Stack verbauen könnte, der momentan maximal 240GB/s liefern könnte. Da kann man auch gleich auf GDDR6 setzen. Allerdings wird es generell schwer zwischen der 580 und V56 einen ganzen Chip mitsamt zwei SKUs zu platzieren, da der Abstand nur knapp 50% beträgt. Da wäre ein V48 als Müllverwertung mit zwei 2GB-Stacks vielleicht die günstigere Wahl was Entwicklungskosten angeht.

victore99
2017-09-12, 10:23:38
zwei 2GB-Stacks und dann ne 570 mit 8GB? niemals. V48 oder V40 ist aber ne gute Idee.

Der_Korken
2017-09-12, 10:54:15
zwei 2GB-Stacks und dann ne 570 mit 8GB? niemals. V48 oder V40 ist aber ne gute Idee.

Ich fände es interessant, wie sich so eine Karte mit 4GB+HBCC schlagen würde. Wahrscheinlich schlechter als 8GB ohne HBCC, aber sie wäre auch erheblich langsamer als eine GTX1080 (und sogar als eine GTX1070), von der ja auch keiner sagt sie wäre ein Speicherkrüppel. Bei den spekulierten HBM-Preisen ließe sich deutlich was an der Fertigungskosten einsparen.

Palpatin
2017-09-12, 11:10:24
V11 muss langfristig mit dem 1060 Nachfolger auf Volta Basis konkurrieren. Hier rechne ich weiterhin mit 6gb VRAM und da wird es dann intressant. Ist 4GB + HBCC besser als 6gb und kapieren das auch die DAUs?

tm0975
2017-09-12, 11:24:23
Ist 4GB + HBCC besser als 6gb

vermutlich ebenbürtig, mit ausschlägen in beide richtungen

kapieren das auch die DAUs?

definitiv nicht.

TheGood
2017-09-12, 11:47:22
V11 muss langfristig mit dem 1060 Nachfolger auf Volta Basis konkurrieren. Hier rechne ich weiterhin mit 6gb VRAM und da wird es dann intressant. Ist 4GB + HBCC besser als 6gb und kapieren das auch die DAUs?

Ich denke mit der V11 kann man das erst richtig testen! Wenn es dann passt ist ggf. der MEhrpreis von HBM auch nicht mehr so dramatisch, da ja nur 4 GB gebraucht werden und keine 8 GB. Die Rechnung muss ja auch genauso aufgemacht werden von AMD, denn das Ziel mit HBCC war ja effektiv weniger RAM auf der KArte verbauen zu müssen.

Agent117
2017-09-12, 11:48:34
V11 muss langfristig mit dem 1060 Nachfolger auf Volta Basis konkurrieren. Hier rechne ich weiterhin mit 6gb VRAM und da wird es dann intressant. Ist 4GB + HBCC besser als 6gb und kapieren das auch die DAUs?

Der 1060 Nachfolger, vrsl. GV 106, wird mit V10 konkurrieren, V11 ist dafür zu schwach. War auch beim Sprung von Keppler zu Maxwell und von Maxwell zu Pascal so, dass der 106er bzw. 206 er Chip auf dem Niveau des 104er bzw. 204er Chips der Vorgängergeneration lag. Nvidia muss trotz mangelnder Konkurrenz im oberen Bereich die Leute trotzdem zum Aufrüsten bewegen und deshalb nach wie vor das selbe Leistungsplus wie bei den Sprüngen zwischen vergangenen Generationen liefern, sofern sie Umsatz und Gewinn auf dem hohen Niveau halten und die Aktionäre zufreiden stellen wollen.
Da Volta ja was Perf/W betrifft ca. 40 bis 50% effizienter zu sein scheint, den Angaben zu GV100 folgend, und man bei der DIE-Size noch viel Luft hat, kann Nvidia einen GV102 mit 5376 Shadern bauen und die 1080Ti um 50 bis 50% übertreffen. Das für jede aktuelle SKU Nvidias weiter gedacht ergibt dann GV106 als Konkurrenz zu V64.

Emperator
2017-09-12, 12:07:29
habs gefunden. abe seit dem ist es ruhig geworden, oder? gibt es starttermine für die neue nano?

Von AMD selbst wird es keine NANO geben, es liegt also an den Baordpartnern ob welche eine anbieten.
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/44250-amd-spricht-ueber-raven-ridge-die-zukunft-von-ryzen-und-die-radeon-rx-vega-nano.html

HOT
2017-09-12, 13:39:50
Völlig wurst, mit wem sich V11 messen muss. V11 könnte auch ein 1-Stack-Chip sein, der nur 1280 Shader hat.
Ansonsten hat er 36 und 44 CUs und ist kaum langsamer als V56, zumal er auch mehr Takt haben wird. Das war übrigens bei Pitcairn vs. Tahiti genau das gleiche zum Start weg. Auch die 7870 und 270X waren sehr schnell im Vergleich zum ur-7950 und zur 280. Das könnte mit V11 auch klappen, sollte es ein solcher Chip sein. Das ist also nichts neues. Mit Volta zu vergleichen ist momentan einfach müßig, weil da einfach unbekannt ist, was der wirklich leistet und das auch extrem schwer abschätzbar ist.

Kriton
2017-09-12, 13:54:46
Der 1060 Nachfolger, vrsl. GV 106, wird mit V10 konkurrieren, V11 ist dafür zu schwach. War auch beim Sprung von Keppler zu Maxwell und von Maxwell zu Pascal so, dass der 106er bzw. 206 er Chip auf dem Niveau des 104er bzw. 204er Chips der Vorgängergeneration lag. Nvidia muss trotz mangelnder Konkurrenz im oberen Bereich die Leute trotzdem zum Aufrüsten bewegen und deshalb nach wie vor das selbe Leistungsplus wie bei den Sprüngen zwischen vergangenen Generationen liefern, sofern sie Umsatz und Gewinn auf dem hohen Niveau halten und die Aktionäre zufreiden stellen wollen.
Da Volta ja was Perf/W betrifft ca. 40 bis 50% effizienter zu sein scheint, den Angaben zu GV100 folgend, und man bei der DIE-Size noch viel Luft hat, kann Nvidia einen GV102 mit 5376 Shadern bauen und die 1080Ti um 50 bis 50% übertreffen. Das für jede aktuelle SKU Nvidias weiter gedacht ergibt dann GV106 als Konkurrenz zu V64.

Eigentlich OT; aber sieh Dir das mal an:

http://www.dsogaming.com/news/nvidias-performance-improvement-per-generation-has-dropped-from-60-pre-2010-to-30-post-2010/

Agent117
2017-09-12, 14:11:43
Völlig wurst, mit wem sich V11 messen muss. V11 könnte auch ein 1-Stack-Chip sein, der nur 1280 Shader hat.

Wäre es völlig wurst könnte er alles sein. Sofern man in einem Markt Konkurrenz hat ist es aber gewiss nicht völlig wurst mit wem man sich messen muss, vorrausgesetzt man will den Kunden überzeugen das eigene Produkt zu kaufen. Außerdem war V11 ja schon als Nachfolger von P10 auf Folien eingezeichnet.


Ansonsten hat er 36 und 44 CUs und ist kaum langsamer als V56, zumal er auch mehr Takt haben wird. Das war übrigens bei Pitcairn vs. Tahiti genau das gleiche zum Start weg. Auch die 7870 und 270X waren sehr schnell im Vergleich zum ur-7950 und zur 280. Das könnte mit V11 auch klappen, sollte es ein solcher Chip sein. Das ist also nichts neues. Mit Volta zu vergleichen ist momentan einfach müßig, weil da einfach unbekannt ist, was der wirklich leistet und das auch extrem schwer abschätzbar ist.

1. GV100: 5376 Shader, GP100 3840 Shader, beide bei 250W.
2. Aussage von Nvidia, dass ein Volta SM 50% effizienter wird als ein Pascal SM. Nachzulesen hier als erstes Key Feature:
https://devblogs.nvidia.com/parallelforall/inside-volta/

@Kriton (Spoiler, da OT)
Er vergleicht immer die x80 SKUs, kässt aber die Position der zugrunde liegenden Chips im eigenen Angebot außen vor. Z.B. vergleicht er 980 mit 780
(Gm204 als zweitgrößter Chip vs. Gk110 als größter Chip, wohlbemerkt teildeaktiviert). 980 ti vs. 780 ti sind dann wieder + 50%; meine Rechnung passt also schon grob.

Der_Korken
2017-09-12, 14:34:49
+50% auf Pascal kommt mir sehr optimistisch vor. Es ist ja immer noch der selbe Fertigungsprozess im Wesentlichen. Die einzigen Beispiele, die mir einfallen, wo sowas mal vorkam waren Maxwell und der RV770. Letzterer erreichte +50% auf einen Gurkenchip und Maxwell ist gerade mal 3 Jahre her und hat wiederum die doch etwas suboptimale Kepler-Architektur abgelöst. Dass man auf die bereits gut optimierte Maxwell-Architektur mal eben weitere 50% rausholt, klingt für mich unrealistisch. Das wäre ja so, als würde AMD mal eben einen Zen-Nachfolger bringen, der nochmal so viel effizienter als Zen ist, wie Zen effizienter als Bulldozer ist :freak:.

Ein V11 muss nicht unbedigt viel mit V10 zu tun haben. V10 kam letztlich doch überraschend spät und läuft nur schleppend an. Vielleicht hat man mit V11 und V20 bereits eine Vega 2.0 Architektur, die die gröbsten Fehler von V10 beseitigt und auch von der bis dahin fortgeschritteneren Treiberentwicklung profitieren kann.

N0Thing
2017-09-12, 14:43:26
2. Aussage von Nvidia, dass ein Volta SM 50% effizienter wird als ein Pascal SM. Nachzulesen hier als erstes Key Feature:
https://devblogs.nvidia.com/parallelforall/inside-volta/


Die Aussage von Nvidia finde ich unter dem Link nicht. Kannst du das mal zitieren?
Oder meinst du die 50% mehr SMs bei gleicher TDP?

dildo4u
2017-09-12, 14:45:12
Die Aussage von Nvidia finde ich unter dem Link nicht. Kannst du das mal zitieren?
Oder meinst du die 50% mehr SMs bei gleicher TDP?
Unter Key Features:

New Streaming Multiprocessor (SM) Architecture Optimized for Deep Learning Volta features a major new redesign of the SM processor architecture that is at the center of the GPU. The new Volta SM is 50% more energy efficient than the previous generation Pascal design, enabling major boosts in FP32 and FP64 performance in the same power envelope.

N0Thing
2017-09-12, 14:49:39
Danke, hatte nach efficiency gesucht.

HOT
2017-09-12, 14:51:42
Eigentlich OT; aber sieh Dir das mal an:

http://www.dsogaming.com/news/nvidias-performance-improvement-per-generation-has-dropped-from-60-pre-2010-to-30-post-2010/

Die Meldung ist eh Luft. Denn bis 2010 ist stetig die Leistungsaufnahme gestiegen, was bei Fermi dann gipfelte. Seither bleibt die Leistungsaufnahme gleich und überraschend gibts auch weniger Leistungsschub. Was hatte ne Geforce 256? 30W?

Natürlich sind das Mondwerte, die momentan zu GVxxx spekuliert werden. Natürlich kann Performance/Leistung nur im Rahmen des kaum verbesserten Fertigungsprozesses gesehen werden. Von daher gehe ich auf den OT-Krempel von Agent117 gar nicht erst ein.
Und die 50% Effizienzsteigerung, die bei GV100 angegeben wurde gilt ja auch nur für GV100 im Vergleich zum GP100. Das sind ja völlig andere Produkte als die Gamingchips - Äpfel vs. Birnen halt.

robbitop
2017-09-12, 15:35:19
Das würde schon passen. Wenn ein Volta SM 50 % energieeffizienter ist, kann man entsprechend mehr von ihnen verbauen bei gleicher TDP.

Ein bisschen was davon kommt sicherlich vom "12nm" Prozess von TSMC. Sicherlich wird man von den 50% einiges durch Datenlokalität erreichen. Jeder Transfer kostet Energie. Da hat der kombinierte L1 Cache sicherlich seinen Anteil dran.

AffenJack
2017-09-12, 15:54:18
Prinzipiell schon möglich, aber es macht keinen Sinn im Moment Volta in die Vega Diskussion reinzubringen. Wir haben einzig und alleine indirekt von einem möglichen GV102 in Q1 gehört. Wann anderes erscheint wissen wir nicht und es wäre sogar möglich, dass Nv GV106 z.B. überspringt und erst in 7nm bringt. Oder GV106 erscheint Mitte 2018. Dann sollte Vega11 aber schon 6 Monate draussen sein und 6 Monate später Navi kommen.

Von Vega11 wissen wir zwar auch nicht viel, aber immerhin, dass er wirklich kommt und so um den Jahreswechsel herum kommen sollte, wenn ich mich nicht irre.
Erstmal ist die Frage da wie positioniert sich Vega11 in AMDs Portfolio und da könnte ich mir Vega11 gar nicht so schlecht vorstellen. Vega10 hat genauso wie P10 4 Rasterizer usw im Front-End. Wenn V11 die auch bekommt, sollte das Ding mit Shadern schonmal deutlich besser skalieren. Auch glaube ich ja an GDDR6, 12Gbps, also 384Gbit/s wäre ne nette Speicherbandbreite. Mit 44CUs könnte man so vielleicht knapp hinter der GTX1070 landen.
RX480 vs V11 wäre dann +40% Geschwindigkeit mehr oder weniger einem Node, was durchaus realistisch klingt für mich. RX580 wäre dann vielleicht eher ein aus der Note geborener Zwischenschritt, da V11 erst später als früher angenommen kommen konnte. Zwar wäre V11 dann ziemlich nah an Vega10, aber man muss sehen was da die ursprüngliche Planung war. Fury und Fury X hatten beide gleich schnellen Ram. Wenn das bei Vega 56 auch mal der Plan war, dann wäre dieser ein gutes Stück schneller gewesen und der Abstand zu V11 h#tte gepasst. Nun muss man damit leben was man eben zur Verfügung hat.

Agent117
2017-09-12, 16:04:25
Auch mir erscheint GDR5x oder GDR6 als besser als nur 1 Stack, bei dem man ja auf die 256GBit/s beschränkt wäre (bzw. vlt sogar 240). Aber so richtig gut weiß man halt nicht, wieviel teurer HBM2 dann ist.

Ist nicht das Packagings durch SPIL ein stichhaltiger Hinweis dafür, dass V11 auch HBM erhält oder habe die auch öfters schon normales Packaging für AMD gemacht?

Kriton
2017-09-12, 16:05:27
Wie aufwendig wäre es denn den Speichercontroller für GDDR5X oder GDDR6 zu designen? Auch das ist ja eine Kostenfrage.

HOT
2017-09-12, 16:15:32
Wenn V11 44 CUs hat, bringt der auch 2 Stacks mit, ich denke, das ist obligatorisch. Ein Stack würde eigentlich nur dann reichen, wenn man mit etwas mehr als 200GB/s zufrieden ist, was ein deutlich kleinerer Chip wäre, also 32CUs maximal.
Ich mein, kann natürlich auch sein, dass man P10 komplett eresetzt damit, dann wär 28-32CUs und ein Stack sicherlich korrekt. Das würde ja auch zu den alten Gerüchten passen, dass man Polaris gerne ersetzen möchte.

Kriton
Das ist einfach keine Option mehr. Vega ist jetzt mit HBM designt worden und so wird er auch gebaut. Kann sein, dass das mit Navi dann wieder anders ist.

Hm, mein Favourit wär jetzt für das Vega-Lineup:
V11: 28 und 32CUs in 14LPP, bis 1,7GHz, 1 HBM-Stack bis 1,9GT/s 4 und 8GB
V10: 56 und 64CUs in 14LPP, bis 1,6GHz, 2 HBM-Stacks bis 1,9GT/s 8 und 16GB
V20: 56 und 64CUs in CLN7FF, >=2,0GHz, 4 HBM-Stacks bis 2GT/s, 16 und 32GB, wobei V20 sicherlich recht starke Verbesserungen für das Frontend und den DSBR mitbekommen dürfte.
Alternativ wär für V20 auch 384Bit 16GT/s GDDR6 denkbar, da der Chip ja erst jetzt Tapeout haben dürfte.

Interessant an der Sache ist, dass die Folie von 2016 dann zu 100% eintrifft und eben doch kein Fake war.
- V20 7nm + 64CUs und 4 Stacks
- V10 nur HighEnd
- V11 ersetzt P10

War alles 2016 schon bekannt.

AffenJack
2017-09-12, 16:32:13
Auch mir erscheint GDR5x oder GDR6 als besser als nur 1 Stack, bei dem man ja auf die 256GBit/s beschränkt wäre (bzw. vlt sogar 240). Aber so richtig gut weiß man halt nicht, wieviel teurer HBM2 dann ist.

Ist nicht das Packagings durch SPIL ein stichhaltiger Hinweis dafür, dass V11 auch HBM erhält oder habe die auch öfters schon normales Packaging für AMD gemacht?

SPIL macht auch normales Packaging, da heißt erstmal nichts in meinen Augen. Man kann auch Deals aushandeln, indem man für V10 beim Packaging nen guten Preis kriegt und dafür noch zusätzliche normale Packagingorders rüberschiebt. Das ist alles zu undurchsichtig.

Wie aufwendig wäre es denn den Speichercontroller für GDDR5X oder GDDR6 zu designen? Auch das ist ja eine Kostenfrage.

Kein Plan, aber du wirst den controller eh brauchen. Low-End Chips dürften auch mit Navi noch mit GDDR6 kommen.

1 Stack seh ich wie Hot nur bei einem kleinen V11, der P10 wirklich direkt ersetzt. Dagegen sehe ich einen größeren V11 mit 2 Stacks als sehr unwahrscheinlich an, da die Kosten zu hoch werden. Da wird es dann eher GDDR6 werden.

Der_Korken
2017-09-12, 17:04:30
GDDR6 dürfte bei Midrange-Karten die bessere Wahl sein, weil es schlicht billiger ist. Bei 256bit SI und Verbräuchen um die 150W macht das komplexe PCB und der höhere Verbrauch den Kohl auch nicht fett. Wenn der HBCC mit GDDR6 funktioniert, könnte AMD auch 6GB mit 192bit verbauen. Das wären dann 288GB/s bei 12Gbps mit der Option auf 336GB/s falls 14Gbps-Speicher irgendwann kommt. Eventuell reicht das für 44 CUs schon, denn so übermäßig hing V10 nicht an der Bandbreite nach den Tests, die ich bisher gesehen habe.

Dino-Fossil
2017-09-12, 17:43:53
V11 als Polaris-Ersatz macht mehr Sinn, wenn die den Treiber soweit im Griff haben, dass die ganzen tollen Architekturverbesserungen mehr bringen, als das Transistorbudget hoch zu treiben.
Dann könnte Vega (11 zumindest, für 10 ist der Zug abgefahren) auch bei leicht niedrigeren Taktraten laufen und die Effizienz sähe schlagartig besser aus.
Mit vernünftigen Treibern und damit voller Feature-Unterstützung würde ein V10 (vielleicht) manchmal an der 1080Ti kratzen, die 1080 wäre relativ klar geschlagen und zwischen Vega 56 und Polaris auch Platz um einen neuen, kleineren Vega-Chip unterzubringen.
Zumal es für AMD von Interesse sein könnte die Midrange und High-end Angebote auf einem gleichen technologischen Level zu haben (dürfte Treiberarbeit erleichtern).

Kriton
2017-09-12, 17:54:38
Die Frage ist ob GDDR6 auch noch (für AMD) billiger ist, wenn sie vergleichsweise viel HBM kaufen. man hat ja durchaus Staffelpreise.
Der Vorteil von Vega als Polaris-Ersatz ist IMHO auch eine Reduktion des Aufwands bei den Treibern (z.B. bzgl. Optimierung für Spiele die als Benchmark herhalten) - das sehe ich (insoweit) wie Dino-Fossil.

Agent117
2017-09-12, 18:45:37
@AffenJack: Danke für die info, dann ist beim Speicher nach wie vor alles offen

Die Frage ist ob GDDR6 auch noch (für AMD) billiger ist, wenn sie vergleichsweise viel HBM kaufen. man hat ja durchaus Staffelpreise.


Klar ist es ein Vorteil, wenn sie mehr HBM kaufen, sofern jedoch das Packaging von Chip + HBM + Interposer neben den Speicherchips einen Großteil der Kosten ausmachen relativiert sich das dann vlt doch wieder und lohnt für einen Chip womöglich nicht, deren Salvage Part für 200 bis 250€ verkauft werden wird.

Eine auch noch im Raum stehende Frage ist, was es genau mit 14nm und 14nm+ auf sich hat. Polaris 20 soll ja angeblich in einem verbesserten 14nm Prozess daherkommen, also 14nm+? Oder war das mal wieder nur ein Gerücht und der Taktsprung ggü. P10 kam durch einen Respin? Ist die Revision von P20 bekannt, also vlt ja Ellesmere A2 statt A1 wie bei P10? oder gar B0?
Für Vega steht jedenfalls 14nm und 14nm+ auf der aktuellsten Roadmap. Vega 10 soll 14nm ohne "+" sein, was aber auch komisch wäre, da man den verbesserten Prozess angeblich ja schon seit par Monaten für P20 nutzt. Vega 20 soll schon 7nm sein laut der kürzlichen Meldung über das Packaging für Vega 11. Dann bliebe für Vega 11 oder Vega 12, dessen Rolle noch komplett unklar ist, ja nur 14nm+. Vlt sehen wir bei Vega 11 also dann doch eine höhere Effizienz bei hohen Taktraten als bei Vega 10.

Achill
2017-09-12, 19:12:10
Es hieß ja immer das es Probleme mit HBM2 gab und das die Spannung bei Vega64 höher als erwartet sind.

Da wir hier im Speku. Thread sind ... was wäre mit folgender Annahme?

Es gibt eine Menge an HBM2 Speicher, der nicht die nötige Taktrate für Vega10 erreicht ... was macht man damit? Wie groß könnte diese Menge sein (in %)?

Wird dieser Speicher von AMD nicht abgenommen (Aufgrund fehlender Qualität), so werden die Kosten auf den HBM2 mit der ausreichenden Qualität aufgeschlagen.

Mit der Abnahme eines qualitativen Verschnitts (HBM2 der nicht für Vega56 und Vega64) würde es m.M.n. Sinn machen, dass AMD HBM2 auch für kleiner GPUs einsetzt, da man so:
1. Module schlechterer Qualität abnimmt was zur Senkung der Preise für die hochwertigen HBM2 Stacks beträgt
2. Man eine generelle höhere Stückzahl an HBM2 Stacks damit bräuchte, was wiederum zu Einsparung führt aufgrund das höheren Volumens und man damit gleichzeitig auch die Teilmenge von hochwertigen HBM2 Stacks erhöht.
3. Auf HW-Seite braucht man keine Anpassung für einen anderen Speichercontroller.
4. Auf SW-Seite hat man es nur mit einen Typ von Speichercontroller zu tun, Optimierungen für den Speichercontroller bei den verschiedenen APIs erreichen immer alle GPUs der Produktfamilie.
5. HBM2 Stacks könnten auch für die zukünftigen Consolen interessant werden.

maguumo
2017-09-12, 19:39:26
Wenn yield bei den HBM Stacks ein Problem ist könnte man wohl auch (ähnlich wie Nvidia das schon für GDDR5 tut um Chips mit teildefektem SI nutzen zu können) das Interface in 128 Bit Schritten verkleinern.

HOT
2017-09-12, 21:06:06
Leute, für V11 ist der Zug für GDDR6 längst abgefahren. Das Teil ist kurz nach V10 desingt worden und setzt damit quasi automatisch auf HBM. Der einzige Chip, dessen Design noch verändert werden konnte, wäre Vega20.

Agent117
2017-09-12, 22:23:32
Woher weißt du denn, dass er nicht von Anfang an für GDR6 oder GDR5x designed wurde. Wäre genauso möglich, wir wissen weder das eine noch das andere.

HOT
2017-09-12, 22:57:47
Woher weißt du denn, dass er nicht von Anfang an für GDR6 oder GDR5x designed wurde. Wäre genauso möglich, wir wissen weder das eine noch das andere.
Also Optionen sehe ich da nur HBM oder GDDR5. Ein 1-Stack-HBM-Chip hätte natürlich einen gewaltigen Vorteil bei der Energieaufnahme, deshalb sehe ich nur HBM. GDDR5X war für AMD von Anfang an nie interessant und für GDDR6 war Vega zu früh.
GDDR6 für Volta - ok für Vega 20 ebenfalls, aber definitiv nicht für Vega11, eben genausowenig wie es bei V10 interessant war. Als man diese Chips entwickelt hat (vor allem 2015), war man offensichtlich sehr positiv ggü. HBM eingestellt und ich sehe keinen Grund, warum V11 kein HBM haben sollte. Man sollte das Ganze, um es zu verstehen, vielleicht auch mal aus Entwicklersicht sehen.

gedi
2017-09-12, 23:08:48
Warum? GDDR5 und 6 sollten doch bez. des IC kompatibel sein. Was man im Endeffekt auf dem PCB verlötet ist imo unter Berücksichtigung des P/L schnuppe :rolleyes:

AffenJack
2017-09-12, 23:46:23
Leute, für V11 ist der Zug für GDDR6 längst abgefahren. Das Teil ist kurz nach V10 desingt worden und setzt damit quasi automatisch auf HBM. Der einzige Chip, dessen Design noch verändert werden konnte, wäre Vega20.

Aha und wieso? GDDR6 unterscheidet sich kaum von GDDR5X und den gibt es nun lang genug. Da kann man auch nachvollziehen, dass AMD schon mindestens 2 Jahre an GDDR6 Memory Controllern gearbeitet hat. Ich sehe da keine Probleme GDDR6 zu benutzen, wenn sie sich dafür entschieden haben. Die einzige Frage ist, ob ihnen das vielleicht zu unsicher war, wegen dem Erscheinungsdatum. Aber das hat bei HBM2 ja nun auch nicht wirklich besser geklappt.

Piefkee
2017-09-13, 09:34:51
https://videocardz.com/72498/raja-koduri-is-taking-a-3-month-break-from-rtg

Raja nimmt sich Q4 frei...Was auch immer du waren Hintergründe sind.

HOT
2017-09-13, 09:59:21
Aha und wieso? GDDR6 unterscheidet sich kaum von GDDR5X und den gibt es nun lang genug. Da kann man auch nachvollziehen, dass AMD schon mindestens 2 Jahre an GDDR6 Memory Controllern gearbeitet hat. Ich sehe da keine Probleme GDDR6 zu benutzen, wenn sie sich dafür entschieden haben. Die einzige Frage ist, ob ihnen das vielleicht zu unsicher war, wegen dem Erscheinungsdatum. Aber das hat bei HBM2 ja nun auch nicht wirklich besser geklappt.
AMD hat bei Polaris schon nicht darauf geschaut und bei Polaris hätte es mMn durchaus ne Rolle gespielt. Das ist einfach total unlogisch, dass AMD jetzt plötzlich auf GDDR5X setzen sollte, ob das jetzt leicht zu implentieren ist oder nicht, spielt da doch gar keine Rolle. Der Markt hat sich ebenfalls gegen GDDR5X entschieden, Micron bleibt der einzige Hersteller. Wenn sich AMD gegen GDDR entschieden hat bei V10, dann halte ich die Wahrscheinlichkeit doch für sehr hoch, dass man das auch bei V11 getan hat.

Ohnehin ist diese ganze Diskussion müßig ohne weitere Hinweise. Die Packagingmeldung halte ich übrigens für einen recht starken Hinweis, da die Meldung keinen Sinn machen würde, wenn V11 jetzt plötzlich GDDR bringen würde. Es ging doch genau darum, dass bei V10 so ein Packagechaos dank des Interposers herrschte und man das jetzt bei V11 besser machen möchte.

Dino-Fossil
2017-09-13, 12:21:32
https://videocardz.com/72498/raja-koduri-is-taking-a-3-month-break-from-rtg

Raja nimmt sich Q4 frei...Was auch immer du waren Hintergründe sind.

Hm, bin ja mal gespannt, ob er wirklich nur 'nen kleinen Burnout hat und Urlaub/"Zeit für die Familie" nimmt, oder ob er damit effektiv weg vom Fenster ist.
Immerhin sollte man relativ bald mehr wissen, wenn er nur Q4 2017 pausiert.

Kriton
2017-09-13, 12:22:40
https://videocardz.com/72498/raja-koduri-is-taking-a-3-month-break-from-rtg

Raja nimmt sich Q4 frei...Was auch immer du waren Hintergründe sind.

Manchmal einfach das, was man sagt. An anderer Stelle gibt es ja die Speku hinsichtlich eines Ausscheidens, aber ich glaube nicht, dass er dann dies gesagt hätte:

As we enter 2018, I will be shifting my focus more toward architecting and realizing this vision and rebalancing my operational responsibilities.

Das klingt für mich, als hätte er sich bisher hauptsächlich um die organisatorischen Änderungen gekümmert und ist damit (weitgehend) durch, so dass dann der Fokus (seinerseits) auf inhaltliche Themen gelegt werden kann.

Dino-Fossil
2017-09-13, 12:27:28
Es könnte natürlich auch bedeuten, dass man ihn bei AMD als Ingenieur genug schätzt um ihn zu behalten, aber mit seinen organisatorischen Fähigkeiten unzufrieden ist.
D.h. er wird sich wieder verstärkt um technische Details kümmern, aber jemand anderes wird die großen (Richtungs-)Entscheidungen treffen (und hoffentlich das Marketing der RTG umkrempeln).

Piefkee
2017-09-13, 12:36:40
Es könnte natürlich auch bedeuten, dass man ihn bei AMD als Ingenieur genug schätzt um ihn zu behalten, aber mit seinen organisatorischen Fähigkeiten unzufrieden ist.
D.h. er wird sich wieder verstärkt um technische Details kümmern, aber jemand anderes wird die großen (Richtungs-)Entscheidungen treffen (und hoffentlich das Marketing der RTG umkrempeln).

Ich denke auch das er eher als Technolgie Experte/Ingenieur mehr zu RTG beträgt als seine aktuelle Position.

Ehrlich gesagt fand ich auch seine letzten Tweets Interessant indem er meinte Vega 10 muss GP100,GP102,GP104 konkurrieren. Vega 10 ist jedenfalls nicht der Wurf den sich Raja und RTG erhofft haben, leider. Die Zukunft wird zeigen welches Potenzial in Vega steckt.

Kriton
2017-09-13, 12:39:29
Denkbar.
Aber man sollte den Aufwand einer solchen organisatorischen Änderung auch nicht unterschätzen. Von daher könnte ich nachvollziehen, wenn er sich technisch nicht so eingebracht hat, wie er es wollte.
Ich würde auch vermuten, dass er sich um das Marketing gar nicht so sehr gekümmert hat, da ihm das dann von der Tätigkeit her doch eher fremd sein dürfte.

Piefkee
2017-09-13, 12:43:27
Manchmal einfach das, was man sagt. An anderer Stelle gibt es ja die Speku hinsichtlich eines Ausscheidens, aber ich glaube nicht, dass er dann dies gesagt hätte:

Sicherlich ist ein Ausscheiden, oder ein Positionswechsel nicht weit weg hergehollt.

AMD/RTG entschied sich damals, dass der größte Marktanteil im Performance Segement ist, --> Polaris. Das Gegenteil ist eingetroffen, die damaligen "Kids" sind nun erwachsen und haben den großen Geldbeutel und sind auch bereit für eine GPU >600€ auszugeben. Wie Raja auf dem Finacialday gesagt hat, dass sich RTG auf das falsche Segment konzentriert hat und und wieder im High-End Segment landen will.

Vega ist meiner Meinung ein Machbarkeits Experiment gewesen mit extrem hohen Risiko auf die Schnauze zu fallen. Die komplette GCN Architektur ist leider am Ende. Es wird etwas neues hermüssen um weiter zu Konkurrieren können. Bin gespannt wie es mit RTG weiter geht. Bis Navi kommt erwarte ich jedoch nichts großes, leider.

Tarkin
2017-09-13, 12:55:32
Full letter from Raja via pcper:

RTG Team,

You haven’t heard from me collectively in a while – a symptom not only of the whirlwind of launching Vega, but simply of the huge number of demands on my time since the formation of RTG. Looking back over this short period, it is an impressive view. We have delivered 6 straight quarters of double-digit growth in graphics, culminating in the launch of Vega and being back in high-performance. What we have done with Vega is unparalleled. We entered the high-end gaming, professional workstation and machine intelligence markets with Vega in a very short period of time. The demand for Vega (and Polaris!) is fantastic, and overall momentum for our graphics is strong.

Incredibly, we as AMD also managed to spectacularly re-enter the high-performance CPU segments this year. We are all exceptionally proud of Ryzen, Epyc and Threadripper. The computing world is not the same anymore and the whole world is cheering for AMD. Congratulations and thanks to those of you in RTG who helped see these products through. The market for high-performance computing is on an explosive growth trajectory driven by machine intelligence, visual cloud, blockchain and other exciting new workloads. Our vision of immersive and instinctive computing is within grasp. As we enter 2018, I will be shifting my focus more toward architecting and realizing this vision and rebalancing my operational responsibilities.

At the beginning of the year I warned that Vega would be hard. At the time, some folks didn’t believe me. Now many of you understand what I said. Vega was indeed hard on many, and my sincere heartfelt thanks to all of you who endured the Vega journey with me. Vega was personally hard on me as well and I used up a lot of family credits during this journey. I have decided to take a time-off in Q4 to spend time with my family. I have been contemplating this for a while now and there was never a good time to do this. Lisa and I agreed that Q4 is better than 2018, before the next wave of product excitement. Lisa will be acting as the leader of RTG during by absence. My sincere thanks to Lisa and rest of AET for supporting me in this decision and agreeing to take on additional workload during my absence.

I am looking to start my time-off on Sept 25th and return in December.
Thank you, all of you, for your unwavering focus, dedication and support over these past months, and for helping us to build something incredible. We are not done yet, and keep the momentum going!

Regards, Raja

Also ausscheiden tut er mit Sicherheit nicht. Und das ganze Gerede von wegen Krise bei RTG wie es bei manchen News-Seiten schon wieder hochkocht ist absolut lächerlich! Wieder mal klassischer "Qualitätsjournalismus" mit einer ordentlichen Portion Kassandrarufe, typisch. Er braucht einfach eine Pause und will sich dann intern wieder mehr um die Architektur kümmern. Kann mir gut vorstellen, dass er einfach vom Marketing die Nase voll hat - wer kanns ihm verdenken? ;)

Sunrise
2017-09-13, 12:58:01
Raja ist ja eigentlich GPU-Architekt, wenn ich das noch richtig im Kopf habe. Zugleich musste er RTG formen und hatte da zusätzliche Verantwortung für im Prinzip fast alles. Raja ist RTG. Scherzenshalber auch die Raja Technologie Group genannt. ;)

Wenn Raja sich jetzt Urlaub gönnt und sich danach wieder mehr seinem eigentlichen Ziel, gute-sehr gute GPUs zu bauen, widmet, dann ist das eher ein gutes Zeichen IMHO, aber die Arbeit scheint wohl auch ziemlich anstrengend gewesen zu sein. Kann ich persönlich auch nachvollziehen, da hilft alles Geld nichts, wenn man für Privates kaum/keine Zeit hat. Entspannen, abhaken und daraus lernen und weiter gehts.

Da AMD ja auch viele Leute gehen gelassen hat, war es sicher nicht einfach Fiji und Vega zu entwickeln, bei einem Bruchteil des Budgets und der Talente dort. Irgendwann ist eben mal der Topf leer.

Piefkee
2017-09-13, 13:01:09
Also ausscheiden tut er mit Sicherheit nicht. Und das ganze Gerede von wegen Krise bei RTG wie es bei manchen News-Seiten schon wieder hochkocht ist absolut lächerlich! Wieder mal klassischer "Qualitätsjournalismus" mit einer ordentlichen Portion Kassandrarufe, typisch. Er braucht einfach eine Pause und will sich dann intern wieder mehr um die Architektur kümmern. Kann mir gut vorstellen, dass er einfach vom Marketing die Nase voll hat - wer kanns ihm verdenken? ;)

Welche Krise? RTG hat mit Vega einen super Wurf gemacht, leider nur im Falschen Segement für uns Gamer. Aus Professionler Sicht und als Compute-Card ist Vega 10 mit GP100 vergleichtbar. Der Deal mit Baidu wird wahrscheinlich 5x mehr Gewinn bringen als es jemals mit uns Gamern möglich wäre, auch wenn Vega die 1080Ti geschlagen hätte. AMD weiß, dass die meisten sowieso Nvidia kaufen.

Unicous
2017-09-13, 13:07:03
Das heißt nichts weiter als was er schreibt. Das Projekt Vega hat ihn (und vermutlich das gesamte Team) ausgelaugt und er hat es "nur" in leitender, organisatorischer Funktion betreut, da es schon begonnen wurde, als er wieder zu AMD stieß.

Vega war offenbar etwas zu ambitioniert für die Ressourcen die zur Verfügung stehen bzw. standen.

Ab 2018 wird er also wieder direkt am Design arbeiten, was ja mehr als begrüßenswert ist.

3 Monate Sabbatical sind im Übrigen ein Witz. Einige hochrangige Mitarbeiter nehmen sich Auszeiten von einem halben Jahr bis zu mehreren Jahren.

Man sollte auch bedenken, das es in den USA keinen offiziell verankerten (bezahlten) Urlaub gibt. Dafür gibt es besonders in Tech-Firmen die Möglichkeit paid und unpaid sabbaticals zu nehmen, die so zwischen 4-8 Wochen schwanken.
Und natürlich bieten viele (aber nicht alle) Firmen bezahlten Urlaub an. Aber es sind durchschnittlich eben eher 10 Tage während es z.B. 20-30 in Deutschland sind.(Und 20 bzw. 24 sind gesetzlich festgelegt)

So wie ich das sehe, ist der gute Raja über die letzten Monate und Jahre in der Welt rumgeturnt und hat die Teams die über den Globus verteilt sind abgeklappert, zig Events und Messen besucht und das wird ihn schon ordentlich mitgenommen haben. Logisch, dass man da irgendwann eine Auszeit braucht.

Tarkin
2017-09-13, 13:21:29
Welche Krise? RTG hat mit Vega einen super Wurf gemacht, leider nur im Falschen Segement für uns Gamer. Aus Professionler Sicht und als Compute-Card ist Vega 10 mit GP100 vergleichtbar. Der Deal mit Baidu wird wahrscheinlich 5x mehr Gewinn bringen als es jemals mit uns Gamern möglich wäre, auch wenn Vega die 1080Ti geschlagen hätte. AMD weiß, dass die meisten sowieso Nvidia kaufen.

Ja eben, Vega ist im Profibereich sicherlich ein Erfolg. MIch regen einfach solche Schlagzeilen auf:

"Krise bei AMDs Radeon-Sparte?" - siehe Gamestar (ich verlinke auf diesen Shice erst gar nicht!)

Piefkee
2017-09-13, 13:31:37
Ja eben, Vega ist im Profibereich sicherlich ein Erfolg. MIch regen einfach solche Schlagzeilen auf:

"Krise bei AMDs Radeon-Sparte?" - siehe Gamestar (ich verlinke auf diesen Shice erst gar nicht!)


Clickbait halt was sonst :mad::mad:

Dino-Fossil
2017-09-13, 13:37:31
Naja, unabhängig davon, ob es eine Krise gibt oder nicht, sind derartige Ankündigungen eben oft (aber nicht immer) ein Zeichen dafür, dass jemand schleichend ersetzt wird.
So gesehen kann man es der Presse nicht ganz verdenken, dass es entsprechende Spekulationen gibt.

Aufgrund von Rajas eigenem (internen) Statement glaube ich nicht daran, dass er geht/gegangen wird, aber eine gewisse interne Verschiebung der Prioritäten und Zuständigkeiten wäre nicht verwunderlich.

Hübie
2017-09-13, 15:32:16
Das heißt nichts weiter als was er schreibt. Das Projekt Vega hat ihn (und vermutlich das gesamte Team) ausgelaugt und er hat es "nur" in leitender, organisatorischer Funktion betreut, da es schon begonnen wurde, als er wieder zu AMD stieß.

Vega war offenbar etwas zu ambitioniert für die Ressourcen die zur Verfügung stehen bzw. standen.

Ab 2018 wird er also wieder direkt am Design arbeiten, was ja mehr als begrüßenswert ist.

3 Monate Sabbatical sind im Übrigen ein Witz. Einige hochrangige Mitarbeiter nehmen sich Auszeiten von einem halben Jahr bis zu mehreren Jahren.

Man sollte auch bedenken, das es in den USA keinen offiziell verankerten (bezahlten) Urlaub gibt. Dafür gibt es besonders in Tech-Firmen die Möglichkeit paid und unpaid sabbaticals zu nehmen, die so zwischen 4-8 Wochen schwanken.
Und natürlich bieten viele (aber nicht alle) Firmen bezahlten Urlaub an. Aber es sind durchschnittlich eben eher 10 Tage während es z.B. 20-30 in Deutschland sind.(Und 20 bzw. 24 sind gesetzlich festgelegt)

So wie ich das sehe, ist der gute Raja über die letzten Monate und Jahre in der Welt rumgeturnt und hat die Teams die über den Globus verteilt sind abgeklappert, zig Events und Messen besucht und das wird ihn schon ordentlich mitgenommen haben. Logisch, dass man da irgendwann eine Auszeit braucht.

Ich sehe das auch so. Da wird einfach wild spekuliert ohne Anhaltspunkte zu nennen. Imo geht es mit der RTG bergauf und das geht ja nicht von heute auf morgen. Raja wird sicherlich nicht abgesägt...

Brillus
2017-09-13, 17:10:31
Naja, unabhängig davon, ob es eine Krise gibt oder nicht, sind derartige Ankündigungen eben oft (aber nicht immer) ein Zeichen dafür, dass jemand schleichend ersetzt wird.
So gesehen kann man es der Presse nicht ganz verdenken, dass es entsprechende Spekulationen gibt.

Aufgrund von Rajas eigenem (internen) Statement glaube ich nicht daran, dass er geht/gegangen wird, aber eine gewisse interne Verschiebung der Prioritäten und Zuständigkeiten wäre nicht verwunderlich.
Naja er schreibt ja selbst das er sich stärker auf die Entwicklung konzentrieren will.

DrFreaK666
2017-09-13, 17:10:37
Ja eben, Vega ist im Profibereich sicherlich ein Erfolg. MIch regen einfach solche Schlagzeilen auf:

"Krise bei AMDs Radeon-Sparte?" - siehe Gamestar (ich verlinke auf diesen Shice erst gar nicht!)

Ich weiss nicht welche Gamestar du liest, aber bei mir steht "AMDs Radeon-Sparte - Grafikchef Raja Koduri nimmt lange Auszeit"

Unicous
2017-09-13, 17:42:59
Ich weiß nicht welche Gamestar du liest(also ich lese sie schon seit einer ganzen Weile nicht mehr und schon gar nicht um News aus der Branche zu lesen), aber selbst die URL ist noch dieselbe, auch wenn die Überschrift mittlerweile angepasst wurde.:rolleyes:

(Habe mal kurz die Kommentare dort durchgelesen, selbst dort regt man sich über Art und Weise auf. Typisch Sensationsjournalismus eben. Aber GS steht da natürlich nicht allein. So gut wie alle in der Branche haben dreckige Hände und auf die deutschen IT-Seiten kann man sich immer weniger verlassen.)

Tarkin
2017-09-13, 18:56:35
Ich weiss nicht welche Gamestar du liest, aber bei mir steht "AMDs Radeon-Sparte - Grafikchef Raja Koduri nimmt lange Auszeit"

Die haben die Headline geändert als sie gecheckt haben, dass es ein Statement von Raja gibt! Wenigstens haben sie ihren Schnitzer schnell korrigiert.

DrFreaK666
2017-09-13, 20:43:44
Die haben die Headline geändert als sie gecheckt haben, dass es ein Statement von Raja gibt! Wenigstens haben sie ihren Schnitzer schnell korrigiert.

Gut. Das wusste ich nicht

Schaffe89
2017-09-14, 15:03:57
Naja, unabhängig davon, ob es eine Krise gibt oder nicht, sind derartige Ankündigungen eben oft (aber nicht immer) ein

Ist ein fast untrügliches Zeichen dafür dass man ihn absägt, Zeit isses auch geworden.

AlphaNUSS
2017-09-14, 17:35:53
Ist ein fast untrügliches Zeichen dafür dass man ihn absägt, Zeit isses auch geworden.

Das Problem ist nicht die Chef Etage, sondern das fehlende Budget, bei so ziemlich allem. Die Letzten Jahre, ist der größte Teil von AMDs eh schon winizgem R&D Budget für Ryzen drauf gegangen.

Unicous
2017-09-14, 17:57:29
Dass du überhaupt auf das Getrolle eingehst...:rolleyes:

Wiseman
2017-09-14, 21:05:40
Das Problem ist nicht die Chef Etage, sondern das fehlende Budget, bei so ziemlich allem. Die Letzten Jahre, ist der größte Teil von AMDs eh schon winizgem R&D Budget für Ryzen drauf gegangen.

Sooo true.

Kann man nicht oft genug wiederholen bei all den Trollen, Shills und Marketeering Guys hier. Darum wiederhole ich es auch (hehe):

Die letzten Jahre ist der größte Teil von AMDs eh schon winzigem R&D Budget für Ryzen draufgegangen.

Kriton
2017-09-15, 00:04:50
Das Budget spielt sicher eine Rolle, aber IMHO unterschätzt ihr die Umstrukturierung. Raja macht das (offiziell) seit 2 Jahren.
Ich habe das mit bei einer (deutlich) kleineren Organisationseinheit gemacht, und da sieht man zu, dass nebenbei das Tagesgeschäft nicht (zu sehr) darunter leidet.
Wenn man eine Organisation grundlegend ändert, dann betrifft das ja Zuständig-, Verantwortlichkeiten und Prozesse. Von persönlichen Befindlichkeiten mal ganz abgesehen.
Allein bis das (richtig) läuft.
Wenn er so etwas in 2 Jahren geschafft hat, dann war allein das schon eine sehr ordentliche Leistung mit Vega nebenbei (die Begrifflichkeit nutze ich bewusst und passt auch IMHO zu seiner Formulierung).

vinacis_vivids
2017-09-15, 00:08:14
Polaris wurde auch nebenbei entwickelt und released, und das sogar recht erfolgreich.

Fragman
2017-09-15, 08:18:49
wenn es ein budgetproblem gab und vega deshalb diese probleme hat, werden die anleger schon frueh genug rumjammern fuer den fall, das vega sich nicht gut verkauft.

Piefkee
2017-09-15, 08:31:56
Das Budget spielt sicher eine Rolle, aber IMHO unterschätzt ihr die Umstrukturierung. Raja macht das (offiziell) seit 2 Jahren.
Ich habe das mit bei einer (deutlich) kleineren Organisationseinheit gemacht, und da sieht man zu, dass nebenbei das Tagesgeschäft nicht (zu sehr) darunter leidet.
Wenn man eine Organisation grundlegend ändert, dann betrifft das ja Zuständig-, Verantwortlichkeiten und Prozesse. Von persönlichen Befindlichkeiten mal ganz abgesehen.
Allein bis das (richtig) läuft.
Wenn er so etwas in 2 Jahren geschafft hat, dann war allein das schon eine sehr ordentliche Leistung mit Vega nebenbei (die Begrifflichkeit nutze ich bewusst und passt auch IMHO zu seiner Formulierung).

IMHO glaube ich nicht das es an einer Umstruktrierung lag. AMD hat sich mit Polaris voll auf das Performance-Segement konzentriert weil es da die meisten Karten verkaufen kann. Der Markt hat sich aber verändert und Leute waren bereit >500 für eine Karte auszugeben. Und über das Image "keine Highend" Karte zu haben in der heutigen "Apple, kostet viel will ich Welt" sind sie auf die Schnauze gefallen. Raja hat es ja im Stream zugeben das sich RTG auf das falsche Segment konzentriert hat. Darum ist es ja zu den ganzen Verzögerungen bei Vega gekommen. Ursprünglich war Vega als 1070 - 1080 Konkurrenz geplant und dann wurde rumgedoktort bis wir das Stromfressende Monster präsentiert bekommen haben.

Wenn man bedenkt sie hätten Vega mit dem BIOS Stromsparen auf den Markt gebracht? Keiner hätte sich aufgeregt, niemand. Die Karte wäre zwar unter der 1080 aber es hätte keine schlechte Presse geben....

Hübie
2017-09-15, 08:49:04
Für meine Wahrnehmung war die Presse jetzt nicht sehr negativ, aber auch nicht sehr positiv. In Schulnoten so 2,5-3,0 würde ich sagen. Der normale Nutzer hat eben nicht die Zeit sich mit all dem Gedöhns auseinander zu setzen. Daher hätte es Vega's Image gut getan 200 Watt Standard vorzugeben und den Rest per Treiberprofile (mit einer API für den VRC) und fertig. Verstehe nicht warum man 6 BIOS Varianten anbietet wenn man letztendlich auch alles per Software machen könnte. Ganze ohne Dip-switch der viele überfordert. :rolleyes:

Thunder99
2017-09-15, 09:14:19
AMD will es jedem Recht machen :D

Hübie
2017-09-15, 09:25:21
Das ist prinzipiell auch gut, nur konzeptionell suboptimal gelöst. So bleibt's wieder beim Image: Laut, heiß und stromhungrig.

Kriton
2017-09-15, 14:55:58
IMHO glaube ich nicht das es an einer Umstruktrierung lag. AMD hat sich mit Polaris voll auf das Performance-Segement konzentriert weil es da die meisten Karten verkaufen kann. Der Markt hat sich aber verändert und Leute waren bereit >500 für eine Karte auszugeben. Und über das Image "keine Highend" Karte zu haben in der heutigen "Apple, kostet viel will ich Welt" sind sie auf die Schnauze gefallen. Raja hat es ja im Stream zugeben das sich RTG auf das falsche Segment konzentriert hat. Darum ist es ja zu den ganzen Verzögerungen bei Vega gekommen. Ursprünglich war Vega als 1070 - 1080 Konkurrenz geplant und dann wurde rumgedoktort bis wir das Stromfressende Monster präsentiert bekommen haben.

Wenn man bedenkt sie hätten Vega mit dem BIOS Stromsparen auf den Markt gebracht? Keiner hätte sich aufgeregt, niemand. Die Karte wäre zwar unter der 1080 aber es hätte keine schlechte Presse geben....

Wir reden vielleicht aneinander vorbei. Worauf ich hinauswollte ist, dass eine solche Umstrukturierung die eigentliche Tätigkeit massiv beeinflusst/beeinträchtigt. In diesem Zusammenhang fehlt es oftmals an der Möglichkeit sich mit anderen Dingen auf höherer Ebene zu beschäftigen. So etwas kann z.B. IMHO auch zu dem führen/beitragen, was Du beschrieben hast.

AffenJack
2017-09-20, 23:37:50
Die 14nm+ die auf den Folien früher waren haben sich nun wohl in 12LP umgewandelt.

http://www.tomshardware.com/news/amd-ryzen-vega-12nm-lp-2018,35502.html

Node wurde bestimmt renamed, aber auf jeden Fall sollen auch Grafikchips darin kommen.

Agent117
2017-09-21, 00:33:31
Denke eher dass statt 7nm nun 12nm kommt; mit 14 LPP+ hat das mMn nix zu tun.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11496485#post11496485

w0mbat
2017-09-21, 07:38:10
Ne, 12nm LP ersetzt 14nm LPP+, das hat nichts mit 7nm zu tun.

HOT
2017-09-21, 10:14:41
Glaub nicht, dass das 14LPP+ sein soll, der sollte nämlich eine kostensparende Billigvariante von 14LPP sein und den wird es wohl zusätzlich noch geben. 12LP ist eindeutig eine High-Performance-Variante von 14LPP und damit anders als die TSMC-Variante. Der Vorteil wird sein, dass man die Fertigung nur wenig umstellen muss, um deutlich mehr Performance zu bekommen (10% mehr als 16FF+(!)) und eine nicht unerhebliche Platzersparnis im Logikbereich. Das klingt nunmal überhaupt nicht nach 14LPP+.
Ich denke eher, dass 12LP AMD-Exklusiv ist und man deshalb von dessen Arbeit nichts mitbekam, weil AMD den ankündigen durfte. Jetzt kurz vor der ersten Produktion lässt man die Katze aus dem Sack. Der Prozess dürfte Intels 14nm recht nahe kommen.

Dann ist sicherlich ein V10-Refresh zu erwarten und V20 wird wohl dennoch N7 sein.

Und nein, es kommt nicht 12nm statt 7nm. 7LP für Zen2 ist weiterhin aktuell.

14LPP
RavenRidge
V11

12LP Produkte dürften sein:
V10 Refresh, V12
PinnacleRidge (alles andere macht keinen Sinn, das wird er eigentliche Motivation und Hauptanwendungszweck für 12LP sein)

7LP GloFo
Zen2 12-Core
Zen2 APU
Navi

N7 TSMC
V20 als Einzelprojekt

Agent117
2017-09-21, 10:56:31
Ne, 12nm LP ersetzt 14nm LPP+, das hat nichts mit 7nm zu tun.

Hast du dafür auch einen Beleg oder behauptest du das jetzt einfach so ?
Es spricht nämlich dagegen, dass auf den ofiziellen Folien Risk Production H1 2018 vermerkt ist, was eine Serienfertigung in H2 oder Ende H1 bedeutet. Das entspricht zudem den ursprünglichen Zeitplan von 7nm LP.
In dem Zuge spricht dann auch dagegen, dass Raven Ridge und Pinnacle Ridge, die ja den LPP+ Prozess nutzen sollten, schon zur Jahreswende kommen und nicht erst in Q3 18.

w0mbat
2017-09-21, 11:50:09
Ich habe, genauso wie du, für meine Vermutung keinen Beleg. Aber da 7nm laut AMD weiterhin im Plan liegt, gehe ich davon aus, dass 12nm LP nun 14nm LPP+ ersetzen wird.

Piefkee
2017-09-21, 12:13:49
Ich habe, genauso wie du, für meine Vermutung keinen Beleg. Aber da 7nm laut AMD weiterhin im Plan liegt, gehe ich davon aus, dass 12nm LP nun 14nm LPP+ ersetzen wird.


Genauso sehe ich das auch. Der 14nm LPP+klingt in anbetragt von TCSM 12nm nicht nach gleichwertig. Daher hat man sich dafür entschieden den 14nm in den 12nm umzubennen. Wer die Folien anschaut da steht "Up to 15% density improvment over 16nm". Da der GF 14nm schon 10% höhere dichte als der 16nm von TCSM hatte, ist es doch nur logisch das 14nm+ nun 12nm heißt.

Der 12nm wird meiner Meinung 2018 als Zen+ kommen(Tick). Und 2019 kommt der Tock mit Zen2 in 7nm. So passt es auch mit der Roadmap.

BlacKi
2017-09-21, 12:59:47
Genauso sehe ich das auch. Der 14nm LPP+klingt in anbetragt von TCSM 12nm nicht nach gleichwertig. Daher hat man sich dafür entschieden den 14nm in den 12nm umzubennen. Wer die Folien anschaut da steht "Up to 15% density improvment over 16nm". Da der GF 14nm schon 10% höhere dichte als der 16nm von TCSM hatte, ist es doch nur logisch das 14nm+ nun 12nm heißt.

Der 12nm wird meiner Meinung 2018 als Zen+ kommen(Tick). Und 2019 kommt der Tock mit Zen2 in 7nm. So passt es auch mit der Roadmap.
also fast genauso wie bei NV. ich stehe dieser methode( verbesserter alter prozess) positiv ggü., viel schlimmer wäre den alten prozess weiter zu nutzen wie damals mit dem 28nm.

bin gespannt wann 7nm wirklich kommt. ich vermute ja das die termine gerissen werden.

Piefkee
2017-09-21, 14:25:28
also fast genauso wie bei NV. ich stehe dieser methode( verbesserter alter prozess) positiv ggü., viel schlimmer wäre den alten prozess weiter zu nutzen wie damals mit dem 28nm.

bin gespannt wann 7nm wirklich kommt. ich vermute ja das die termine gerissen werden.


Ich denke 7nm kommt von GF rechtzeitig. Diesmal ohne ewige Verzögerung. Sie starten ja im Q1 mit der Riskproduction. Der Unterschied zu fürher ist einfach IBM :cool:

Agent117
2017-09-21, 14:53:37
Ich denke 7nm kommt von GF rechtzeitig. Diesmal ohne ewige Verzögerung. Sie starten ja im Q1 mit der Riskproduction. Der Unterschied zu fürher ist einfach IBM :cool:

Wenn 7nm rechtzeitig kommt, kommt er zeitgleich zu GF's 12nm.
Klingt erstmal komisch; beide Prozesse sind ja nach ofiziellen Aussagen für High-End CPUs und GPUs geeignet. Naja wir werden schon die nächsten Wochen darüber aufgeklärt werden, was jetzt wirklich was ersetzt und wann dann 7nm wirklich aufschlägt, für den es dieses Jahr ja noch die ersten Tape Outs geben soll.
Auch sehe ich 12nm nur für einen Vega Refresh.

HOT
2017-09-21, 17:52:41
7nm sind ja nur Vega20 und Zen2 (und Navi natürlich). Sicherlich braucht AMD sowieso mindestens 1 1/2 Jahre zur Validierung von Zen2, sodass, geht man von einem jetzigen Tapeout aus, eh bis Mitte 2019 braucht, bis Zen2 auch verfügbar ist - als annährend zeitgleich mit Icelake. Die Zen2 APU und Navi sind sicherlich nicht vor 2.Hj 2019 zu erwarten, eher später als früher.
PinnacleRidge verschiebt sich durch 12LP auf Mitte 2018, RR und Vega 11 kommen sicherlich noch in 14LPP, da diese ja zum Jahreswechel erscheinen sollen. Sollten diese Produkte auch 12LP sein, verschieben die sich weit ins Jahr 2018.
irgendwann im 2.Hj 2018 dürfte dann auch ein V10-Refresh in 12LP erschienen und Vega 20 ist sehr sicher ein Standalone-Produkt, das im gleichen Zeitraum erscheint, dass in N7FF bei TSMC gefertigt wird und keine so großen Volumina benötigt, da das Produkt eh nur Profi und Enthusiast ist.

reaperrr
2017-09-21, 18:24:41
Wenn 7nm rechtzeitig kommt, kommt er zeitgleich zu GF's 12nm.
Klingt erstmal komisch; beide Prozesse sind ja nach ofiziellen Aussagen für High-End CPUs und GPUs geeignet. Naja wir werden schon die nächsten Wochen darüber aufgeklärt werden, was jetzt wirklich was ersetzt und wann dann 7nm wirklich aufschlägt, für den es dieses Jahr ja noch die ersten Tape Outs geben soll.
Auch sehe ich 12nm nur für einen Vega Refresh.
7nm wird garantiert viel, viel länger brauchen, bis Yield-Rate und Volumen wirklich geeignet für die Massenproduktion sind.
Da 12LP auf 14LPP basiert und wahrscheinlich zu den 14LPP-Fertigungsstraßen kompatibel ist, wird die Validierung ungleich schneller vonstatten gehen und die Massenproduktion viel schneller starten können.

Ich würde auch nicht komplett ausschließen, dass AMD aufgrund der mäßigen Vega-Architektur und dem wohl in 1H18 anstehenden Volta-Launch Vega11 und evtl. auch V12 direkt in 12LP bringt, da die Chips so oder so mindestens bis Navi11 "durchhalten" müssen und es aus dem Grund sinnvoller wäre, auf den Zwischenschritt im alten 14LPP zu verzichten.

LadyWhirlwind
2017-09-21, 19:19:24
Man darf hier die betriebswirtschaftliche Komponente nicht vergessen! Auch wenn die beiden Prozesse einen ähnlichen Zeitplan haben, sind sie doch betriebswirtschaftlich gesehen völlig unterschiedlich.

Der 7nm Prozess ist neu und daher teuer - und mit ungewissem Terminplan - während der 12nm LP Prozess auf einem bestehenden Prozess aufbaut und daher wohl schnell bereitsteht und wohl deutlich billiger sein dürfte.

Für den Anfang wird man also 7nm nicht für billige Produkte nutzen wollen, sondern nur für HighEnd-Produkte, wo die Produktionskosten besser kompensiert werden können. Im Gegensatz dazu kann man den 12 nm für das Massengeschäft nutzen und dort noch ein paar Performance-Gewinne mitnehmen. Eigentlich perfekt für AMD.

iuno
2017-09-21, 19:33:21
RR und Vega 11 kommen sicherlich noch in 14LPP, da diese ja zum Jahreswechel erscheinen sollen.
Quelle fuer V11?
Was soll das jetzt ueberhaupt fuer ein Chip werden? Wenn er unter V10 ist, wieso haette man ihn nicht schon vor Monaten einstampfen sollen, als klar war dass V64 nichts mit GP102 zu tun hat und Polaris laeuft wie geschnitten Brot. Oder alternativ halt die 12nm grad noch mitnehmen.

Schnitzl
2017-09-21, 20:11:03
Hallo,
da die 1070Ti ja nun kommt, inwiefern hat AMD da ne Antwort darauf?
Wird echt Zeit für den Wundertreiber ;D

im Ernst: es ist doch meistens der Ablauf wenn man zu dem Kontrahenten "aufschliesst", dass der "Stärkere" über kurz oder lang eine Antwort anbietet.
(siehe auch Intel mit mehr Kernen)

Die Frage ist ob AMD nun ebenfalls was geplant hat, quasi um den Konter zu kontern :D
Oder ob sie gar nicht die Mittel/Kapazitäten dazu haben.

Diese Lektion sollte AMD eigentlich mit dem Core2Duo gelernt haben...

/Edit: für V11 könnte man da schöne Theorien aufstellen @ iuno
Möglichkeit 1 : V10 wird nicht mehr schneller und V11 ist bereits eingestampft
Möglichkeit 2 : V10 hat Bugs und V11 ist fehlerbereinigte Version
Möglichkeit 3 : wenn Primitive Shader und das ganze Gedöhns mal läuft wird V10 noch rund bis zu 20% schneller und V11 hat seine Lücke in die er reinpasst.
1,2 oder 3 mal sehn wo das Licht angeht ^^

nochmal Edit:
Möglichkeit 1a: V48 kommt noch zw. V56 und Polaris (beinhaltet M1 und erscheint mir bei den begrenzten Mitteln am wahrscheinlichsten, leider :( )

LadyWhirlwind
2017-09-21, 20:39:52
Hallo,
da die 1070Ti ja nun kommt, inwiefern hat AMD da ne Antwort darauf?
Wird echt Zeit für den Wundertreiber ;D

im Ernst: es ist doch meistens der Ablauf wenn man zu dem Kontrahenten "aufschliesst", dass der "Stärkere" über kurz oder lang eine Antwort anbietet.
(siehe auch Intel mit mehr Kernen)

Die Frage ist ob AMD nun ebenfalls was geplant hat, quasi um den Konter zu kontern :D
Oder ob sie gar nicht die Mittel/Kapazitäten dazu haben.

Diese Lektion sollte AMD eigentlich mit dem Core2Duo gelernt haben...

/Edit: für V11 könnte man da schöne Theorien aufstellen @ iuno
Möglichkeit 1 : V10 wird nicht mehr schneller und V11 ist bereits eingestampft
Möglichkeit 2 : V10 hat Bugs und V11 ist fehlerbereinigte Version
Möglichkeit 3 : wenn Primitive Shader und das ganze Gedöhns mal läuft wird V10 noch rund bis zu 20% schneller und V11 hat seine Lücke in die er reinpasst.
1,2 oder 3 mal sehn wo das Licht angeht ^^

nochmal Edit:
Möglichkeit 1a: V48 kommt noch zw. V56 und Polaris (beinhaltet M1 und erscheint mir bei den begrenzten Mitteln am wahrscheinlichsten, leider :( )

Ein möglicherweise fehlerbereinigter Vega Chip in 12nm wäre ein guter Konter zu einer 1070 TI. Auch wenn er erst im Frühjahr kommt.

reaperrr
2017-09-21, 20:46:42
Quelle fuer V11?
Was soll das jetzt ueberhaupt fuer ein Chip werden? Wenn er unter V10 ist, wieso haette man ihn nicht schon vor Monaten einstampfen sollen, als klar war dass V64 nichts mit GP102 zu tun hat und Polaris laeuft wie geschnitten Brot. Oder alternativ halt die 12nm grad noch mitnehmen.
Polaris läuft nur wegen Mining wie geschnitten Brot, und dass das auch in ganz 2018 noch so sein wird, ist stark zu bezweifeln. Und falls doch, brauchen sie im Grunde erst recht einen ähnlichen oder besseren Chip für Spieler.
So klein ist die Lücke zwischen RX 580 @ stock und V56 nun auch wieder nicht, da wäre schon noch Platz für einen ~300-320mm²-Chip der sich performance-technisch 15-25% über RX580 einsortiert und durch höhere Speicherlatenz (HBM2 oder G5X/G6) weniger attraktiv für Miner ist.

Hallo,
da die 1070Ti ja nun kommt, inwiefern hat AMD da ne Antwort darauf?
Wird echt Zeit für den Wundertreiber ;D

im Ernst: es ist doch meistens der Ablauf wenn man zu dem Kontrahenten "aufschliesst", dass der "Stärkere" über kurz oder lang eine Antwort anbietet.
(siehe auch Intel mit mehr Kernen)

Die Frage ist ob AMD nun ebenfalls was geplant hat, quasi um den Konter zu kontern :D
Oder ob sie gar nicht die Mittel/Kapazitäten dazu haben.
So lange die Nachfrage trotz der aktuellen Preise die Menge an produzierbaren Vega-Karten übersteigt, spielt es für AMD im Grunde keine nennenswerte Rolle, ob die 1070 Ti nun "besser" ( = etwas schneller bei geringerem Verbrauch und gleichem Preis) als die Vega 56 wird.

Erst später, wenn die Nachfrage insgesamt etwa nachlässt, könnte es ein wenig problematischer werden. Spätestens bis dahin wird es aber auch gute Partner-Karten der V56 geben. Und wenn die Nachfrage - was ich nicht glaube - so stark zurückgehen sollte, dass AMD die V56/64 plötzlich nicht mehr los wird, müssen sie halt die Preise etwas senken. Nicht gut für die Finanzen, aber besser als NV den Markt wieder komplett zu überlassen.


Diese Lektion sollte AMD eigentlich mit dem Core2Duo gelernt haben...
Wenn dein Chip nicht konkurrenzfähig genug ist, kannst du halt nicht viel machen, da nützt auch die Erfahrung der Vergangenheit wenig, du kannst über 50% mehr Fläche und Verbrauch halt nicht einfach wegzaubern.
Preise senken macht dir auch nur Margen kaputt, wenn der gleichschnelle Chip des Konkurrenten viel günstiger herzustellen ist.
Die Kunst liegt dann einfach darin, die Karten so zu positionieren, dass sie für eine ausreichende Zahl Käufer ausreichend attraktiv sind um sie zu akzeptablen (also aus AMD-Sicht nicht zu niedrigen) Preisen loszuwerden, ohne den Konkurrenten zu Preissenkungen etc. anzustacheln. Das macht AMD momentan eigentlich sogar ganz gut, und die 1070 Ti wird auch nichts grundlegendes daran ändern.


Edit: Übrigens nochmal zu den Fertigungsprozessen: http://hexus.net/tech/news/industry/110324-amd-will-transition-ryzen-vega-glofo-12nm-lp-next-year/
Auf der zweiten Slide ist bei 12LP von "Production start 1Q18" die Rede, da steht nichts von 1H oder risk production, gegenüber "risk production 1H'18" für 7LPP. Klingt für mich stark danach, dass 12LP wirklich 14LPP+ ist und in Q1 bereits die Massenproduktion losgeht, womit es auch definitiv für Pinnacle Ridge und Vega 11 reichen würde, denn die Kommentare von Raja und Su zu Raja's Pause klangen nicht danach, dass V11 noch dieses Jahr kommt.

vinacis_vivids
2017-09-21, 21:04:20
Zu Vega gibs doch Gerüchte einer 4GB HBM² Version. Das deutet klein Desktop Vega11 hin. 40CUs Vollausbau und ein 36er Salvage mit 12nm und höheren Taktraten ~1700Mhz. Wäre nicht zu groß und schneller und günstiger machbar. Der Leitungsabstand bleibt dennoch vorhanden.

Schnitzl
2017-09-21, 21:43:25
(...)

Edit: Übrigens nochmal zu den Fertigungsprozessen: http://hexus.net/tech/news/industry/110324-amd-will-transition-ryzen-vega-glofo-12nm-lp-next-year/
Auf der zweiten Slide ist bei 12LP von "Production start 1Q18" die Rede, da steht nichts von 1H oder risk production, gegenüber "risk production 1H'18" für 7LPP. Klingt für mich stark danach, dass 12LP wirklich 14LPP+ ist und in Q1 bereits die Massenproduktion losgeht, womit es auch definitiv für Pinnacle Ridge und Vega 11 reichen würde, denn die Kommentare von Raja und Su zu Raja's Pause klangen nicht danach, dass V11 noch dieses Jahr kommt.
Danke für den Link, aus Zeitgründen kann ich jedoch nur auf das Edit antworten:
im ersten Bild steht bei 12LP "Risk production in 1H 2018"
im 2. Bild dann 12LP "Production Start in 1Q 2018" und bei 7LP "Risk production in 1H 2018"
:confused:

w0mbat
2017-09-21, 22:00:46
Ja, ich glaube da hat sich ein Fehler eingeschlichen. 12nm LP startet im Q1, wahrscheinlich mit Pinnacle Ridge oder vieleicht Vega 11. 7nm startet die risk production im H1, erstes Produkt wahrscheinlich Zen 2.

iuno
2017-09-22, 01:42:09
Polaris läuft nur wegen Mining wie geschnitten Brot, und dass das auch in ganz 2018 noch so sein wird, ist stark zu bezweifeln.

Und jetzt? Interessiert doch keinen Hersteller, was der Kunde mit der Ware macht, solange er zahlt. Am Gaming Marktanteil gewinnen sie gegen Pascal sowieso nichts, das war denen aber vermutlich auch schon letztes Jahr klar.
Wenn man Spielern was bieten wollte, haette man anders reagieren koennen. Da es offenbar eh inzwischen fest zur Firmenpolitik gehoert, einfach die Zahlen groesser zu machen, haette man z.B. die 580 erstmal nur als Referenz bringen koennen, so aehnlich wie Vega. Und ausserdem mal teurer, was sowieso immer das Ziel eines refreshes ist. Verkauft werden sie so oder so zu abartigen Preisen, AMD hat aber rein gar nichts davon. Runtergehen kann man ja hinterher immer noch, falls der Markt wegbraeche. Oder warum zieht man nicht auch mal einen kleinen Direktvertrieb auf, so wie Nvidia das hat, wenn die Partner nicht mitmachen wollen oder koennen. Die Bundles waren eine Idee, das etwas zu lenken, aber nicht zuende gedacht und dementsprechend ein furchtbarer fail. Und dann verdient man nicht mal daran, sondern verkauft die Chips immer noch gleich billig. Was fuer sie so aber offenbar auch voellig OK ist, sonst haetten sie mehr Hirnschmalz reinfliessen lassen.
Und dann bin ich auch nicht sicher, wie ein 300mm²+ V11 mit HBM (?) mehr Marge generieren soll als Polaris, wenn der Preis auch noch deutlich unter der V56 sein soll. Oder wo die Fertigungskapazitaeten herkommen sollen, wenn man eh nicht nachkommt und demnaechst noch RR dazukommt.

Und falls doch, brauchen sie im Grunde erst recht einen ähnlichen oder besseren Chip für Spieler.
So klein ist die Lücke zwischen RX 580 @ stock und V56 nun auch wieder nicht, da wäre schon noch Platz für einen ~300-320mm²-Chip der sich performance-technisch 15-25% über RX580 einsortiert und durch höhere Speicherlatenz (HBM2 oder G5X/G6) weniger attraktiv für Miner ist.
Den gibt es mit V10 doch schon. Dass es kein absoluter Oberklassechip ist, wird schon am SI klar und die Preise sind auch noch fair und bestaetigen das (UVP).
Wo hat HBM groessere Latenzen? Soweit ich weiss, sind die Cachelines bei GCN schon immer bei 64b, dementsprechend ist es auch vom prefetch her egal ob HBM, GDDR5, 5X oder 6. Und Chips extra verkrueppeln wird man sicher nicht machen.

vinacis_vivids
2017-09-22, 04:33:59
Wer sagt, dass Vega11 300-320mm² haben muss?
Durch den 12nm gibs allein 15% mehr Packdichte. Taktmäßig legt man zu gegenüber Polaris zu und uArch Verbesserung fließen mit rein.
Eine Bandbreite durch preiswerte 2x2GB HBM² stacks wirft 300-350GB/s aus. HBCC wird hier der Triumph sein für niedrige kosten. GDDR5 stirbt aus.

P20 ~ 24,5Mio/mm²
V10 ~ 25,8Mio/mm²
GP102 ~ 25,4Mio/mm²

12nm Packdichte +15% -> 29,3Mio/mm²

Bei 7-7,6Mrd Transistoren brauch man dann ~ 240-260mm²

Das sind bis 33% mehr als P20, die werden in CUs investiert -> Vega11 CUs=44/40

1666Mhz:
RX36 2304SP ~ 7,6Tflops
RX40 2560SP ~ 8,5Tflops
RX44 2816SP ~ 9,3Tflops

Luft für oben und unten bleibt.

Daredevil
2017-09-22, 07:23:23
Hallo,
da die 1070Ti ja nun kommt, inwiefern hat AMD da ne Antwort darauf?
Wird echt Zeit für den Wundertreiber ;D


Da die 1070ti vermutlich die Antwort auf die Vega56 Customs ist, wird da vermutlich nicht mehr großartig was kommen.
Außer vielleicht ziemlich gute Vega56 Custom Karten.

Piefkee
2017-09-22, 08:12:11
Wer sagt, dass Vega11 300-320mm² haben muss?
Durch den 12nm gibs allein 15% mehr Packdichte. Taktmäßig legt man zu gegenüber Polaris zu und uArch Verbesserung fließen mit rein.
Eine Bandbreite durch preiswerte 2x2GB HBM² stacks wirft 300-350GB/s aus. HBCC wird hier der Triumph sein für niedrige kosten. GDDR5 stirbt aus.

P20 ~ 24,5Mio/mm²
V10 ~ 25,8Mio/mm²
GP102 ~ 25,4Mio/mm²

12nm Packdichte +15% -> 29,3Mio/mm²

Bei 7-7,6Mrd Transistoren brauch man dann ~ 240-260mm²

Das sind bis 33% mehr als P20, die werden in CUs investiert -> Vega11 CUs=44/40

1666Mhz:
RX36 2304SP ~ 7,6Tflops
RX40 2560SP ~ 8,5Tflops
RX44 2816SP ~ 9,3Tflops

Luft für oben und unten bleibt.


Nein es gibt keinen 35% packdichte Verbesserung von 14nm auf 12nm.
In der Präsentation steht "15% density Improvement over 16nm" das bezieht sich auf dem tscm Prozess. Der hat aber schon 15% mehr packdixhte als 14nm von GF.
Also ist 12nm nichts anderes als 14nm(früher 14nm LPP+)

Piefkee
2017-09-22, 09:13:32
MSI macht keine Custom Vega

http://www.tomshardware.com/news/amd-vega-custom-graphics-cards-problems,35514.html

MSI’s response surprised us. The company traditionally offers re-engineered graphics cards with custom PCB designs for all high-end GPU platforms, but it appears to be skipping the Vega lineup. A company representative told us that MSI “won’t be making a custom card anytime soon,” but could offer no additional information.

Jetzt wird die Sache immer absurder...Klar das es eventuel technische Probleme gibt. Aber das einige AiB keine Lust haben eine Custom zu bringen ist sehr sehr seltsam. Sicher die exklusiven Partner (Sapphire,Powercoler) müssen eine bringen, aber das MSI überhaupt keine macht und das Gigabyte (Although a Gigabyte rep said it’s likely that the company would be producing a custom Vega card, they would not or could not confirm with 100% certainty that it will. If it does, we likely won’t see it until the end of the year, or later. erst Ende des Jahres oder nächstes Jahr eine bringt ist verwunderlich.

Irgendwas läuft gewaltig schief hinter den Kulissen.

deekey777
2017-09-22, 09:14:38
"Custom", Alter... ;(

HOT
2017-09-22, 09:17:13
Die bekommen keine Chips ab. Ich nehme an, dass der in einer so kleinen Serie gefertigt wird, dass davon der Löwenanteil an Sapphire, TUL und XFX geht, der Rest muss sich mit Brosamen begnüngen, da hat MSI keinen Bock drauf.
Wenn der wirklich in 12LP noch refresht wird, ist die Situation ja noch absurder, dann hat das Ding nämlich auch noch ne äußerst kurze Lebensspanne.

Piefkee
2017-09-22, 09:24:33
Die bekommen keine Chips ab. Ich nehme an, dass der in einer so kleinen Serie gefertigt wird, dass davon der Löwenanteil an Sapphire, TUL und XFX geht, der Rest muss sich mit Brosamen begnüngen, da hat MSI keinen Bock drauf.
Wenn der wirklich in 12LP noch refresht wird, ist die Situation ja noch absurder, dann hat das Ding nämlich auch noch ne äußerst kurze Lebensspanne.

Ja das könnte es auch sein. Was aber natürlich ebenfalls der Fall sein könnte ist einfach das die Chip-Yield, Produktionskosten des Chips, HBM2 Kosten und die höheren Kosten aufgrund der Packaging Probleme der Preis für den Vega10 Chip so hoch für AMD ist. Sie werden natürlich nicht draufzahlen wollen wenn V56 für 399€ verkauft wird. Man wird sich mehr erhofft haben, damit man auch mehr verlangen kann für den Chip. Gibt natürlich auch noch andere Gründe naja alles sehr absurd. Hoffentlich vergrault es sich AMD mit sowas nicht mit dem AiB's...

HOT
2017-09-22, 09:36:33
Ganz genau. V10 ist AMDs Testballon für die HBM-Integration. Die probieren da halt 3 verschiedene Fertiger für Packages in 2 verschiedenen Verfahren aus, nutzen sowohl Samsung als auch SKHynix HBM um die Probleme bis zum Vega Refresh soweit im Griff zu haben, dass diese dann problemlos in großen Mengen gefertigt werden kann. Hinzu kommt, dass der Treiber am Kunden reifen kann, bis das Refresh-Produkt am Markt ankommt.

Hübie
2017-09-22, 09:39:05
Hieß es nicht schon bei Fiji es sei ein Testballon? Afair hatte MSI hier ebenfalls kein Interesse. Gab es ne custom mit after market cooling von Gigabyte?

HOT
2017-09-22, 09:43:57
Das Motiv für Fiji war mMn eher opportunistischer Natur. "Wir zeigen, dass wir es können".
Außerdem war es bei Fiji nie wirklich wichtig, die Preise runterzubekommen. Man sucht bei Vega natürlich das billigste Verfahren beim billigsten RAM. Die Packages funktionieren ja alle :D. Man muss das Verfahren halt wirklich massentauglich bekommen, in 10.000er Stückzahlen. Das ist das große Entwicklungsgebiet bei Vega.

Piefkee
2017-09-22, 09:52:51
Offenbar ist HBM gen. 2 trotz der Fiji-Erfahrungen nicht einfach zu beherrschen. Das Motiv für Fiji war mMn eher opportunistischer Natur. "Wir zeigen, dass wir es können".

Ok, aber mal ganz ehrlich wie dumm muss man den sein?
AMD hat nicht ansatzweise den Absats, dass man HBM weiter pushn kann wenn ihn sonst keiner hernimmt? NV, für GP100. Aber sonst?

Wenn jetzt HBM1 extreme Probleme gemacht hat und jetzt wieder Probleme und Lieferschwierigkeiten bei V10 mit HBM2 gibt. Wohin soll das ganze den führen? V11, V20 eigentlich alles soll mit HBM kommen. Na dann mal Prost Mahlzeit.

Der technische Entwicklung von HBM war sicherlich gut, aber irgendwann muss man doch mal an den Punkt kommen an dem man sagt "Ok HBM hat potential, aber es ist sau teuer, schwierig zu verarbeiten und es gibt wenig da wir die einzigen sind die in nutzen werden".

Warum RTG mit seinen kompletten Lineup auf HBM setzt ist für mich immer noch ein riesigen Fragezeichen.

Im Nachhinein wäre man sicherlich besser gefahren die Kosten für die HBM Entwicklung in die GPU entwicklung zu setzen und eine neue Architektur weg von GCN zu entwickeln. Dann hätte man auch keinen HBM gebraucht. NV schafft es ja auch.

Ich glaube RTG größte Problem ist das sie extrem viele Aufwand in neue Technologien stecken, bei denen am Ende oft nichts herauskommt.

HOT
2017-09-22, 09:54:34
Kurzfirstig gedacht kann HBM nur als Fehler gesehen werden, da stimme ich zu. Langfristig baut man sich ne Infrastruktur für eine eigene Speicherversorgung auf, die vom Markt relativ unabhängig ist. Das Ganze muss man politisch betrachten.

Dennoch wird es so sein, dass man sich jetzt bei V10 die Hörner abgestoßen hat, den günstigsten und zuverlässigsten Fertiger für Package, Interposer und Speicher ermittelt hat und damit wird jetzt V11 gefertigt.

Palpatin
2017-09-22, 10:03:33
Momentan kann doch keiner genau sagen woran es liegt das es zuwenig Karten gibt. AMD kann ja auch die Nachfrage nach Polaris in keinster weise bedienen.
Gut möglich das HBM2 mittlerweile nicht mehr das Problem wäre, auch dürfte sich die Preissituation HBM2 vs GDDR5 allein schon dadurch das GDDR5 um ca 50% teurer wurde verbessert haben.

Piefkee
2017-09-22, 10:08:27
Kurzfirstig gedacht kann HBM nur als Fehler gesehen werden, da stimme ich zu. Langfristig baut man sich ne Infrastruktur für eine eigene Speicherversorgung auf, die vom Markt relativ unabhängig ist. Das Ganze muss man politisch betrachten.

Dennoch wird es so sein, dass man sich jetzt bei V10 die Hörner abgestoßen hat, den günstigsten und zuverlässigsten Fertiger für Package, Interposer und Speicher ermittelt hat und damit wird jetzt V11 gefertigt.

Das mit dem Fertiger sehe ich überhaupt nicht so. Das wird auch in der Industrie so nicht gemacht. Ich arbeite bei einen großen "bayrischen" Autohersteller als SG Entwickler.

Du holst Angebote ein und der es am billigsten kann der bekommt den Auftragt. Läuft es überhaupt nicht wechselt man. Aber man wird nie in Anbetracht ziehen zu sagen "Ok wir nehmen jetzt 3 Lieferanten für ein Jahr und schauen wer es am besten und günstigsten kann, und denn nehmen wir dann nächstes Jahr". Sowas habe ich in meiner Karriere noch nie gesehen.

Piefkee
2017-09-22, 10:17:49
Momentan kann doch keiner genau sagen woran es liegt das es zuwenig Karten gibt. AMD kann ja auch die Nachfrage nach Polaris in keinster weise bedienen.
Gut möglich das HBM2 mittlerweile nicht mehr das Problem wäre, auch dürfte sich die Preissituation HBM2 vs GDDR5 allein schon dadurch das GDDR5 um ca 50% teurer wurde verbessert haben.

AMD/RTG hat eine rießen Angst wegen dem Mining-Boom der Polaris Karten. Ich kann gerade nicht nachschauen aber es gibt ein AdoredTV Video der das sehr gut erklärt. Als damals Bitcoin geboomt hatte war das wie jetzt mit Ehterium. AMD Karten gingen weg wie heiße Semmeln. Daraufhin hat AMD die Produktion extrem hochgefahren um den Markt mit Karten zu versorgen. Dann ist die Blase geplatz und die Lager waren voll. Dazu wurde der gebraucht Kartenmarkt regelrecht von den Mining Karten überschwemmt. Daraufhin konnte AMD, die auf einen Berg an Karten sitzen, keine neuen mehr verkaufen.

Die Geschichte will sich AMD nicht nochmal geben. NV sieht das etwas anders, die sind interessiert am Mining. Das hat auch JJ so gesagt ;) Aber NV kann auch die Karten verkaufen sollte die Blase platzen, AMD kann das nicht.

AffenJack
2017-09-22, 12:11:43
AMD/RTG hat eine rießen Angst wegen dem Mining-Boom der Polaris Karten. Ich kann gerade nicht nachschauen aber es gibt ein AdoredTV Video der das sehr gut erklärt. Als damals Bitcoin geboomt hatte war das wie jetzt mit Ehterium. AMD Karten gingen weg wie heiße Semmeln. Daraufhin hat AMD die Produktion extrem hochgefahren um den Markt mit Karten zu versorgen. Dann ist die Blase geplatz und die Lager waren voll. Dazu wurde der gebraucht Kartenmarkt regelrecht von den Mining Karten überschwemmt. Daraufhin konnte AMD, die auf einen Berg an Karten sitzen, keine neuen mehr verkaufen.

Die Geschichte will sich AMD nicht nochmal geben. NV sieht das etwas anders, die sind interessiert am Mining. Das hat auch JJ so gesagt ;) Aber NV kann auch die Karten verkaufen sollte die Blase platzen, AMD kann das nicht.

Es könnte aber auch darauf hindeuten, dass AMD wirklich Polaris mit Vega ersetzen wird. Wenn P10 noch bis Navi weiterlaufen würde, könnte man die Produktionsmengen einfach hoch schrauben und verkauft später halt Inventar, sollten die Cryptos baden gehen. Wenn aber in absehbarer Zeit ein Vega kommt um P10 zu ersetzen, dann muss man sehr vorsichtig mit dem Supply Management sein.

HOT
2017-09-22, 12:55:14
Das mit dem Mining war, als V11 entwickelt wurde, noch nicht abzusehen, es wäre jetzt zufällig passend, dass P10 durch V11 abgelöst wird. Der Eigentliche Hintergrund wird sein, dass V11 in 12LP bei gleichen Kosten deutlich leistungssträker als P10 ausfallen dürfte.

Und die "Blase" muss sich erst mal als soche erweisen. Kann durchaus sein, dass man das Kryptomoney wirklich in der geminten Menge benötigt. Denn auch der ganz "normale" Finanzmarkt bläst sich immer weiter auf. Wenn die Blase platzt gehen die Kryptowährungen mMn erst recht durch die Decke.

Piefkee
Und bezüglich der Zulieferer war das eine reine Spekulation. Natürlich kann das auch anders laufen, aber in dem Falle ist es Tatsache, dass man 3 Packagehersteller in 2 Verfahren mit 2 HBM-Herstellern beschäftigt. Ich sehe das eher so, dass das eine ziemliche Sondersituation ist. Es handelt sich ja hier auch quasi nur um ein Kleinserienfahrzeug :D.

aufkrawall
2017-09-22, 13:00:27
Igor hatte schon vor Langem von Unmut der Partner über AMD berichtet, just saying. ;)

vinacis_vivids
2017-09-22, 13:09:31
Nein es gibt keinen 35% packdichte Verbesserung von 14nm auf 12nm.
In der Präsentation steht "15% density Improvement over 16nm" das bezieht sich auf dem tscm Prozess. Der hat aber schon 15% mehr packdixhte als 14nm von GF.
Also ist 12nm nichts anderes als 14nm(früher 14nm LPP+)

Lies nochmal genau was ich schrieb:

Vega10 14nm -> 484mm²/12,5Mrd -> 25,8Mio./mm²
GP102 16nm -> 471mm²/12Mrd -> 25,4Mio./mm²

Wo hat der 16nm 15% mehr Packdichte als 14nm? :freak:

HOT
2017-09-22, 13:09:40
Igor hatte schon vor Langem von Unmut der Partner über AMD berichtet, just saying. ;)

Das wundert mich keine Sekunde.

Lies nochmal genau was ich schrieb:

Vega10 14nm -> 484mm²/12,5Mrd -> 25,8Mio.
GP102 16nm -> 471mm²/12Mrd -> 25,4Mio.

Wo hat der 16nm 15% mehr Packdichte als 14nm? :freak:

In der Praxis ist die Packdichte fast gleich, wenn man die Chips vergleicht. GP102 hat ja noch recht großflächige Speicherinterfaces, das egalisiert sich also komplett.
Wenn man da jetzt 15% kleiner werden kann wär das schon ne tolle Sache.

Wenn man 85% der Chipfläche des V10 rechnet, wäre man bei nur 411mm². Graue Theorie natürlich. V11 wäre in Theorie dann mit 32CUs kleiner als P10.

Piefkee
2017-09-22, 13:22:24
Lies nochmal genau was ich schrieb:

Vega10 14nm -> 484mm²/12,5Mrd -> 25,8Mio./mm²
GP102 16nm -> 471mm²/12Mrd -> 25,4Mio./mm²

Wo hat der 16nm 15% mehr Packdichte als 14nm? :freak:

So kannst du aber nicht rechnen.
Die Größe des Chips hat nicht unbedingt mit der Prozess zu tun. Wenn dann musst du den Prozess vergleichen also 16nm mit 14nm

Und indem zwei Chips da sind ja auch noch andere Sachen draud

vinacis_vivids
2017-09-22, 13:38:29
So kannst du aber nicht rechnen.
Die Größe des Chips hat nicht unbedingt mit der Prozess zu tun. Wenn dann musst du den Prozess vergleichen also 16nm mit 14nm

Und indem zwei Chips da sind ja auch noch andere Sachen draud

Ja, Transistoren müssen da drauf, und davon möglichst viele auf kleinerer Fläche.
+15% zu 16nm bedeutet -> bis zu 29,2Mio./mm²

Man kann nur mit dem rechnen, was man hat und dann logisch denken.
Ein 250-260mm² V11 halte ich für wahrscheinlich, allein weil der schnell und wirtschaftlich machbar ist.

Ist abr wieder mal typisch. Wenn Huang von 12nm spricht, sind die Jünger aus dem Häuschen. Aber wenn AMD den "12nm" macht, dann wird alles relativiert.

=Floi=
2017-09-22, 16:41:44
V11 wird aber auch nicht schneller sein und wenn, dann eher im bereich von max. 10-20%. Das macht doch auch keinen sinn, den 4ten? refresh der leistungsklasse aufzulegen. Wer noch ne X290 hat kann darüber nur weinen...
Vom neuen frontend (wenn es das wirklich gibt) kommt relativiert "nichts" an. Auf ner folie soll theoretisch 50% bandbreite eingespart werden können und in der praxis geht es bis auf 6% runter. Das kann es doch nicht sein.

fondness
2017-09-22, 17:01:30
Es wurden 13 unterschiedliche Vega11-Varianten registriert, darunter auch Notebook-Chips:
http://wccftech.com/amd-preparing-launch-several-vega-11-graphics-cards-gpu-passes-final-certification/

Iruwen
2017-09-22, 18:12:29
Das Problem ist nicht die Chef Etage, sondern das fehlende Budget, bei so ziemlich allem.

Trotzdem hat er die Klappe zu weit aufgerissen und Vega bis zuletzt als 4K-Karte promotet, als hätte er das da nicht schon lange gewusst. Für so ne Nummer kann man schonmal den Hut nehmen.

vinacis_vivids
2017-09-22, 19:01:56
X-Box wird auch mit 4k promotet, müssen jetzt alle gefeuert werden?

vinacis_vivids
2017-09-22, 19:11:50
V11 wird aber auch nicht schneller sein und wenn, dann eher im bereich von max. 10-20%. Das macht doch auch keinen sinn, den 4ten? refresh der leistungsklasse aufzulegen. Wer noch ne X290 hat kann darüber nur weinen...
Vom neuen frontend (wenn es das wirklich gibt) kommt relativiert "nichts" an. Auf ner folie soll theoretisch 50% bandbreite eingespart werden können und in der praxis geht es bis auf 6% runter. Das kann es doch nicht sein.

Warum soll das keinen Sinn machen? Es klafft ne Lücke zwischen P20 und RX56. Genau da in der Mitte platziert sich V11. Welche Leistung sie genau bringt, wird man sehen. Der 12nm rollt ohnehin an und es wäre vermessen diesen nicht zu nutzen. Zurerst ein kleiner V11 Chip um auszuloten was geht und später dann V10 refresh um den Preis zu halten.
Die 290er ist ohnehin eine der besten Karten aller Zeiten, da kommt so schnell keine ran, außer vllt. Vega10 als guter gereifter Wein. Also kein Grund zum Weinen.

TGKlaus
2017-09-22, 23:48:20
Trotzdem hat er die Klappe zu weit aufgerissen und Vega bis zuletzt als 4K-Karte promotet

Wurde die GTX 980 Ti auch und die ist selbst deutlich langsamer als die VEGA56.

Für so ne Nummer kann man schonmal den Hut nehmen.

Laut deiner Logik trifft das dann aber genauso für die Lederjacke zu!

CHEF-KOCH
2017-09-23, 00:04:29
Es gibt wieder neues Futter, diesmal seitens AMD.

This is where Radeon RX Vega 32 and Radeon RX Vega 28 nomenclatures come from, with the Vega 11 XT expected to rock 2048 stream processors, with 4GB of HBM2 and a 1024-bit memory bus. Vega 11 Pro should feature 1792 stream processors, with the same 4GB HBM2 on a 1024-bit memory bus.

Radeon RX Vega 32 and RX Vega 28 should fight NVIDIA's mid-range GeForce GTX 1060, and I'm sure the GTX 1060 9Gbps.

Die karten dürfen dann die Lücke zur GTX 1060 schließen. Im neusten AMD Crimson finden sich aktuell nicht keine Hinweise auf die neuen Karten.

Der_Korken
2017-09-23, 00:16:26
1. Quelle?
2. Ich halte 32 CUs eindeutig für zu wenig für einen neuen Midrange-Chip. Ohne substantielle Verbesserungen gegenüber Vega 64 würde eine Vega 32 nur knapp vor der RX580 landen und gerade mal mit der 1060 konkurrieren. Dafür lohnt sich erstens kein neuer Chip (zumal der erstmal überhaupt kleiner als P20 mit 230mm² werden muss, dazu noch der teure HBM) und zweitens wird er gegen ein potenziellen GV106 keinen Stich sehen.

TGKlaus
2017-09-23, 00:34:15
Warum sollte man was machen, was deutlich teurer in der Herstellung ist aber nicht schneller als ne RX 580???

Und dazu noch eine knappe, anderswo benötigte Ressource regelrecht verschwenden?

w0mbat
2017-09-23, 00:57:40
Quelle: https://www.chiphell.com/thread-1776959-1-1.html

CHEF-KOCH
2017-09-23, 01:42:32
Quelle? Wer bin ich? Was mach ich? Spielt bei Spekulationen absolut keine Rolle. Ob das von nem User X aus Chiphell oder von Reddit kommt, macht nichts zu Sache solange nichts offiziell bestätigt wurde daher nennt man es 'spekulation'.

Warum warum warum? .. warum sollte man es nicht machen, mehr Karten bedeuten mehr Konkurrenz und das ist nur eine logische Konsequenz um den Markt zu sättigen. Wieso AMD HBM2 nutzt sollte klar sein (https://www.gamersnexus.net/guides/3032-vega-56-cost-of-hbm2-and-necessity-to-use-it).

Das Vega 32 keinen 'Stich' sieht halte ich für ein Gerücht, speziell weil AMD nunmehr genug Zeit hatte um die Chips zu optimieren, diese optimierungen beziehen sich wohl eher auf Energie per Watt statt (was hier wahrscheinlich erwartet wird) mehr performance. Muss auch gar nicht wenn es nur darum geht im mid-range was als Alternative zur GTX 1060 anzubieten.

Schaffe89
2017-09-23, 04:50:39
Wieso GTX1060, die Karte wird gegen Volta antreten müssen. Mit nur 4GB HBM und nur 32 CUs a 64 shader würde das Ding bei der Performance von Vega10 nur schwer an einer RX 580 vorbeikommen, vermutlich wird die Karte der noch viel grössere Flop, die Specs hören sich so unglaublich schlecht an, eine halbierte Vega 10 also quasi rx 470 Leistungsniveau... wer soll sowas brauchen und dann auch noch ein absoluter Speicherkrüppel der seinesgleichen sucht.

CHEF-KOCH
2017-09-23, 05:28:17
Vega 11 ist nicht designed um gegen Volta anzutreten. Vega 20 ist dafür angedacht mit dem vollem HBM Ausbau. Die XT variante (das high end) stück ist dann eher worüber du sprichst.
Speicher Krüppel sind sie alle, HBM4 ist bereits da nur wir dummen müssen wieder mal den alten Käse kaufen, genau wie bei GDDR, ich wette die GDDR6 samples laufen schon.

ilibilly
2017-09-23, 08:17:41
Trotzdem hat er die Klappe zu weit aufgerissen und Vega bis zuletzt als 4K-Karte promotet, als hätte er das da nicht schon lange gewusst. Für so ne Nummer kann man schonmal den Hut nehmen.

Als ob wir hier definieren würden was 4k gaming ist, 4k@30fps reicht millionen gamern,ich persönlich will natürlich 60fps,andere wollen aber 120 gar 144, da reicht es dann nur noch für fullhd.
Das bashing ist imho unangebracht,ich für meinen teil hab den launch abgewartet,tests gecheckt und hab mich dann doch für ne 1080ti entschieden,selbst die muss ich oft auf 2880p runterschrauben damit ich auf 60fps komme.
Wenn man fanboy ist ,hats man natürlich schwer wenn das eigene lager keine konkurrenzfähiges produkt hat,ich hab schon immer nach leistung entschieden,und da kam leider seit 7870 keine amd karte mehr ins haus.
Schauma halt ob navi überrascht ähnlich wie zen.

Hübie
2017-09-23, 08:34:03
Wurde die GTX 980 Ti auch und die ist selbst deutlich langsamer als die VEGA56.

*hust*
CA7UHU84obk

pilzsammler2002
2017-09-23, 11:18:01
*hust*
http://youtu.be/CA7UHU84obk
Wtf?
Dirt 4 und Doom kann sich vega nichtmal absetzen bzw ist langsamer???

Das sagt ja schon alles...

Hübie
2017-09-23, 11:38:05
Zumindest bei Doom kann ich das bestätigen:

https://abload.de/img/doom_vkx64_4khxj4u.png (http://abload.de/image.php?img=doom_vkx64_4khxj4u.png)

~70 fps mit leichten Schwankungen nach oben oder unten. Level ist diese Eisen-Schmelze (Schmiede hieß das glaub ich?).

gedi
2017-09-23, 11:49:48
Zumindest bei Doom kann ich das bestätigen:

https://abload.de/img/doom_vkx64_4khxj4u.png (http://abload.de/image.php?img=doom_vkx64_4khxj4u.png)

~70 fps mit leichten Schwankungen nach oben oder unten. Level ist diese Eisen-Schmelze (Schmiede hieß das glaub ich?).


Gebencht mit V56 oder V64 in 1440P oder 4k?

Ich meine mich erinnern zu können, dass (m)eine 1080 non-TI @ 2.1G in 4k in etwa mit 70FPS gerendert hat. Allerdings ist Doom nicht gerade mein favourite Game.

BTW. du besitzt eine Vega?

Hübie
2017-09-23, 12:01:14
Oh, das obere Ende ist weg geschnitten. :D Doom vkx64 4k Ultra auf meiner 980 Ti. In dem Video tritt diese gegen die V56 an.
Was soll ich mit Vega? :|

gedi
2017-09-23, 12:10:04
Wurde im Video mit OGL oder Vulkan gebencht - denn http://www.guru3d.com/articles_pages/amd_radeon_rx_vega_56_8gb_review,20.html

Okay, hier ist keine 980ti aufgeführt, allerdings wenn man die 1070 als Maßstab nimmt ...

Hübie
2017-09-23, 12:13:19
Da steht doch Vulkan. :|

https://abload.de/img/yt_doomvk_4kg9xds.png (http://abload.de/image.php?img=yt_doomvk_4kg9xds.png)

dildo4u
2017-09-23, 12:13:40
Wird Vulkan sein 56 ist bei 60fps in 4k.


http://www.tomshardware.com/reviews/radeon-rx-vega-56,5202-7.html

gedi
2017-09-23, 12:16:48
Da steht doch Vulkan. :|

https://abload.de/img/yt_doomvk_4kg9xds.png (http://abload.de/image.php?img=yt_doomvk_4kg9xds.png)

Oh Mann - stimmt. Für mich sind selbst >60" zu klein :redface:

von Richthofen
2017-09-23, 12:23:52
...eine halbierte Vega 10 also quasi rx 470 Leistungsniveau...

Du vergisst dabei, dass man Vega viel höher takten kann.

gedi
2017-09-23, 12:29:02
Du vergisst dabei, dass man Vega viel höher takten kann.

... um es dann per VBIOS (zu viel VGPU) wieder zu versauen. Wenn nichts dramatisches passiert sehe ich es wie schaffe89.

HOT
2017-09-23, 12:38:17
Da V11 12LP sein dürfte, ersetzt der einfach Polaris 10. P10 auf 12LP zu kompilieren wird sich einfach nicht lohnen.

reaperrr
2017-09-23, 13:27:24
Neben dem eigentlich nicht auf so hohe Taktraten ausgelegten P10/20 ist auch das 256bit SI einer der Schluckspechte bei den RX480/580.
Man sollte außerdem nochmal drauf hinweisen, dass ein Polaris-basierter High-End-Chip mit ~V10-Specs (also 64 CUs, 64 ROPs, 512bit GDDR5) wohl >400W gebraucht hatte, nur um auf einen Turbo von ~1400-1450 und einen Durchschnittstakt von ~1300 zu kommen.

Auch wenn manche es wegen des großen Rückstandes auf NV nicht sehen (wollen), gegenüber Polaris ist Vega zumindest bei den benötigten Spannungen und erreichbaren Taktraten durchaus ein recht großer Schritt nach vorne, auch wenn es bei der Transistorzahl und Fläche seinen Preis hatte.
Dazu kommt, dass auch HBM2 durchaus solide Verbrauchsvorteile gegenüber GDDR5 hat, vor allem auf Chipseite (ein 1024bit HBM2-SI sollte weniger Fläche und Strom brauchen als ein 128bit G5-SI).

Langer Rede kurzer Sinn: V11XT wird vermutlich maximal einen Verbrauch <= RX480Ref haben (trotz deutlich höherer Taktraten) und dafür mit ca. 1450-1500 base, 1550-1600 Durchschnitts- und 1700 Max-Turbo kommen. Bei allem außer dem reinen ALU/TMU-Durchsatz wird er damit selbst die schnellsten RX580-OC um mindestens 15% schlagen, und die verbraten schnell über 200W.
Vor allem: V11 wird sicher genau wie P10 und V10 das volle 4fach Frontend haben, und deshalb speziell in Spielen mit Tesselation wesentlich mehr als 50% der V10-Leistung pro MHz liefern.


Zum Thema, gegen welche Chips V11 antreten wird/muss: mittelfristig wird der direkte Konkurrent ganz klar GV107 werden, der vermutlich ca. auf GP106-Performance bei geringerem Verbrauch und Kosten rauskommen wird. Da ich bei GV107 aber nur ein 128bit SI mit G5X oder G6 erwarte, reichen die 4GB HBM2 völlig (zumal da ja noch HBCC ist, was bei V11 garantiert mehr bringt als bei V10).
Ich denke aber, dass AMD hier zeitlich mindestens 3, mit etwas Glück 5-6 Monate Vorsprung auf GV107 hat, bis dahin muss V11 "nur" gegen GP106 antreten, der voraussichtlich den kürzeren ziehen wird, vom größeren Speicher abgesehen.

ndrs
2017-09-23, 15:20:00
Hier wäre übrigens der richtige Thread gewesen, in dem es eh die letzten Seiten um Vega11 geht. (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576238)

Vega 20 ist dafür angedacht mit dem vollem HBM Ausbau.
Vega20 wird der HPC-Chip mit vermutlich hoher Double-Precision-Leistung. Der wird sich wohl kaum mit GV106 anlegen wollen. Von einem kleineren Vega21 gibt es bisher keine Anzeichen.

HBM4 ist bereits da
Wo? Von HBM4 habe ich noch nirgends was gelesen. HBM3 ist aktuell nicht vor 2019 zu erwarten. (https://www.3dcenter.org/news/gddr6-und-hbm3-als-grafikkartenspeicher-der-zukunft)

Achill
2017-09-23, 16:54:27
*hust*
http://youtu.be/CA7UHU84obk

*hust*
EVGA 980TI Classified - kommt ganz am Ende des Videos. Diese dürft auch ein paar der Standard 1070 fressen ... ;)

--
Es wird ja noch besser, einfach mal das Video 980TI vs 1080TI anschauen und die Werte der 980TI mit den Werten aus dem Vega56 Video vergleichen.

eF0rO6-3r-A

Nur mal ein paar extreme Beispiele:

RotTR 2160p (Avg./Min.)
- Vega54: 50/34
- 980TI (vs Vega): 51/35
- 980TI (vs 1080TI): 39/28

WD2 1440p (Avg./Min.)
- Vega54: 57/51
- 980TI (vs Vega): 67/42
- 980TI (vs 1080TI): 45/33

GTA5 2160p (Avg./Min.)
- Vega54: 43/30
- 980TI (vs Vega): 49/35
- 980TI (vs 1080TI): 44/32

... usw, habe keine Lust in den Videos vor und zurück zu gehen, da bei allen Vergleichen immer eine andere Reinfolge der getesteten Titel ist.

CHEF-KOCH
2017-09-23, 18:12:50
Die HBM module sind alle bereits da nur der Ausbau nicht, das ganze ist hier im Video erklärt (https://youtu.be/7Scm6boqNeo). Der ganze Speicher-hype ist wieder nichts als Beschiss, da wir bereits im Vorfeld altes kaufen MÜSSEN um dann Jahre später mal den Vollausbau zu sehen/bekommen.

Keine Ahnung was ihr für ein Schwachsinn redet, RX Vega 32 & RX Vega 28 sind keine High-End Lösungen und sind für den GTX 1060 Markt da, nix anderes. Ihr redet bereits von High end für die kommenden Jahre, das ist am Topic voll vorbei. Es geht hier um explizit diese karte um den low/mid range User zu befriedigen, nicht wie im anderen Thread um die High-End Modelle.

Hübie
2017-09-23, 18:15:29
Am Anfang stand der Takt mit 1000/1075. Aber besonders professionell kam das Video hier nicht rüber. Die Werte sind aber im Vergleich mit meiner aber eben nicht abwegig. Wobei meine mit 1443/4000 MHz läuft.

aufkrawall
2017-09-23, 18:21:33
1,4 macht auch jeder GM200 mit, kann man mit nem guten Custom problemlos fahren. Und da landet man eher leicht vor einer 1070 @1,9 und erreicht somit problemlos die V56 @ stock. Die 6GB reichen momentan auch noch für alles in WQHD, außer RotTR DX12 VH-Texturen. Völlig abwegig, jetzt anzunehmen, GM200 kriegte von Vega56 Dresche...

gedi
2017-09-23, 18:28:37
1,4 macht auch jeder GM200 mit, kann man mit nem guten Custom problemlos fahren. Und da landet man eher leicht vor einer 1070 @1,9 und erreicht somit problemlos die V56 @ stock. Die 6GB reichen momentan auch noch für alles in WQHD, außer RotTR DX12 VH-Texturen. Völlig abwegig, jetzt anzunehmen, GM200 kriegte von Vega56 Dresche...

Ich gehe jetzt aber soweit um zu behaupten, dass simples UV + etwas Ram-OC ausreicht um selbst eine 980Ti@1.6G ganz alt aussehen zu lassen.

aufkrawall
2017-09-23, 18:38:17
Im Wunderland mit überproportionaler Takt-Skalierung ist das sicher drin.

Achill
2017-09-23, 18:45:35
Am Anfang stand der Takt mit 1000/1075. Aber besonders professionell kam das Video hier nicht rüber. Die Werte sind aber im Vergleich mit meiner aber eben nicht abwegig. Wobei meine mit 1443/4000 MHz läuft.

1,4 macht auch jeder GM200 mit, kann man mit nem guten Custom problemlos fahren. Und da landet man eher leicht vor einer 1070 @1,9 und erreicht somit problemlos die V56 @ stock. Die 6GB reichen momentan auch noch für alles in WQHD, außer RotTR DX12 VH-Texturen. Völlig abwegig, jetzt anzunehmen, GM200 kriegte von Vega56 Dresche...

Mir ging es rein um die Diskrepanz der Werte zwischen den beiden Videos, nicht ob jetzt Vega56 oder 980TI schneller (mit/ohne OC/guten Boost) ist, sondern das die Qualität der Messung und damit die Videos anscheinend nicht zu gebrauchen sind.

Nakai
2017-09-23, 18:46:09
Vega11 ist ein netter Chip zum Bau einer Hpc-APU. Das Ding kommt auch für das Apple MCM in Frage.

Ich hätte gerne mehr CUs gesehen. Aber mit nur einem Stack gegen nicht viel mehr.

Der_Korken
2017-09-23, 19:12:55
Keine Ahnung was ihr für ein Schwachsinn redet, RX Vega 32 & RX Vega 28 sind keine High-End Lösungen und sind für den GTX 1060 Markt da, nix anderes. Ihr redet bereits von High end für die kommenden Jahre, das ist am Topic voll vorbei. Es geht hier um explizit diese karte um den low/mid range User zu befriedigen, nicht wie im anderen Thread um die High-End Modelle.

Was soll hier Schwachsinn sein? Vega 11 kommt voraussichtlich zum Jahreswechsel, wo die GTX1060 bereits seit 18 Monaten auf dem Markt sein wird. Nächsten Sommer wird Nvidia den GV106 nachlegen, der - ohne sich zu weit aus dem Fenster lehnen zu müssen - locker 20-30% schneller als der GP106 sein wird. Das wird der Gegner für die Midrange-Vegas sein.

Wenn man von V10 einfach 50% abzieht, landet man tatsächlich irgendwo im Bereich der RX470. Man könnte mutmaßen, dass AMD ähnlich wie bei Tonga und Fiji das Frontend beim kleinen Chip gleichlässt, wodurch ein Vega32 deutlich mehr als 0,5*Vega64 erreichen kann, z.B. so 0,7*Vega64. Das wäre aber trotzdem kaum schneller als eine Custom 1060. Andererseits wäre ein solcher Chip auch von der Chipfläche her >50% von V10, also vielleicht irgendwas um die 260-270mm². Mit 12nm drückt man das vielleicht noch auf 230-240mm², was in etwa der Fläche von P20 entspricht. Man hätte dann also einen neuen Chip entwickelt, der genauso groß wie ein bereits vorhandener Chip ist, einen zusätzlichen Interposer mit teurerem Speicher braucht, einen neueren Fertigungsprozess nutzt und gerade mal 10-15% Leistung rausgeholt. Mir ist klar, dass das alles Überschlagsrechnungen sind und sich am Ende alles anders darstellen kann, aber nach dem, was wir bisher gesehen haben, passt ein V11 für mich einfach nicht ins Konzept. Bei 40-44 CUs könnte man P20 für die unteren Segmente erstmal noch weiter verwenden, denn so dramatisch besser ist Vega bisher nicht, was Perf/W und Perf/Fläche angeht.

CHEF-KOCH
2017-09-23, 19:25:55
*Kaffee schlürf* Setzen 6 du bist weiterhin am Thema vorbei, die Karten sollen Anfang des Jahres kommen, zumindest laut Aussage zur 1060 Konkurrenz.

Bei allem anderen magst du ja mathematisch korrekt liegen aber das ist in diesem Topic nunmal nicht worum es geht, der andere Thread ist da eher interessanter.

scully1234
2017-09-23, 19:29:55
*Kaffee schlürf* Setzen 6 du bist weiterhin am Thema vorbei, die Karten sollen Anfang des Jahres kommen, zumindest laut Aussage zur 1060 Konkurrenz.
.

und sich dann in einem Zeitraum von nicht mal 6 Monaten amortisieren , bis Volta kommt und ihnen das Wasser vollends abgräbt???

Produktionsaufbau und Tools gibts zum Nulltarif???

Du hast verstanden was Der Korken damit sagen wollte?

Der_Korken
2017-09-23, 19:34:36
*Kaffee schlürf* Setzen 6 du bist weiterhin am Thema vorbei, die Karten sollen Anfang des Jahres kommen, zumindest laut Aussage zur 1060 Konkurrenz.

Bei allem anderen magst du ja mathematisch korrekt liegen aber das ist in diesem Topic nunmal nicht worum es geht, der andere Thread ist da eher interessanter.

Moment ... du machst einen (imho unnötigen) Sidethread für V11-Spekulationen auf, in dem es offtopic ist, wenn man über V11 spekuliert/diskutiert? :hammer:

TGKlaus
2017-09-23, 19:52:02
*hust*
RotTR 2160p
- 980TI (vs 1080TI): 39/28

WD2 1440p
- 980TI (vs 1080TI): 45/33

GTA5 2160p
- 980TI (vs 1080TI): 44/32



Ihr diskutiert ehrlich über Videos von nem Typen der erklärt, das eine GTX 980 TI 30-50% schneller ist als eine GTX 1080 TI?

Und oh Wunder, das erste von diesen Unsinnsvideos hat Hübie gepostet.
Absolut nicht ernst zu nehmen das Ganze.

Achill
2017-09-23, 20:26:25
Ihr diskutiert ehrlich über Videos von nem Typen der erklärt, das eine GTX 980 TI 30-50% schneller ist als eine GTX 1080 TI?

Und oh Wunder, das erste von diesen Unsinnsvideos hat Hübie gepostet.
Absolut nicht ernst zu nehmen das Ganze.

Das war missverständlich, meine Schreibweise ist: Avg./Min.

Habe das jetzt in meinen Post konkretisiert.

Daredevil
2017-09-23, 20:29:17
Wurde die GTX 980 Ti auch und die ist selbst deutlich langsamer als die VEGA56.

Eine Custom 980ti misst sich mit einer Vega 64 in Spielen.
Eine Custom Vega 56 könnte vielleicht die 980ti schlagen.

Im Benchmark Forum sind da ganz deutliche Ergebnisse.

Hübie
2017-09-23, 21:24:56
Ihr diskutiert ehrlich über Videos von nem Typen der erklärt, das eine GTX 980 TI 30-50% schneller ist als eine GTX 1080 TI?

Und oh Wunder, das erste von diesen Unsinnsvideos hat Hübie gepostet.
Absolut nicht ernst zu nehmen das Ganze.

Hast du eine Seh- oder Verständnisschwäche? :rolleyes: Absolut nicht ernst zu nehmen das Ganze.
In deiner Plastikwelt mag V56 eine 980 Ti vernichten, aber nicht in der Wirklichkeit, darum ging es. Am Ende glaubt dir noch einer. Wäre fatal, wenn das Schule macht.

Edit: @Achill: Ja ich war vorhin im Garten zu Gange und habe nicht genau gelesen, was du geschrieben hast. :D Die Diskrepanz kann allein von Treiber / Patches kommen. Schwer zu beurteilen ohne mehr Details zum Benchmark. Die Ergebnisse aus dem V56 Video sind wie gesagt nicht hahnebüchen, daher hab ich es gepostet. ;)

vinacis_vivids
2017-09-23, 23:09:11
Hübie at his best :facepalm: , seine 980Ti überholt in Zukunft bestimmt die 1080Ti ;)

https://abload.de/img/doom3ls1v.png

Kriton
2017-09-24, 00:25:39
Die Vermutungen zum Erscheinungsdatum von GV106 (als Konkurrent) basieren worauf?

Kriton
2017-09-24, 00:29:55
1. Könnt ihr mal anstatt nur zu behaupten auch Belege bringen (Ich habe recht, nein ich, doch ich, nein ich,... bringt uns echt nicht weiter)?
2. Dabei auch Quellen anstatt nur Bilder zu posten (sonst poste ich auch mal wenig Photosh... ähhh Belege)?
3. Und dann nicht nur cherry picking zu betreiben?
4. Ach ja, und persönliche Angriffe ersetzen keine Argumente.

Und nein, dass betrifft nicht nur vv.

Daredevil
2017-09-24, 01:36:56
Hübie at his best :facepalm: , seine 980Ti überholt in Zukunft bestimmt die 1080Ti ;)

https://abload.de/img/doom3ls1v.png
Hübbie und ich haben keine Stock 980ti, sondern eine Custom 980ti, welche deutlich höher taktet von Werk.

Wie du hier siehst, ist die 980ti Gaming ( Custom Karte ) in etwa 20% schneller wie die Stock Karte.
http://abload.de/img/1srszv.png

Wenn du die 20% hier noch drauf rechnest, dann kommt die Karte über einer Vega56 und ebenfalls knapp unter der Vega64 an im Computerbase Schnitt.
http://abload.de/img/2nnslu.png

Hier mal Ergebnisse vom UNIGINE 2 Superposition Benchmark

GTX 1070 ca @ 1.9Ghz Speicher: 4000:
http://abload.de/img/superposition4ktur36.png

Vega 56@Stocktakt
https://abload.de/img/superposition_benchmauoatl.png

980ti @ 1505 / 3758
http://abload.de/img/superposition_benchmagqsab.png

Vega64@1750Mhz
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61057

GTX1080@1.9GHZ Ram 5000MHZ.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61108&d=1504886313

TGKlaus
2017-09-24, 02:17:01
Hübbie und ich haben keine Stock 980ti, sondern eine Custom 980ti, welche deutlich höher taktet von Werk.

Wie du hier siehst, ist die 980ti Gaming ( Custom Karte ) in etwa 20% schneller wie die Stock Karte.

Wenn du die 20% hier noch drauf rechnest

Also das übliche Nvidia-Fanboyspiel:

Massic OC der Nvidia-Karte vs. Stock AMD Karte (Ref.)

Und ihr wundert euch, das euch keiner mehr ernst nimmt. ;D

=Floi=
2017-09-24, 02:19:45
geht der 980ti bei 4k nicht schon der vram aus?

dildo4u
2017-09-24, 02:30:03
Doom scheint unter 6Gb zu brauchen in 4k.


https://youtu.be/OqWMrc4aFnA

Daredevil
2017-09-24, 06:51:13
Also das übliche Nvidia-Fanboyspiel:

Massic OC der Nvidia-Karte vs. Stock AMD Karte (Ref.)

Und ihr wundert euch, das euch keiner mehr ernst nimmt. ;D
Update :<
Tatsächlich bin ich wieder grün, da ich die 390 für einen unverschämten Preis verkauft habe und es einfach keine AMD Grafikkarten zu kaufen gibt.

nVidia Riva TNT2
Ati Radeon 7500
nVIdia GeForce TI4200
Ati Radeon 8500
Ati Radeon 9700pro
Ati Radeon 9800pro
Ati Radeon x800gto
Ati Radeon 1950pro
Ati Radeon HD3850
Ati Radeon HD4830
Amd Radeon HD6850
Amd Radeon R9 390
Nvidia GeForce 980ti

Jau.


Ich bin ebenfalls auf die Custom Vegas gespannt, aber zaubern können die auch nicht. Zumal wir hier eine Vega@1750 mit im Spiel haben.
Eine Custom Karte wird die Karte zwar kühler bekommen und demnach ein wenig mehr Takt zulassen, aber der Verbrauch wird sich duch einen besseren Kühler nicht besser bändigen können. Das können Stock Karten jetzt schon, aber da geht die Leistung dann runter.

http://abload.de/img/i0sv7.png

http://abload.de/img/unbenannt53shx.png

9% mehr Leistung bei 6% mehr Leistungaufnahme ist nett, sind aber immer noch im Custom Stock Zustand ohne UV 317watt.
Mit viel Gebastel bekommt man eine Custom Vega64 vielleicht auf das Niveau einer Custom GTX1080, sowohl Lautstärke, Leistung als aus Verbrauchs mäßig.
Das würde ich als Freesync Monitor Nutzer auch begrüßen und bei einem gescheiten Angebot wohl zuschnappen, weil die 980ti relativ teuer bei Ebay weggehen würde. :usad:

dargo
2017-09-24, 09:00:47
Also das übliche Nvidia-Fanboyspiel:

Massic OC der Nvidia-Karte vs. Stock AMD Karte (Ref.)

Und ihr wundert euch, das euch keiner mehr ernst nimmt. ;D
Und das ganze dann am besten kombiniert mit dem Verbrauch der Referenz Nvidia. :uup:

BeetleatWar1977
2017-09-24, 09:20:22
Doom scheint unter 6Gb zu brauchen in 4k.


https://youtu.be/OqWMrc4aFnA
knapp 4.5GB in 4K mit Ultra-Settings

DrFreaK666
2017-09-24, 10:20:49
Also das übliche Nvidia-Fanboyspiel:

Massic OC der Nvidia-Karte vs. Stock AMD Karte (Ref.)

Und ihr wundert euch, das euch keiner mehr ernst nimmt. ;D

Ich denke mal dass man Vega nicht stark übertakten kann -> Custom designs werden kaum schneller und "nur" kühler und leiser.
Das bedeutet dass es kaum einen Unterschied macht ob man die OC GeForce mit einer Stock AMD oder OC AMD vergleicht

BeetleatWar1977
2017-09-24, 10:51:13
Ich denke mal dass man Vega nicht stark übertakten kann -> Custom designs werden kaum schneller und "nur" kühler und leiser.
Das bedeutet dass es kaum einen Unterschied macht ob man die OC GeForce mit einer Stock AMD oder OC AMD vergleicht
Meine 56er geht so bis ca 1725Mhz, zumindestens unter OpenCL, bei Spielen theoretisch auch, aber nach ein paar Sekunden lauf ich da ins Temperaturlimit.... unter Wasser oder mit einem gutem Customkühler sollte das machbar sein.....

HOT
2017-09-24, 10:56:16
Ich denke mal dass man Vega nicht stark übertakten kann -> Custom designs werden kaum schneller und "nur" kühler und leiser.
Das bedeutet dass es kaum einen Unterschied macht ob man die OC GeForce mit einer Stock AMD oder OC AMD vergleicht

Warum lasst ihr euch auf diese offensichtliche Fanboytrollerei ein?

HOT
2017-09-24, 11:25:33
V11 erscheint eh nicht vor April. Dann wird P20 ein Jahr alt und ausgemustert. 12LP wird noch so lange brauchen.

Agent117
2017-09-24, 13:48:33
V11 erscheint eh nicht vor April. Dann wird P20 ein Jahr alt und ausgemustert. 12LP wird noch so lange brauchen.


Die vor par Tagen gelisteten 13 geplanten SKUs auf Vega Basis und die kürzliche RRA Zertifizierung deuten eher auf einen nicht allzu weit entfernten Launch hin.
Bei Vega 10 dauerte es einen Monat von der Zertifizierung bis zum Launch der FE.
Für Vega 11 würde ich das Weihnachtsgeschäft bzw. Ende November bzw. Anfang Oktober erwarten.

Zergra
2017-09-24, 13:55:28
Ich denke auch das V11 noch dieses Jahr erscheint. AMD braucht doch V11 um die minderwertigen HBM2 Chips zu verkaufen. Dazu ein halber Vega 10 Chip und das Teil ist fertig. Das sollte imho. nicht mehr lange dauern.

TGKlaus
2017-09-24, 15:35:14
Ich bleib dabei, viel zu teuer in der Herstellung im Vergleich zum (schon vorhandenen) Polaris.


Oder die Herstellungskosten sind deutlich geringer als spekuliert und das (angebliche) Packaging Problem war eine Ente.

dildo4u
2017-09-24, 16:15:24
Polaris wäre viel zu lahm gegen die neuen Volta GPU's von Nvidia,AMD braucht für 2018 Mid Range Karten die mit mindestens 1.6Ghz laufen.Vermutlich takten kleineren Vega sogar besser als die großen Karten,da AMD nicht den selben Fehler machen wird wie bei der 480 das in 150 Watt zu pressen.Ich erwarte 180 TDP+ wie bei der 580.

dargo
2017-09-24, 16:50:31
Ich bleib dabei, viel zu teuer in der Herstellung im Vergleich zum (schon vorhandenen) Polaris.

Ist dem wirklich so? Immerhin reden wir hier von nur einem Stack und 4GB HBM2. Polaris hat die doppelte Speichermenge im Vollausbau. Vega11 profitiert hier stark von HBCC.

TGKlaus
2017-09-24, 17:03:02
Polaris wäre viel zu lahm gegen die neuen Volta GPU's

Ne VEGA28 wäre langsamer als nx RX480, weshalb für VEGA32/28 genau das gleiche gelten würde.

vinacis_vivids
2017-09-24, 17:07:12
Wieso soll Vega 28 langsamer sein?

TGKlaus
2017-09-24, 17:31:31
Weil VEGA 28 bei 1792 Shadern dauerhaft!!! 1.700MHz (bei nahezu perfekter Skalierung) bräuchte um RX 480 Geschwindigkeit zu erreichen. (Und das auch nur, wenn sich durch die höhere Taktung nicht noch ein anderer Flaschenhals zeigt)

Und selbst wenn man das erreichen (oder etwas überbieten) sollte, wären da dann noch die deutlich höheren Herstellungskosten.


Dann in der Leistungsklasse lieber weiterhin der Polaris-Chip.

fondness
2017-09-24, 17:32:01
Erst mit V11 wird man die Vega-Architektur richtig im Gaming-Bereich beurteilen können. V10 ist als HPC-Hybrid nur schwer einzuschätzen. Man sollte also erstmal abwarten, bevor man schon vorher die Felle des Bären verteilt.

deekey777
2017-09-24, 17:41:55
Wie verrückt ist es, dass iMac Pro mit Vegas in 12LP kommt?

Locuza
2017-09-24, 17:45:27
Erst mit V11 wird man die Vega-Architektur richtig im Gaming-Bereich beurteilen können. V10 ist als HPC-Hybrid nur schwer einzuschätzen. Man sollte also erstmal abwarten, bevor man schon vorher die Felle des Bären verteilt.
Ich sehe da keine Eigenschaft beim Vega 11 gegenüber Vega 10 beschnitten.
RPM (FP16), IF und der HBCC werden höchstwahrscheinlich genauso mit dabei sein.

Unicous
2017-09-24, 17:51:52
Da sie glaube für Dezember angesetzt sind, halte ich das für unwahrscheinlich. Apple produziert die Dinger ja aller Voraussicht nach bereits vor und da kommt "12"LP etwas zu spät, auch wenn die risk production da schon angelaufen sein könnte (wobei das meiner Meinung nach wenig mit Risiko zu tun, das ist einfach 14LPP+ umbenannt, mit 7,5T libraries anstatt 9T).
http://www.bitsandchips.it/images/2017/01/28/glofo2.png

reaperrr
2017-09-24, 17:56:58
AMD braucht doch V11 um die minderwertigen HBM2 Chips zu verkaufen.
Äh, nein. V11 braucht eigentlich sogar schnellere HBM2-Chips als V10, weil V11 durch das zu 99% gleichwertige 4fach-Frontend und voraussichtlich höheren Chiptakt eigentlich auch mehr als 50% der V10-Bandbreite bräuchte, um hierdurch nicht ausgebremst zu werden.

Theoretisch bräuchte zumindest V11XT wohl eher HBM2 @1,1 GHz, den es aktuell noch nicht gibt und evtl. auch nie geben wird, um das Potential des Chips auszuschöpfen.

Weil VEGA 28 bei 1792 Shadern dauerhaft!!! 1.700MHz (bei nahezu perfekter Skalierung) bräuchte um RX 480 Geschwindigkeit zu erreichen. (Und das auch nur, wenn sich durch die höhere Taktung nicht noch ein anderer Flaschenhals zeigt)
Also das ist jetzt stark übertrieben, um nicht zu sagen schlicht falsch.

Die Referenz-480 kommt im Durchschnitt nur auf ca. 1200 MHz, da würden schon ~1550 MHz für die V28 reichen, um auf den gleichen ALU/TMU-Durchsatz zu kommen, bei deutlich höherer Tesselation- und ROP-Leistung.

Höherer Takt ist grundsätzlich immer besser als mehr Shader-Einheiten, weil logischerweise alles mit dem Takt skaliert. Das gilt bei AMD übrigens deutlich mehr als bei NV, die eine wesentlich bessere Skalierung mit zusätzlichen SM haben als AMD mit zusätzlichen CUs.
Das Problem von V28 und V32 wird wenn, dann die durch die nötigen hohen Taktraten wieder mal geopferte Effizienz sowie die im Vergleich zu Polaris maximal gleich bleibende Speicherbandbreite sein.

TGKlaus
2017-09-24, 17:58:28
Wie verrückt ist es, dass iMac Pro mit Vegas in 12LP kommt?

Da Auslieferung ab Dezember .... no way!!!

dargo
2017-09-24, 18:16:42
Weil VEGA 28 bei 1792 Shadern dauerhaft!!! 1.700MHz (bei nahezu perfekter Skalierung) bräuchte um RX 480 Geschwindigkeit zu erreichen.
Worauf bezieht sich diese Rechnung? Auf die reinen TFLOPs? Nach meiner Rechnung würden 1500Mhz bei Vega28 reichen um RX480 zu erreichen.

TGKlaus
2017-09-24, 19:03:23
Ausgehend von 1266 wären es 1630 bei perfekter Skalierung.
Ausgehend von dem was die Asus Strix 480, die ich ne zeitlang hatte, dauerhaft gemacht hat, wären es über 1700. Und mit Anpassung von TT und Lüfterkurve der Strix sehe ich total schwarz für ne VEGA28.

vinacis_vivids
2017-09-24, 19:33:23
Vega28 ist der salvage, der volle Chip besitzt 32CUs. Taktraten von 1700Mhz sind jetzt nicht mehr unmöglich bei AMD.

RX470 -> Vega28
RX480 -> Vega32

V11 wird sicherlich n Stückchen kleiner, günstiger und schneller als P10.

dargo
2017-09-24, 19:57:31
Ausgehend von 1266 wären es 1630 bei perfekter Skalierung.

Vergiss es es. :) Eine Referenz RX480 liegt bei 1180-1200Mhz.

ndrs
2017-09-24, 21:19:34
Die HBM module sind alle bereits da nur der Ausbau nicht, das ganze ist hier im Video erklärt (https://youtu.be/7Scm6boqNeo)
Kannst du das spezifizieren? Das Video ist 48min lang. Beim Durchblättern der Slides konnte ich jedenfalls nichts zu einem HBM2-Nachfolger finden.

HOT
2017-09-25, 13:51:10
Die vor par Tagen gelisteten 13 geplanten SKUs auf Vega Basis und die kürzliche RRA Zertifizierung deuten eher auf einen nicht allzu weit entfernten Launch hin.
Bei Vega 10 dauerte es einen Monat von der Zertifizierung bis zum Launch der FE.
Für Vega 11 würde ich das Weihnachtsgeschäft bzw. Ende November bzw. Anfang Oktober erwarten.
Ok, überzeugt. Dann kommt der aber tatsächlich noch in 14LPP. Dann gibts im Laufe des Jahres 2018 ein Refresh beider Chips.

HOT
2017-09-25, 13:58:42
Wie es aussieht, wird 12LP ja erst mal für PinnacleRidge eingesetzt. Vega wird sicherlich refresht werden in 12LP (hat man ja quasi angekündigt), das wird jedoch noch dauern. Jetzt kommt erst mal V11 in 14LPP, könnte zusammen mit den Custom-V10 Mitte bis Ende Oktober starten.

fondness
2017-09-25, 18:47:11
Vega20 Q3/Q4 2018 mit PCIe 4.0 und xGMI:

https://s26.postimg.org/8ocmo6ld5/vega-20.jpg (https://postimages.org/)

https://informaticacero.com/vega-20-llegara-q3-2018-apoyando-pcie-4-0/

horn 12
2017-09-25, 19:02:58
Dann wird es der Treiber bei Vega 10 richten müssen :-)

AffenJack
2017-09-25, 19:14:19
Interessant, auch wenn ich bei 7nm in Q3 noch arge Zweifel habe. Aber wichtiger ist eh das Q4 Datum, damit man zusammen mit Rome und PciE 4/xGMI dann als neue Plattform kommt.

HOT
2017-09-25, 20:13:16
TSMC will 7nm DUV ab 2. Quartal 18 in Massenproduktion haben. Das passt doch. Die risc production läuft schon seit Q2 17. Für Serverplattform wird mann dann wohl ab Q3 V20 sehen, für Consumer Q4.
Es gibt etliche Produkte, die dieses Jahr Tapeout hatten für N7FF und die ab Q2 produziert werden. V20 ist eines davon.

AffenJack
2017-09-25, 20:20:50
TSMC will 7nm DUV ab 2. Quartal in Massenproduktion haben. Das passt doch. Die risc production läuft schon seit Q2 17. Für Serverplattform wird mann dann wohl ab Q3 V20 sehen, für Consumer Q4.

Die letzten Nodes liefen erstmal 1 Jahr für Mobile bevor Grafikkarten kamen. Apple hat sich auch schon die 7nm Liefermengen gesichert und produziert nur bei TSMC. Da sind bestimmt noch andere Mobilehersteller dabei und dann bleibt für Grafikkarten nicht gerade viel übrig. Genauso werden die Yields am Anfang total grottig sein. Das kann nur klappen indem V20 wirklich nur für Server kommt am Anfang. Da sind die Yields relativ egal und begrenzte Mengen auch ok. Für Consumer kannst du da mindestens 6 Monate drauf rechnen.

HOT
2017-09-25, 20:22:06
Apple hat es auf 7 EUV abgesehen, nicht 7 DUV. TSMC wird, wie es aussieht, ab 2019 zuerst exklusiv für Apple den A12 in 7 EUV (N7FF+) fertigen. Es geht eigentlich nur noch darum, ob Samsung es schafft schneller zu sein, dann könnte Apple auch in 7LPP zusätzlich fertigen. Da will Samsung schon Ende 2018 in Massenproduktion sein.

Apple A10 Q3 2015 14/16nm
Apple A11 Q3 2017 N10FF
Apple A12 Q3 2019 N7FF+

Mal davon ab: Warum glaubst du es besser zu wissen, was gefertigt werden kann, als AMD selber? Wenn die die Produkte bei TSMC am Start haben, dann stimmt das auch und ist in trocknen Tüchern, Apple hin oder her. Dann wird auch gefertigt.

fondness
2017-09-25, 20:43:42
Vega20 sollte fix 12nm sein. Das ist seit der damaligen Roadmap eigentlich klar, aus 14nm+ wurde halt 12nm:

https://s26.postimg.org/9ljyzsuqx/image.jpg (https://postimages.org/)

HOT
2017-09-25, 20:59:07
Nein, da gab es doch schon Infos, dass der in TSMCs 7nm kommen soll. Das ist ein Sonderprodukt und hat mit den restlichen Lineups nichts zu tun. Der sollte offenbar erst bei GloFo gefertigt werden, man hat das Projekt dann aber an TSMC übertragen. Ich wette, dass der von dem Team fertiggestellt wird, die auch den SoC für die XBox1X fertiggestellt haben.

12LP wird sicherlich für einen V10 und V11-Refresh in 2018 genutzt werden. Damit hat man bei GloFo dann auch genug Chips in 12LP in Produktion.
https://www.techpowerup.com/236874/amd-to-change-suppliers-for-vega-20-gpus-on-7nm-hbm2-packaging-for-vega-11

Ganz unten.

Edit: korrigiert, war nen Versehen.

TheGood
2017-09-26, 00:18:33
der v10 refresh kommt definitiv 2018!!! (speku) Aber warum soll sie nicht 2018 kommen ? War bei AMD schon seit jahren genau der FAll.

Die frage ist was AMD unter einem "refresh" versteht.

Kriton
2017-09-26, 14:40:04
der v10 refresh kommt definitiv 2018!!!

Ist das jetzt so ein "Wir sind im Speku-Forum, da muss ich nicht dranschreiben, dass ich nur spekuliere", oder hast Du Infos, dann bitte mit Quelle (ansonsten bitte durchaus mal mit Speku-Hinweis oder Argumentation zur eigenen Meinung).

BoMbY
2017-09-26, 14:51:28
Jetzt fangen wir schon wieder an über eine AMD-Fertigung bei TSMC zu phantasieren? AMD zahlt für jeden Chip der nicht bei GloFo gefertigt wird nochmals drauf, zusätzlich zu den Millionenzahlungen welche die ehh schon an GloFo geleistet haben. TSMC wird nur in aller größter Not, oder für Semi-Custom-Produkte wie Konsolen-APUs genutzt werden.

HOT
2017-09-26, 14:56:52
Es geht hier um einen Chip mit nicht allzuhohen Stückzahlen. Die Semi-Custom-Abteilung ist übrigens Teil der RTG, nur mal so zur Info. Lt. der News ist man ja auch vor allem deshalb geswitcht für V20, weil TSMC den Prozess erheblich früher fertig hat als GloFo. Und das ist durchaus glaubhaft. Massenproduktion ab Q2 18 läuft nach Plan bisher.

Kriton
2017-09-26, 14:57:23
Jetzt fangen wir schon wieder an über eine AMD-Fertigung bei TSMC zu phantasieren? AMD zahlt für jeden Chip der nicht bei GloFo gefertigt wird nochmals drauf, zusätzlich zu den Millionenzahlungen welche die ehh schon an GloFo geleistet haben. TSMC wird nur in aller größter Not, oder für Semi-Custom-Produkte wie Konsolen-APUs genutzt werden.

Sie zahlen mit Sicherheit nicht für jeden Chip, der nicht bei GF gefertigt wird drauf. Mit Ryzen werden sie, würde ich vermuten, ihr Waferabkommen problemlos erfüllen.
Sicher wird GF für AMD grundsätzlich günstiger sein (wenn Du das meinst), aber die Strafzahlungen dürften inzwischen (bei der Masse an CPUs) Geschichte sein.

foenfrisur
2017-09-27, 10:34:41
hat schon mal jemand seine vega mit neuer
wlp versehen?

habe überlegt, mir die grizzly conductonaut liquid metal drauf zu klatschen.
bestellt hab ich die eigentlich für die cpu :D

mfg

Hübie
2017-09-27, 10:40:58
Mir war so als hätte Igor mal davon abgeraten so etwas auf einen nackten Die zu klatschen. :uponder:

foenfrisur
2017-09-27, 11:37:21
nee. das wird 1000-fach zwischen ihs und dem nackten Die geschmiert.
das passt schon.

die umliegenden Bauteile sind viel bedrohter.

mfg

lowkres
2017-09-27, 11:40:21
So Leute ich würde mal gerne eure Einschätzung bezüglich des Vega 10 refreshes erfahren.
Was erwartet ihr für ungefähre Specs bei 12nm?? Wie will AMD 2018 mit V10 Refresh gegen Volta konkurrieren, wenn sie nicht mal eine GTX 1080Ti schlagen können??
Werden Sie überhaupt mit V10(neu) die Leistung einer GTX 1080Ti übertreffen?? Was ist aber mit Volta, wenn dieser nochmals 40-60% auf die GTX 1080Ti rauflegt??
Wie sehen die Chancen für AMD überhaupt für das Jahr 2018 aus? Bessere Treiber und 10-15% mehr Takt werden vllt an eine 1080Ti rankommen, aber wenn Volta schon Q1 oder Q2 rauskommt, wann möchte man dann V10 refresh releasen, der bestimmt auch wesentlich langsamer sein wird als Volta, was erhofft sich AMD davon?
Ich kann gerade Vega einfach so schwer einschätzen, weil man weiss einfach nicht wieviel Power noch brach liegt.

Eventuell kann einer von euch mal einschätzen, was er für V10 Refresh ungefähr erwarten kann bei 12nm.

LG

HOT
2017-09-27, 11:50:45
V20 ist 7nm... und schwer einschätzbar. Der Prozess soll AFAIK 40% mehr Leistung ermöglichen als 16FF+, was Taktraten bei 2GHz bedeuten würde bei gleichen 64CUs und gleicher TDP.

man wird V10 in 12nm refreshen, weil man ja keine neue Maske benötigt und daher wenig aufwändig ist, das ist aber nicht V20, da V20 ja auch eingie neue Features mitbringt, wie PCIe4 und hohe Double-Precision-Leistung beispielsweise. V20 wird langfristig Hawaii ersetzen und bestimmt 4 Jahre aktuell bleiben. Daher ist 7nm auch die einzig sinnvolle Option gewesen.

Und bei Vega muss man dem Flüssigmetall schon vorsichtig sein. Da muss man dann schon ne Version erwischen, bei der das Package eingegossen ist und das Flüssigmetall nicht mit dem Interposer in Kontakt kommt, der ist sehr empfindlich.

Hübie
2017-09-27, 12:25:18
nee. das wird 1000-fach zwischen ihs und dem nackten Die geschmiert.
das passt schon.

die umliegenden Bauteile sind viel bedrohter.

mfg

Richtig. Und jetzt denk mal daran wie aufwändig es ist einen IHS vom Die zu lösen wenn dieser mit sowas "verlötet" wurde. Den Kühler wirst du da also nach einer Weile wohl nicht mehr abbekommen.

foenfrisur
2017-09-27, 12:39:29
macht man bei einer graka ka aber eigentlich nie.
erst wenn der Kühler defekt ist.

mfg

lowkres
2017-09-27, 15:13:48
V20 ist 7nm... und schwer einschätzbar. Der Prozess soll AFAIK 40% mehr Leistung ermöglichen als 16FF+, was Taktraten bei 2GHz bedeuten würde bei gleichen 64CUs und gleicher TDP.

man wird V10 in 12nm refreshen, weil man ja keine neue Maske benötigt und daher wenig aufwändig ist, das ist aber nicht V20, da V20 ja auch eingie neue Features mitbringt, wie PCIe4 und hohe Double-Precision-Leistung beispielsweise. V20 wird langfristig Hawaii ersetzen und bestimmt 4 Jahre aktuell bleiben. Daher ist 7nm auch die einzig sinnvolle Option gewesen.

Und bei Vega muss man dem Flüssigmetall schon vorsichtig sein. Da muss man dann schon ne Version erwischen, bei der das Package eingegossen ist und das Flüssigmetall nicht mit dem Interposer in Kontakt kommt, der ist sehr empfindlich.

Ach hab das vorhin leider verwechselt. Ich meine natürlich den V10 Refresh und ändere dort mal schnell den Text dazu. Danke.

Die Frage ist halt nur was AMD mit einem V10 Refresh gegen Volta bringen kann?? Was könnte man max mit 12 nm aus einem Refresh Vega 10 rausholen??

vinacis_vivids
2017-09-27, 15:22:48
Ach hab das vorhin leider verwechselt. Ich meine natürlich den V10 Refresh und ändere dort mal schnell den Text dazu. Danke.

Die Frage ist halt nur was AMD mit einem V10 Refresh gegen Volta bringen kann?? Was könnte man max in 12 nm aus einem Refresh Vega 10 rausholen??

Volta muss erstmal kommen, da ist weit und breit nichts in Sicht.

V10 refresh wird ein shrink sein, um die Kosten zu senken. 484mm² -> 411mm²
Raw-power ist genügend da, die Treiberarbeit genießt Priorität sowie die Forcierung der LL-APIs und Zusammenarbeit mit den entsprechenden Studios.

foenfrisur
2017-09-27, 15:33:13
nichts in sicht?
im pro-segment quasi schon verfügbar.
und vorgestellt auch schon.

das braucht man erst mal nix relativieren, wenn man die aktuelle Generation und Situation kennt bzw. sich ansieht.

das ist schon relevant, wie das aussehen kann.
bei vega hat man auch das Gefühl, das amd an der Grenze des technisch Machbaren für amd zumindest ist. erstaunlicherweise....

mfg

Palpatin
2017-09-27, 15:36:17
Ich rechne bei Volta ganz grob mit ~30% Performancesteigerung durch die Bank.
Sprich 2080 = 1080 +30% , 2080ti = 1080 + 30% usw
AMD traue ich mit einem Vega Refresh bebenfalls ~ 30% zu.
-> Damit wäre man 2018 zummindest rauf bis zur 2080 konkurrenzfähig, was man aktuell auch ist aber fast 1,5 Jahre lang nicht war.
Größtes Manko wird natürlich die klar schlechtere Perf/Watt bleiben, da seh ich wenig Land für AMD, aber intressiert auch viele nicht so sonderlich.
Insgesamt sehe ich 2018 rosiger für AMD als 2016 als man nur noch rauf bis zur 1060 konkurrieren konnte.

Kriton
2017-09-27, 15:38:05
Wir sind nicht im Volta-Thread (und mangels Produkten gilt auch kaum das Vergleichsargument).

foenfrisur
2017-09-27, 22:41:32
mir eh latte.
für mich ist nvidia wie die ekelhafte petze in der schulklasse, den keiner als freund haben will.

daher kaufe ich lieber amd.
dazu eben auch der konkurrenz-gedanke....deswegen versuche ich auch intel zu meiden, so gut es eben geht.

aber lustig, das sich keiner mal an die WLP von vega traut^^

noch ist keine WLP angekommen.
weder kyronaut, noch conductonaut.

mfg

foenfrisur
2017-09-27, 22:50:26
edith:

neuer treiber :)

https://www.computerbase.de/downloads/treiber/grafikkarten/amd-crimson-treiber/

Support For
-Total War: WARHAMMER™ II
-Radeon Chill profile added
-Multi GPU support enabled
-Forza™ Motorsport 7

Fixed Issues
-The drop-down option to enable Enhanced Sync may be missing in Radeon Settings on Radeon RX Vega Series Graphics Products.
-ReLive may cause higher idle clocks on the secondary Radeon RX Vega Series Graphics Product in a multi-GPU configuration on certain AMD Ryzen based systems.
-Negative scaling in F1™ 2017 may be observed on Radeon RX 580 Series Graphics products in multi-GPU system configurations.

Known Issues
-Unstable Radeon WattMan profiles may not be restored to default after a system hang. A workaround is to launch Radeon WattMan after reboot and restore settings to default.
-Wattman may fail to apply user adjusted voltage values on certain configurations.
-Radeon Settings may not populate game profiles after Radeon Software's initial install.
-Overwatch™ may experience a random or intermittent hang on some system configurations.
-GPU Scaling may fail to work on some DirectX®11 applications.
-Secondary displays may show corruption or green screen when the display/system enters sleep or hibernate with content playing.
-Bezel compensation in mixed mode Eyefinity cannot be applied.
-When recording with Radeon ReLive on Radeon RX Vega Series graphics products GPU usage and clocks may remain in high states.


mfg

lowkres
2017-09-29, 19:39:05
Computerbase hat ein Benhcmark zum neuen Spiel Forza 7 durchgeführt. Das Ergebnis ist echt heftig und ich hoffe das Vega noch weiter dazu gewinnt für die Zukunft.

Eine Vega 56 ist schneller als eine 1080Ti!!! Schon ziemlich ungewohnt. :D

Ob Nvidia schon Gameready Treiber für Forza 7 anbietet, weiss ich jetzt nicht. Schaut einfach selbst nach den Ergebnissen.

https://www.computerbase.de/2017-09/forza-7-benchmark/2/

:)

AMDoderNvidia
2017-09-29, 21:49:14
Ja, das Spiel ist DX12-only und AMD kann nun alle Trümpfe der letzten Jahre ausspielen:

- Kein DrawCall-Overhead wie bei DX11
- AsyncShader
- FP16
- Optimierte Konsolenversion, die auf AMD-Hardware basiert, jetzt auf den PC übertragen

Komisch nur, dass AMD bei höheren Auflösungen einbricht. Bisher war es immer umgekehrt, denn erst in hohen Auflösungen konnte man den Shader-Anzahl Vorteil ausspielen. Seltsam.

robbitop
2017-09-29, 21:53:00
Das ist seit dem aufgebohrtem Frontend in Polaris und geringerer CPU Belastung @lowlevel APIs vorbei.

Digidi
2017-09-29, 22:04:49
Was an Forza Krass ist, ist das es nicht mal die Liquid ist die die 1080ti schlägt.

LadyWhirlwind
2017-09-29, 22:08:07
Hm, Vega scheint doch einiges an Potential zu haben. Scheint so als ob Vega bei DX12 only-Spielen sich durchaus gut schlägt. Vielleicht hat AMD einfach zu fest auf die Zukunft gesetzt?