PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

fondness
2015-03-30, 10:42:15
AMD Greenland HBM graphics coming next year
http://www.fudzilla.com/news/graphics/37386-amd-working-on-greenland-hbm-graphics

Wer weiter Links/Infos hat bitte posten. More coming soon.

y33H@
2015-03-30, 11:45:41
Greenland will be a part of AMD's next generation K12 APU, which means that this multiple Zen core APU will get some great graphics performance.Wenn ich sowas lese ... K12 ist ARM und nicht Zen, zudem bezeichnet K12 eine Kern-Architektur und keine APU. Was die Slide darunter übrigens zeigt.

Thomas Gräf
2015-03-30, 12:13:52
2016?...ich richte mich gedanklich mal auf Herbst 2017 ein.

Leonidas
2015-04-13, 06:51:59
Damit hier mal mehr drin steht als nur drei Posts:

3DC-Übersichtsseite zu AMDs Arctic Islands (http://www.3dcenter.org/news/amd-arctic-islands)
Wie AMDs Arctic-Islands-Generation für das Jahr 2016 aussehen könnte (http://www.3dcenter.org/news/wie-amds-arctic-islands-generation-fuer-das-jahr-2016-aussehen-koennte)

Hübie
2015-04-13, 06:59:37
Eigentlich steht bei fuad auch noch nix weiter als blah... CPU+Graphics Core..blah HBM2..blah fette Bandbreit *schnarch*

Technisch sicher super interessant aber die Infos könnte man in eins, zwei Zeilen zusammenfassen.
Ursprünglich sollten wir dieses Jahr schon GPUs mit ARM-IP drin sehen. Aber delayed is delayed. Wie immer krankt es an der Software. Programmierer tun mir leid :freak:

Sunrise
2015-06-18, 11:41:41
AMD gibt ja offiziel bei der Radeon R9 Nano (basierend auf Fiji) folgendes an:

- 175W single 8-pin PCIe power connector
- Up To 2X performance density
- Up To 2X performance per watt

Alle Angaben laut AMD im Vergleich zu Hawaii-Silizium (290X).

Jetzt schauen wir mal auf den Slide auf Seite 6 der neuen Roadmap für 2016 vom FAD 2015 und lesen dort u.a. folgendes:

- 2x Performance-per-Watt Efficiency
- 2nd Gen High Bandwidth Memory

Siehe:
http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MjYxMjY0fENoaWxkSUQ9LTF8VHlwZT0z&t=1

Jetzt überlegen wir uns mal, was AMD damit anstellen könnte.

Damit man nicht zuviele TapeOuts und somit Kosten verursacht, würde ich hier maximal zwei neue GPUs bauen und diese ähnlich dem Fury-LineUp entsprechend skalieren:

Arctic Islands:
- GCN 1.3/GCN 2.0 (oder wie auch immer die nächste Iteration benannt wird)
- 4096 ALUs und 8192 ALUs
- 4/8GB HBM2 und 16/32GB HBM2
- ~250-350mm² und ~450-550mm²
- <75W-150W TDP und 175W-275W TDP

Damit bedient man alle Märkte mit maximaler Effizienz, maximaler Flexibilität und maximaler Leistung für die jeweilige Anforderung.

Eine Einschränkung möchte ich noch machen:
Ich gehen hierbei davon aus, dass DP bei Fiji relativ zu Hawaii nicht beschnitten wurde, deshalb habe ich bei meinen Flächenangaben mal eine größere Differenz eingerechnet. Ebenso betrifft dies das neue Featureset, das zusätzlich Platz belegt. Durch deutlich größere Stacks bei HBM2 relativ zu HBM1 kann man jedoch (zumindest bei der "kleinen" GPU) an den entsprechenden MCs sparen, was wiederrum ein Vorteil sein sollte.

Genauere Abschätzungen sind möglich, wenn wir mehr Daten über Fiji (Verbrauchskurve relativ zum Takt) und der Nano (Takt und aktive Einheiten) haben.

Troyan
2015-06-18, 11:58:20
Du kannst die Nano doch nicht als Grundlage nehmen. Um dieses Perf/Watt Verhältnis zu erreichen, muss die Karte herunter getaktet werden.

Die Karte wird irgendwo bei 10-15% zur GTX980 liegen. Denkst du, dass ist ein gutes Ergebnis mit 590mm^2 und HBM gegenüber 395mm^2 und 256bit GDDR5?!

Sunrise
2015-06-18, 12:12:56
Du kannst die Nano doch nicht als Grundlage nehmen. Um dieses Perf/Watt Verhältnis zu erreichen, muss die Karte herunter getaktet werden.
Klar kann ich das. Und AMD kann das sogar noch besser als ich. Was spricht denn dagegen, dies bei dem neuen Silizium nicht auch zu tun? Richtig, nichts.

Die Karte wird irgendwo bei 10-15% zur GTX980 liegen. Denkst du, dass ist ein gutes Ergebnis mit 590mm^2 und HBM gegenüber 395mm^2 und 256bit GDDR5?!
Deine Märchenstunde und dein Bashing gegen AMD kannst du in anderen Threads abhalten. Wenn du keine sinnvollen Beiträge lieferst, halte dich bitte aus diesem Thread fern.

Menace
2015-06-18, 12:14:13
Die Karte wird irgendwo bei 10-15% zur GTX980 liegen. Denkst du, dass ist ein gutes Ergebnis mit 590mm^2 und HBM gegenüber 395mm^2 und 256bit GDDR5?!

Ja. :rolleyes:

Troyan
2015-06-18, 12:45:35
Klar kann ich das. Und AMD kann das sogar noch besser als ich. Was spricht denn dagegen, dies bei dem neuen Silizium nicht auch zu tun? Richtig, nichts.

Du phantasierst dir hier etwas zusammen, was einfach nur unlogisch ist.
Die Nano ist eine mit einen 590mm^2 und 8,6 Millionen Transistoren Chip bestückte Karte, deren Zweck einzig und allein Perf/Watt ist. Um das zu erreichen, wird die Karte deutlich herunter getaktet und das Board optimiert.

Die Fury X - also das richtige Nachfolgeprodukt von Hawaii - erreicht dagegen nur eine 1,5x bessere Perf/Watt. Wie erklärst du dir das?

Aufgrund der Größe von Fiji kann man das Leistungsniveau von GM204 locker mit deutlich geringeren Taktraten und somit Spannungen erreichen. Was am Ende wiederum in ein besseres Perf/Watt Verhältnis mündet - siehe Apple, siehe nVidia mit GK110 gegenüber GK104.


Deine Märchenstunde und dein Bashing gegen AMD kannst du in anderen Threads abhalten. Wenn du keine sinnvollen Beiträge lieferst, halte dich bitte aus diesem Thread fern.

Aber deine Fanfaren und dein Lobdudeln von AMD soll dagegen geduldet werden? Wir wäre es, wenn du basierend auf Fakten deine Vorstellung argumentativ darlegst?!

Die GTX980 ist die effizienteste Karte heutzutage. Die Nano wird darüber liegen, aber auch nur deswegen, weil sie größer und mit HBM ausgestattet ist.

Wenn du die Nano als Maßstab für die nächste Generation nehmen würdest... Wie genau soll AMD da bestehen können, wenn der Konkurrent ebenfalls mit HBM kommt?

Bleibe beim Vollausbau von Fiji und nehme den als Maßstab. Fury X mal 2 ist eine wesentlich realistischere Annahme als die Nano mit einem Leistungsniveau von GTX980+15%.

Sunrise
2015-06-18, 12:49:58
Die Nano ist eine mit einen 590mm^2 und 8,6 Millionen Transistoren Chip bestückte Karte, deren Zweck einzig und allein Perf/Watt ist. Um das zu erreichen, wird die Karte deutlich herunter getaktet und das Board optimiert.
Und die neuen Arctic Islands können das ebenso machen, was genau willst du mir damit mitteilen?

Es wird sogar noch besser als bei aktuell Fiji, da Fiji noch auf 28nm ist. Und mit HBM2 statt HBM1. Mal alle anderen Verbesserungen nicht eingerechnet. 2X Perf/W bei der nano, zusätzlich 2X Perf/W oben drauf bei der neuen Generation (diese Angabe gilt für alles durch die Bank, mit Abweichungen, die wir derzeit nicht kennen) mit ähnlichen Optimierungen. Somit kommt man sogar noch besser in alle Märkte <175W mit einer extrem leistungsfähigen GPU. Und obenrum sieht es auch extrem gut aus.

Bleibe beim Vollausbau von Fiji und nehme den als Maßstab. Fury X mal 2 ist eine wesentlich realistischere Annahme als die Nano mit einem Leistungsniveau von GTX980+15%.
Ich nehme beides als Maßstab. Für die kleinere GPU wird ebenso wie bei der nano nach unten skaliert und für die größeren Karten wird dann alles voll ausgefahren. Hättest du mal meinen Beitrag gelesen, hättest du das auch verstanden. Und wenn die DP-Leistung bei der großen GPU wieder 1:2 wird, dann hat AMD da ein mächtiges neues LineUp.

Dein restliches AMD-Gebashe habe ich mal entfernt. Hier geht es um AMD und einen Vergleich von AMD aktuell zu AMD in Zukunft.

mboeller
2015-06-18, 14:08:32
Arctic Islands:
- GCN 1.3/GCN 2.0 (oder wie auch immer die nächste Iteration benannt wird)
- 4096 ALUs und 8192 ALUs
- 4/8GB HBM2 und 16/32GB HBM2
- ~250-350mm² und ~450-550mm²
- <75W-150W TDP und 175W-275W TDP




was willst du mit solchen riesigen GPUs in 14nm erreichen? Midrange muss AMD auch noch bedienen und die lässt du hier völlig aus. Die Kosten für deinen 250-350mm² in 14nm sind in etwa so hoch wie für einen 500mm² Chip in 28nm. Die große GPU wird schon ziemlich teuer.... TitanX-Preise sind dann garantiert.

Sunrise
2015-06-18, 14:33:56
was willst du mit solchen riesigen GPUs in 14nm erreichen? Midrange muss AMD auch noch bedienen und die lässt du hier völlig aus. Die Kosten für deinen 250-350mm² in 14nm sind in etwa so hoch wie für einen 500mm² Chip in 28nm. Die große GPU wird schon ziemlich teuer.... TitanX-Preise sind dann garantiert.
Damit deckst du bis auf den absoluten Low-Cost-Bereich (der sowieso immer unwichtiger wird, weil der Markt zu klein und im Endeffekt die Herstellung dafür zu teuer) alles ab.

Gegenfrage, was willst du noch mit Low-Cost-GPUs auf 14nm/16nm erreichen, wenn die so winzig sein müssen, damit du überhaupt wieder auf ein ähnliches Kostenlevel wie bei 28nm kommst? Low-End wird immer mehr durch APUs und Intels CPUs verdrängt. Für alles andere kannst du noch die 28nm-Versionen hernehmen (Rebrands).

AMD hat für sowas 2016/2017 eigene APUs (SoCs). Warum den Aufwand mehrfach?

Eventuell baut man noch eine dritte, aber du willst ja mit möglichst wenig möglichst viel erschlagen. Die nano zeigt jedenfalls wohin die Reise geht.

fondness
2015-06-18, 14:51:09
Naja für Notebook-GPUs wären schon auch kleineren, energieeffiziente 14nm Chips sinnvoll, ansonsten gebe ich dir recht.

mboeller
2015-06-18, 15:09:16
Damit deckst du bis auf den absoluten Low-Cost-Bereich (der sowieso immer unwichtiger wird, weil der Markt zu klein und im Endeffekt die Herstellung dafür zu teuer) alles ab.

Aber ~300mm² in 14nm ist nicht Midrange sondern Highend. Zumindest von den Kosten. 2016 wird eine GPU mit 300mm² in 14nm mehr kosten als eine GPU mit 500mm² in 28nm.

Was machst du also wenn du nicht gleich 500 Euro ausgeben willst?

außerdem: der Interposer sollte ja einfaches MGPU ermöglichen. Interposer+DX12 als Kombination sollte endlich effizienztes MGPU ermöglichen.

Deshalb mal mein Gegenvorschlag:

14nm-GPU:
1536 ALU
1024 bit HBM Interface
800MHz - 1200MHz GPU Takt
35W - 60W (je nach Takt)

Interposer:

Klein: 1x GPU + 2-4GB HBM
Mittel: 2x GPU + 4-8GB HBM
Groß: 4x GPU + 8-16GB HBM

On top kannst du dann auch 2 Interposer auf eine Grafikkarte stecken (wie jetzt bei der Dual-Fury "Maxx")

maguumo
2015-06-18, 16:44:17
Falls sie wirklich mehrere GPUs auf einen Interposer zimmern statt eine größere zu bauen (halte ich für unwahrscheinlich, aber ich habe auch nicht wirklich nen Plan davon...) werden sie sich wohl kaum von APIs abhängig machen. Die GPUs bekommen dann eher einen fetten Interconnect und verhalten sich wie eine Große. Ansonsten müsste man sie ja auch nicht auf einen Interposer setzen.

Von was ähnlichem hatte Mark Papermaster ja auch auf der FAD geredet (der neue Interconnect den sie um die IP Blöcke für ihre zukünftigen modularen APUs gebastelt haben und der auch off-chip funktionieren soll). Weiß nicht ob man das für sowas verwenden könnte...

Abgesehen davon: Ich denke schon das wir 2016 mehr als zwei neue GPUs von AMD auf 14nm sehen werden. Das Line Up muss komplett erneuert werden, das werden mindestens 3 neue Chips. Vielleicht bastelt man noch was neues für den Ultra Low Cost Bereich auf 28nm, das dürfte es dann gewesen sein.

Wie sie HBM einsetzen werden wird auch interessant. Als Ablösung für GM200/Fiji 2, vielleicht 3 Stacks (mit jeweils 8 Channels)? Und für den großen Chip dann mindestens ein 4096b Interface?

Jetzt wo man mit HBM derart hohe Bandbreiten erreichen kann sehen wir ja vielleicht auch unterschiedliche Speicherkonfigurationen für professionellen und Gaming Markt. Sprich das Interface könnte für Gaming Chips beschnitten werden und man verwendet dann statt 6 Stacks/48 Channels für die Profi Version 4 Stacks/32 Channels für den Gaming Markt. Vielleicht bringt das auch Yield Vorteile wenn man so (ähnlich wie bei der 970) auch GPUs mit teildefektem MC/L2$ noch los wird.

HOT
2015-06-18, 16:51:33
Greenland ist bestimmt sowas wie Tahiti. Nicht zu riesig, aber dennoch potent und kann sicherlich mit einem Zen oder K12-Die auf einem Interposer zu der geplanten Server-Monster-APU vereinigt werden.
500mm² in 14nm bei AMD - halte ich für absolut unwahrscheinlich. Die fangen wieder bie 350mm² an.

AI sind auch noch meiner Ansicht nach monolithisch und GCN, erst die Nachfolger könnten tatsächlich Interposerkonstrukte mit neuer µArch sein. Ich denke auch, dass Greenland AMDs allererster 14nm-Chip überhaupt wird.

maguumo
2015-06-18, 17:03:47
Greenland ist bestimmt sowas wie Tahiti. Nicht zu riesig, aber dennoch potent und kann sicherlich mit einem Zen oder K12-Die auf einem Interposer zu der geplanten Server-Monster-APU vereinigt werden.
500mm² in 14nm bei AMD - halte ich für absolut unwahrscheinlich. Die fangen wieder bie 350mm² an.

AI sind auch noch meiner Ansicht nach monolithisch und GCN, erst die Nachfolger könnten tatsächlich Interposerkonstrukte mit neuer µArch sein. Ich denke auch, dass Greenland AMDs allererster 14nm-Chip überhaupt wird.

Greenland als dedizierte GPU und zusammen mit Zen als MCM (nennt man das noch so?)? Wären dafür nicht ziemlich viele Änderungen notwendig? Den Interconnect der dafür nötig ist wird man doch bestimmt nicht in der "normalen" GPU haben...

Wie läuft das bei einem theoretischen derartigen Konstrukt überhaupt mit Speicherzugriffen? Dedizierter MC oder werden zum Beispiel sämtliche Speicherzugriffe der GPU durch einen MC in der CPU geroutet (also Daisy Chaining mäßig)?

OBrian
2015-06-21, 03:52:30
Ich vermute, daß es beides geben wird, Interposerchips mit HBM (für die größeren Dinger) und normale monolithische Dies (für kleine).

Zuerstmal ergibt sich die größte Notwendigkeit im Bereich Pitcairn. Ich würde also erstmal einen Chip nach Bonaire-Art mit Pitcairn-Performance bringen:

- 128-bit SI mit GDDR5 (mit der DCC und etwas mehr Takt sollte die Bandbreite reichen)
- 16 CUs bzw. 1024 Shader
- GCN wahrscheinlich schon Version 1.3, egal was das bedeutet, aber bestimmt haben sich schon weitere Tweaks angesammelt, die dann in den Chip einfließen werden. Jedenfalls keine umwerfenden Änderungen.
- Takt und TDP skalierbar, so daß man leistungsmäßig von knapp oberhalb Bonaire bis knapp unter Tonga alles abdecken kann und auch eine Version für besonders niedrige TDPs anbieten kann (entsprechend der auf 60 W festgepinnten 750 Ti, die ja deswegen für viele interessant ist)
- Diegröße keine Ahnung, aber wird sicher relativ winzig.


Dann später eine Mainstreamkarte mit knapp Hawaii-Performance, damit kann man Hawaii Pro und Tonga ablösen:

- HBM2 mit halber Bandbreite von Fiji, aber 8 GB (das soll ja angeblich dann gehen)
- 32 CUs
- ebenfalls möglichst kleine Diefläche
- möglichst viel Takt, vielleicht 1200 Mhz, und evtl. einigen Effizienzsteigerungen durch GCN 1.3a oder 1.4 oder wie auch immer die nächste Minimal-Evolutionsstufe genannt werden wird

Die kann dann wieder jahrelang die Stellung halten und letztlich auf ca. 150 € runtergehen. Mit teildeaktivierten Versionen kann man die Lücke auf den 1024-Shader-Chip schließen.


Danach dann (aber wir sind nun schon längst im Jahr 2017) einen neuen Top-Chip mit den äußerlichen Meßwerten von Fiji, aber intern eben mehr. Also

- HBM2 mit doppelter Bandbreite und 8 bis 16 GB
- sind 128 CUs machbar? Mehr als 96 jedenfalls sicherlich, evtl. ne "krumme" Anzahl wie bei Hawaii.
- gleiche TDP wie Fiji, da ist wohl eine Grenze der Vernunft.




Für die APUs kann man die 32-CU-GPU benutzen, "einfach" einen größeren Interposer nehmen und das CPU/Southbridge-Die mit draufkleben. Ergäbe dann diese 300-W-APU für den Servermarkt, die vor einiger Zeit als Gerücht herumfleuchte. Wenn ich schon eine APU für Server baue, dann muß die GPU auch ordentlich was leisten können, d.h. eine kleinere macht eigentlich wenig Sinn.

Die APU für den Consumermarkt, also das, was nach Carizzo kommt, ist sicherlich eher wieder nur monolithisch, denn da reicht die durch DDR4 eh schon höhere Bandbreite. Vier Zen-Kerne plus sagen wir 12 CUs (768 Shader) ergäben ein knapp kleineres Die als das von Carizzo, man kann also besser dran verdienen.

maguumo
2015-06-21, 04:12:34
HBM2 mit halber Bandbreite von Fiji, aber 8 GB (das soll ja angeblich dann gehen)
Angenommen Fijis HBM läuft wirklich mit 500MHz und 1GHz werden mit HBM "2" Standard wären das übrigens 8 Channel/1 Stack...

Ansonsten: Man wird nächstes Jahr definitiv was brauchen das Fiji/GM 200 schlägt, das fehlt bei dir irgendwo...

OBrian
2015-06-21, 04:49:17
nee, der bleibt erstmal, da man nicht alles ersetzen kann.

maguumo
2015-06-21, 04:57:08
Fiji? Nie im Leben, da braucht's was neues. Was in der gleichen Performanceregion und auch für 2016 schon was stärkeres. Und ich bezweifle das man das mit einem Chip abdecken wird...

Grabhopser
2015-06-21, 09:37:14
Da Frage ist doch, was 2016 in 14FF machbar und sinnvoll ist.
Das ein 600mm² Fiji@28nm billiger ist als ein 350mm² Fiji@14FF ist nicht unwahrscheinlich.
Ich bezweifle daher, dass man 2016 ein komplettes Line-Up in 14FF bringt.

Zudem stellt sich die Frage ob sich AMD mehrere große 14FF Tape-Outs im Jahre 2016 überhaupt leisten kann.

Thomas Gräf
2015-06-21, 11:18:59
Da Frage ist doch, was 2016 in 14FF machbar und sinnvoll ist.
Das ein 600mm² Fiji@28nm billiger ist als ein 350mm² Fiji@14FF ist nicht unwahrscheinlich.
Ich bezweifle daher, dass man 2016 ein komplettes Line-Up in 14FF bringt.

Zudem stellt sich die Frage ob sich AMD mehrere große 14FF Tape-Outs im Jahre 2016 überhaupt leisten kann.

Tja darum war ich ja in meinem ersten Post auch so pessimistisch, nja das war auch auf die Top Dogge bezogen. ;)
Man kann ja nun auch sagen das Fiji wenn er zum Sommer kommt bestimmt min 12 Monate am Markt leben wird oder gar leben muß. Der hat AMD bestimmt ne Menge Geld gekostet.
AMD hat ne Menge Baustellen wo sie echt viel erreichen können und Baustellen können es in sich haben.

OBrian
2015-06-21, 14:19:27
Warum muß Fiji denn unbedingt so schnell ersetzt werden? Was bringt die Konkurrenz denn? Wann kommt Pascal, wie kommt Pascal? Weiß man nicht. Wenn da, wie einige vermuten, zuerst ein Profichip kommt, der dann nach einiger Zeit als teure Überkarte ohne ernsthafte Marktabsichten gebracht wird, dann wird AMD das einfach so passieren lassen. Immerhin werden sie ja noch eine Dual-Fury-Karte haben. Nvidia hat jedenfalls keinen sonderlichen Druck, Titan X zu ersetzen, und das machen sie auch nicht, nur weil sie es evtl. könnten. Aber die kochen ja auch nur mit Wasser, warum sollte deren Fertigung schneller fertig werden als die von AMD? Erfahrungen mit Interposern und neuem RAM müssen sie auch noch erst sammeln.

Außerdem wird AMD sicherlich in der neuen Fertigung nicht als allererstes einen möglichst riesigen und komplizierten Die bauen wollen, sondern mit kleineren Chips anfangen. Wenn man sich die Daten zu Zen-Engineering Samples usw. anschaut, die ja wohl in der gleichen Fertigung gebaut werden, dann kann man wohl in grob der ersten Jahreshälfte mit laufender Fertigung und einer ersten kleinen GPU rechnen. Wenn dann mit diesen Erfahrungen die letzten Arbeiten an einem neuen High-End-Chip gestartet werden, dann kann man mit dem wohl so Anfang 2017 rechnen.

Nein, ich denke, 2016 wird bei den High-End-Karten eher langweilig. Darunter passiert viel.

Nakai
2015-06-21, 14:55:04
Fiji sollte mit HBM2 erstmal ein Speicherupgrade auf 8~32GB bekommen. Ersetzen würde ich Fiji erstmal nicht, sondern shrinken o.ä.

mboeller
2015-06-21, 16:51:08
ich glaube nicht, dass AMD wirklich noch große GPUs bringen wird. Per Interposer lassen sich anscheinend auch mehrere kleine GPUs zusammenschalten. Hier mal eine Präsentation von AMD über 3D-Integration von 2013:

www.microarch.org/micro46/files/keynote1.pdf

Brillus
2015-06-21, 17:25:09
ich glaube nicht, dass AMD wirklich noch große GPUs bringen wird. Per Interposer lassen sich anscheinend auch mehrere kleine GPUs zusammenschalten. Hier mal eine Präsentation von AMD über 3D-Integration von 2013:

www.microarch.org/micro46/files/keynote1.pdf


Mit interposer ann man sich noch viel geiles Zeug vorstellen vor allem aktiven interposen. Steck die Soutbrigde-Sachen/Grafikausgänge in den Interposer und dann kann man schön CPU-Kerne und GPU-Kerne zusammen bauen wie man es gerade braucht.

fondness
2015-06-21, 17:31:02
Ich könnte mir auch vorstellen das AMD möglichst zeitnah nur noch verschiedenen Module entwickelt und per Interposer je nach Anforderungen beliebig zusammenstöpselt. Vorträge dazu gab es genug. Und die Vorteile davon wären auch evident, man könnte mit einer minimalen Anzahl an Tapeouts alles abdecken.

Grabhopser
2015-06-21, 17:41:38
Der Hauptvorteil wird sein, dass man verschiedene Produkte aus verschiedenen Fertigungen zusammen-flanschen kann.

HOT
2015-06-21, 17:47:28
Es wird wohl so laufen, dass Greenland ein Pionierchip ist, wie damals Tahiti, der so 300 bis 350mm² auf dem Buckel hat und noch einiges schneller als Fiji ist. Damit würde Fiji zum neuen Mainstreamprodukt werden, wie heute Hawaii.
Darunter bringt man sicherlich zwei 14/16nm Chips, dann wird das Ganze nach unten hin mit Bonaire und Oland für das Superbilligsegment abgerundet.

MilesEdgeworth
2015-06-21, 21:29:32
Wie viel höhere Packdichten sind denn mit dem Samsung / Glofo Prozess gegenüber 28nm zu erwarten? Etwa ein Faktor 2?
Zu hoffen bleibt jedenfalls, dass das Lineup vollständig erneuert wird.

Grabhopser
2015-06-22, 00:44:22
Wie viel höhere Packdichten sind denn mit dem Samsung / Glofo Prozess gegenüber 28nm zu erwarten? Etwa ein Faktor 2?

Nun ja in der Theorie ist es ein Faktor von 4. Durch die FinFETs ändern sich allerdings die Design-Rules grundlegend, weshalb es in der Realität deutlich weniger ist.
TSMC gibt für den 28nm Node(ka welcher) eine SRAM Zellengröße von 0.13um2 an.
Samsung behauptet, dass sie dafür nur noch 0.0645um2 in 14FF brauchen.

Ich denke also, dass man mit einem Faktor von 2 ganz gut dabei ist, wobei die GPUs natürlich aus mehr als einfachen SRAM-Blöcken bestehen.

MilesEdgeworth
2015-06-22, 08:33:48
Weit in der Materie stecke ich leider noch nicht (gebt mir noch 2-3 Jahre :P ), aber ich bin sowieso davon ausgegangen, dass es kein echter 14nm Prozess ist und dieser sich noch nahe an den 20nm bewegt. Danke jedenfalls für die Erklärung! :)

HOT
2015-06-22, 09:49:35
Wie viel höhere Packdichten sind denn mit dem Samsung / Glofo Prozess gegenüber 28nm zu erwarten? Etwa ein Faktor 2?
Zu hoffen bleibt jedenfalls, dass das Lineup vollständig erneuert wird.
Wie bisher auch, nach und nach. Bei FinFETs erst recht, da diese ja sehr teuer sind.

MilesEdgeworth
2015-06-22, 10:14:48
Wie bisher auch, nach und nach. Bei FinFETs erst recht, da diese ja sehr teuer sind.

Naja, zumindest ein Vorgehen wie bei Tahiti damals wäre wünschenswert. Da wurden ja drei Chips aufgelegt Tahiti, Pitcairn und Cape Verde. Aber solange Pitcairn nicht in der heutigen Form weiterlebt können wir vermutlich glücklich sein.. :crazy:

Hübie
2015-06-22, 13:20:49
Wieso nicht? Pitcairn ist nach wie vor der effizienteste AMD-Chip.

robbitop
2015-06-22, 14:24:32
Ich meine Cape Verde war noch effizienter (Leistung pro Cu).

OBrian
2015-06-22, 14:52:40
naja, effizienter als Fiji nicht ;) Hängt aber wohl alles eh hauptsächlich an den angelegten Taktraten und Spannungen.

Aber das Problem sind wohl eher die Features. Da hat sich einiges angesammelt, was in dem Segment die Verkäufe ankurbeln könnte, wenn man es in Silizium gösse. Die anderen Chips der 300er Serie sind in dem Punkt alle weiter.

MilesEdgeworth
2015-06-22, 18:56:53
@Hübie:
Innerhalb eines 14nm FF Lineups sähe ein 28nm Pitcairn aber längst nicht mehr so toll aus.

M4xw0lf
2015-06-22, 18:58:37
@Hübie:
Innerhalb eines 14nm FF Lineups sähe ein 28nm Pitcairn aber längst nicht mehr so toll aus.
Danke, Captain Obvious! :uup:

MilesEdgeworth
2015-06-22, 23:09:33
Ja immer wieder gerne.. :uup:

Bin jedenfalls mal gespannt, was denn da so auf uns zukommt und wann die ersten "Leaks" auftauchen. Muss ja bald mal bisschen was reinkommen, der Pirate Islands Spekulationsthread gehört ja vermutlich ab Donnerstag zum alten Eisen. Wäre doch ganz interessant dieses Mal die ganzen spekulierten Specs irgendwo zu sammeln, dann könnte man festhalten wer am Ende am besten geraten bzw. geschätzt hat. :biggrin:

samm
2015-06-22, 23:36:33
Wäre doch ganz interessant dieses Mal die ganzen spekulierten Specs irgendwo zu sammeln, dann könnte man festhalten wer am Ende am besten geraten bzw. geschätzt hat. :biggrin:Ich glaube bei der Fiji-Grösse hatte jemand hier auf 1mm^2 genau geschätzt, mal sehen, ob das dann für Greenland auch hinbekommt :biggrin:

mczak
2015-06-25, 03:34:37
Also ich würde ja ein komplettes 14nm GF "HBM2"-Lineup basteln (für Pitcairn und höher - darunter tun's Bonaire und Iceland wobei letzterer weiterhin sehr mysteriös bleibt). Ich gehe nicht davon aus dass die 1000Mhz oder 8Hi Stacks gleich realisiert werden bei HBM2, die 8gbit dies hingegen schon.
Alle Chips natürlich mit aktuellen Anschlüssen (also HDMI 2.0, HDCP 2.2, DP 1.3, logischerweise mit FreeSync-Unterstützung), up-to-date Videodekoder (der von Fiji ist genug schnell, ich frage mich ob der von Carrizo identisch ist), Videoencoder.

Und GCN "1.3". Könnte z.B. doppelt schnelle FP16-Operationen unterstützen oder auch nicht (bin nicht überzeugt dass Tonga's FP16-Support mit identischer Geschwindigkeit, aber immerhin freiem Swizzling (allerdings nur bei manchen Instruktionen, nicht bei MAD) der Weisheit letzter Schluss ist). Und insbesondere ein Frontend das besser skaliert (insbesondere bei Tesselation wäre es doch wünschenswert wenn ein 4-fach Frontend schneller ist als ein 1-faches...), was wahrscheinlich bedeutende Veränderungen in der Art und Weise wie alles verbunden ist erfordert. Und FL 12_1 Unterstützung (ROVs, Conservative Rasterization). Ausserdem vielleicht Aenderungen in den TMUs, FP16-Texturfilterung mit voller Geschwindigkeit, ASTC-Unterstützung wären nicht verkehrt. Vielleicht könnte man auch noch den ROP-Cache in den L2 integrieren (und dafür den L2 pro HBM-Stack erhöhen, 1 oder 2MB)
Prinzipiell aber ähnlicher Aufbau was die CUs angeht (also weitherhin 64 ALUs plus quad-tmu pro CU, mit derselben Anzahl Register).

So, dann also die Chips:
Pitcairn-Ersatz: 24 CUs (2x12), 32 ROPs, 2x16 Pixel Rasterizer, Takt minimal höher als bisherige Chips, so um die 1.2 Ghz Boost, 1 4Hi HBM2-Stack (also 4GB) ~800Mhz (200GB/s),1/16 DP, ~130mm^2, TDP um die 100W. Sollte reichen um GM206 zu schlagen...
Hawaii-Ersatz: 48 CUs (4x12), 64 ROPs, usw. Einfach alle Werte ausser dem Takt von oben verdoppeln :-), 1/16 DP.
Fiji-Ersatz (und neuer HPC-Chip): 72 CUs (6x12), 96 ROPs, usw., allerdings 1/2 DP. Bei 3 4Hi Stacks gibt das "nur" 12GB, vielleicht baut ja doch jemand 8Hi Stacks für 24GB beim HPC Chip :-).

Und nicht vergessen ihr habt die Spezifikationen hier zuerst gesehen :biggrin:

OBrian
2015-06-25, 07:37:03
und die willst Du alle gleichzeitig bringen? Oder in welcher Reihenfolge? Zeitpunkt gehört schließlich zur abgerundeten Spekulation dazu ;)

mboeller
2015-06-25, 11:16:19
und die willst Du alle gleichzeitig bringen? Oder in welcher Reihenfolge? Zeitpunkt gehört schließlich zur abgerundeten Spekulation dazu ;)

sicher ;) Ist ja nur 1 GPU mit 2 oder 3 unterschiedlichen Interposern, je nachdem ob man HBM auch auf einer normalen Karte einsetzen kann oder nicht (wahrscheinlich ja nicht).

mczak
2015-06-25, 15:36:03
Also ich sehe die schon als verschiedene Chips, die Multichip-Interposer-Verdrahtung für nächste Generation sehe ich skeptisch. Wären alle natürlich aber extrem ähnlich ich würde die so gleichzeitig wie möglich veröffentlichen (den schnellsten Chip vielleicht etwas später, die anderen beiden passen auch in (Gaming)-Notebooks da ist dringend was neues nötig).

Nakai
2015-06-25, 15:43:38
Also AMD muss GCN ordentlich besser neukonzipieren.

Punkte:
- besseres Frontend
- Interconnect vereinfachen
- weniger CUs, dafür größer
- TMU-Leistung(mehr Bandbreite, FP16)
- Energieeffizenz

Frontend:
Das Highend-Modell sollte 8 Frontend-Blöcke haben. Effektivität steigern. Man ist teilweise deutlich hinter NV. AMD krankt das seit Ewigkeiten rum.

Interconnect:
Weniger CUs -> weniger Verbindungspunkte bei der Crossbar. Vereinfachung.
Pro 4er CUs sind 6 Crossbar-Verbindungen nötig(eine pro CU und zwei für (Instruction- und SkalarCaches). Das ist zwar für HPC ziemlich nett, aber dennoch relativ kompliziert. Hinzukommen noch Verbindungen wegen CP und anderen Sachen.

CU-Organisation:
Anstatt vier einzelne CUs nur eine große CU mit 4 CU-Unterblöcke. Weniger Verbindungspunkte für diese Multi-CU. Ich könnte mit 3 Verbindungen vorstellen(ein für die CUs, einen für Skalarcache und einen für Instructioncache). Keine Ahnung, ob das möglich ist.

TMU-Leistung:
Dazu habe ich zuwenig Ahnung. Es gab hier eine Diskussion, die die TMU-Leistung unterhalb NV angesetzt hat. Bei gewissen Texelraten-Benches ist NV meistens überlegen.

Energiehunger:
Eine Reorganisation der CUs ist nötig. Eventuell einige Caches vergrößern oder besser einsetzen, um Datentransfers zu vermeiden. Die Registerfile ist bereits sehr groß, da braucht es keine Verbesserungen. Eventuell müssen die Zugriffe auf die Registerfile verbessert werden, was auch eine softwaretechnische Angelegenheit sein kann. Jedenfalls müssen energiehungrige Datenzugriffe vermieden werden bzw. optimiert werden. Das Laden von Daten bzw. der Operanden bei SIMD-Einheiten kostet immer viel Leistung(Verhältnis Operation:Operanden ist durch die SIMD-Größe definiert).

Ich hoffe AMD geht auf die wichtigsten Punkte hierbei ein.

Sunrise
2015-06-25, 15:45:03
Multichip pro Interposer ist nicht nur vom Platz her extrem problematisch. Und wir haben jetzt schon eine erhöhte Komplexität der Fertigung von einem Die auf Interposer und HBM-Modulen, die mit 14/16nm nochmal erhöht wird (unausgereift relativ zu 28nm, auch wenn der Interposer weiterhin in größerer Strukturgröße gefertigt wird).

Theoretisch könnte AMD auf einem 1011mm²-Interposer dann zwei ~270-290mm² Dies unterbringen. Pro Die zusätzlicher Verdrahtungsaufwand damit mehrere Dies miteinander nach außen unsichtbar miteinander arbeiten. Das ist viel zuwenig Platz IMHO, GCN braucht Platz. Und Fiji soll nichtmal 1:2 DP haben (ich weiß, ist nicht direkt bestätigt, aber ich gehe jetzt mal von Tonga aus), es wurde also sogar eingespart.

Irgendwie ergibt das keinen Sinn. Ich bin mir nicht sicher, ob das in absehbarer Zeit überhaupt Sinn ergibt. Hört sich in der Theorie alles super an, aber wenn man das mal schnell durchrechnet, wüsste ich nicht, warum man nicht eher zwei native Designs bringen sollte. Ja, es wird theoretisch erstmal billiger, die Yields der kleineren Dies werden höher sein, aber alles von Design bis zum Packaging wird sicher nicht billiger. Und der zusätzliche Platz geht von der Endleistung auch ab.

Ja, es wird bei FPGAs oder wie auch immer so gemacht, das heißt aber erstmal nichts, sind ganz andere Ziele, die da verfolgt werden. Die sind auch ganz anders aufgebaut, garnicht vergleichbar. Wir brauchen GPU-Designs, die das Flächenbudget optimal nutzen, ansonsten hätte AMD bei Fiji auch noch mehr Platz gehabt und evtl. noch etwas aufbohren können. Hatten sie aber nicht. Und dann auch noch zusätzlich Platz verschenken? IMHO nicht sinnvoll.

Ich habe da so meine Bedenken.

Knuddelbearli
2015-06-25, 15:51:30
Frontend:
Das Highend-Modell sollte 8 Frontend-Blöcke haben. Effektivität steigern. Man ist teilweise deutlich hinter NV. AMD krankt das seit Ewigkeiten rum.
finde ich nicht so schlimm da dafür ja die ALUs nur knapp halbsogroß wie bei Nv sind ( weniger Transistoren obwohl 1:2 bei Hawaii und können deutlich dichter gepackt werden )

Complicated
2015-06-25, 16:18:43
Multichip pro Interposer ist nicht nur vom Platz her extrem problematisch. Und wir haben jetzt schon eine erhöhte Komplexität der Fertigung von einem Die auf Interposer und HBM-Modulen, die mit 14/16nm nochmal erhöht wird (unausgereift relativ zu 28nm, auch wenn der Interposer weiterhin in größerer Strukturgröße gefertigt wird).

Theoretisch könnte AMD auf einem 1011mm²-Interposer dann zwei ~270-290mm² Dies unterbringen. Pro Die zusätzlicher Verdrahtungsaufwand damit mehrere Dies miteinander nach außen unsichtbar miteinander arbeiten. Das ist viel zuwenig Platz IMHO, GCN braucht Platz.
Deine Ausführungen entsprechen nicht der technishcen Realität und der Strategie die AMD verfolgt. Einige ausführliche infos finden sich hier im P3D-Thread zu AMDs Interposer-Strategie. Dort sind auch Links zu technischen Quellen vorhanden:
http://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs
Mulit-GPU/CPU Designs sind das erklärte Ziel von AMD - wahrscheinlich schon bei Zen zu sehen die ja in 4-Core Clustern daher kommen. Da können 4x4-Core Cluster durchaus onInterposer bedeuten anstatt onDie wie es die 2x4-Jaguar-Core-Cluster der PS4 sind. Ich bin gespannt ob es eine Fiji Dual-GPU geben wird. Zumindest die Größe des Interposers ist nicht begrenzt auf die maximale Lithographie Größe. Hier ein Patent von Altera für "stiched Interposer": http://www.google.com/patents/US20140175666

Sunrise
2015-06-25, 16:38:04
Deine Ausführungen entsprechen nicht der technishcen Realität und der Strategie die AMD verfolgt. Einige ausführliche infos finden sich hier im P3D-Thread zu AMDs Interposer-Strategie. Dort sind auch Links zu technischen Quellen vorhanden:
http://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs
Mulit-GPU/CPU Designs sind das erklärte Ziel von AMD - wahrscheinlich schon bei Zen zu sehen die ja in 4-Core Clustern daher kommen. Da können 4x4-Core Cluster durchaus onInterposer bedeuten anstatt onDie wie es die 2x4-Jaguar-Core-Cluster der PS4 sind. Ich bin gespannt ob es eine Fiji Dual-GPU geben wird. Zumindest die Größe des Interposers ist nciht begrenzt auf die maximale Lithographie Größe. Hier ein Patent von Altera für "stiched Interposer": http://www.google.com/patents/US20140175666
Die AMD-Überlegungen und Multi-Chip-Geschichte kenne ich, wurde teilweise auch schon auf der HotChips 2014 anhand von Beispielen in einem Paper (in welchem übrigens auch Fiji indirekt gespoilert wurde, zumindest hinsichtlich der 64 CUs und HBM, daher war ich mir auch recht sicher) genannt. Das eine sind aber teils Designs für mächtige APUs, wir sprechen aber von dedizierten GPUs.

Und Altera mag für einen bestimmten Teil des Marktes funktionieren, die Dinger sind aber sauteuer.

Bzgl. des Interposers geht es nicht um absolute Grenzen, sondern um einen Grenzbereich, bevor es deutlich teurer wird und somit nichtmehr wirtschaftlich ist. Zumindest sagt das AMD, der 1011mm² Interposer ist ja nun auch nicht gerade klein. Und selbst damit war "nur" eine Fläche von 600mm² möglich, das limitiert die Multi-Chip-Geschichte IMHO signifikant.

Complicated
2015-06-25, 17:03:34
Passive Interposer in 65nm sind alles andere als teuer Ca. 1$/100mm² - ein 300mm-Wafer kostet ca. 500-650 $. Wo kommt das immer her mit dem "Altera ist sauteuer? Was soll da teuer sein?

Und wenn Interposer zusammen gesetzt werden können, dann limitiert eben nicht die Lithographiegröße. Hast du meinen Beitrag einfach ignoriert und das selbe nochmal geschrieben?

Ein 1000mm² Interposer kann locker 2x 400mm² GPUs beherbergen in 14nm. HBM Speicher kann auf einem zusätzlichen "Stiched Interposer" rund um den zentralen Interposer angeordnet werden Da würden bei Fiji auf jede Seite (Es reicht sicherlich auch lediglich ein zweiter an einer Seite) 4 Stacks drauf passen und die Ausbeute der Interposer Wafer würde auch nochmal Kosten sparen.

http://patentimages.storage.googleapis.com/US20140175666A1/US20140175666A1-20140626-D00002.png
http://patentimages.storage.googleapis.com/US20140175666A1/US20140175666A1-20140626-D00003.png

Unicous
2015-06-25, 17:15:58
Was interessiert denn der Interposer?:rolleyes:

Das ist ein Stück Silizium mit integrierten Leiterbahnen. Nichts weiter. Viel schwieriger sind die µbumps bzw. das gesamte Packaging.

Und ja, Altera ist deswegen so teuer weil da eben das Vielfache an µbumps gebraucht wird als bei GPU+HBM Stacks. Pro die waren es bei Altera ca. 1000050K, iirc. Bei 4 Dies also min. 40000 ca. 200K. Bei Fiji dürften es deutlich unter 10000 sein ( min. 4096, obviously).

Das ist z.B. der Kosten und auch Komplexitäts-Treiber.

ndrs
2015-06-25, 17:56:03
Pro die waren es bei Altera ca. 10000, iirc. Bei 4 Dies also min. 400000.
Da stimmt was nicht. Eine von beiden Zahlen muss wohl editiert werden.

Bei Fiji dürften es deutlich unter 10000 sein ( min. 4096, obviously).
Demnach würde ich auf die fehlende Null in der 10.000 tippen, statt auf die zuviel in 400.000. Richtig?

Unicous
2015-06-25, 18:01:36
Mist. Ich hatte schon eine Null zu viel bei der letzten 10K, die bei 40k habe ich übersehen.:redface:



e: Achso, vergessen. Falsch.:tongue:


e: Und noch ein Fehler. Es ist natürlich Xilinx nicht Altera. Weiß gar nicht, wie ihr auf Altera kommt?

http://image.slidesharecdn.com/ideal3dstackeddietestirafeldmanieeeswtw2013-140612143324-phpapp02/95/ideal-3d-stacked-die-test-ieee-semiconductor-wafer-test-workshop-swtw-2013-10-638.jpg?cb=1402584675

Knuddelbearli
2015-06-25, 18:04:43
Fiji dürfte grob 6-8k bumps haben

Unicous
2015-06-25, 18:09:56
Irgendwie habe ich die Zahlen beim Virtex falsch in Erinnerung?:frown:


Aaaah, es waren 10000 TSVs. Oh je. Das kommt davon wenn man die Zahlen aus dem Kopf versuch zu rekapitulieren.:uattack4:


e: Naja. Plato hat sich in seinem Dialog ja auch um den Faktor 10 verschätzt. Das hat Indiana Jones ganz schön ins Grübeln gebracht. Oder war es Faktor 100? Oder Faktor 1000?:eek:

:uexplode:

Complicated
2015-06-25, 18:39:24
Was interessiert denn der Interposer?:rolleyes:

Das ist ein Stück Silizium mit integrierten Leiterbahnen. Nichts weiter. Viel schwieriger sind die µbumps bzw. das gesamte Packaging.
Hier geht es aber um die maximale Interposergröße die möglich wäre um Multi-Chips unterzubringen. Da sind die Microbumps herzlich egal, da sich diese auf den Stacked RAMs befinden und noch nicht mal in Kontakt mit dem Interposer kommen.

Edit: Der wird mittels C4 Flip-chip-Bumps (die wesentlich größer sind) an den Interposer Die gekoppelt. C4-bumps verbinden diesen mit dem Package.

Die maximale wirtschaftliche Größe eines Interposer bestimmt sehr wohl wie kommende Produkte aussehen können und wie viel Speicher auf dem Package untergebracht werden kann. Gerade bei Profikarten wird das eine große Rolle spielen, ebenso wie bei kommenden Serverdesigns.

Und Altera war im Gespräch wegen seines Patens zu "Stiched Interposern" Xilinx hat so etwas nicht bisher oder warum bringst du nun den Interposer des Fiji hier ins Gespräch? Wir sind doch im Artic Islands Thema, wo 14nm Fertigung und neue Interposer zum Einsatz kommen werden, ebenso wie andere Speicherstacks.

http://electronicdesign.com/content/content/74060/74060_f3.gif

Unicous
2015-06-25, 18:42:12
Was erzählst du für einen Blödsinn?:eek:

http://www.eeherald.com/images/stacked_silicon.jpg

Complicated
2015-06-25, 18:49:03
Ganz locker..hatte es gerade editiert. Du liegst immer noch falsch. Fiji ist kein FPGA.

http://www.hardwareluxx.de/media/jphoto/artikel-galerien/amd-fiji-interposer-technologie/amd-furyx-interposer-14-950x533.jpg

Unicous
2015-06-25, 18:50:10
Ganz locker..hatte es gerade editiert. Du liegst immer noch falsch. Fiji ist kein FPGA.

Nö.

Nagut. Ich gebe dir einen Tip. Wir reden hier von 2.5D Interposern und nicht von 3D-Integration.

Complicated
2015-06-25, 19:04:52
Und die GPU wird trotzdem Kopfüber angebunden mit Flipchip-bumps. Nur die HBM Speicherstacks nutzen zwischen den Slices und dem Logicdie microbumps. dann wird alles auf den Kopf gestellt und mittels Flipchipbumps angebunden auf den Interposer. Dieser wird mittels C4-Bumps auf dem Package angebunden.#

2.5D und 3D verwenden die selben Microbumps die du erwähnst an der selben Stelle. Die Anbindung von der ich spreche erfolgt eben mit anderen bumps. Daher macht das Argument aus deiner Sicht gar keinen Sinn. Und ich weiss, dass du bei mir im Thema eingestiegen bist und nicht umgekehrt, daher ist es mir ziemlich egal wovon du sprichst. Ich weiss wovon ich spreche, doch du hast da scheinbar den Kontext nicht mit bekommen. Es geht um Interposer und nicht um RAM-Slices

Unicous
2015-06-25, 19:08:33
Schon klasse wie du einzelne Slides aus dem Kontext ziehst, sie nicht mal richtig liest und damit deine Narrative unterfütterst.

Nooooow.. what about that:

http://scr3.golem.de/screenshots/1506/Radeon-R9-Fury-X/Radeon-R9-Fury-X-Test-14.png


e: Or that:

http://scr3.golem.de/screenshots/1506/Radeon-R9-Fury-X/Radeon-R9-Fury-X-Test-13.png

Complicated
2015-06-25, 19:13:49
Na dann erkläre mal anhand der Folie das was du geschrieben hast und auch was dies mit der Größe des Interposer zu tun hat? Kosten des Interposers wegen der Microbumps stehen in welchem Zusammenhang?
Was interessiert denn der Interposer?:rolleyes:

Das ist ein Stück Silizium mit integrierten Leiterbahnen. Nichts weiter. Viel schwieriger sind die µbumps bzw. das gesamte Packaging.

Und ja, Altera ist deswegen so teuer weil da eben das Vielfache an µbumps gebraucht wird als bei GPU+HBM Stacks. Pro die waren es bei Altera ca. 1000050K, iirc. Bei 4 Dies also min. 40000 ca. 200K. Bei Fiji dürften es deutlich unter 10000 sein ( min. 4096, obviously).

Das ist z.B. der Kosten und auch Komplexitäts-Treiber.

soso...."sie nicht mal richtig liest und damit deine Narrative unterfütterst."

Unicous
2015-06-25, 19:15:59
Wir müssen erstmal das Protokoll einhalten. Du entschuldigst dich und siehst deinen Fehler ein und dann liest du nochmal was ich geschrieben habe. Im Bestfall muss ich mich dann dazu nicht mehr äußern.


Ach wie geil. Da hat er noch mal schnell versucht mit einem edit. zu relativieren. Deine Gesprächskultur ist ja einmalig. Hauptsache nicht zugeben, dass man Scheiße erzählt. Ein wenig Scheiße geht einem vllt. noch durch, wenn man man es geschickt anstellt.


edit:
Achso hatte ich schon erwähnt, dass du Blödsinn erzählst? microbump ist microbump. All microbumps are created equal. Steht so in der Bump-Verfassung.

Complicated
2015-06-25, 19:31:46
Dann wirst du aber Amkor das selbe erklären müssen:
http://www.amkor.com/go/Flip-Chip-Packaging
Und AMD auch weil sie deren Technik nutzen.
Flip Chip (FC) is not a specific package (like SOIC), or even a package type (like BGA). Flip Chip describes the method of electrically connecting the die to the package carrier. The package carrier, either substrate or leadframe, then provides the connection from the die to the exterior of the package. In "standard" packaging, the interconnection between the die and the carrier is made using wire. The die is attached to the carrier face up, then a wire is bonded first to the die, then looped and bonded to the carrier. Wires are typically 1-5 mm in length, and 15-35 μm in diameter. In contrast, the interconnection between the die and carrier in flip chip packaging is made through a conductive "bump" that is placed directly on the die surface. The bumped die is then "flipped over" and placed face down, with the bumpsconnecting to the carrier directly. A bump is typically 60-100 μm high, and 80-125 μm in diameter.Du scheinst da ein eigenes Protokoll zu haben. Wofür sollte ich mich entschuldigen? Dafür, dass ich technische Details poste die dir nciht bekannt sind?

Achso hatte ich schon erwähnt, dass du Blödsinn erzählst? microbump ist microbump. All microbumps are created equal. Steht so in der Bump-Verfassung. Ja...genau ;)
http://semiaccurate.com/assets/uploads/2012/11/Xilinx_cross-sections.png

Flipchip-bump: 80-125 µm
Microbump HBM-Slices: 25 µm
C4 SiAG Bump: 180 µm

Complicated
2015-06-25, 19:35:37
Ach wie geil. Da hat er noch mal schnell versucht mit einem edit. zu relativieren. Deine Gesprächskultur ist ja einmalig.Bisher sehe ich in deinen Beiträgen mehr edits als in meinen - ich korrigiere Rechtschreibfehler und nicht mal eben den Faktor fünf meiner Zahlen. Kritisierst du nun deine Gesprächskultur ebenfalls?

Unicous
2015-06-25, 20:01:48
Ich korrigiere transparent offensichtliche Fehler und, ja, auch Rechtschreibfehler.

Du hingegen fügst ganze Sätze hinzu, die das vorher Geschriebene relativieren.:rolleyes:

Sonst lasse ich mal das hier liegen.

www.amkor.com/go/Kalahari-Brochure


Den Flip-Chip Unsinn kannst du langsam mal aufgeben.

Complicated
2015-06-25, 20:19:41
Ich habe das PDF zum Amkor-Flipchip Verfahren schon gepostet und es steht in keinem Widerspruch zu dem Kalahari Testverfahren. Siehe:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35776-amd-fiji-wie-der-interposer-hbm-und-gpu-miteinander-verbindet.html
http://www.hardwareluxx.de/media/jphoto/artikel-galerien/amd-fiji-interposer-technologie/amd-furyx-interposer-10-950x533.jpg
Um die FS RDL etwas stabiler zu machen, wird eine Schutzschicht aufgebracht, die als Pass bezeichnet wird. In diese Schutzschicht werden Öffnungen eingebracht, in die später die µbumps eingefügt werden.
http://www.hardwareluxx.de/media/jphoto/artikel-galerien/amd-fiji-interposer-technologie/amd-furyx-interposer-11-950x531.jpg
Diese Front-Side-Kupfer-bumps werden in einem ähnlichen Verfahren gefertigt, wie die TSVs. Im nächsten Arbeitsschritt wird die gesamte Konstruktion um 180 ° gedreht und ein Wafer Support System (WSS) aufgeklebt.Flipchip-Verfahren.
http://www.hardwareluxx.de/media/jphoto/artikel-galerien/amd-fiji-interposer-technologie/amd-furyx-interposer-12-950x533.jpg
http://www.hardwareluxx.de/media/jphoto/artikel-galerien/amd-fiji-interposer-technologie/amd-furyx-interposer-13-949x532.jpg
Das Wafer Substrat wird abgetragen, so dass die TSVs auf der nun oberen Seite des Interposers erreichbar werden. Horizontale Kupferverbindungen werden im folgenden Arbeitsschritt aufgetragen. Diese werden später die per C4-Verfahren aufgebrachten bumps aufnehmen und komplettieren damit die Verbindungen durch den Interposer.
http://www.hardwareluxx.de/media/jphoto/artikel-galerien/amd-fiji-interposer-technologie/amd-furyx-interposer-15-950x530.jpg
Die eigentlichen bumps, also Kontaktpunkte bestehen aus Zin-Silber und werden ebenfalls in der Montageform C4 angebracht. Dies beschreibt ein industrielles Verfahren, auf das wir nicht näher eingehen wollen. Sie befinden sich damit auf der Rückseite des Interposers. Nach einer erneuten 180 ° Drehung befinden sich die Schichten wieder in der final vorgesehenen Ausrichtung und werden auf das Package Substrat, welches keinerlei elektrische Eigenschaften besitzt, aufgebracht.

OBrian
2015-06-26, 01:37:11
ja super Leute. Mit dem Kindergartenverhalten sind wir auch ganz schnell auf Seite 500 dieses Threads, ohne das was lesenswertes dazu gekommen ist. :facepalm:

HOT
2015-07-05, 15:44:15
Hm, ob AMD nur einen 14nm Chip macht? Also dass man dann weiter auf den alten Dingern sitzen bleibt? Dass Fiji bleibt halte ich für obligatorisch, die werden ihr 500mm²-Design nicht einfach nach einem Jahr wegwerfen. Für die 400-Serie wären also mehrere Scenarien denkbar:
Wenn Greenland relativ früh kommt (also zusammen mit Zen ungefähr oder gar vor Zen) wird man sicherlich noch keine Serie präsent haben. 14nm bedeutet ja verdoppelte Mannstunden bei der Chipentwicklung. Man müsste also ne Eierlegende Wollmilchsau bauen für kleine Märkte. Andererseits ist ein ungünstig großer Chip auch ein Problem in 14nm, da die Fertigung selbst ja auch exrem mehr kostet als 28nm, man kann also mit den Preisen nicht in gewünschte Regionen. Das alles Probleme.
Daher nehme ich an, dass man die 28nm weiterhin beibehält in kleineren Märkten. Die Frage ist halt auch hier wieder, welchselt man nach GloFo? 22nm (hieß mal 28nm GF FDSOI) soll ab Mitte 2016 produktionsreif sein und der ist sogar billiger im Design und Produktion bei höherer Effizienz (deutlich weniger Leakage) als 28nm, jedenfalls nach eigenen Aussagen.
Es sind also 3(4) Scenarien denkbar:

Greenland
Fiji + HBM2
darunter:
alte 28nm-Garde, erneut Hawaii, Tonga, Pitcairn (zum 4. dann)
ODER
neue 22nm-Garde, wahrscheinlich zwei Chips (HBM2 oder nicht?) als Ersatz für die 3 vorgenannten
ODER
1-2 Chips 14nm mit HBM2
ODER
1-2 Chips 16nm mit HBM2

Nakai
2015-07-05, 16:57:53
Die werden wohl versuchen, so wenig Chips wie nur möglich zu entwickeln. Womöglich hat man Fiji rausgebracht, um endlich Hbm zu liefern. Der nächste Schritt sind zwei Gpus auf dem selben Interposer.

Botcruscher
2015-07-05, 17:06:02
Die Story mit den zwei Chips ist ja seit R600 ein Dauerbrenner.

Nakai
2015-07-05, 18:17:09
Die Story mit den zwei Chips ist ja seit R600 ein Dauerbrenner.

Naja mit dem Interposer sollte es endlich möglich sein, Chips mit extrem hoher Bandbreite und geringer Latenz anzubinden.

http://www.xilinx.com/support/documentation/white_papers/wp380_Stacked_Silicon_Interconnect_Technology.pdf

Für FPGAs mit ihrer extrem hohen Marge ist natürlich etwas anderes. Der Interconnect bei einem FPGA ist natürlich etwas anderes.

Das wird der nächste Schritt werden. Ob es bereits bei der nächsten Iteration kommen wird, bleibt abzusehen, aber es wird irgendwann kommen.

Mit einem FF-Prozess hat man die doppelte Packdichte. Selbstverständlich werden wir mehrere Produkte sehen. Man braucht einen Pitcairn-Nachfolger und ein neues Highend-Modell. Im LowCost-Sektor wird auch ein neuer Chip benötigt. Ich zähle drei Designs.

Nur zur Info Anfang 2016 laufen zwei Embedded-GPUs seitens AMD aus, welche noch auf Terascale gesetzt haben. Capeverde läuft noch bis 2020, dennoch wäre damit Platz für ein neues Modell.

Mehr als 3 neue GPUs kann ich mir nicht vorstellen. Es werden eher zwei werden, der Rest wird mit Tonga+Fiji aufgefüllt. Also gibt es einen neuen TopDog und eine Budget-GPU.

OBrian
2015-07-05, 19:30:38
naja, möglich wäre wohl vieles, aber entscheidend ist ja, wie wirtschaftlich das ist.

Den großen Die von Fiji konnten sie jedenfalls gut bauen, da haben sie auch nicht gesagt, auf den Interposer packen wir zwei Dies mit je 2048 Shadern. Heißt also wohl, daß es besser ist, so viel wie möglich in einen Die zu packen und erst dann mehrere zu nehmen, wenn es nicht anders geht. Oder eben für Kleinserien.

Ich denke, für eine Server-APU könnte man ein GPU-Die einzeln dazubauen, zwischen CPU und GPU läßt sich wohl auch sinnvoll trennen (verschiedene Fertigungen, jeweils passend optimiert), und so eine Server-APU ist ja auch kein Millionenprodukt. Die GPU darauf wird also wohl etwas sein, was man auch auf einer normalen Grafikkarte verbaut.



Aber mal was anderes. Was kann man daraus ableiten, daß es in der 300er Serie viele Chips nur teildeaktiviert gibt? Als Geheimreserve in der Hinterhand, um Nvidia noch kontern zu können, eignet sich diese Vorgehensweise ja kaum, Pitcairn gab es ja schon in allen Varianten, jetzt aber auf einmal nicht mehr voll. Tonga gibt es auch voll zumindest in Apples, also kann sich Nvidia nicht nur ausrechnen, sondern auch real testen, wo ein Tonga XT landen würde.

Ich sehe die 370 als kurzfristigen Lückenfüller für ein halbes Jahr oder so, an der Stelle im Angebot gibt es ganz sicher zuerst einen neuen Chip.

Wenn man später mal Tonga XT mit 384 bit SI und 6 GB RAM freischaltet, könnte man Hawaii von unten anknabbern. Frage ist, lohnt sich das? Komplett ersetzen kann man Hawaii damit nicht, die Lücke zur Fury ist zu groß. Zu erwarten ist ja ein mittelgroßer Chip mit HBM, der unterhalb der Fury ansetzt, ich kann mir aber nicht ausmalen, wie stark der sinnvollerweise sein müßte. Ist er etwas schwächer als Hawaii, kann man Tonga damit überflüssig machen, ist er etwas stärker als Hawaii, dann wird Fury überflüssig (zumindest die ohne X und die Nano, die Fury X müßte dann von der teildeaktivierten Variante eines neuen High-End-Chips ersetzt werden).

Auf jeden Fall bin ich der festen Meinung, daß man in 14nm Chips bauen wird, die wieder gefühlt ewig durchhalten sollen, ähnlich wie Pitcairn. Wer weiß, wie lange man mit 14nm auskommen muß, im Zweifel sehr lange, Wechsel wird ja immer teurer. Muß also alles gut überlegt sein.

HOT
2015-07-05, 22:25:49
Für 2 Chips auf einem Interposer wird man eine ganz neue Archtiktur brauchen und es würde sicher auch noch schaden, wenn dann der Großteil in DX12 läuft. Ich würde sagen, ja, das kommt, aber das braucht sicher noch 2-3 Jahre.

Ravenhearth
2015-07-05, 22:34:07
naja, möglich wäre wohl vieles, aber entscheidend ist ja, wie wirtschaftlich das ist.

Den großen Die von Fiji konnten sie jedenfalls gut bauen, da haben sie auch nicht gesagt, auf den Interposer packen wir zwei Dies mit je 2048 Shadern. Heißt also wohl, daß es besser ist, so viel wie möglich in einen Die zu packen und erst dann mehrere zu nehmen, wenn es nicht anders geht. Oder eben für Kleinserien.


In Zukunft sind die Voraussetzungen aber andere. Zum einen wird die Interposer-Technologie immer ausgereifter und billiger werden, zum anderen ist ein 14nm-Design mehrfach so teuer wie ein 28nm-Design. In ein paar Jahren könnte sich das bereits lohnen.

fondness
2015-07-13, 18:02:42
AMD Working On An Entire Range of HBM GPUs To Follow Fiji And Fury Lineup

We’ve received information that AMD engineers are hard at work on a range of GPUs featuring stacked high bandwidth memory to follow Fiji. While Fiji is AMD’s first GPU to feature this new high bandwidth graphics memory standard, it certainly won’t be the last. The range will span top to bottom solutions featuring SK Hynix’s stacked high bandwidth memory, HBM for short. This new lineup will also serve as the vehicle by which AMD will introduce this new memory technology to the mobile segment with the company’s first ever set of HBM GPUs designed for notebooks.

AMD Has Priority Access To HBM2 Production Capacity And Is Aiming To Take Full Advantage Of It

Our sources have told us that AMD management has thrown significant weight behind this new range of graphics chips to accelerate its development and time to market. This is we’re told is to take advantage of a deal established with SK Hynix which gives AMD priority to HBM2 capacity which is going to be in limited supply initially. Capturing as much of the initial production capacity as possible would give AMD an edge against its main rival, Nvidia, going into the next generation of GPUs featuring second generation HBM technology. Which is exactly what the company is gunning for.

This fascinating dynamic is the result of AMD’s seven year involvement in the co-development of the High Bandwidth Memory JEDEC standard with its partner SK Hynix we’re told. Which is why AMD was the first company to introduce a product featuring HBM. And why the the first generation of the technology is exclusive to the company. It’s not clear whether SK Hynix will continue to give AMD priority access to production capacity with HBM3 and successive generations of the technology. Although AMD is clearly keen on leveraging its exclusivity deal with SK Hynix in the here and now.

http://wccftech.com/amd-working-entire-range-hbm-gpus-follow-fiji-fury-lineup/

maguumo
2015-07-13, 18:13:04
Das gibt's nicht auch von ner Seite die ihre Glaubwürdigkeit nicht dermaßen mit Clickbait Shit zerschossen hat, oder?

Schön wär's, falls es wahr ist... 4 neue Chips erwarte ich eigentlich auch, das 28nm Zeugs muss mindestens bis Pitcairn weg, darunter kommt man womöglich noch mit Bonaire und Konsorten weg.

HOT
2015-07-13, 18:30:35
Wenn die Top to Bottom HBM machen wollen, muss ja alles bis auf Fiji (mit Ausnahme vllt. von Oland und Caicos) weg. Ist nur die Frage in welchem Prozess die neuen Chips dann alle erscheinen.
Aber das erklärt auch, warum AMD nochmal alles andere aufwärmt. Warum dieses Jahr neue Chips bringen, wenn man nächstes Jahr sowieso neue bringen will?

maguumo
2015-07-13, 18:35:05
Wenn die Top to Bottom HBM machen wollen, muss ja alles bis auf Fiji (mit Ausnahme vllt. von Oland und Caicos) weg. Ist nur die Frage in welchem Prozess die neuen Chips dann alle erscheinen.
Aber das erklärt auch, warum AMD nochmal alles andere aufwärmt.
Ich verstehe immer noch nicht wie du auf die Idee kommst das Fiji weiter verwendet werden könnte. Wann hat man das je bei einem Sprung auf die nächste Node gemacht? Dieses "Effizienz ist nicht so wichtig solange es leise ist" Argument zieht nicht mehr wenn die gleiche Perfoemance zum halben Verbrauch möglich ist, da kann 28nm noch so günstig sein.

EDIT: Zumal Fiji immer mehr nach einer Kompromisslösung aussieht. Unter 4K schwächer als GM200, dann kommt vielleicht noch VR als Paradedisziplin...

AffenJack
2015-07-13, 19:22:44
Das gibt's nicht auch von ner Seite die ihre Glaubwürdigkeit nicht dermaßen mit Clickbait Shit zerschossen hat, oder?

Schön wär's, falls es wahr ist... 4 neue Chips erwarte ich eigentlich auch, das 28nm Zeugs muss mindestens bis Pitcairn weg, darunter kommt man womöglich noch mit Bonaire und Konsorten weg.

4 Chips kannst du völlig vergessen. Amd hat nicht das Geld um 4 Finfet Gpus gleichzeitig zu launchen. Die Designkosten sind da einfach viel zu stark explodiert, denke nichtmal Nv wird sich das leisten. Erwarte in 2016 erstmal 2 Chips. 1 mal "Fiji" mit verdoppelten Frontend, Architekturoptimierungen und hohem DP. Da landet man schon bei 350 mm² und höher wird man am Anfang nicht gehen. Dann als 2ter Chip irgendwas kleineres was auch bei Notebooks einschlagen muss. Anfang 2017 dann erst nen 3te Gpu, außer man konnte die gesparten Gelder dieses Jahr gut investieren um die 3te Gpu noch früher zu bringen. Da man aber gleichzeitig noch Zen hat, zweifle ich einfach dass man soviel in kurzer Zeit bringen kann.

Ravenhearth
2015-07-13, 19:24:16
Fiji würde gegen alles in 14nm bei der Effizienz einfach nur abstinken, wenn AMD sein Versprechen der verdoppelten Energieeffizienz wahr macht. Zumal so eine Karte mit 600mm²-Chip, extrem fettem Interposer, HBM und großer Kühlung auch nicht unbedingt billig ist, und billiger müsste Fiji dann werden. Der steht dann einfach nicht gut dar, und DP hat er auch nicht.

@AffenJack: Dito. Ich fände einen Tonga in 14nm mit HBM (4xFront-End, 32 CUs, 32 ROPs, 1024 Bit, 4GB, <100W) als Mainstream/Notebook-Chip sehr sinnig, im Performance-Bereich verdoppelt man ihn dann und verpasst ihm 1:2 DP (8xFront-End, 64 CUs, 64 ROPs, 2048 Bit, 8GB, <200W). Fertig.

maguumo
2015-07-13, 19:35:24
Ich weiß nicht wie der Designprozess abläuft, aber kann man nicht "vorarbeiten? Seit Hawaii haben nur Tonga, Fiji und Carrizo das Licht der Welt gesehen, erscheint mir wenig für den Zeitraum. In der Zwischenzeit hat Nvidia mit Maxwell 4 neue Chips gebracht, und eine Architektur die mit Pascal wieder zu großen Teilen über den Haufen geworfen wird. So massiv kann AMDs GPU R&D doch nicht zurückliegen?

EDIT: Doppelter Tonga+ein paar Verbesserungen+HBM mit 1/2 FP64? Man wird nächstes Jahr schon ein Gegenstück zu GP110 brauchen, oder nicht? Da massig HPC relevanten Krams in einen neuen Performance Chip zu stecken halte ich für unnötig...

Nightspider
2015-07-13, 19:46:42
4 Chips kannst du völlig vergessen. Amd hat nicht das Geld um 4 Finfet Gpus gleichzeitig zu launchen. Die Designkosten sind da einfach viel zu stark explodiert, denke nichtmal Nv wird sich das leisten. Erwarte in 2016 erstmal 2 Chips. 1 mal "Fiji" mit verdoppelten Frontend, Architekturoptimierungen und hohem DP. Da landet man schon bei 350 mm² und höher wird man am Anfang nicht gehen. Dann als 2ter Chip irgendwas kleineres was auch bei Notebooks einschlagen muss. Anfang 2017 dann erst nen 3te Gpu, außer man konnte die gesparten Gelder dieses Jahr gut investieren um die 3te Gpu noch früher zu bringen. Da man aber gleichzeitig noch Zen hat, zweifle ich einfach dass man soviel in kurzer Zeit bringen kann.

Wie kommst du darauf das Nvidia sich das nicht leisten kann? Hat Nvidia denn bisher irgendwo GPUs fehlen lassen?

AMD hat die letzten 2 Jahre massiv gespart weil sie keine neuen GPUs aufgelegt haben. Wieso sollten sie die Zeit nicht schon für 14nm Chips genutzt und das Geld dafür gespart haben?

Eine komplette 14nm Linie ist sehr wichtig um zu überlegen. In 28nm waren die Unterschiede zu Nvidia noch nicht so stark das man sie nicht hätte mit dem Preis regeln können. Aber Nvidia das komplette 14nm Feld zu überlassen kann sich AMD nicht leisten. Auf die 14nm Generation warten viele einfach schon zu lange. Und auch wenn der Prozess nicht billig wird so bietet er trotzdem enorme Vorteile.

Falls es stimmt und AMD tatsächlich deutlich mehr HBM Chips bekommt als Nvidia dann könnte AMD HBM Speicher selbst bei kleinen Mainstream-GPUs im 200mm² Bereich verwenden und auch dort die Vorteile bei der Geschwindigkeit, beim Stromverbrauch und Platzverbrauch ausspielen. Gerade in Notebooks hätte sowas auch enorme Vorteile.

Am Donnerstag könnten wir dazu vllt schon mehr erfahren wenn der Quartalsbericht kommt.

StefanV
2015-07-13, 19:49:11
Ich verstehe immer noch nicht wie du auf die Idee kommst das Fiji weiter verwendet werden könnte. Wann hat man das je bei einem Sprung auf die nächste Node gemacht? Dieses "Effizienz ist nicht so wichtig solange es leise ist" Argument zieht nicht mehr wenn die gleiche Perfoemance zum halben Verbrauch möglich ist, da kann 28nm noch so günstig sein.
Warten wir am besten erst mal auf die Nano, bei der ja eine TDP von deutlich unter 200W angepeilt sind.
Die aktuellen sind ja die Performance Karten...

Sprich:
Wenn man den Chip wirklich stark auf Effizienz auslegt, dürfte auch noch so einiges möglich sein, bei trotzdem guter Performance.

Die Frage ist halt, in welchen Preisbereich man Fiji hieven kann und ob es wirklich Sinnvoll wäre, den als 'lower midrange' Chip für um die 250€ zu behalten oder ob es dafür nicht bessere gibt...

Botcruscher
2015-07-13, 19:50:18
Die Frage ist doch nicht ob 14nm sondern wann. Der Prozess muss quasi ewig halten.

Nightspider
2015-07-13, 19:55:05
Die Frage ist doch nicht ob 14nm sondern wann. Der Prozess muss quasi ewig halten.

Nicht so lange wie der 28nm Prozess. 10nm ist ha der nächste Fullnode während man beim Schritt von 28nm auf 14nm ja einen Schritt ausgelassen hat.

Falls sich das ändert werden AMD und Nvidia eh wieder Chips neu auflegen.

HOT
2015-07-13, 19:59:11
Ich nehme auch an, dass es keine 4 Chips werden sondern wenn dann eher 3. Und ich denke doch, dass AMD 3 Chips hinbekommen würde. Mit Summit Ridge sind das denn eben 4.
Zudem kann es natürlich sein, dass Fiji dann wieder aussortiert wird. Dieser entspricht offenbar der maximalen GCN1-Konfig als HBM-Test quasi. Die FinFET-Chips sind sicherlich deutlich weiter. So ein 600mm²-Monster ist ja jetzt auch kein Modell, was man ins Mainstreamsegment rutschen lässt.
Ich könnt mir höchstens vorstellen, dass der oder die kleineren neuen Grafikchips nicht 14nm sind sondern vielleicht 28nm bleiben, aufgrund der hohen Kosten.

Ravenhearth
2015-07-13, 20:09:59
In der Zwischenzeit hat Nvidia mit Maxwell 4 neue Chips gebracht, und eine Architektur die mit Pascal wieder zu großen Teilen über den Haufen geworfen wird.

So viel anders wird Pascal nicht. Das ist im Prinzip wohl Maxwell+FP16+HBM+16nm+1:2DP, aber an der grundlegenden Architektur ändert sich kaum etwas.


EDIT: Doppelter Tonga+ein paar Verbesserungen+HBM mit 1/2 FP64? Man wird nächstes Jahr schon ein Gegenstück zu GP110 brauchen, oder nicht? Da massig HPC relevanten Krams in einen neuen Performance Chip zu stecken halte ich für unnötig...

So ein Chip hätte auch schon wieder 350mm², das wäre Tahiti-Größe. Es könnte natürlich sein, dass AMD von Beginn an richtig mit GP110 konkurrieren will, aber ich erwarte zu Beginn eher einen kleineren Chip, da passt ein doppelter Tonga + DP schon.

Duplex
2015-07-13, 20:13:31
Ich finde die Anzahl der DIEs ist nicht das entscheidende, AMD braucht endlich Chips die effizienter und schneller als Nvidia Chips sind, alles andere wird im Markt nicht gut ankommen.
HBM finde ich bis jetzt auch nicht interessant, ich kann aktuell keine AMD Chips empfehlen, im High-End Markt verkauft Nvidia fast 80% der Chips, AMDs Absatz ist richtig runter gegangen, Fury ist uninteressant.

maguumo
2015-07-13, 20:27:03
An der Effizienz werden sie schon noch was drehen. Haben sie mit Carrizo ja schon...

HOT
2015-07-13, 20:29:18
An der Effizienz werden sie schon noch was drehen. Haben sie mit Carrizo ja schon...
Und an Fiji sieht man es ja auch. Ein Chip wie Hawaii mit 1/3 mehr Shadern und weniger Verbrauch...

maguumo
2015-07-13, 20:34:21
Und an Fiji sieht man es ja auch. Ein Chip wie Hawaii mit 1/3 mehr Shadern und weniger Verbrauch...

Wenn der voll ausgelastete wird schluckt er auch ziemlich, ob sich da so viel an der Effizienz getan hat weiß ich nicht. Das Front End scheint halt ziemlich zu limitieren, und HBM spart auch schon Strom...

Laut THG/Igor Wallossek soll Fiji schneller die anliegende Spannung Maxwell regeln, da sieht man aber nicht besonders viel von... Ist vielleicht einfach noch nicht ähnlich granulär...

samm
2015-07-13, 22:01:53
Wenn der voll ausgelastete wird schluckt er auch ziemlich, ob sich da so viel an der Effizienz getan hat weiß ich nicht.Jepp, weil AMD offenbar die Obergrenze des Verbrauchs nicht limitiert hat, am deutlichsten an den "Powerviren" sichtbar. In den andern Fällen gibt es für die gleiche Abwärme mehr Leistung als Hawaii, oder gleiche Leistung bei weniger Abwärme. Hat sich schon was an der Effizienz getan.

Nakai
2015-07-13, 22:09:27
AMD muss erstmal das Frontend richtig gebacken bekommen. AMD hat für verschiedene Frontends(einfach, zwei, vierfach) wohl unterschiedliche IPs. Das muss skalierbar gemacht werden, wie NV. Dann muss der Interconnect entschlackt werden.

HOT
2015-07-13, 22:15:30
Das Frontend wird sicherlich bei der 14nm Generation ganz anders aussehen. So richtig viel, außer die Verdopplung bei Hawaii, hat sich da seit Tahiti ja auch nicht wirklich getan, oder? Da muss mal mindestens die 4-Fache Tesselationspower her als bei Hawaii/Tonga/Fiji, wenn man das auch in Zukunft bei weiteren Chips nutzen möchte. AMD macht ja irgendwie alles modular.
Fiji macht auf mich jedenfalls den Eindruck, dass diese 4-Fache Ordnung offenbar erst mal das Ende der Fahnenstange ist und 16 CUs sind sicherlich das sinnvolle Maximum. Im Grunde ist Fiji ein doppelter Tahiti mit modernem Featureset. Es macht ebenfalls den Eindruck, als hätte man alles, was bis dahin entwickelt wurde, in einem Chip zusammengefasst und HBM hinzugefügt. Fiji ist das GCN1-"Meisterwerk". Zeit für GCN2 in 14nm LPP GloFo.

Nakai
2015-07-13, 22:27:37
Das was du von Fiji denkst, denke ich auch von Tonga.

AMD muss das Frontend wirklich mal frei skalierbar hinbekommen. Dann sollten die CUs in größere Blöcke zusammengefasst werden, um die Interconnect-Logik zu entkomplizieren. Also was ich mir vorstellen würde, sind neue CUs, welche eine Kapazität von derzeit 4 CUs umfassen, nur mit dem Unterschied, dass es nicht mehr soviele Interconnect-Nodes gibt. Also noch einen für L2-R/W und eben jeweils einen für skalar data und vector instructions.
Also statt 6 Ports, eben 3 Ports.

HOT
2015-07-13, 22:30:15
Tonga ist ein halber Fiji - 8 statt 16CUs. Die beiden Chips dürften zusammen entwickelt worden sein, wahrscheinlich tatsächlich mit dem Ziel, Bonaire und Hawaii zu ergänzen. Bei Fiji kam noch HBM und Interposer dazu, deshalb war er soviel später soweit. Ich würde sagen, dass Hawaii, Tonga und Fiji zur gleichen "Familie" gehören. Man könnte quasi sagen, dass Tahiti, Pitcairn, CapVerde und Oland eigentlich Southern Islands sind und Bonaire, Tonga, Hawaii und Fiji die eigentlichen Sea Islands.

Locuza
2015-07-13, 23:53:34
Tonga ist ein halber Fiji - 8 statt 16CUs. Die beiden Chips dürften zusammen entwickelt worden sein, wahrscheinlich tatsächlich mit dem Ziel, Bonaire und Hawaii zu ergänzen. Bei Fiji kam noch HBM und Interposer dazu, deshalb war er soviel später soweit. Ich würde sagen, dass Hawaii, Tonga und Fiji zur gleichen "Familie" gehören. Man könnte quasi sagen, dass Tahiti, Pitcairn, CapVerde und Oland eigentlich Southern Islands sind und Bonaire, Tonga, Hawaii und Fiji die eigentlichen Sea Islands.
Ganz halb ist Tonga nicht, dass Front-End hat die gleiche Größe.
Ich weiß nicht wie du darauf kommst Hawaii und Bonaire mit Tonga und Fiji in eine Familie zu stecken.
Technisch sind die ersten zwei Sea Islands/ GCN Gen 2/ IP v7, dagegen Tonga und Fiji Volcanic Islands / GCN Gen 3 / IP v8.

Nakai
2015-07-14, 00:19:03
Tonga ist ein halber Fiji - 8 statt 16CUs. Die beiden Chips dürften zusammen entwickelt worden sein, wahrscheinlich tatsächlich mit dem Ziel, Bonaire und Hawaii zu ergänzen. Bei Fiji kam noch HBM und Interposer dazu, deshalb war er soviel später soweit. Ich würde sagen, dass Hawaii, Tonga und Fiji zur gleichen "Familie" gehören. Man könnte quasi sagen, dass Tahiti, Pitcairn, CapVerde und Oland eigentlich Southern Islands sind und Bonaire, Tonga, Hawaii und Fiji die eigentlichen Sea Islands.

Ja, Fiji und Tonga wurden zusammenentwickelt.

Das Tonga/Fiji-Frontend ist jedoch schon stark überarbeitet worden. AMD muss definitiv die CUs und den Interconnect überarbeiten. Das zieht aber viele andere Konsequenzen mit sich. Einfach mal die Bus-Breiten ändert ist in einem Chipdesign mit verdammt viel Arbeit verbunden. Selbstverständlich wird das alles höchst generisch entwickelt worden sein, aber die richtige Balance zu finden wird aufwändig sein. So oder so, will man effektiver werden, müssen die CUs dramatisch umgekrempelt werden.

N0Thing
2015-07-14, 01:09:27
Ich könnte mir vorstellen, dass Fiji ursprünglich mal für einen 20nm Prozess geplant war und man den Chip auf 28nm transferieren musste, nachdem klar war, dass Fiji unter 20nm nicht rentabel gewesen wäre.

Ich hoffe inständig, dass AMD mit der nächsten Generation mehr bringen wird, als einen groben Shrink der bekannten Chips.

StefanV
2015-07-14, 01:34:44
Ja, Fiji und Tonga wurden zusammenentwickelt.

Das Tonga/Fiji-Frontend ist jedoch schon stark überarbeitet worden. AMD muss definitiv die CUs und den Interconnect überarbeiten. Das zieht aber viele andere Konsequenzen mit sich. Einfach mal die Bus-Breiten ändert ist in einem Chipdesign mit verdammt viel Arbeit verbunden. Selbstverständlich wird das alles höchst generisch entwickelt worden sein, aber die richtige Balance zu finden wird aufwändig sein. So oder so, will man effektiver werden, müssen die CUs dramatisch umgekrempelt werden.
AMD könnts ja so machen, wie nVidia und einfach mal alle crossbars rausschmeißen...

Aber warten wir mal ab, wie es in ein paar Wochen ausschaut.
Bisher war es öfter so, dass die AMD/ATI Designs im Alter ordentlich zugelegt haben und damit eine deutlich bessere halbwertzeit als 'die anderen' hatten...

robbitop
2015-07-14, 09:21:25
Ich würde vermuten, dass das Front End auch bei heutigen GCNs skalilerbar ist. AMD hat aber offensichtlich andere Prioritäten gesetzt als NV.
AMD wollte offenbar so viele wie mögliche CUs in die DIEs reinbekommen. Das dann eben auf Kosten des Front-Ends. Ist für niedrige Auflösungen schlecht - bei hohen Auflösungen (bzw. hoher Pixellast im Vergleich zur Geometrielast) aber egal.

Da Tesselation in der Praxis offenbar immer wichtiger wird (und wenn's hauptsächlich durch Gameworks so aussieht), wird man dann den Fokus ein wenig mehr auf das Front-End legen.

Ist aber IMO kein GCN 1.x spezifisches Problem, sondern nur eine Frage der Balance der jeweiligen Einheiten.

Bei Fijii war es ja extrem zu sehen. Da hat man so viele CUs reingepresst in die 600 sqmm, wie nur irgendmöglich. Auf Kosten von Front- und Backend. In 4K hingegen völlig zweitrangig. Nur blöd, dass man nur 4 GiB HBM hat.

Wo IMO eher Nachholbedarf seitens der HW ist:

- Speicherinterface (dort scheint NV seit Maxwell einen enormen Sprung gemacht zu haben - AMD nicht)
- Füttern der ALUs -> Scheduler, Commandprozessor, Caches (Maxwell!)

Wenn ich AMD wäre, würde ich dort investieren, und die GPUs etwas anders balancen.

Außerdem sollte man zu Iceland besser die Treiberabteilung etwas besser ausstatten. Die Masse steht auf Gameready Treiber. Sowas wie bei Project Cars (egal wessen Schuld es sein mag) geht gar nicht. Spiele, die extreme Ausreißer darstellen. Das ist sowas von Gift für den Ruf.
Und idealerweise nicht immer stückchenmäßig nachreichen, sondern proaktiv sofort bringen. Zum Spielelaunch.
Auch soetwas wie NVs DX11 Optimierung - sowas darf nicht erst 1 Jahr später kommen.

Auch AMDs VSR ist viel zu unflexibel.

Offenbar fehlt es AMDs Treiberabteilung hinten und vorn an guten Leuten. -> einstellen. IMO eine gute Investition.

Und dann zum Launch weiterhin bei guten Kühlern bleiben - vom Prinzip war der Gedanke mit Fijii gut gemeint. Aber eben nicht sauber bis zuende durchgehalten. Das muss professioneller werden.

Hübie
2015-07-14, 09:39:55
Das unterschreibe ich so. AMDs GCN Frontend ist nur nicht so granular skalierbar, schätz ich. Es fehlen aber zuviele Details um das bestimmen zu können.

Sunrise
2015-07-14, 10:15:40
Das unterschreibe ich so. AMDs GCN Frontend ist nur nicht so granular skalierbar, schätz ich. Es fehlen aber zuviele Details um das bestimmen zu können.
Evtl. gibts ja auf der Hotchips am 2. Tag mehr Details, allerdings ist die Zeit wirklich sehr knapp, da kommen hoffentlich noch ein paar mehr Folien, dann könnte man da auch bzgl. Spekulationen die Sache besser einschätzen.

Früher hatte man ja Interviews bei beyond3d (von Dave und Co.) und/oder Rage3D z.B. mit Eric, da wurden dann auch die wirklich interessanten Details ausgegraben.

Duplex
2015-07-14, 10:17:33
AMDs Frontends waren doch schon immer schwach ausgelegt, sowohl im GPU als auch im CPU Bereich hat man permanent massive Schwachstellen im Frontend gefunden.
Ich glaube nicht das sich viel ändern wird beim nächsten Shrink auf 16FF+/14nm.
Die werden einfach die Einheiten verdoppeln und das Design vielleicht 25% effizienter machen, 8192 Shader beim Top Modell mit HBM2, damit wird man mitte 2016 mind. 80% auf Fury X drauflegen können. Aber beeindrucken können die mich damit nicht, genauso wie Fury X, Nvidia ist mit GM200 deutlich besser aufgestellt, eine gute Karte braucht keine Wasserkühlung ab Werk.

Spasstiger
2015-07-14, 10:19:32
Bei Fiji muss aber noch mehr im Argen sein als nur das Frontend. Sonst würde eine Chiptakterhöhung zu einer stärkeren Performanceerhöhung führen als man bei der Fury X sieht. Vielleicht klappt das Zusammenspiel mit dem HBM-Speicher noch nicht so gut wie erhofft. In welcher Taktdomäne läuft denn der L2-Cache, hat man sich hier vielleicht durch Kopplung an die Speichertaktdomäne (500 MHz bei HBM vs. 1500 MHz bei GDDR5) einen Engpass gebaut?

Duplex
2015-07-14, 10:22:03
Die Architektur muss unabhängig von HBM effizienter gemacht werden, Nvidia konnte bei Maxwell die Effizienz auch 50% gegenüber Kepler erhöhen.

Sunrise
2015-07-14, 10:24:57
@robbitop:
Ich denke das war einfach eine Platzfrage. Die Spekulationen mit 20nm waren insofern nicht komplett verkehrt, als das dies AMD mehr Platz gegeben hätte, jedoch war 20nm von Anfang an eine Totgeburt, weil für SoCs entwickelt und/oder uninteressant relativ zu den Mehrkosten bei größeren Dies. Da fehlen einfach gewisse Vorteile, die man in der Vergangenheit bei deutlich kleineren Strukturgrößen mitgenommen hatte. Fiji ergibt ja auch recht wenig Sinn, wenn er von der Rechenleistung nicht deutlich über Hawaii liegen würde. Man hat also quasi zwischendrin "STOP" rufen müssen, ansonsten wäre man da endlos in die Breite gegangen.

Ist halt immer ein Kompromiss. Wenn man allerdings auf 14/16nm wieder deutlich (in sämtliche Richtungen) mehr Spielraum hat, sollte es sich auch lohnen, hier grundlegende Änderungen einzuführen. Gerade Caches und Co. und die ganze Steuerungslogik (wenn man noch komplexer wird) sollte überarbeitet werden.

AMD hatte mit Fiji und direkten Nachfolgern es aber schon sehr lange so auf dem Plan, Fiji ist technologisch einfach nicht komplett fertig entwickelt. Da wurde einfach alles reingeklatscht, was man hatte, HBM angeflanscht und fertig war das Ding, um es mal plump auszudrücken. Da erwarte ich mehr schon seit letztem Jahr deutlich mehr von Arctic Islands, auch durch die Interposer-Geschichte (die ich aktuell noch stark bezweifle, im Sinne von vielen kleinen Cores), die ja gerademal so im 1. Gang angelaufen ist.

HOT
2015-07-14, 10:48:45
Ich könnte mir vorstellen, dass Fiji ursprünglich mal für einen 20nm Prozess geplant war und man den Chip auf 28nm transferieren musste, nachdem klar war, dass Fiji unter 20nm nicht rentabel gewesen wäre.

Ich hoffe inständig, dass AMD mit der nächsten Generation mehr bringen wird, als einen groben Shrink der bekannten Chips.
Was i.Ü. auch die Größe von Tonga erklären würde. AMD hat offenbar sehr viel auf 20nm gesetzt.

AMD könnts ja so machen, wie nVidia und einfach mal alle crossbars rausschmeißen...

Aber warten wir mal ab, wie es in ein paar Wochen ausschaut.
Bisher war es öfter so, dass die AMD/ATI Designs im Alter ordentlich zugelegt haben und damit eine deutlich bessere halbwertzeit als 'die anderen' hatten...
Das stimmt zwar, da mach ich mir aber über das Frontend doch Sorgen, ob das nicht anders kommt dieses mal.

Ravenhearth
2015-07-14, 12:34:58
Anandtech schreibt doch explizit, dass GCN aktuell nicht mehr als ein vierfaches Front-End unterstützt und dass größere Änderungen an der Architektur nötig sind.

robbitop
2015-07-14, 14:39:57
Aber Anand sind jetzt nicht gerade die Topadresse für GPU Wissen. Das wäre eher B3D oder hardware.fr. Insofern würde ich darauf nicht viel geben.

HOT
2015-07-14, 14:58:22
Die werden da schon irgendjemanden gefragt haben. Echte Falschaussagen gibts bei denen doch eher selten.

robbitop
2015-07-14, 15:00:56
Und wer weiß, wen sie gefragt haben. Selbst bei AMD werden das wohl nur ein Teil der Mitarbeiter wissen.

Am Ende spielt es keine Rolle. Es gibt keine GCN 1.x GPUs mit mehr als 4x Front-End und das wird sicher für die Nachfolge-µ-Arch einer der Punkte sein, der, wenn nötig, überarbeitet wird.

HOT
2015-07-14, 15:03:19
Die Frage ob das nötig ist stellt sich ja nicht ;). Allein die Tesselationsleistung macht das neue Frontend nötig.
Für 14nm musste eh einiges geändert werden schätz ich. Das dürfte dann das erste GCN-Update werden was die Bezeichnung "2.0" auch verdient.

Ravenhearth
2015-07-14, 15:05:54
Ja, eben. Die saugen sich das auch nicht aus den Fingern.

robbitop
2015-07-15, 08:29:22
Am Ende muss AMD die Tessleistung wegen Hairworks aufrüsten, welches in der Form entstanden ist, weil AMDs GPUs wenig Tessleistung hatten. :D
IMO ist das einfach irrsinnig.

Wenn breitflächig und sinnvoll eingesetzte Tesselation bei den GCNs zum Bottleneck würde, würde ich es verstehen. Nun muss man Transistoren, die man für CUs investieren hätte können, für etwas investieren, was wenig sinnvollen Mehrwert bringt.

G'schichten aus dem Paulanergarten die das Leben schreibt.

fondness
2015-07-15, 09:57:18
Da würde ich eher weiterhin die Ineffizienz von Hairworks in den Vordergrund stellen und zeigen was NV hier - im Endeffekt auch zum Nachteil der eigenen Kunden -aufführt. Nicht umsonst kommen bald erste Spielen mit TressFX3.0. Schon bei TressFX2.0 war die Sache ja relativ eindeutig, TressFX3.0 soll nochmal deutliche Performance-Verbesserungen bringen:

http://s9.postimg.org/dn6s1grpb/tfx_tr_perf.png (http://postimage.org/)

https://community.amd.com/community/gaming/blog/2015/05/12/tressfx-hair-cross-platform-and-v20

robbitop
2015-07-15, 10:04:25
Das nutzt nur vermutlich leider nichts. Im Endergebnis ist es wohl besser und einfacher, die Tessleistung zu steigern und man hat Ruhe. Vielleicht bringt es dann auch was für zukünftige Spiele die tasächlich viel und sinnvolle Tesselation nutzen. Ist ja wie jede Rendertechnik ein Henne-Ei Problem.

Ich denke da z.B. an Tesselation für LOD Übergänge.

Idealerweise erhält GCN 2.0 ähnliche Änderungen wie Maxwell ggü Kepler.

fondness
2015-07-15, 10:09:13
Tesslation ist wohl nach wie vor zu umständlich zu implementieren zumindest wenn man es gut machen will, und kostet auch auf sehr guter Tesshardware wie der von NV relativ (zu) viel Leistung. Zumindest war das der Tenor als ich ein paar Entwickler fragte warum es nicht wirklich eingesetzt wird. Henne-Ei-Problem lasse ich da nicht gelten, denn zumindest bis 16x ist die AMD-Hardware mehr als nur konkurrenzfähig, 32x und 64x macht im Wahrheit eh nur für Ausnahmen Sinn.

robbitop
2015-07-15, 10:11:25
Es wird doch aber einen Grund geben, warum NVs GPUs seit Fermi relativ viel Tessleistung haben.

fondness
2015-07-15, 10:17:23
NV hatte bis Fermi nur eine sehr niedrige Geometrieleistung, halb so hoch wie ATi, und hat das Problem dann mit Fermi regelrecht erschlagen. In Wahrheit hat sich seither auch bei NV aber wenig bis nichts getan. Jetzt versucht man durch eigene Features, die man zwanghaft mit Tesslation implementiert irgendwie einen Vorteil daraus zu generieren. Aber solange sich am grundlegenden Problem, das es die Entwickler nicht wirklich einsetzen wollen nichts ändert, ist es IMO die Transistoren nicht wert. DX11 ist schon 6 Jahre alt....

Hübie
2015-07-15, 10:43:02
Welche Spiele nutzen eigentlich TressFX? Kenne nur Tomb Raider aus dem Jahr 2013. :|

fondness
2015-07-15, 10:47:31
TressFX 1.0 AFAIK nur TombRaider, bzw. 2.0 auf den Konsolen. TressFX2.2(?) verwendet auch noch Lichdom. TressFX3.0 wird wohl zumindest Rise of the TombRaider und Deus Ex Universe verwenden.

Skysnake
2015-07-15, 12:33:39
Ich werfe mal für Produkte (Ankündigungen) Ende Q1/16 in den Raum. Ihr könnte dann gerne kommen und mir sagen, wie weit ich daneben lag.

Locuza
2015-07-15, 13:35:52
Das nutzt nur vermutlich leider nichts. Im Endergebnis ist es wohl besser und einfacher, die Tessleistung zu steigern und man hat Ruhe. Vielleicht bringt es dann auch was für zukünftige Spiele die tasächlich viel und sinnvolle Tesselation nutzen. Ist ja wie jede Rendertechnik ein Henne-Ei Problem.
Solange es die Konsolen mit GCN Gen 2 gibt, könnte man weiterhin relativ sparsam an der Stelle investieren.

Idealerweise erhält GCN 2.0 ähnliche Änderungen wie Maxwell ggü Kepler.
Idealerweise verbessert AMD ihre Software-Abteilung, dass bringt vielleicht sogar mehr. :redface:

TressFX 1.0 AFAIK nur TombRaider, bzw. 2.0 auf den Konsolen. TressFX2.2(?) verwendet auch noch Lichdom. TressFX3.0 wird wohl zumindest Rise of the TombRaider und Deus Ex Universe verwenden.
Die Konsolen verwenden offiziell keine konkrete Nummerierung.
Lichdom wurde als erster TressFX 2.0 Titel angekündigt.

Rise of the TombRaider verwendet abermals TressFX, aber ich bin gespannt ob es dort irgendwann eine klare Aussage geben wird.
Ob es eine eigenständige Implementierung und Verbesserung darstellt oder praktisch Stock TressFX 3.0 von AMD.

robbitop
2015-07-15, 13:37:44
Idealerweise verbessert man beides. Treiber und Hardware. ;)

y33H@
2015-07-17, 10:53:21
We have actually just taped out our first couple of FinFET designs
http://seekingalpha.com/article/3332615-advanced-micro-devices-amd-lisa-t-su-on-q2-2015-results-earnings-call-transcript?auth_param=ed0hk:1aqgnlj:c5e89043a1dcc2e42b64ffa5782e479d

Grabhopser
2015-07-17, 11:20:36
Im Sinne von AMD sollte man wohl hoffen, dass es sich hierbei um ZEN Derivate handelt. :D

„couple“ klingt aber zumindest danach, dass man ein komplettes Line-up auflegen will.

robbitop
2015-07-17, 11:24:45
Wegen "couple" würde ich fast vermuten, dass es sich um einen Arctic Island handelt. Vielleicht aber auch nur ein "Pipecleaner".

Sunrise
2015-07-17, 12:01:53
http://seekingalpha.com/article/3332615-advanced-micro-devices-amd-lisa-t-su-on-q2-2015-results-earnings-call-transcript?auth_param=ed0hk:1aqgnlj:c5e89043a1dcc2e42b64ffa5782e479d
Für mich der wichtigste Teil:

I think the important thing is ensuring that we get our product portfolio into FinFET technology next year, which will improve our overall competitiveness.

Zusammen mit den von dir genannten TapeOuts will AMD also schnellstmöglich alles mit aktueller Fertigung erneuern.

Hier wird sie sogar noch genauer:

We will be bringing different parts of the product line into FinFET at different points in time, so I don't think I have an exact answer for that. I think what we've said is graphics will certainly utilize FinFETs as well as our new Zen processors and so they will roll out over the quarters in 2016.

StefanV
2015-07-17, 12:08:39
Joa, alles andere würd ja auch nicht soo viel Sinn machen...

M4xw0lf
2015-07-17, 12:17:13
Endlich wieder neue Fertigung, das macht alles spannender :ucatch:

Flusher
2015-07-17, 12:22:45
Sehr viel spannender wird, dass AMD und NVIDIA erstmals seit Ewigkeiten auf unterschiedliche Fertiger setzen.

Imho ein risikoreiches Spiel das AMD treibt - neue Fertigung, neuer Fertiger und dann auch noch neue Architektur. Wenns schief läuft, wäre das der Todesstoss für AMD.

Andererseits sind die möglichen Gewinne umso höher.

Sunrise
2015-07-17, 12:35:29
Sehr viel spannender wird, dass AMD und NVIDIA erstmals seit Ewigkeiten auf unterschiedliche Fertiger setzen.

Imho ein risikoreiches Spiel das AMD treibt - neue Fertigung, neuer Fertiger und dann auch noch neue Architektur. Wenns schief läuft, wäre das der Todesstoss für AMD.

Andererseits sind die möglichen Gewinne umso höher.
Richtig, jedoch ist das für AMD bzw. ATi früher eigentlich immer "normal" gewesen. 28nm ist eine sehr große Ausnahme, weil dort eine riesige Lücke zu 14- bzw. 16nm entstand. Tahiti war z.B. extrem früh auf 28nm, das war jetzt schon vor etlichen Jahren. Früher war AMD auch immer extrem schnell mit dem Fertigungssprung, auch wenn es da finanziell noch etwas besser aussah.

Das Umfeld um AMD ist aber besser denn je, denn sie haben wieder eine aktuelle Fertigung nahe bei sich (GF), sie haben jetzt alle Grundlagen für die Massenfertigung und den R&D-Vorsprung bzgl. Interposer und HBM in der Tasche und jetzt muss man eben schauen, dass die weiterhin auf GCN aufbauenden Designs nächstes Jahr schnellstmöglich in die Massenproduktion gehen, inkl. aktuellem Featureset und natürlich auch die restliche IP, die nachgezogen werden muss. CPUs sind natürlich noch wichtiger, aber AMD muss jetzt unbedingt den Vorteil nutzen, den sie im aktuellen Umfeld auch ausspielen können. Sofern da also nichts schief geht, erwarte ich von AMD relativ früh bestimmte Arctic Islands, die das Portfolio massiv verstärken werden.

Leider ist da aktuell noch eine große Unbekannte, nämlich HBM2 (bzw. die nächste HBM-Generation), bei der man aktuell wohl auf Hynix angewiesen ist. Zumindest solange, bis hier keine Fakten auf einen alternativen Fertiger hinweisen, außer ein paar lapidare Aussagen im Netz.

fondness
2015-07-17, 12:44:08
Naja Lisa erwähnt nur FinFET, GPUs könnten also auch in 16nm TSMC kommen...

robbitop
2015-07-17, 13:04:15
Wollte ich auch meinen. Von GF14nm für GPUs war doch nie die Rede. Würde auch von TSMCs 16nm FF+ für GPUs ausgehen.

M4xw0lf
2015-07-17, 13:10:38
Wollte ich auch meinen. Von GF14nm für GPUs war doch nie die Rede. Würde auch von TSMCs 16nm FF+ für GPUs ausgehen.
Hm, bei GF bekäme AMD sicher eine Vorzugsbehandlung, statt sich hinter NV anstellen zu müssen.

fondness
2015-07-17, 13:18:59
Die Frage ist einzig und alleine, ob es sich lohnt, weiter zweigleisig zu fahren. Das verursacht ja natürlich auch zusätzliche Kosten, etc. wenn man bei zwei Foundries fertigt. Bisher hat es sich offenbar gelohnt.

y33H@
2015-07-17, 13:48:35
Der Deal sieht ja vor auch GPUs bei GloFo zu bauen, ich sage einfach mal, TSMC macht nur Pascal.

fondness
2015-07-17, 13:54:01
Ja, nur hört man das schon lange und passiert ist warum auch immer nichts.

HOT
2015-07-17, 13:56:58
Wollte ich auch meinen. Von GF14nm für GPUs war doch nie die Rede. Würde auch von TSMCs 16nm FF+ für GPUs ausgehen.
AMD selbst hat bisher nie 16nm erwähnt, es war immer von 14nm die Rede, egal bei welchem Produkt. Von daher würd ich zu 99% sagen, dass alle FinFET-Produkte von GloFo kommen werden. Vielleicht ist das auch kostentechnisch günstiger nur einen FF-Prozess für alle Produkte zu bieten, anstatt dann auch noch mit TSMCs 16nm anzufangen. Zeitlich passt das auch super zusammen, die finalen Tapeouts müssen auch jetzt erfolgen, damit die fertigen Produkte im Sommer 2016 auch verfügbar sind. Die Massenproduktion dürfte dann so nach und nach ab Januar 2016 starten. Offenbar hat AMD ja einen ganzen Arsch voll 14nm-Produkte im Schlepptau, also sicher 3 GPUs und eine CPU. Später kommen dann noch die für FinFET redesignten Konsolen-SoCs hinzu und schließlich noch Raven Ridge, noch später dann den Stoney Ridge-Nachfolger und sicherlich noch eine weitere GPU (also im Zeitplan bis 2018).

Also alle 14nm-Produkte grob schätzungsweise:

2016:
- Summit Ridge (AMDs wichtigstes Produkt)
- sicherlich 2 oder 3 GPUs (+Interposer)
- Nintendo-NX-Chip evtl. (+Interposer evtl.)
- (spät) Konsolen SoC-Shrinks, wurden ja offenbar recht spät erst von TSMC 20nm auf GloFo 14nm geswitcht.
2017:
- Raven Ridge (+Interposer)
- eine weitere GPU (+Interposer)
2018:
- Stoney Ridge-Nachfolger (+Interposer)
- noch eine bis 2 weitere GPUs (+Interposer)

danach kann man langsam über 10nm nachdenken.

Bei den zusammengrestrichenen Kosten und aufgrund der Tatsache, dass GloFo ja jetzt eine sehr gute Zukunftsperspektive hat mit Samsung und IBM als Partner wird AMD seine TSMC-Fertigung mit dem zu Grabe tragen der 20nm sicherlich komplett aufgeben.

Sunrise
2015-07-17, 14:10:43
Ja, nur hört man das schon lange und passiert ist warum auch immer nichts.
Naja, vorher hatte GloFo ja nichts, was TSMC das Wasser reichen konnte. Das sieht jetzt schon etwas anders aus. Ich würde TSMC für GPUs aber auch noch nicht ausschließen wollen, jedoch gilt es definitiv für CPUs und wohl auch APUs ziemlich sicher.

Unicous
2015-07-17, 14:11:05
Der Deal sieht ja vor auch GPUs bei GloFo zu bauen, ich sage einfach mal, TSMC macht nur Pascal.

Ich sage mal, das glaube ich erst wenn ich es sehe.:wink:

Ravenhearth
2015-07-17, 14:17:17
Wenn AMD auch APUs in 14nm bei GloFo fertigen lässt, dann würde es Sinn machen, auch die GPUs dort fertigen zu lassen. Sie müssten GCN dann nur auf einen Prozess optimieren und nicht auf zwei von zwei unterschiedlichen Fertigern. Sowas kostet zusätzlich. Und was hat AMD nicht? Genau, Geld.

Sunrise
2015-07-17, 14:27:02
Der Deal sieht ja vor auch GPUs bei GloFo zu bauen, ich sage einfach mal, TSMC macht nur Pascal.
Je nachdem, wo Apple jetzt den A9 fertigt, wäre bei TSMC für den Anfang sowieso erstmal alles dicht. Die haben allein durch ihr 20nm-Angebot wieder einen heftigen Batzen Gewinn gemacht. Das werden die sich dieses Mal auch wieder vergolden lassen.

Bisher ist GloFo was GPUs angeht nicht nennenswert in Erscheinung getreten. TSMC hat einfach viel mehr Erfahrung bei für GPUs tauglichen Prozess-Varianten. Die haben auch einen ziemlich aggressiven Zeitplan, der zwar immer viel verspricht, aber aktuell scheint es da keine negativen Schlagzeilen mehr zu geben, siehe auch den recht frühen GP100 Tapeout.

AMD und TSMC sind genauso ein eingespieltes Team wie bei NV auch. Ob man das einfach so umstellen kann und ob das am Ende nicht doch risikobehafteter ist, wissen wir nicht.

Knuddelbearli
2015-07-17, 19:11:47
Ich halte es für möglich das alles außer topdog von GloFo kommt und der Topdog TSMC damit man am Ende nicht beim wichtigen Spitzenprodukt nur wegen Fertigung hinten liegt. Klar gibt es auch die Möglichkeit dank GloFo vorne zu liegen aber das Risiko kann AMD ihmo nicht eingehen.

Und um beim Topdog zweigleisig zu fahren ( der bessere Chip wird die X der schlechtere die non X und salvage wird extra entsorgt ) hat AMD einfach nicht die Kohle.

HOT
2015-07-17, 19:20:26
a.) 14LPP ist sicher nicht schlechter als 16FF+
b.) zweigleisig fahren bei den Designkosten wär echt Wahnsinn

das machen die nicht. Alle FF-Produkte kommen ganz sicher von EINER Foundry.
Das mehrgleisige Fahren war damals ne Read-Taktik um GloFos Unzulänglichkeiten auszugleichen. Jetzt wo die Weiterentwicklung dank Samsung und IBM gesichert ist, stellt sich das Problem nicht mehr. Dank des Deals zwischen AMD und GloFo wird AMD soviel wie möglich bei GloFo fertigen lassen und um Kosten zu sparen, wird man bei TSMC jetzt sicher nicht auch noch mit FF anfangen.

Und GPUs von GloFo zu bringen ist auch ganz sicher kein Problem. Alle 28nm-Produkte von AMD bei GloFo enthalten GPUs.

Limit
2015-07-18, 21:53:39
Letzten Gerüchten zufolge soll ja Apples A9 zumindest teilweise auch bei TSMC gefertigt werden (neben Samsung). Es könnte also sein, dass mit Apple und nVidia die Kapazitäten für TSMCs 16nm Fertigung erstmal ausgeschöpft sind. Bei GloFo dürfte AMD erst einmal größter 14nm-Kunde sein.

Nakai
2015-07-18, 22:09:44
Naja AMD hat schon APUs bei GF herstellen lassen, welche natürlich einen GPU-Teil haben. Sie können definitiv GPUs herstellen. Es ist jedoch interessant, dass der GPU-Teil bei APUs immer deutlich größer ist, als bei reinen GPU-TSMC-Dies. Liegt das an den verwendeten Bibliotheken oder hat es andere Gründe?

Ravenhearth
2015-07-18, 22:11:01
AMD stellt übrigens auch kleinere GPUs bei GF her.

OBrian
2015-07-18, 23:15:31
Naja AMD hat schon APUs bei GF herstellen lassen, welche natürlich einen GPU-Teil haben. Sie können definitiv GPUs herstellen. Es ist jedoch interessant, dass der GPU-Teil bei APUs immer deutlich größer ist, als bei reinen GPU-TSMC-Dies. Liegt das an den verwendeten Bibliotheken oder hat es andere Gründe?
das kommt darauf an, was auf den Dieshots als GPU identifiziert wird. Kann auch gut sein, daß man aufgrund der Ähnlichkeit der Strukturen auch fälschlicherweise was anderes dazurechnet, z.B. Northbridge usw.

Nakai
2015-07-18, 23:54:05
das kommt darauf an, was auf den Dieshots als GPU identifiziert wird. Kann auch gut sein, daß man aufgrund der Ähnlichkeit der Strukturen auch fälschlicherweise was anderes dazurechnet, z.B. Northbridge usw.

Ne, die CUs sind ja eindeutig zuzuordnen. Die sind ein gutes Stück größer, als bei TSMC-GPUs.

Agent117
2015-07-19, 00:30:51
Liegt vermutlich einfach daran, dass der hochtaktende CPU Teil für das Design keine so hohe Packdichte für die CUs erlaubt, sind ja auch HDLs.

Ich vermute auch dass GloFo für Zen und GPUs verschiedene Prozesse bereitstellen müssen wird.
Die 2017er Zen APus werden vielleicht nicht mehr GPU und CPU auf einem DIE vereinen, sondern man fertigt getrennt und verbindet beide über einen Interposer wahrscheinlich noch mit HBM2. So werden GPU und CPU im für sie geeignetsten Prozess hergestellt und man hat nebenbei auch eine Art flexibles Baukastensystem.
Womöglich könnte mit der Strategie langfristig auch angestrebt werden, weniger kostenintensive Designs pro GPU Generation zu haben, wenn man auch GPUs auf den Interposer kombinieren kann. Bei AMDs derzeitigen Umsatz kann man sich zu viele Designs pro Generation auch einfach nicht leisten.

N0Thing
2015-07-19, 00:50:13
AMD stellt übrigens auch kleinere GPUs bei GF her.

Welche?

StefanV
2015-07-19, 00:54:39
Gibts da nicht 'nen 2D-losen Zusatzchip für die Kaveris und so??

Ravenhearth
2015-07-19, 00:57:11
Welche?

Genau weiß ich das nicht. Aber AMD sagte noch auf dem letzten FAD, dass sie bei GF auch reine GPUs fertigen lassen.

StefanV
2015-07-19, 01:30:06
Hm, vielleicht Fiji?
Weil da steht ja aufm Spacer 'Made in Korea'. Und hat TSMC irgendwas in Korea??

Brillus
2015-07-19, 01:53:51
Hm, vielleicht Fiji?
Weil da steht ja aufm Spacer 'Made in Korea'. Und hat TSMC irgendwas in Korea??

Fiji der Interposer soll doch UMC sein wenn ich mich recht erinnere.

Ravenhearth
2015-07-19, 02:15:55
Fiji definitiv nicht.

HOT
2015-07-19, 09:12:05
Jo, da würde dann "Diffused in Germany" draufstehen. Welche GPU auch immer das sein mag, vielleicht irgendwas mobiles oder ultramobiles?

Knuddelbearli
2015-07-19, 10:29:51
Naja AMD hat schon APUs bei GF herstellen lassen, welche natürlich einen GPU-Teil haben. Sie können definitiv GPUs herstellen. Es ist jedoch interessant, dass der GPU-Teil bei APUs immer deutlich größer ist, als bei reinen GPU-TSMC-Dies. Liegt das an den verwendeten Bibliotheken oder hat es andere Gründe?

Naja war ja zuletzt zB 22nm vs 28nm

tm0975
2015-07-19, 11:49:58
in 22 nm gabs nix von glofo oder tsmc. die frage war zudem auf 28 glofo apu zu 28 nm tsmc gpu bezogen.

y33H@
2015-07-19, 23:09:25
Genau weiß ich das nicht. Aber AMD sagte noch auf dem letzten FAD, dass sie bei GF auch reine GPUs fertigen lassen.Ich meine das war Oland.

iuno
2015-08-13, 00:41:37
Ist schon ein paar Tage alt, aber hier wohl noch nicht aufgetaucht...
Laut fudzilla (http://www.fudzilla.com/news/processors/38402-amd-s-coherent-data-fabric-enables-100-gb-s) bildet Greenland zusammen mit "Zeppelin" (16? Zen-Kerne) ein MCM. Greenland wäre demnach also auf jeden Fall ein kleineres Modell (wenn auch nicht auf einer APU wie es sie heute gibt) und keinesfalls Fiji-Nachfolger.
Technische Angaben sind 4+ TFLOPs (Tahiti Niveau) und 500 GiB/s Bandbreite (Fiji-Niveau) bei 16 GiB HBM.
Bei Hynix' "HBM 2" wären das möglicherweise 2 Stacks mit je 8*8 Gib bei 1000 MHz. Bei ~4 TFLOPs könnte die GPU in 14 nm doch < 200mm² messen oder? Mit nur 2 Stacks wäre Greenland dann immer noch recht klein.
Greenland kommt laut dem Bild übrigens als Ganzes, inkl. HBM, aufs MCM-Package - nicht etwa CPU, GPU und HBM zusammen auf einen Interposer. Die CPU hat auch weiterhin ihren eigenen Speicher.

http://www.fudzilla.com/media/k2/items/cache/7e42c9447e754167c85105ffe1a1d866_L.jpg

y33H@
2015-08-13, 05:40:06
Was sind GMI-Links?

Loeschzwerg
2015-08-13, 06:51:59
Global Memory Interconnect

y33H@
2015-08-13, 07:58:42
Örks, danke ... steht ja auch im April-Artikel von Fudo.

AffenJack
2015-08-13, 09:34:51
Greenland wäre demnach also auf jeden Fall ein kleineres Modell (wenn auch nicht auf einer APU wie es sie heute gibt) und keinesfalls Fiji-Nachfolger.
Technische Angaben sind 4+ TFLOPs (Tahiti Niveau) und 500 GiB/s Bandbreite (Fiji-Niveau) bei 16 GiB HBM.

Wer sagt, dass dies Single Precision FLops sind? Könnten unter Umständen auch DP sein und dann passt es zu einem Fiji Nachfolger. Mehr kann man in DP nämlich bei einem MCM nicht erwarten.

Topha
2015-08-13, 11:12:50
Wer sagt, dass dies Single Precision FLops sind? Könnten unter Umständen auch DP sein und dann passt es zu einem Fiji Nachfolger. Mehr kann man in DP nämlich bei einem MCM nicht erwarten.
Die wenigsten Hersteller stapeln tief :)
Entweder stünde dann explizit DP dabei, oder aber sie hätten die höhere Zahl für SP genutzt.

Dural
2015-08-13, 11:17:00
Ja klar so viel DP bei 500GB/s :freak:
Fiji Nachfolger wird sicher was um die 1000GB/s und 32GB haben.

OBrian
2015-08-13, 12:06:28
ich schätze Greenland auf die Eckdaten von Fiji, nur eben geschrumpft, damit kleiner und sparsamer. Das wäre dann auf einer größeren Server-APU noch machbar, besonders wenn der Takt nicht bis zum Anschlag gedreht wird, sondern im Effizienzmaximum bleibt. Würde dann auf gut 100 W schätzen (durch den Shrink kann man wohl Pi mal Daumen eine halbe Nano rechnen). CPU und Rest kommt noch dazu, dann wird das schon dick genug. Und DP wird sicherlich 1:2 sein, wenn man das Ding extra für Server baut, dann wäre weniger sehr überraschend.

iuno
2015-08-13, 16:20:36
Wer sagt, dass dies Single Precision FLops sind? Könnten unter Umständen auch DP sein und dann passt es zu einem Fiji Nachfolger. Mehr kann man in DP nämlich bei einem MCM nicht erwarten.
Das kam mir auch erst in den Sinn. Ich fand es dann aber doch etwas abwegig, damit wäre der Chip dann ja quasi ein Fiji mit 1:2-Verhältnis, für die neue Fertigungstechnik und eine "APU" imho zu groß. 4 TFLOPs doppelter Genauigkeit wären mMn. auch erwähnungswürdig und sicher dort mit angegeben worden.
Ja klar so viel DP bei 500GB/s :freak:
Fiji Nachfolger wird sicher was um die 1000GB/s und 32GB haben.
Denke ich auch. Unter "Nachfolger" verstehe ich ein deutlich leistungsfähigeres Produkt, keins das das alte ersetzt und "nur" sparsamer/kleiner/mit mehr Speicher ist, auch wenn so ein Chip natürlich bestimmt auch kommen wird, dann aber eine Klasse nach unten rutscht.
ich schätze Greenland auf die Eckdaten von Fiji, nur eben geschrumpft, damit kleiner und sparsamer.
Wäre natürlich auch denkbar. Greenland als sparsamerer Fiji-Ersatz mit mehr Speicher. Für die "APU" evtl. cut-down und meinetwegen ~700 MHz, ergäbe auch ~4 TFLOPs... aber dennoch relativ groß für die neue Fertigung oder nicht? Auch unter dem Aspekt dass man sicherlich ein 1:2 Verhältnis für so ein HSA MCM Teil haben möchte?

Elite_Warrior
2015-08-13, 17:01:52
Wenn da ein etwas größerer HBM drauf kommt, wird auch die CPU darauf zugreifen können? Das wäre doch im Sinne von HSA. Bei 16GB HBM könnte man den DDR4 sparen :D

4TFlops SP sind eine Wagenladung mehr als Tonga Pro.

AffenJack
2015-08-13, 17:09:34
Das kam mir auch erst in den Sinn. Ich fand es dann aber doch etwas abwegig, damit wäre der Chip dann ja quasi ein Fiji mit 1:2-Verhältnis, für die neue Fertigungstechnik und eine "APU" imho zu groß. 4 TFLOPs doppelter Genauigkeit wären mMn. auch erwähnungswürdig und sicher dort mit angegeben worden.

Es ist nur ein Teil der Folie zu sehen und man weiß nicht in welchem Kontext die Präsentation war, für mich sind 4 TF DP nicht ausgeschlossen. Ich finds auch nicht zu groß, man hat doch über eine große APU mit bis zu 300W Verbrauch spekuliert. Da hat man sie nun. Fiji mit 2:1 DP in 14nm mit nicht zu hohen Taktraten dürfte im 150W Bereich sein. Dazu noch genausoviel für die CPU. Durch 2 Dies verringert man auch das Risiko. Würde prinzipiell passen, obs so kommt ist ne andere Sache.


Denke ich auch. Unter "Nachfolger" verstehe ich ein deutlich leistungsfähigeres Produkt, keins das das alte ersetzt und "nur" sparsamer/kleiner/mit mehr Speicher ist, auch wenn so ein Chip natürlich bestimmt auch kommen wird, dann aber eine Klasse nach unten rutscht.


Dann wirst du aber eher bis 2017 warten müssen für deinen Nachfolger. Ich glaube nicht, dass AMD wie Nvidia an die Grenzen des Prozesses gehen wird am Anfang, aber da der nächste große Chip alleine schon 1:2 DP kriegen sollte, ist da nicht viel Platz übrig. Mit Fiji mit etwas Architekturverbesserungen und High DP würde man wahrscheinlich schon bei 350 mm² landen. Über 400 mm² trau ich Amd am Anfang von 14nm aber nicht zu, daher würde ich eher nur so 30% Leistungsplus erwarten.

N0Thing
2015-08-14, 01:04:43
Ich würde die Erwartungen einfach nicht so hoch schrauben. In den letzten Jahren ist es in der Regel auf das unspektakuläre hinaus gelaufen. Und dabei wäre eine APU mit Tonga GPU samt HBM und ZEN-CPU schon ziemlich spektakulär, wenn man auf die bisherigen APUs schaut.

OBrian
2015-08-14, 14:50:14
ja, letztlich hängt es davon ab, welche TDP-Klasse AMD damit anpeilt. Skalierbar ist das ja alles.

Aber wenn man sich überlegt, welche TDP-starken Chips auf Steckkarten mit passiven realtiv kleinen Kühlern in Servern untergebracht werden können, um da von dem Sturm der Gehäuselüfter durchgepustet zu werden (z.B. http://geizhals.de/amd-firepro-s7000-100-505749-31004-36-10r-a847406.html oder http://geizhals.de/amd-firepro-s10000-passiv-31004-44-20a-a1167340.html), dann kann man so eine APU auch in den gleichen TDP-Bereich verordnen, ohne Serverbauer vor große Herausforderungen zu stellen.

Und dann muß man ja nur klären, wie man CPU und GPU gewichten will. Wenn man das TDP-Budget halbe-halbe aufteilt und noch 50 W für den Interconnect läßt, würde man in 300 W wohl eine CPU mit Fiji-Daten und eine 16C/32T-Zen-CPU reinkriegen. Wie gesagt nicht so irre hochgetaktet, sondern im Effizienzmaximum betrieben.

Soll es in ein 150-W-Budget reinpassen, dann muß man eben alles halbieren. Aber dann wären die angegebenen 500 GB/s beim HBM irgendwie übertrieben.


Hmm, wobei wir bei Fiji ja gesehen haben, daß die 512 GB/s doch irgendwie knapp sind. Vielleicht hat die GPU dann ein paar Shader weniger, so 3000-3500. Im Consumermarkt kann man den Takt höher ansetzen als bei Fiji und so Diefläche sparen, erreicht aber trotzdem die gleiche Performance. Ist aber auch wieder davon abhängig, wo AMD die anderen Karten drumherum positionieren will, darf ja keine großen Lücken geben.

iuno
2015-08-14, 15:00:10
Dann wirst du aber eher bis 2017 warten müssen für deinen Nachfolger. Ich glaube nicht, dass AMD wie Nvidia an die Grenzen des Prozesses gehen wird am Anfang, aber da der nächste große Chip alleine schon 1:2 DP kriegen sollte, ist da nicht viel Platz übrig. Mit Fiji mit etwas Architekturverbesserungen und High DP würde man wahrscheinlich schon bei 350 mm² landen. Über 400 mm² trau ich Amd am Anfang von 14nm aber nicht zu, daher würde ich eher nur so 30% Leistungsplus erwarten.
Das sehe ich ja genauso. Natürlich kommt dieser "Fiji-Nachfolger" dann nicht gleich als erster 14nm Chip. Aber ich meine, wir streiten jetzt hier wieder über Wörter. Es ist natürlich wahrscheinlich, dass ein Chip als Fiji-Nachfolger deklariert wird, faktisch aber nur die Mittelklasse der neuen Generation darstellt (siehe GTX 980). Dass es mir darum aber nicht ging, habe ich imho aber deutlich gemacht.

reaperrr
2015-08-14, 17:08:08
Hmm, wobei wir bei Fiji ja gesehen haben, daß die 512 GB/s doch irgendwie knapp sind. Vielleicht hat die GPU dann ein paar Shader weniger, so 3000-3500. Im Consumermarkt kann man den Takt höher ansetzen als bei Fiji und so Diefläche sparen, erreicht aber trotzdem die gleiche Performance. Ist aber auch wieder davon abhängig, wo AMD die anderen Karten drumherum positionieren will, darf ja keine großen Lücken geben.
Das Problem ist offenbar nicht, dass 512 GB/s grundsätzlich knapp wären. Fiji hat theoretisch 33% mehr Bandbreite + Delta Color Compression bei ~45% mehr Rohleistung gegenüber der 390X, die nicht bandbreitenlimitiert zu sein scheint, und satte 60% mehr Bandbreite + DCC gegenüber der 290X bei nur ~50% mehr Rohleistung. Das hätte eigentlich absolut ausreichend sein sollen.

Das Problem ist scheinbar eher, dass irgendetwas - HBM1-Latenzen, Speicherinterface? - die 512 GB/s auf effektiv nur ca. ~340-380 GB/s ausbremst, so dass selbst Delta Color Compression nicht reicht, um eine Bandbreiten-Limitierung zu verhindern.

Liszca
2015-08-15, 15:41:35
Außerdem sollte man zu Iceland besser die Treiberabteilung etwas besser ausstatten. Die Masse steht auf Gameready Treiber. Sowas wie bei Project Cars (egal wessen Schuld es sein mag) geht gar nicht. Spiele, die extreme Ausreißer darstellen. Das ist sowas von Gift für den Ruf.
Und idealerweise nicht immer stückchenmäßig nachreichen, sondern proaktiv sofort bringen. Zum Spielelaunch.
Auch soetwas wie NVs DX11 Optimierung - sowas darf nicht erst 1 Jahr später kommen.

Auch AMDs VSR ist viel zu unflexibel.

Offenbar fehlt es AMDs Treiberabteilung hinten und vorn an guten Leuten. -> einstellen. IMO eine gute Investition.

Und dann zum Launch weiterhin bei guten Kühlern bleiben - vom Prinzip war der Gedanke mit Fijii gut gemeint. Aber eben nicht sauber bis zuende durchgehalten. Das muss professioneller werden.

Hoffentlich kommt dieser Teil bald wieder unter kontrolle. Ansonsten siehts bisher so aus dass AMD die Marke ATI gut ruiniert haben, das muss sich ändern aber schon gestern. Dem Fehlgeschlagenen FM2(+) muss endlich eine APU mit HBM mit ohne schlechten Treibern für Linux und Windows folgen.

mksn7
2015-08-15, 20:30:02
Gibt es eigentlich einen benchmark, der die typischen STREAM kernel auf Fiji ausmisst?

Mekura
2015-08-16, 01:12:58
Hoffentlich kommt dieser Teil bald wieder unter kontrolle. Ansonsten siehts bisher so aus dass AMD die Marke ATI gut ruiniert haben, das muss sich ändern aber schon gestern. Dem Fehlgeschlagenen FM2(+) muss endlich eine APU mit HBM mit ohne schlechten Treibern für Linux und Windows folgen.

Interessanter Einwand. Ja die Marke ATI hat wirklich gut gelitten. Seit der 5000 Serie kommt da einfach nichts mehr mit diesem Branding. Am besten AMD released endlich diese HBM APU für FM2(+) und degradiert den DDR3 Speicher zu einer weiteren Cache-Stufe. Hat ja bei (Super) Socket7 auch funktioniert. Und das am besten schon vorgestern. :biggrin:

Zum Topic:
Seit Fury hat AMD ja angeblich eine kleine Offensive im Punkto VR-Rendering geplant. Ist schon bekannt in welcher Form dies geschehen wird und wie sich das auf Arctic Island beziehen könnte? immerhin scheint ja auch noch ein gewisses Potenzial in den GCN-Chips dank Asynchron-Shaders zu stecken. Hoffentlich gibt's mal paar ordentlich Stereoskopie-Render-Modi in der nahen Zukunft :smile:

R.I.P.
2015-08-16, 08:21:29
Interessanter Einwand. Ja die Marke ATI hat wirklich gut gelitten. Seit der 5000 Serie kommt da einfach nichts mehr mit diesem Branding. Am besten AMD released endlich diese HBM APU für FM2(+) und degradiert den DDR3 Speicher zu einer weiteren Cache-Stufe. Hat ja bei (Super) Socket7 auch funktioniert. Und das am besten schon vorgestern. :biggrin:

Zum Topic:
Seit Fury hat AMD ja angeblich eine kleine Offensive im Punkto VR-Rendering geplant. Ist schon bekannt in welcher Form dies geschehen wird und wie sich das auf Arctic Island beziehen könnte? immerhin scheint ja auch noch ein gewisses Potenzial in den GCN-Chips dank Asynchron-Shaders zu stecken. Hoffentlich gibt's mal paar ordentlich Stereoskopie-Render-Modi in der nahen Zukunft :smile:

Laut Papermaster sieht AMD die Gaming Zukunft in VR...man wird sicherlich versuchen auf dieses Zugpferd zu setzen. Schauen wir mal was kommt und wie gut es umgesetzt wirs

mboeller
2015-08-16, 11:25:43
vielleicht gibt es ja am 25.8. neue Informationen nach der Hotchips-Präsentation:

AMD’s next Generation GPU and Memory Architecture

von Joe Macri, Raja Koduri, Mike Mantor and Bryan Black

y33H@
2015-08-16, 12:01:32
Da geht's schlicht um HBM für Fiji, siehe originaler Eintrag:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10607690&postcount=4912

Liszca
2015-08-16, 14:12:09
VR macht AMD doch nur weils eh alle tun, aber in wirklichkeit ist der Markt klein bis garnicht vorhanden.

Mancko
2015-08-16, 15:35:02
VR macht AMD doch nur weils eh alle tun, aber in wirklichkeit ist der Markt klein bis garnicht vorhanden.

Erstens das und zweitens wartet dort sicher keiner auf AMD.

registrierter Gast
2015-08-16, 15:41:08
VR macht AMD doch nur weils eh alle tun, aber in wirklichkeit ist der Markt klein bis garnicht vorhanden.
VR ist Feature der nächsten Konsolen Generation.
Dutzende Millionen verkaufter Hardware Einheiten ist in dieser Hinsicht kein kleiner Markt.

Du meintest sicherlich, dass VR aktuell ein kleiner Markt ist.

iuno
2015-08-16, 15:53:33
VR...man wird sicherlich versuchen auf dieses Zugpferd zu setzen
Zugpferd, ernsthaft?

VR macht AMD doch nur weils eh alle tun, aber in wirklichkeit ist der Markt klein bis garnicht vorhanden.
Natürlich ist das rein fürs Image, aber die ACEs bauen sie schon länger ein und die "eine GPU pro Auge" Idee hatten sie auch zuerst (zumindest öffentlich gemacht). Ob das für VR Anwendungen wirklich positive Auswirkungen hat, wird man sehen. Im zweiten Halbsatz stimme ich aber zu.

VR ist Feature der nächsten Konsolen Generation.
Dutzende Millionen verkaufter Hardware Einheiten ist in dieser Hinsicht kein kleiner Markt.

Du meintest sicherlich, dass VR aktuell ein kleiner Markt ist.
Du glaubst doch wohl nicht, dass urplötzlich alle, die heute eine Konsole haben, mit einem HMD spielen wenn die Dinger (eventuell auch mit der nächsten Generation zusammen) endlich mal verfügbar sind. Aktuell spielt VR eigentlich auch keine kleine, sondern gar keine Rolle.
Aber das ist eigentlich OT

Ravenhearth
2015-08-16, 15:54:37
Ob das auch so kommt steht doch noch gar nicht fest.

R.I.P.
2015-08-16, 17:23:42
@iuno
Zugpferd, ja. Das wird der nächste Hype schlechthin. Angefangen von Oculus Rift und die ganzen Konkurrenzprodukte über AR zu vielleicht Nintendos NX. Würde Star Citizen als Aushängeschild für VR mit Ocukus Rift nicht unterschätzen.

Hier das Interview mit Papermaster mit auch anderen interessanten Infos

http://winfuture.mobi/news/88415

OBrian
2015-08-16, 19:16:31
ein Hype ist es auf jeden Fall, die Frage ist nur, läßt sich dieser Hype so weit treiben, daß die Leute es glauben und sowas kaufen? Es gab schon viele "NextBestThings", die die Industrie in ihrer Gesamtheit gepusht hat und die sich dann als Totgeburt herausgestellt haben.

AMD sind jedenfalls nicht die einzigen, die auf das Pferd VR setzen und hoffen, daß es sich als Zugpferd entpuppt.

Menace
2015-08-16, 19:52:16
Was mich da immer sehr verwirrt sind die euphorischen Erfahrungsberichte (so meine Erinnerungen) von Journalisten. Gibt es hier jemand, der das nutzt oder aus eigener Erfahrung kennt?

samm
2015-08-16, 20:33:32
Was nutzt? VR? Ja, einige hier, siehe auch die Threads zum Rift (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=530863) und zu Vive (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=561672). Geübtere Gamer wie die 3DC-Nutzer sind evt weniger euphorisch, gerade aus grafischen Gründen (wahrgenommene Auflösung, Kompromisse für genügende Performance) aber toll ist das Gefühl schon, richtig in der Welt zu sein, oder einfach auch, wie 3D auch sein kann gegenüber dem Brillen-gestützten Behelf, wie man ihn aus Kino passiv-3D oder von Shutter-Lösungen kennt.

Blediator16
2015-08-16, 20:49:19
Falls VR für AMD ist was 4k vorher war, dann darf man von denen nicht viel erwarten.

iuno
2015-08-16, 22:09:09
ein Hype ist es auf jeden Fall, die Frage ist nur, läßt sich dieser Hype so weit treiben, daß die Leute es glauben und sowas kaufen?
Natürlich ist das jetzt alles nur meine persönliche Einschätzung/Ansicht!
imho war ein ziemlicher Hype da, als oculus noch auf kickstarter war. Das lag mMn aber zum Teil auch daran, dass crowdfunding selbst voll im Kommen war und die zugehörigen Technik-Produkte (Oculus, Ouya, Pebble, ...) alle etwas overhyped wurden. Mittlerweile ist das schon wieder deutlich abgeflacht. Klar - gefühlt jeder Hersteller will da jetzt irgendwo mitmischen, aber ich glaube nicht, dass VR eine hohe Marktdurchdringung erreicht - erst recht nicht so schnell wie sich das offenbar einige wünschen.
Es dauert einfach sehr lange von der kickstarter Kampagne zum fertigen Produkt. Trotzdem ist auch heute die Technik eigentlich noch nicht weit genug, wenn man eigentlich Games in sehr hoher Auflösung (da kleiner Betrachtungsabstand + die Optik des HMD) in sehr hohen Bildwiederholraten braucht, die heutige Hardware in aktuellen Spielen einfach nicht liefern kann. Wenn die VR-Spiele dann "schlechte" Grafik haben, geht auch wieder Immersion flöten. Natürlich wird daher auch viel vom Preis abhängen, aber ganz ehrlich: wie viele holen sich ein zweites Anzeigegerät - was so viel kostet wie eine ganze Konsole - und nur für manche Spiele taugt? Zudem "braucht" man dann auch schnell noch Grafikhardware, die 1-2 Klassen drüber liegt.

Was mich da immer sehr verwirrt sind die euphorischen Erfahrungsberichte (so meine Erinnerungen) von Journalisten. Gibt es hier jemand, der das nutzt oder aus eigener Erfahrung kennt?
Bei einer Demo auf einer Messe kann das ja auch durchaus beeindruckend sein. Demos sind aber kurz und natürlich extra für den Zweck angefertigt. Ich möchte so ein Teil wie sie aktuell sind nicht länger tragen und für besonders viele Spiele taugen sie ohnehin nicht.
Meiner Meinung nach bedarf es noch einiger Evolutionsschritte, bis der Kram "Massentauglich" ist. Und das betrifft die HMDs selber, als auch das was dahinter steckt, wobei wir wieder beim Thema sind :tongue: Ich bin gespannt, ob AMD oder sonst wer VR als Verkaufsargument ausspielen können wird, gehe aber nicht davon aus.

Liszca
2015-08-16, 23:14:46
Du meintest sicherlich, dass VR aktuell ein kleiner Markt ist.

Das unter anderem, aber auch dass es vielleicht nicht vom Konsumenten angenommen werden wird.

Flusher
2015-08-17, 16:21:57
Falls VR für AMD ist was 4k vorher war, dann darf man von denen nicht viel erwarten.

Wie kommst du darauf?

mboeller
2015-08-17, 20:36:45
Wie kommst du darauf?

vielleicht wegen solcher Berichte:

http://blog.fefe.de/?ts=ab324d97

Blediator16
2015-08-17, 20:41:11
Wie kommst du darauf?

Sie suggerierten 4k Dominanz, was für mich aktuell nicht der Fall ist also wirds mit VR dann evtl. am Ende ganau das selbe Luftschloß wie 4k es vorher war.

Flusher
2015-08-18, 12:46:50
Sie suggerierten 4k Dominanz, was für mich aktuell nicht der Fall ist also wirds mit VR dann evtl. am Ende ganau das selbe Luftschloß wie 4k es vorher war.

Wieso Luftschloss? In 4K sind die AMD Produkte auf Augenhöhe mit der Konkurrenz. Da ist sogar Salvage FuryPro häufig schneller als die 980Ti.

Von Dominanz hat AMD kein Wort verloren. Einzig, dass Fiji vor allem für 4k geeignet sei.

Blediator16
2015-08-18, 17:24:09
Wieso Luftschloss? In 4K sind die AMD Produkte auf Augenhöhe mit der Konkurrenz. Da ist sogar Salvage FuryPro häufig schneller als die 980Ti.

Von Dominanz hat AMD kein Wort verloren. Einzig, dass Fiji vor allem für 4k geeignet sei.

Jap unglaublich geeignet, wenn man CFX oder auf mittleren Details spielen möchte es sei denn man steht auf 24fps cinematic feel :rolleyes:

Screemer
2015-08-19, 00:00:13
und welche karte macht das besser?

Menace
2015-08-21, 12:31:10
http://wccftech.com/amd-greenland-gpu-32-gb-hbm2-memory-15-18-billion-transistors/

Präsentiert altbekanntest. Wobei ich mich über folgendes wundere (Tabelle zum Schluss).

Greenland könnte bei TMSC oder GloFo hergestellt werden
Pascal bei GloFo oder Samsung

Kommt das so hin?

maguumo
2015-08-21, 12:33:35
Pascal wird ziemlich sicher bei TSMC gefertigt...

fondness
2015-08-21, 18:18:12
AMD readies three new GPUs: Greenland, Baffin and Ellesmere
http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-readies-three-new-gpus-for-2016-greenland-baffin-and-ellesmere/

OBrian
2015-08-21, 19:21:10
viel Geschreibsel, aber nichts Neues außer der reinen Existenz der Codenamen Baffin und Ellesmere, hinter denen sich ja alles verstecken kann. Ich glaube, die sind nicht mal sicher, ob das GPUs sind. Als handfeste Info gibt es ja nur die (schon bekannte) Aussage, AMD hätte mehrere Tapeouts in 14nm, aber das könnten auch CPUs, APUs oder irgendwelche Custom-Designs sein.

HOT
2015-08-23, 11:28:03
Zusammenfassung der bisherigen Erkenntnisse (natürlich ohne Gewähr):
- 14nm GloFo
- komplett neue µArchitektur, kein GCN mehr
- 4-32GB HBM2 von SKHynix (von denen erst mal exklusiv für AMD)
- 3 Chips von top to down mit jeweils HBM2

maximus_hertus
2015-08-23, 11:48:08
Zusammenfassung der bisherigen Erkenntnisse (natürlich ohne Gewähr):
- 14nm GloFo
Ja.

- komplett neue µArchitektur, kein GCN mehr
Jein, größere Änderungen, aber GCN-Basis, wenn ich es nicht komplett falsch verstanden habe.

- 4-32GB HBM2 von SKHynix (von denen erst mal exklusiv für AMD)
Ja, möglich.


- 3 Chips von top to down mit jeweils HBM2
3 Chips mit HBM? Glaube ich nicht, im Sub 250 USD Bereich wird es wohl so schnell kein HBM geben.

StefanV
2015-08-23, 11:54:58
Jein, größere Änderungen, aber GCN-Basis, wenn ich es nicht komplett falsch verstanden habe.
Ja, so hab ichs auch verstanden.
Und ganz ehrlich:
GCN ist schon verdammt gut...


3 Chips mit HBM?
Ja

Glaube ich nicht, im Sub 250 USD Bereich wird es wohl so schnell kein HBM geben.
Ich denke schon, dass AMD den HBM 'Vorteil' versucht mit der Brechstange auszubauen und das zu verwenden, wo das nur geht. Mit Fiji sammelt man schon mal Erfahrung, bringt die Fertigung auf Vordermann, um dann, wenn mans wirklich braucht, nicht komplett blöd dazustehen. Und eben auch voll und ganz auf HBM setzen...

AnarchX
2015-08-23, 12:02:23
Zumal eine ~200mm² GPU + einem 4GiB HBM2 Stack, weit unproblematischer in der Fertigung ist, als ein Fiji. Und wenn NV ähnliche Produkte 2016 hat, wird man z.B. in Mobile wohl kaum noch GDDR5-Lösung verkaufen können.

maximus_hertus
2015-08-23, 12:06:50
Ich denke schon, dass AMD den HBM 'Vorteil' versucht mit der Brechstange auszubauen und das zu verwenden, wo das nur geht. Mit Fiji sammelt man schon mal Erfahrung, bringt die Fertigung auf Vordermann, um dann, wenn mans wirklich braucht, nicht komplett blöd dazustehen. Und eben auch voll und ganz auf HBM setzen...

Es muss Gewinne abwerfen und da machen die Faktoren 14nm und HBM2 keinen Mut für <250 USD Grafikkarten.

IMO:

Top-Chip, 500 USD+, 8-16 GB HBM2
Performance-Chip, 300-500 USD, 4-8 GB HBM2
Mainstream-Chip, 150-300 USD, GDDR5

Nakai
2015-08-23, 13:03:41
Mich würde es nicht wundern, wenn AMD bei den kleineren Modellen schonmal HBM einbaut, aber auch noch GDDR5 supportet. Die nexte Gen muss HBM unterstützen.

maguumo
2015-08-23, 13:32:23
Mich würde es nicht wundern, wenn AMD bei den kleineren Modellen schonmal HBM einbaut, aber auch noch GDDR5 supportet. Die nexte Gen muss HBM unterstützen.

Kann man denn überhaupt so einfach zwei SIs verbauen?

maximus_hertus
2015-08-23, 13:32:48
Das halte ich für nahezu ausgeschlossen - entweder HBM-only oder GDDR5-only.

Tamagothi
2015-08-23, 13:55:16
Also ich tippe auf only HBM Chips nächsten Jahres ( low cost bereich <100€ mal nicht beachtet)

Jeweils ein full und ein/zwei beschnittene Chips. Damit lässt sich alles abdecken.

AMD würde dadurch auch mehr einnehmen da man den Chip+HBM+Interposer verkaufen kann.

Botcruscher
2015-08-23, 14:03:05
Der HBM wird doch nur 2 Schichten haben und sollte damit richtig günstig werden.

StefanV
2015-08-23, 14:14:24
Es muss Gewinne abwerfen und da machen die Faktoren 14nm und HBM2 keinen Mut für <250 USD Grafikkarten.

IMO:
Top-Chip, 500 USD+, 8-16 GB HBM2
Performance-Chip, 300-500 USD, 4-8 GB HBM2
Mainstream-Chip, 150-300 USD, GDDR5
Macht kaum Sinn, da 14nm (noch?) sehr teuer ist. Ergo wird man eher im Bereich von Tonga, Hawai und Fiji was machen.

Darunter braucht man eh kaum noch dGPUs, der Markt wird mehr und mehr von den IGPs aufgrefressen, so dass eigentlich nur noch der mittlere Bereich bleibt...

Und warum sollte AMD jetzt noch einen Chip mit GDDR5 bringen?!
DAS macht jetzt aber wirklich KEINEN Sinn. Zumal man ja aktuell auch nicht so besonders viel geliefert hat - was auch eher wieder darauf hin deutet, dass man sich voll auf die 14nm Generation konzentrierte....

Nakai
2015-08-23, 15:40:23
Kann man denn überhaupt so einfach zwei SIs verbauen?

Ich halte das nicht für ausgeschlossen, man muss eben auch ein GDDR5 PHY verbauen und eben den ganzen MC-Stack bis zur nächsten Abstraktionsschicht duplizieren. Das würde natürlich den Chip etwas aufblähen, vor allem die doppelten PHYs.

€: Jedenfalls müsste natürlich was an der Logik vor allem auch am Caching etwas geändert werden. Man will ja nicht alles duplizieren.

Nightspider
2015-08-23, 17:59:00
Gibts denn aktuelle Erkenntnisse zum Stand von 14nm bei GloFo bzw. wann die ersten NextGen Chips von AMD aufschlagen könnten?
Die 7970 war ja damals die erste 28nm Karte wenn ich mich nicht irre.
Ob man im 2. Quartal schon 14nm Karten bekommt?

Kriton
2015-08-23, 18:15:51
Das hoffe ich. Hinsichtlich der nächsten Gen bin ich echt heiß.

Unicous
2015-08-23, 19:05:54
Gibts denn aktuelle Erkenntnisse zum Stand von 14nm bei GloFo bzw. wann die ersten NextGen Chips von AMD aufschlagen könnten?
Die 7970 war ja damals die erste 28nm Karte wenn ich mich nicht irre.
Ob man im 2. Quartal schon 14nm Karten bekommt?

Nö. Lediglich, dass sie die CPUs und APUs fertigen werden. Die ersten FinFET Chips hatten laut TheStilt ihre tapeouts aber wo sie gefertigt werden, weiß man nicht. Und ob es exklusiv oder überhaupt GF ist, würde ich auch nicht unterschreiben. Und TSMC auch nicht abschreiben. Ich gehe davon, dass AMD weiterhin die top dogs bei TSMC fertigt, alles andere wäre mMn eine Überraschung. Samsung wäre aber auch noch eine Option.

2. Quartal für retail-Karten sehe ich bei GF auch nicht. Sie wollen wohl erst Ende des Jahres mit der Massenproduktion von 14nm LPP beginnen.

OBrian
2015-08-23, 19:07:00
Ob man im 2. Quartal schon 14nm Karten bekommt? sie wollen ja das ganze Portfolio so schnell wie möglich umstellen, aber es wird wohl doch das ganze Jahr über tröpfelweise umgestellt, schätze ich, nicht alles auf einmal. Preisfrage ist, welches Segment zuerst mit 14nm bedient wird. Ich tippe ja auf eine kleinere Karte, mit Performance im Bereich Pitcairn. Was ja dann für die meisten hier eher uninteressant sein dürfte.

AffenJack
2015-08-23, 19:11:28
Gibts denn aktuelle Erkenntnisse zum Stand von 14nm bei GloFo bzw. wann die ersten NextGen Chips von AMD aufschlagen könnten?

Zum aktuellen nicht, aber vor einigen Monaten soll Apple Orders bei GF gecancelt haben und dafür mehr bei TSMC bestellt haben, da GF Samsungs 14nm Prozess nicht ordentlich zum laufen gekriegt hat. Das klingt jetzt nicht super vielversprechend für die frühzeitige 14nm LPP Einführung.

Unicous
2015-08-23, 19:21:54
Immer davon ausgehend, dass AMD bei GF herstellen lässt.:wink:

Wenn nicht, hätten sie ein ähnliches Launchfenster wie Nvidia.

X.Perry_Mental
2015-08-25, 09:59:27
Immer davon ausgehend, dass AMD bei GF herstellen lässt.:wink:
Falls AMD die Produktion (für einzelne GPUs) bei GF geplant hat, werden sie bei Verzögerungen aus Kostengründen wohl warten müssen. Ich kann mir nicht vorstellen, dass man wie im Fall von Apple einen Chip bei zwei Herstellern in Auftrag gegeben hat, um so etwas abzupuffern.

StefanV
2015-08-25, 10:30:34
Immer davon ausgehend, dass AMD bei GF herstellen lässt.:wink:

Wenn nicht, hätten sie ein ähnliches Launchfenster wie Nvidia.
Wovon man inzwischen ausgehen kann, da AMD ja eh Verträge bzüglich Mindestabnahme Menge mit GF hat...
So spart man sich halt die Strafzahlungen ;)

Unicous
2015-08-25, 10:46:50
Wovon man inzwischen ausgehen kann, da AMD ja eh Verträge bzüglich Mindestabnahme Menge mit GF hat...
So spart man sich halt die Strafzahlungen ;)

Wenn du aufgepasst hättest, würdest du wissen, dass es diese nicht mehr gibt. ;)

AMD hat jedenfalls bei beiden Fertigern "getestet", sieht man bei Linkedin und auch Fottemberg behauptet das.


Zen IP and GCN 2.0 IP will be validated on 14nm and 16nm thanks to AMD Custom and Semi-Custom partners. After the validation, AMD can build CPUs and GPUs for itself easily.
http://semiaccurate.com/forums/showpost.php?p=242994&postcount=45

Ob GF am Ende gewonnen hat? Könnte sein. Dass aber TSMC vollkommen außen vor ist, sollte man nicht einfach so ohne konkrete Anhaltspunkte annehmen. Im Moment ist es durchaus möglich, dass GF GPU designs fertigen könnte, ob es alle sind, einige, oder keine wird sich noch herausstellen.

MilesEdgeworth
2015-08-25, 13:36:15
Anscheinend ist nun AMD auch doch TSMC-Kunde bei den Finfet-Prozessen:

“While securing a portion of Apple's A9 chip orders, TSMC with its 16nm FinFET node has also obtained orders from AMD, Avago, Broadcom, HiSilicon Technologies, LG Electronics, MediaTek, Nvidia and Xilinx. The foundry is looking to aggressively ramp up its market share in the FinFET segment, the sources indicated”.

Quelle: BitsandChips (http://www.bitsandchips.it/english/52-english-news/5930-amd-and-nvidia-will-produce-at-tsmc-on-16nm-finfet) via Digitimes (http://www.digitimes.com/news/a20150824PD205.html)

Nakai
2015-08-25, 13:40:30
Man sollte hierbei auch anmerken, dass der Schritt von GF14nm => TSMC14/16nm wohl weniger problematisch ist, als bei 28nm-Prozessen.

Gate-First vs. Gate-Last

Unicous
2015-08-25, 13:57:48
Wie ich ja gesagt hatte: AMD trennt sich nicht so mir nichts dir nichts von TSMC, bloß weil sie mit GF verbandelt sind. Zumal GF einfach einen beschissenen track record hat und sie immer wieder hat hängen lassen. Zuerst hat sich 32nm verzögert, dann 28nm und dann haben sie wahrscheinlich im gegenseitigen Einvernehmen 20nm gecancelt. Bei 14nm sieht es bei GF auch nicht rosig aus, jedenfalls wird es gemunkelt, und Samsung scheint mit LPP auch Probleme zu haben.

TSMC hingegen hat immer geliefert, auch wenn sie sich natürlich auch nicht an ihre roadmaps gehalten haben und Apple als ihren einzigen Gott verehren.

Bei linkedin gibt es auch zig Einträge von yield testing, test vehicles etc. die bei 16nm und 14nm gestartet werden, oder einfach nur FF oder Finfet oder was ihnen sonst noch für tolle Namen einfallen.

Was am Ende dabei herauskommt, wissen wir spätestens bei den ersten package shots.

fondness
2015-08-27, 11:20:53
AMD Next Generation ‘Arctic Islands’ Graphic Cards Will Be Manufactured on the 16nm FinFET+ Node From TSMC
http://wccftech.com/amd-arctic-islands-next-generation-graphics-16-nm-finfet-tsmc/

Also wieder nichts mit GF, die Prozesse scheinen wohl einfach nicht gut genug zu sein.

Menace
2015-08-27, 12:57:50
War nicht einmal im Gespräch, dass GF die Fertigung von Samsung übernommen hätte und es deshalb jetzt besser läuft? :confused:

Unicous
2015-08-27, 13:00:46
@fondness

Dir ist schon klar, dass der Digitimes Artikel hier schon verlinkt wurde und du WTF-Tech mal wieder Klickzahlen verschaffst.:rolleyes:

Ravenhearth
2015-08-27, 13:01:10
Vielleicht hat TSMC auch einfach nur einen besseren Preis gemacht? Oder mehr Kapazitäten frei?

Unicous
2015-08-27, 13:08:39
GF ist später dran als Samsung, weil sie erst später angefangen haben 14 LPP/E zu validieren. Zu der Zeit hat Samsung schon eine Weile rumexperimentiert während GF noch an 14XM rumgebastelt hat.

Wie bei jeder Generation der letzten Jahre hat AMD bei beiden Foundries test/yield vehicles gestartet und ich schätze, dass es eh klar war dass sie bei TSMC fertigen lassen, oder es bei GF weiterhin nicht rund läuft ... siehe Apple die sich wohl wieder TSMC zugewandt haben.

Raff
2015-10-02, 11:29:49
AMD Might Face Trouble Sourcing HBM2 Chips For Arctic Islands GPUs in 2016 – Mainstream GPU Lineup May Stick With HBM1 (http://wccftech.com/amd-allegedly-facing-trouble-sourcing-hbm2-chips-arctic-islands-gpus-mainstream-lineup-stick-hbm1/)

Ein Gerücht. Ich frage mich: Warum sollte das eintreten? AMD hat viel Erfahrung mit HBM und mit SK-Hynix einen starken Partner. Nvidia wird wohl auch von Samsung Speicherchips beziehen können. Aber macht es das automatisch einfach für Nvidia? Mitte-Ende 2016 mit 4 GiB HBM anzutreten wäre arg lahm.

MfG,
Raff

y33H@
2015-10-02, 11:43:25
Verlink doch wenigstens Tweaktown und nicht WTF-Tech :usad:

Abgesehen davon, dass es kein "HBM2" gibt, glaube ich nicht an das Gerücht, da Hynix und Samsung HBM mit 2-8 GByte pro Stack produzieren.

X.Perry_Mental
2015-10-02, 11:56:37
Ein Gerücht. Ich frage mich: Warum sollte das eintreten?
Einen Grund nennen sie ja nicht. Der zentrele Punkt dieser wilden Geschichte ist (so wie ich das verstehe), dass SK Hynix bei HBM(1) an Anfang nicht ausreichend liefern konnte.
Ausgehend davon extrapoliert man nun, dass das bei HBM(2) ja wieder passieren könnte. Wenn das dann so kommen sollte und falls Samsung schneller/besser liefern würde, dann könnte nVidia einen Vorteil haben, falls sie im Gegensatz zu AMD auch Chips von Samsung verbauen würden...

fondness
2015-10-02, 12:03:42
Warum genau sollte AMD keine Chips von Samsung verbauen können?

Grabhopser
2015-10-02, 12:07:37
Wieso sollte AMD nicht auch Samsung Chips verwenden, falls SK Hynix HBM(2) nicht gebacken bekommt? edit: zu spät
Einen bedingungslosen Exklusivvertrag wird AMD doch wohl nicht unterschrieben haben.

tm0975
2015-10-02, 13:47:45
Abgesehen davon glaube ich nicht an das Gerücht, da Hynix und Samsung HBM mit 2-8 GByte pro Stack produzieren.

zumindest die 8 gb stacks werden wohl in 2016 die ausnahme bleiben. yields und verfügbarkeit werden sicherlich sehr gering und die preise sehr hoch sein. wenn ich aber sehe, dass amd nahezu 10 jahre an dem thema rumgedocktort hat, halte ich es eher für möglich, dass bei nvidia da nächstes jahr noch was schiefgehen könnte. war ja beim thermi ähnlich.

y33H@
2015-10-02, 14:21:03
Die 8-Hi-Stacks scheint selbst NV nicht zu nutzen, die letzte Roadmap sagte 16 statt 32 GB für die Quadro-/Tesla-Versionen von Pascal. Ergo muss "nur" die yield für die 2 GB und 4 GB passen.

OBrian
2015-10-03, 17:32:18
AMD wollte ja möglichst alle Karten so schnell wie möglich ersetzen, da werden dann sicherlich mehrere mit HBM dabei sein (schätze High-End oberhalb der jetzigen Fiji, Performance ungefähr auf Fiji-Niveau und eine obere Mainstreamkarte auf Niveau Tonga-Hawaii). Falls die Menge an HBM2 also nicht für alles reicht, dann werden sie eine dieser Karten verzögern, aber wohl nicht alle. Oder alle bringen, aber preislich so hoch einordnen, daß die geringen verfügbaren Mengen nicht zu DDR-Verhältnissen führen.

Daher jetzt zu behaupten, es gäbe GAR keine HBM2-Karten von AMD in 2016, ist recht unglaubwürdig.

AffenJack
2015-10-14, 19:03:56
Mal was das eher zeigt, dass auch AMD Gddr5X nutzen wird und nicht nur HBM.
AMD
Juli 2011 – März 2015 (3 Jahre 9 Monate)sunnyvale, ca

High speed RX front-end sampler design for 14nm GDDR5X PHY.

https://www.linkedin.com/in/jiapinghu

Sieht bei beiden nach GDDR5X im unteren Segment aus im nächsten Jahr.

iuno
2015-10-14, 19:21:01
und 14nm wäre nicht TSMC, sondern GF
Könnte aber auch was mit einer speziellen APU zu tun haben, wenn man sich den Rest anschaut
High speed, low power RX phase interpolator and clock tree design for 20nm MIPI PHY, 28nm USB3/SATA & GDDR5 PHY.

Skysnake
2015-10-15, 07:33:36
PIs verwendest du heutzutage in sehr vielen PHYs. Sowohl auf der Sende- als auch auf der Empfängerseite. Das hat also erstmal nicht sehr viel zu bedeuten.

Menace
2015-10-19, 16:05:31
Ab wann ist eigentlich mit den ersten Greenland-Karten zu rechnen? Gibt es da schon Gerüchte?

Außerdem sprach ja Lisa Su (http://wccftech.com/amd-next-generation-arctic-islands-graphic-cards-double-performance-watt-current-generation/) von doppelter Effizienz im Vergleich zu den Fiji-Produkten. Warum meint PCGames (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Verfuegbarkeit-R9-Fury-X-Nano-2016-1174904/), dass es sich dabei um den Nano-Pendant handelt und nicht die Fury XT?

Ab wann wird die Nano von der Leistung eingeholt bzw. überholt? Gibt es dafür schon Anhaltspunkte?