PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

Kartenlehrling
2015-10-19, 16:13:37
Genauso kann die doppelte effienz immer noch auf die letzten Hawaii handlen wie es schon bei der Nano.
Ich lese nicht daraus, das mit der Verdoppelte Effizienz Fiji gemeint ist.

“We are also focused on delivering our next generation GPUs in 2016 which is going to improve performance per watt by two times compared to our current offerings,
based on design and architectural enhancements as well as advanced FinFET products process technology.” – Lisa Su, AMD

OBrian
2015-10-19, 18:54:07
naja, es müßte schon mit dem Teufel zugehen, wenn die Effizienz nicht besser wäre als bei Fiji, denn das hieße ja, daß die Architektur so stark ineffizienter würde, daß sie die Verbesserungen durch den Shrink komplett negierte. Und das ist ja wohl wirklich unsinnig.

Schlimmstenfalls ist es ein Mittelwert, der sich aus "weniger als 2x besser als Fiji" und "mehr als 2x besser als Hawaii" ergibt. Aber auch das wäre schon ein Armutszeugnis.

Ich nehme mal einfach an, daß bei den spezifischen Karten, die es geben wird, nicht unbedingt die Effizienz der Nano so irre verbessert wird, denn die ist ja nur so effizient, weil der Chip nicht ansatzweise ausgefahren wird, wie ein auf 80 km/h gedrosselter Ferrari, und das ist ja eigentlich Perlen vor die Säue. Wenn sie mehr Spielraum haben, können sie sparsame Karten raushauen, die auch ihre mögliche Leistung umsetzen.

Menace
2015-10-19, 19:09:38
Ich nehme mal einfach an, daß bei den spezifischen Karten, die es geben wird, nicht unbedingt die Effizienz der Nano so irre verbessert wird, denn die ist ja nur so effizient, weil der Chip nicht ansatzweise ausgefahren wird, wie ein auf 80 km/h gedrosselter Ferrari, und das ist ja eigentlich Perlen vor die Säue. Wenn sie mehr Spielraum haben, können sie sparsame Karten raushauen, die auch ihre mögliche Leistung umsetzen.

Siehst Du, ich sehe es genau umgekehrt. Das Rausquetschen der letzten bisschen Leistung auf Kosten des Verbrauchs brauche ich nicht. 50 Watt weniger bei ordentlicher Leistung wäre mir lieber. Deshalb halte ich die Nano von AMD für eine der derzeit besten Karten (imho), allerdings zu teuer. Trotzdem werde ich mir wohl den Luxus gönnen.

OBrian
2015-10-19, 23:55:31
Kein Widerspruch meinerseits, ich finde das genauso. Aber AMD macht mit Karten wie der Nano bestimmt weniger Geld als mit den anderen Fijis, denn Performance ist nun mal das, wonach die meisten die Karten einsortieren. Also werden entweder weniger Nanos umgesetzt (die bei gleichem Preis etwas langsamer sind) oder die Nano wird billiger, was dann den Gewinn schmälert.

Kommt letztlich darauf an, wie gut Nvidias nächste Generation wird, d.h. ob sich AMD strecken muß oder es locker angehen kann, letzteres würde geringere Taktraten und damit bessere Effizienz bedeuten.

Sinnvoll wäre es ja, es Nvidia gleichzutun und beim Launch den Testern besonders effiziente Referenzkarten zu geben, später dann durch billigere Designs abzulösen, die deutlich mehr verbrauchen können, ohne daß dies den Ruf der Karten noch ändert.

Menace
2015-10-20, 06:23:55
Sinnvoll wäre es ja, es Nvidia gleichzutun und beim Launch den Testern besonders effiziente Referenzkarten zu geben, später dann durch billigere Designs abzulösen, die deutlich mehr verbrauchen können, ohne daß dies den Ruf der Karten noch ändert.

Stimmt, da gebe ich Dir Recht (wie man z.B. auch bei den Diskussionen hier feststellen kann). Allerdings sollte dann AMD es auch schaffen, alle eventuelle Kritiken zu berücksichtigen (Nano: Lüfter muss stehen :rolleyes:, Spulenfiepen, Pumpengeräusche, ....). Besser wäre es wohl einen Hersteller eine effiziente Version gleich zu Beginn zu bringen.

StefanV
2015-10-20, 10:02:05
AMD braucht, wie bei der 290, 2 BIOSse auf der gleichen KArte:
Silent + Performance.
Beides mit ganz anderen Power Targets....


Eines dann im optimalen Verbrauchsbereich, eines für max. Leistung...

Menace
2015-10-20, 10:07:27
Stimmt. Das wäre perfekt.

y33H@
2015-10-20, 10:47:12
Sinnvoll wäre es ja, es Nvidia gleichzutun und beim Launch den Testern besonders effiziente Referenzkarten zu geben [...]Der Nachtest mit Retail-Samples hat regelmäßig gezeigt, dass dem nicht so ist. Weder bei AMD noch bei Intel noch bei Nvidia.

Hübie
2015-10-20, 11:57:16
AMD braucht, wie bei der 290, 2 BIOSse auf der gleichen KArte:
Silent + Performance.
Beides mit ganz anderen Power Targets....


Eines dann im optimalen Verbrauchsbereich, eines für max. Leistung...

Das wäre in der Tat mal eine super Idee. So kann der User entscheiden ob Effizienz oder Performance Vorrang haben.

Skysnake
2015-10-20, 12:21:38
Haben Sie doch quasi schon mit dem Quiet BIOS gemacht, und was es gebracht hat, wissen wir ja.

Leistungsaufname vom Über-BIOS + Leistung von Quiet-BIOS Blieb in den Köpfen der Leute hängen...

Hübie
2015-10-20, 12:58:58
Ja weil Hawaii nun mal Müll war / ist. 94 Grad Celsius TT und das bei weniger Leistung trotz mehr Verbrauch als die Konkurrenz. Fiji hingegen legt doppelte Perf / Watt aufs Parkett. Schlechter Vergleich.
Dazu kommt noch die Tatsache dass Menschen sich negative Erfahrungen schneller intensiv einprägen als positive Erfahrungen.

HOT
2015-10-20, 13:22:32
Ähm, den Chip gibts seit 2013 und der ist durchaus fähig mit guter Leistung auch kommende DX12-Titel zu meistern - es gab eigentlich selten einen Chip mit einer so langen Lebensdauer auf dem Niveau. Zudem verkauft er sich auch momentan sehr gut, vor allem die 390 von Powercolor und Sapphire. Nur mal von wegen Müll und so.
Die Leistungsaufnahme ist zwar hoch, das ist aber auch das einzige echte Manko. Nichts ist perfekt.

Hübie
2015-10-20, 13:24:06
Oh. Ich meinte in Hinblick auf Perf / W im Vergleich zur Konkurrenz (inner wie außer Haus).

y33H@
2015-10-20, 13:59:33
Leistungsaufname vom Über-BIOS + Leistung von Quiet-BIOS Blieb in den Köpfen der Leute hängen.Ernsthaft? Ich habe die 290X immer mit 1 GHz im Kopf, kenne keinen der das Teil (trotz Lautheit) im Quiet Mode betreibt.

Skysnake
2015-10-20, 14:09:09
Ähm, den Chip gibts seit 2013 und der ist durchaus fähig mit guter Leistung auch kommende DX12-Titel zu meistern - es gab eigentlich selten einen Chip mit einer so langen Lebensdauer auf dem Niveau. Zudem verkauft er sich auch momentan sehr gut, vor allem die 390 von Powercolor und Sapphire. Nur mal von wegen Müll und so.
Die Leistungsaufnahme ist zwar hoch, das ist aber auch das einzige echte Manko. Nichts ist perfekt.
Vor allem bezüglich DP/W gibt es keine effizientere GPU bis heute....

Ernsthaft? Ich habe die 290X immer mit 1 GHz im Kopf, kenne keinen der das Teil (trotz Lautheit) im Quiet Mode betreibt.
Du, ich und viele andere auch, wobei es an sich ja nicht darum geht, wie man die Karte betreibt, sondern darum, wie Sie gedanklich abschneidet, und da meine ich mich selbst hier im Forum an Vergleiche zu erinnern, wo eben nur Quite Leistung in Bezug genommen wurde bei gleichzeitig Über Leistungsaufnahme. Das mag eventuell an manch nicht ganz klarem Test liegen, wo das nicht hinreichend kommuniziert wurde, aber das spielt keine Rolle, so etwas kam durchaus vor.

HOT
2015-10-20, 15:13:33
Ernsthaft? Ich habe die 290X immer mit 1 GHz im Kopf, kenne keinen der das Teil (trotz Lautheit) im Quiet Mode betreibt.
Die Custom-Designs werden doch zu 99% im Quiet-Modus betrieben. Die laufen doch zum größten Teil auch Taktstabil. Nur die Referenzdesigns mit dem bekackten Radialkühler sind von dieser Problematik doch ernsthaft betroffen. Die werden ja dann auch noch so heiß, dass die deswegen extra viel Saft verbraten.
Allerdings muss ich zustimmen, dass diese Performance-BIOS-Geschichte eher nachteilhaft für AMD war, dann die Leistungsaufnahme war ja damals so hoch, dass das ne Sensationsmeldung wert war. Deshalb hat sich auch Hawaii = ineffizient so eingebrannt obwohl das in der Verhältnismäßigkeit gar nicht stimmt.
Mit Maxwell kann GCN1 natürlich nicht mithalten, allerdings sind das ja auch zwei unterschiedliche Konzepte. Hinzu kommt die völlig unnötig schlechte DX11-Drawcall-Performance des Treibers, dafür kann der Hawaii-Chip ja nix. Im Gegenteil, bei den neueren APIs zeigt Hawaii ja große Stärke bei den Drawcalls.

Loeschzwerg
2015-10-20, 19:28:49
Der Fehler war nicht die Idee mit den unterschiedlichen "Optionen", sondern die fehlende Trennung dieser in Form von Produkten.

R9 290X "XTX" => Uber Bios
R9 290X => Quiet Bios

Ein Produkt (Hawaii) was als Speerspitze herhalten muss und eines welches auf Vernunft getrimmt ist. Die Reviews können dann auf die einzelnen Vorteile gezielter eingehen und es entsteht ein besserer Eindruck über das gesamte Lineup.

Blediator16
2015-10-20, 20:56:40
Wenn Hawaii Müll ist, was ist dann Kepler.

reaperrr
2015-10-21, 05:15:20
R9 290X "XTX" => Uber Bios
R9 290X => Quiet Bios

Dann hätte man die Quiet-Variante auch gleich weglassen können, denn u.a. das Exemplar von computerbase.de landet im Quiet-Modus (den sie beim neuen Benchmark-Parcour auch ausschließlich verwendet haben) schlappe 1-2% vor der 290, weil letztere unter Last eben nicht so runtertaktet.

Dural
2015-10-21, 09:35:39
Wenn Hawaii Müll ist, was ist dann Kepler.
Schneller und Sparsamer. :rolleyes:

Der GK110 hat übrigens so gut wie immer 1200-1300MHz Takt mit gemacht, das dürfte sogar für die Fury reichen (ohne Gewähr)

y33H@
2015-10-21, 10:04:41
Dann hätte man die Quiet-Variante auch gleich weglassen können, denn u.a. das Exemplar von computerbase.de landet im Quiet-Modus (den sie beim neuen Benchmark-Parcour auch ausschließlich verwendet haben)Ich sehe da durchweg eine "290X OC-Karte": http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/3/#abschnitt_ultrahdtests_in_3840__2160_4k

Wo siehst du ausschließlich (!) den Quiet-Mode?

HOT
2015-10-21, 10:55:15
Dann hätte man die Quiet-Variante auch gleich weglassen können, denn u.a. das Exemplar von computerbase.de landet im Quiet-Modus (den sie beim neuen Benchmark-Parcour auch ausschließlich verwendet haben) schlappe 1-2% vor der 290, weil letztere unter Last eben nicht so runtertaktet.
Ja Moment, das war ja so nicht geplant. Die 290 sollte ja ein restriktiveres Powerlimit und weniger Takt haben, was mit einem der ersten Treibern allerdings gelöst wurde. Deshalb gab es Nachtests zur 290. Damit war das Strombudget sehr nah am 290X Referenzdesign, was in fast gleicher Leistung im Quiet-Mode mündete.
http://ht4u.net/reviews/2013/amd_radeon_r9_290_-_hawaii_pro_im_test/index3.php

Ich sehe da durchweg eine "290X OC-Karte": http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/3/#abschnitt_ultrahdtests_in_3840__2160_4k

Wo siehst du ausschließlich (!) den Quiet-Mode?
Weil das das Standardbios auf der Karte ist vielleicht? Das PerformanceBIOS nutzt doch keiner. Das muss man doch selber einstellen. Das PerformanceBIOS schaltet einfach die Stromsparmechanismen in Powertune ab, dann gibts nur noch 450W Maxpower (oder 500W wie bei den MSI 390ern) und soviel wie Hawaii dann eben braucht.

Botcruscher
2015-10-21, 11:17:46
Haben Sie doch quasi schon mit dem Quiet BIOS gemacht, und was es gebracht hat, wissen wir ja.

Leistungsaufname vom Über-BIOS + Leistung von Quiet-BIOS Blieb in den Köpfen der Leute hängen...

Eben nicht. Der Quiet-Mode regelt ja nur den Lüfter anders. Damit kocht die Karte im eigenen Saft und der Über ist dadurch auch noch effizienter. Die Aktion war bestenfalls halbherzig.
Hätte der Quiet-Mode Spannung und Takt geregelt, würde den jeder loben. Bestes Beispiel ist die Nano. Mit weniger Kernspannung kann auch Hawaii um 50W gedrückt werden. Dazu noch etwas weniger (Boost)Takt und fertig.

AMDs Problem sind weniger die Chips. Das Marketing versagt einfach immer konsequent. Ordentlicher Quietmode für die 290 und Herstellerkarten ab Start...
Fury(X) Pumpe... Nano hätte mit als erste kommen müssen...

Das noch keine große Testseite Fury(x) mit Nano Einstellungen getestet hat wundert mich.

reaperrr
2015-10-21, 11:38:25
Ich sehe da durchweg eine "290X OC-Karte": http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/3/#abschnitt_ultrahdtests_in_3840__2160_4k

Wo siehst du ausschließlich (!) den Quiet-Mode?
Ich meinte das bezogen auf das Referenzdesign, früher gab es dort noch Ergebnisse von beiden Modi. Wobei ich die OC-Variante übersehen oder vergessen haben muss.

Loeschzwerg
2015-10-21, 12:01:57
Ja Moment, das war ja so nicht geplant. Die 290 sollte ja ein restriktiveres Powerlimit und weniger Takt haben, was mit einem der ersten Treibern allerdings gelöst wurde. Deshalb gab es Nachtests zur 290. Damit war das Strombudget sehr nah am 290X Referenzdesign, was in fast gleicher Leistung im Quiet-Mode mündete.
http://ht4u.net/reviews/2013/amd_radeon_r9_290_-_hawaii_pro_im_test/index3.php


Eben, dadurch hat sich AMD eigentlich das eigene Lineup zerschossen. Man hätte hier bei der moderaten Linie bleiben müssen.

290 mit 40 CUs und max. ~910MHz
290X mit 44CUs und max. ~945MHz

Jeweils mit leisem Lüfterprofil.

Dazu eine 290 "XTX" mit 44CUs und maximaler Takt in begrenzter Stückzahl als Titan Gegner.

Aber ist alles OT und Schnee von Gestern.

horn 12
2015-10-21, 12:59:59
Eben!

Durch Fury(X) ist es zwar besser geworden, optimal aber bei Weitem Nicht!
Die fiepende Pumpe, teilweise Fiepende PCB hat das Positive der Fury X weit in den HINTERGRUND RÜCKEN lassen

HOT
2015-10-21, 13:59:57
Gibt nicht viel positives zur Fury mAn. 16 CUs pro Frontend find ich doof, 4GB ist doof. Die wurd im Gegenteil zu positiv dargestellt, wobei ich das verstehe, denn die Mags begreifen offenbar langsam, dass man mit nur NV kein Heft/keine Seite betreiben kann. Die leben ja von Konkurrenz. Einzig Sapphire hats eben rausgerissen mit dem genialen Kühler+Lüftersteuerung. Die CustomPCBs von Asus und anderen verhageln mMn aufgrund der übertriebenen Stromversorgung die Energiebilanz. Wenn man sich das bei Hawaii anschaut ist das ganz schön bitter, dass eine Powercolor mit Referenzdesign mit sehr guten Bauteilen irgendwie mal eben 50-70W weniger aus der Steckdose ziehen und damit trotz schwächerem Kühler leiser sind als die Asus Strix mit übertriebenen Custom-PCB beispielsweise. Ich bin ein absoluter Fan von der Powercolor 390 (und von der Sapphire Fury), beides Referenzdesigns mit qualitativ hochwertigen Bauteilen und guten Kühlern.

Mal sehen, wie das bei der nächsten Generation eben klappt. Ich hoffe, man bleibt bei Luftkühlung und hält die Referenz-Designs moderat, damit die mit Standard-Radial-Kühlern gut harmonieren. Aber AMD ist ja offenbar eh vor NV auf dem Markt.

horn 12
2015-10-21, 15:11:16
Wer sagt dies, dass AMD früher am Markt ist
Vor Spätsommer 2016 wird man kaum eine Fury (X) oder GTX 980TI ablösen können,- und zudem kommt noch der Preis hinzu. (wahrscheinlich >=800 Euro)

tm0975
2015-10-21, 17:23:36
Vor Spätsommer 2016 wird man kaum eine Fury (X) oder GTX 980TI ablösen können,- und zudem kommt noch der Preis hinzu. (wahrscheinlich >=800 Euro)

ach quatsch. 650 € maximal in italien ;D;D;D

Digidi
2015-10-21, 18:41:32
Gibt nicht viel positives zur Fury mAn. 16 CUs pro Frontend find ich doof, 4GB ist doof. .


Und warum sind 16cus pro Frontenend doof? Das Frontend von AMD kann ja unter DX12 mehr leisten als das von Nvidia. Hinzu kommt das die ACEs auch ohne das Frontende die Shader auslasten können. Also warum etwas überdimensionieren was man nicht braucht. Das gleiche beim Speicher!

Wenn dann ist Nvidia doof. Bekommt trotz größerem Frontend weniger Drawcalls durch! (Siehe DX12 3dmark DrawCalltest) Hat weniger Shader zur Verfügung. Der Speicher ist Ultra langsam angebunden. Hätte AMD einen größeren Marktanteil und wäre die Software auf AMD zugeschnitten würde Nvidia kein Land sehen. Das weiß Nvidia ganz genau und deshalb drücken sie ja auch Gameworks in den Markt.

Menace
2015-10-21, 19:08:04
Ich bin nun wirklich kein Freund von nvidia, aber ich muss trotzdem widersprechen. Meiner Meinung nach hat nvidia in ihrer aktuellen Modellreihe einfach sehr effiziente Karten auf den Markt gebracht und dadurch nicht nur wegen irgendwelche "unfaire" Aktionen ihre Marktposition ausgebaut.

HOT
2015-10-21, 19:23:17
Könnte aber durch die Optimierung auf FL11_0 in der Architektur in DX12 (FL11_1+) langfristig trotzdem das Nachsehen haben. Es wird sich zeigen, wie gut Maxwell wirklich ist.

Dural
2015-10-22, 10:59:44
Wenn DX12 aktuell wird sind "echte" DX12 Karten auf dem Markt, das heisst 16nm+HBM+halber Verbrauch.

Wen interessiert da dann noch das alte 28nm zeug?

Duplex
2015-10-22, 11:14:12
Wenn DX12 aktuell wird sind "echte" DX12 Karten auf dem Markt, das heisst 16nm+HBM+halber Verbrauch.

Wen interessiert da dann noch das alte 28nm zeug?
Exakt!

horn 12
2015-10-22, 11:31:59
Und Maxwell 2 muss erst mal DX12 die ACE unterstützt bekommen :-)

tm0975
2015-10-22, 12:34:47
Wenn DX12 aktuell wird sind "echte" DX12 Karten auf dem Markt, das heisst 16nm+HBM+halber Verbrauch.

Wen interessiert da dann noch das alte 28nm zeug?

diejenigen, die weniger als 300 € für eine grafikkarte ausgeben wollen und dennoch ordentlcih dx12 leistung haben wollen...

Schnoesel
2015-10-22, 12:41:20
Das gilt eventuell für Leute die sich jedes Jahr eine neue Karte kaufen für alle anderen ist diese Argumentation völlig daneben. Das erinnert mich immer an: "Bevor die 3GB der GTX 780 TI limitieren ..." was auch nachweislich falsch war/ist.

y33H@
2015-10-23, 09:21:59
Laut WTF-Tech hatten Baffin und Ellesmere ihren Tape-out.

M4xw0lf
2015-10-23, 09:36:56
Greenland>Baffin>Ellesmere? Zumindest wenn ich mir das bei Wikipedia so anschaue... ^^

Hübie
2015-10-23, 09:56:34
Laut WTF-Tech hatten Baffin und Ellesmere ihren Tape-out.

Gurken. Dann wirds wohl kein top to bottom release, oder was denkt ihr?

HOT
2015-10-23, 10:10:03
Ich denke, dass Baffin und Ellesmere mit GDDR kommen und deshalb erheblich kürzer für die Validierung brauchen. Dann werden wohl alle 3 Chip in Q3 2016 erscheinen.
Und die "Gurke" Baffin dürfte Fiji gefährlich nahe kommen oder gar übertreffen.

M4xw0lf
2015-10-23, 10:12:07
Wurde Greenland nicht schon outgetapet (:freak:) ?

HOT
2015-10-23, 10:15:11
Nach jetzigem Stand sah das wohl so aus:
Juli 2015
- Summit Ridge (GloFo)
- Greenland (GloFo)
September 2015
- K12 (TSMC)
Oktober 2015
- Ellesmere (TSMC o. GloFo)
- Baffin (TSMC o. GloFo)

Hübie
2015-10-23, 10:29:23
Alles unter highend ist ne Gurke :D

tm0975
2015-10-23, 11:20:52
Gurken. Dann wirds wohl kein top to bottom release, oder was denkt ihr?

Lisa sagte ja, dass das neue lineup in den nächsten quartalen kommt. ich vermute, dass man in q1/16 (also amd-typisch am letzten donnerstag des quartals) im mittleren bereich beginnt und die relativ großen chips der 390/390x zuerst ersetzen wird durch deutlich kleinere, gleich schnelle chips mit 256 bit si mit gddr5 und diese als 480/480x kommen.

Ailuros
2015-10-23, 11:23:28
Alles unter highend ist ne Gurke :D

Spass beiseite, mir macht die eigentliche hw keine Sorge. Ich will eher wissen ob sie endlich genug Treiber-engineers haben.

iuno
2015-10-23, 14:38:06
Nach jetzigem Stand sah das wohl so aus:
Juli 2015
- Summit Ridge (GloFo)
Summit Ridge = Zen im Juli? Dachte Ende 2016 :confused:

Spass beiseite, mir macht die eigentliche hw keine Sorge. Ich will eher wissen ob sie endlich genug Treiber-engineers haben.
Mich interessiert vor allem, wie das ganze unter Linux aufgeht. Naechstes Jahr wird man dann sehen, ob sie den Kram geoeffnet haben nach dem Motto "sollen sich andere drum kuemmern" weil sie keine Kapazitaeten haben oder aber es wirklich etwas wird und die neue Hardware (auch gleich von Beginn an!) gut und umfassend unterstuetzt wird. Im darueber reden sind sie ja schon ganz gut (siehe etwa die Slides zu den embedded APUs wo sie wieder extra auf ihren fully open stack eingehen).

HOT
2015-10-23, 15:10:14
Tapeout... nicht release...

aufkrawall
2015-10-23, 15:17:08
Spass beiseite, mir macht die eigentliche hw keine Sorge. Ich will eher wissen ob sie endlich genug Treiber-engineers haben.
Wer hat denn genug Entwickler? Nvidia lässt Bugs auch gerne mal über Monate schleifen und AMD war in letzter Zeit schon bei vielen DX11 Spielen konkurrenzfähig. Für 12 müssen sie wohl eh nicht mehr so viel machen.

reaperrr
2015-10-24, 10:51:11
Meine Prognose ist, dass es von AMD innerhalb der Arctic Islands keinen Chip geben wird, den man im Sinne von Fiji/GM200 als High-End bezeichnen würde.

AMD's eigene Folien deuten stark darauf hin, dass Greenland "nur" 2 HBM2 Chips und etwas über 4 TFLOPs DP-Leistung haben wird.

Deutet für mich beides verdammt stark darauf hin, dass Greenland - auch in Sachen Chipgröße - eher der geistige Nachfolger von Tahiti wird, und irgendwo in der Region von 350-400mm² landet.
Von den Spezifikationen erwarte ich quasi einen Fiji ohne dessen Schwächen, also mit
-breiterem oder effizienterem Frontend,
-mindestens 8 ACEs (Fiji hat ja nur 4),
-1:2 DP-Rate, 96-128 ROPs oder wenigstens verdoppelte Z/Stencil-Rate, -verdoppelte Bandbreite einiger Caches,
-evtl. verdoppelter L2-Cache,
-nochmal leicht bis moderat verbesserte Tesselation pro Pipeline,
-leicht verbesserte DCC,
-Erhöhung der Stromeffizienz und/oder Taktraten,
-verbesserte FP16-Unterstützung usw.

Und ersetzen wird er sowohl Hawaii als auch Fiji. Letzterer ist durch Chip-Größe und HBM1 einfach zu teuer herzustellen und durch nur 4 ACEs, 1:16 DP und 4GB nicht zukunftstauglich genug, um die hohen Preise lange halten zu können.


Ich vermute, dass AMD's Line-Up etwa so aussehen wird:

Greenland (ersetzt Hawaii und Fiji):
- ~360-370mm²
- 8-fach Frontend
- 16 ACEs
- 64 CUs, 1:2 DP-Rate
- 128 ROPs
- 4 MB L2$
- 8 GB HBM2 @ 2GHz @2048 bit
- Kann über AMD's Fabric sowohl mit CPUs als auch zweitem Greenland auf einem Package zusammengeschaltet werden.

Baffin (ersetzt Tonga und Pitcairn):
- ~220mm²
- 4-fach Frontend
- 8 ACEs
- 40 oder 44 CUs, 1:16 DP
- 64 ROPs
- 2 MB L2$
- 4-8 GB GDDR5(X) @ 256bit @7Gbps (10+ für GDDR5X, evtl. erst beim Refresh)

Ellesmere (ersetzt Bonaire):
- ~120mm²
- 2-fach FE
- 8 ACEs
- 20-24 CUs, 1:16 DP
- 32 ROPs
- 1 MB L2$
- 2-4 GB GDDR5(X) @ 128bit @7Gbps (10+ für GDDR5X, evtl. erst beim Refresh)

iuno
2015-10-24, 11:15:23
Tapeout... nicht release...
oops :rolleyes:
Meine Prognose ist, dass es von AMD innerhalb der Arctic Islands keinen Chip geben wird, den man im Sinne von Fiji/GM200 als High-End bezeichnen würde.

AMD's eigene Folien deuten stark darauf hin, dass Greenland "nur" 2 HBM2 Chips und etwas über 4 TFLOPs DP-Leistung haben wird.

-mindestens 8 ACEs (Fiji hat ja nur 4)

1) Ist nicht quasi schon klar, dass zu Beginn von keiner Seite ein Monster um 600mm² in 14/16nm kommen wird?
2) von welchen Folien sprichst du?
3) Fiji hat nur 4 ACEs, aber dafür noch 2 HWS, wobei einer wohl 2 äquivalent zu 2 ACEs ist

Locuza
2015-10-24, 11:20:11
@ reaperr

AMD hat bei Fiji keine genaue Erörterung bezüglich des Front-Ends hinterlegt.
Zu Anfang haben sie ihn mit 8 ACEs eingezeichnet, dann mit 4 ACEs + 2 HWS (Hardware Wave Switch?).
Dave Baumann hat gesagt, dass nicht alle ACEs gleich sind.
Irgendwo gab es die Behauptung, zwei HWS können das gleiche, wie 4 ACEs, was die Compute-Queues angeht.
Vielleicht hat AMD die Balance und Granularität zwischen den Schedulern geändert.
4x8 und 2x16?

Es stellt sich sowieso die Frage, wie sehr das im praktischem Umfeld interessiert, entsprechend fällt eine Beurteilung flach, wie viel nötig oder unnötig sind.

@ iuno

Er spricht von zwei Folien, die Fudzilla geleaked hat.
http://3.f.ix.de/imgs/18/1/5/6/5/4/5/1/Zeppelin-932ac6092c0f1713.jpeg

http://www.fudzilla.com/media/k2/items/cache/bdff5e4df5710735d8a1ecdc5dd9efcf_XL.jpg

Das wäre dann wie er gesagt hat, praktisch die Fiji Konfiguration was die ALU-Leistung und Bandbreite angeht.
2 x 8 GB HBM2 Stacks mit 2x 256 GB/s pro Stack = 16 GB Speicher mit 512 GB/s bei einer 2048-Bit Anbindung.

4096 ALUs wie bei Fiji, mit 1:2 DP:SP Ratio vs. 1:16 bei Fiji.
Sind bei einem Ghz 8 TF FP32 und 4 TF FP64 Leistung.

horn 12
2015-10-24, 11:21:21
Gut möglich und kosten wird das Ganze als Fiji Fury X / GTX 980TI Ersatz auch nicht unter 700 bis 800 Euro
Wenn nicht sogar noch mehr!
Zudem mit DX12 werden die Speicherprobleme immer weniger ausschlaggebend werden,-und man wird nicht unbedingt eine GTX 980TI 6GB oder Titan X 12GB brauchen.

Oder eine Neue Fiji mit HBM-2 Speicheranbindung für die 8GB HBM2
Was meint ihr dass der HBM2 Speicher am Anfang alles kosten wird, dies wird nie und nimmer Billig und wie oben angegeben gar Teurer als GTX 980TI oder Fury X

Verbrauch des Speichers:
Extremfälle ja, >4GB oder gar >6GB (Downsampling mit 4K und darüber)
aber da limitiert erneut die Performance der zukünftigen ersten 14/16 nm Karten!

Knuddelbearli
2015-10-24, 14:06:56
AMD's eigene Folien deuten stark darauf hin, dass Greenland "nur" 2 HBM2 Chips haben wird.


Das ist dann aber doch selbe Breitbandrate wie bei Fiji, effektiv sogar mehr da Fiji sie nicht ansatzweise auf den Boden bekommt und AMD da den Flaschenhals sicher beseitigen wird

Kriton
2015-10-24, 15:52:00
Spannend finde ich auch die Frage, ob wir DP 1.3 sehen werden.

Kartenlehrling
2015-10-24, 18:34:32
Wieso sollte AMD es nicht mal wie Nvidia machen.... erstmal sollen die Monitorhersteller 1.3 DP in ausreichender Stückzahl im Handle haben?
1.2DP hat schliesslich AMD schon 5 Jahre (6Jahre HD5xxx war 1.1DP) und Nvidia offizell erst seit 3Jahr.
Ich mag mir nicht vorstellen hätte Nvidia auch schon seit 6 Jahre DP verbaut, wie dann die Monitorentwicklung ausgesehen hätte.

Leonidas
2015-10-25, 02:43:41
Ich vermute, dass AMD's Line-Up etwa so aussehen wird:

Greenland (ersetzt Hawaii und Fiji):
- ~360-370mm²

Baffin (ersetzt Tonga und Pitcairn):
- ~220mm²

Ellesmere (ersetzt Bonaire):
- ~120mm²




Kann sein, ist auch in sich logisch. Allerdings würde AMD damit wieder den Enthusiasten-Markt aufgeben. Ich dachte, diese Lektion hätte man nun endlich gelernt?!

S940
2015-10-25, 03:32:47
Kann sein, ist auch in sich logisch. Allerdings würde AMD damit wieder den Enthusiasten-Markt aufgeben. Ich dachte, diese Lektion hätte man nun endlich gelernt?!

Wie wärs mit Crossfire on Interposer? ;D

OBrian
2015-10-25, 05:35:49
Ja, sicherlich. Interposer lassen sich zwar nicht beliebig groß bauen, aber müßte passen. Die Greenland-Chips, wenn die Schätzungen von reaperr halbwegs hinhauen, sind zwar zusammen etwas größer als ein Fiji, aber die HBMs dürften besser verteilt sein als bei Fiji, wo ja einiges an HBM-Fläche leer geblieben ist.

Als zusätzlichen Aufwand gäbe es den Interposer, wer weiß ob das teurer ist als eine dicke Platine mit allem doppelt plus Switch. Immerhin werden von Dualkarten ja nie sonderlich viele verscherbelt.

Tamagothi
2015-10-25, 09:05:06
Ich vermute, dass AMD's Line-Up etwa so aussehen wird:

Greenland (ersetzt Hawaii und Fiji):
- ~360-370mm²

Baffin (ersetzt Tonga und Pitcairn):
- ~220mm²

Ellesmere (ersetzt Bonaire):
- ~120mm²

Greenland (Komplett NEU):
- ~450-500mm²

Baffin (ersetzt Fiji ):
- ~330mm²

Ellesmere (ersetzt Hawaii):
- ~200mm²

Alles was Kleiner ist wird mit APU's abgedekt oder mit Rebrands.

AMD Braucht so oder so einen neuen TopDog für die Profi Serie.

Topha
2015-10-25, 09:13:33
Wieso sollte AMD es nicht mal wie Nvidia machen.... erstmal sollen die Monitorhersteller 1.3 DP in ausreichender Stückzahl im Handle haben?


Weil dann das Internet aufschreien würde und alle Welt bei AMD Karten denke würde: Die können ja noch nicht mal DP 1.3 :rolleyes:


@Greenland als größten Chip: Irgendwann muss sich doch die ewige Entwicklungsarbeit bemerkbar machen und (auch dank Interposer) so eine Kombi aus zwei Chips als Enthusiastenlösung verkaufen lassen ohne dass typische DualGPU Nachteile hinzukommen. DX12 sollte da helfen.

Hübie
2015-10-25, 09:20:11
Dann braucht es aber schon interoperative Logik auf dem Package, wenn sich die zusammen gepappten Dies als einer ausgeben.

OBrian
2015-10-25, 09:33:34
es ist ja noch nicht klar, ob diese drei Chips alles sind, was kommt. Tonga muß noch nicht unbedingt sofort abgelöst werden, Pitcairn ist aber so uralt, daß der lieber heute als morgen rausgeworfen werden sollte. Also ich schätze, daß von diesen drei Chips einer die kleinste Karte wird, mit etwas mehr Saft als die nächste APU haben wird. Wenn man da was mit 128 bit baut, was ungefähr Pitcairn-Performance erreicht, das aber mit einem kleinen, sparsamen Chip, erhält man eine super Brot-und-Butter-Karte. Die müßte so schnell wie möglich kommen, und ein kleiner Chip ist auch am besten geeignet, um die neue Fertigung einzufahren.

Die anderen beiden könnten dann Hawaii und Fiji überflüssig machen. Tonga wird dann als letztes ersetzt, und zwar mit einem Chip, der bisher noch nicht genannt wurde. Gibt ja noch ein paar Inseln da oben, die man als Codenamen verwursten kann.

Mortalvision
2015-10-25, 09:44:38
Ich denke, Fiji wird noch lange im Programm bleiben. Dafür wird aber dringend Hawaii und Pitcairn/bonaire ersetzt werden müssen. Halt teilweise mit gddr5, aber dafür kleinerer Fertigungsprozess.

HOT
2015-10-25, 10:15:32
Wie wärs mit Crossfire on Interposer? ;D
Hm, ein Interposer, 2 Greenland, 4 Speicherstacks? Dann müssten die beiden Chips Numa können auf dem Interposer, dann wär das eine ziemlich günstige Lösung für AMD, da man keinen Riesenchip bräuchte ;D.
Aber ich vermute auch, dass AMD tatsächlich klein anfängt und in 2017 mit was Großem nachlegt. Die legen einen ähnlichen Launch hin wie bei Tahiti - erst Greenland (3x0mm², 2 Stacks), ein paar Monate drauf dann Baffin (200mm², 2 Stacks) und Ellesmere (120mm², einen Stack). Aber ich denke nicht, dass man danach wieder wie bei Hawaii agieren wird, dann kommt sicherlich wieder ein Bigchip hinterher mit 500mm²+ und 4 Speicherstacks.

reaperrr
2015-10-25, 10:27:36
Ich denke, Fiji wird noch lange im Programm bleiben.
Kann ich mir wie gesagt nicht vorstellen. 4GB sind in der Leistungsklasse teilweise schon jetzt etwas zu wenig, und die hohen Herstellungskosten lassen AMD zu wenig Spielraum für Preissenkungen.

AMD hat mMn bei der Planung für Fiji darauf gehofft, dass Nvidia entweder
a) im besten Fall gar keinen GM200-artigen Gaming-Chip in 28nm bringen würde, dann hätte AMD mal wieder die Leistungskrone gehabt und richtig Geld verlangen können, oder
b) die 980 Ti leistungsmäßig etwas niedriger ansetzt (mehr so wie damals die GTX 780, die 980 Ti ist ja trotz riesigem Chip weniger beschnitten als die GTX 970), oder
c) zumindest den Preis ~100-150 $/€ höher ansetzt und AMD somit indirekt höhere Gewinnmargen erlaubt.

Ist zu AMDs Pech bzw. entgegen ihrer zu optimistischen Hoffnung alles nicht so eingetreten, daher ist es in AMD's Interesse Fiji so schnell wie möglich durch einen konkurrenzfähigeren Chip zu ersetzen, möglichst bevor GP104 & Co. rauskommen.

M4xw0lf
2015-10-25, 11:20:36
Fiji ist nicht an die 4GB gefesselt.

iuno
2015-10-25, 13:41:39
Tonga wird dann als letztes ersetzt, und zwar mit einem Chip, der bisher noch nicht genannt wurde. Gibt ja noch ein paar Inseln da oben, die man als Codenamen verwursten kann.
Ich glaube gar nicht, dass überhaupt so viele unterschiedliche Chips kommen müssen. Gerade Tonga + Hawaii koennten durch einen einzigen abgelöst werden, wenn man PRO und XT stärker voneinander absetzt. Die Differenz von 290 zu 290X war sehr klein, würde man Tonga voll ausfahren wäre er auch recht nahe an einer 290.

Irgendwann muss sich doch die ewige Entwicklungsarbeit bemerkbar machen und (auch dank Interposer) so eine Kombi aus zwei Chips als Enthusiastenlösung verkaufen lassen ohne dass typische DualGPU Nachteile hinzukommen. DX12 sollte da helfen.
Dann sollte sich das Paket aber bestenfalls wie eine GPU verhalten, da spielt DX12 dann auch keine Rolle.
Wenn AMD es schafft, so eine Modularität hinzubekommen, wäre das natürlich Hammer, auch hinsichtlich der neuen APUs. Allerdings ist hier ja alles noch völlig offen.
Übrigens können sie den Enthusiastenkram meinetwegen auch ganz lassen. Relativ gesehen war die 295X2 top, die Titan Z ein Flop, absolut gesehen braucht man beide nicht und kann sich die Arbeit eigentlich gleich ganz sparen, auch wenn es natürlich nicht so schwierig ist, zwei Chips und PCIe Switch auf ein PCB zu klatschen, als die Lösung mit dem Interposer.

Dass AMD für die FirePros sowieso ein neues Flaggschiff braucht, stimmt zwar, allerdings wird es da imho vorerst genügen, wenn man mit den Recheneinheiten etwa auf Fiji Niveau oder etwas darüber liegt, 1:2 DP Rate und natürlich genug Speicher. Ich glaube nicht, dass Fiji eine besonders lange Lebensspanne hat. Zu teuer und irgendwie schlecht ausbalanciert, zu selten bringt er seine theoretische Mehrleistung ggü. Hawaii zur Geltung. Und wer dachte, mit next-gen APIs ändere sich das, wurde in den vorab Tests eines besseren belehrt. Solange sich daran nichts ändert, wenn dann Software mit DX12/Vulkan verfügbar ist, glaube ich dass Fiji "bald" einen Nachfolger bekommt.

horn 12
2015-10-25, 13:47:23
Fiji´s Problem ist die Pumpe und das Zirpgeräusch gewesen und eben teilweise immer noch Present!
Der Launch wurde eben, obwohl alles auf das Optimale hindeutete etwas stark vermurkst und auch die Performance steht etwas hinten an.
zudem hat NV den Preis der TX 980TI gut gewählt und die Karte so gut wie kaum beschnitten
Dies wurde AMD zum Verhängnis und eben die schlechte anfängliche Lieferbarkeit
Nun ist zwar vieles besser, der Markt aber fast gesättigt!

kikakeule
2015-10-25, 14:53:51
Ich glaube gar nicht, dass überhaupt so viele unterschiedliche Chips kommen müssen. Gerade Tonga + Hawaii koennten durch einen einzigen abgelöst werden, wenn man PRO und XT stärker voneinander absetzt. Die Differenz von 290 zu 290X war sehr klein, würde man Tonga voll ausfahren wäre er auch recht nahe an einer 290.

Das scheint sich zu bestätigen :)
http://techfrag.com/2015/10/22/amd-radeon-r9-380x-disappointing-performance-info-leaks/

Aber final wird sich das hoffentlich bald auch durch vertrauenswürdigere Zahlen bestätigen lassen. Das Potential wäre durch das verbesserte Frontend ja da. Die R9 285 kann in neueren Spielen ja meistens die R9 280x übertreffen. Und das obwohl 10% weniger ALUs freigeschaltet sind... Falls Tonga mit den ALUs gut skaliert sollte, insbesondere wenn viel Tesselation gefordert wird, Hawaii Pro in Schlagweite sein... Einzig die Beschränkung auf 4GB RAM an nur 256bit Speicherinterface erscheint mir unvorteilhaft, insbesondere wenn doch 384bit vorhanden sind... mit 6GB wäre man auch da schön in der Mitte platziert gewesen...

HOT
2015-10-25, 16:09:03
Fiji ist nicht an die 4GB gefesselt.
Nur solange man HBM1 verwendet. Er könnte auch mit HBM2 laufen.

Brillus
2015-10-25, 17:41:04
Nur solange man HBM1 verwendet. Er könnte auch mit HBM2 laufen.

Ziemlich sicher kann er das sogar, HBM1 und HBM2 sind nur Marketingnamen, die zugrundeliegende Spezifikation ist die selbe, max die Taktraten könnten ein Problem sein, wobei untertakten von SPeicher eher selten ein Problem ist.

iuno
2015-10-25, 22:22:16
@HOT: wohl ein "nicht" ueberlesen? ;)

@Brillus: Das ist ja bekannt. Da Fiji ein extra-fettes SI (4096b) hat, waere es ja auch von der Bandbreite her kein Problem, den Speicher einfach auf halber Frequenz laufen zu lassen, allerdings braeuchte man natuerlich statt 8 gleich 16 GiB "HBM2", um auf die 4096 Bit zu kommen.
Ich glaube trotzdem nicht daran, dass Fiji lebensverlaengernde Massnahmen durch die Option auf mehr Speicher erhaelt, sofern es keine schwerwiegenden Probleme in der Fertigung gibt. Fest steht, dass sowieso etwas ueber Hawaii mit mehr FP64 Leistung her muss. Fest steht auch, dass die Furys sich nicht gerade praechtig verkaufen und daran wird sich imho auch mit mehr Speicher nichts aendern, wenn der Preis nicht drastisch sinkt.
Durch den verringerten Platzbedarf wird ein geshrinkter Chip ja auch pro Stueck billiger, die Frage ist nur, ab wann sich dann so ein Shrink mit den damit verbundenen Fixkosten lohnt. Ein theoretischer 14nm Chip der Fiji 1:1 ersetzt waere ja nochmal deutlich effizienter (und damit fuer Kunden attraktiver), pro Chip guenstiger herzustellen und koennte durch HBM2 mit einem halb so breiten SI auskommen und dadurch noch etwas weiter schrumpfen. Ich sehe also nicht, warum man Fiji noch lange mitschleifen wollen wuerde.

ndrs
2015-10-25, 22:36:55
allerdings braeuchte man natuerlich statt 8 gleich 16 GiB "HBM2", um auf die 4096 Bit zu kommen.
Quatsch. Rein garnichts spricht gegen 2GB Stacks.

Agent117
2015-10-25, 22:50:47
Durch den verringerten Platzbedarf wird ein geshrinkter Chip ja auch pro Stueck billiger, die Frage ist nur, ab wann sich dann so ein Shrink mit den damit verbundenen Fixkosten lohnt. Ein theoretischer 14nm Chip der Fiji 1:1 ersetzt waere ja nochmal deutlich effizienter (und damit fuer Kunden attraktiver), pro Chip guenstiger herzustellen und koennte durch HBM2 mit einem halb so breiten SI auskommen und dadurch noch etwas weiter schrumpfen. Ich sehe also nicht, warum man Fiji noch lange mitschleifen wollen wuerde.

Ich kenne die aktuellen 28nm Waverpreise bei TSMC nicht
und man weiß auch nichts über die Yield-Rate des 600mm² Fiji aber ich würde einfach mal behaupten, dass ein ca. 350mm² großer Chip im neuen 16nm FF Verfahren mit ca. Fiji Performance teurer ist als ein 28nm Big Chip. Das gibt sich erst mit der Zeit.

Damit man Fiji die nächste Generation noch sieht müsste schon Nvidia alles bisherige Rebranden und nur GP100 oben draufpacken; gegen Pascal Chips im etwa gleichen Segment wie GP104 wäre Fiji nie konkurenzfähig.

Die Idee mit einem Greenland Top Dog als 350mm² Chip finde ich garnicht so schlecht, wenn "Post-GCN" es erlaubt zwei auf einem Interposer zu packen und sie sich wie ein Chip verhalten.

Weiß hier vlt einer, wie groß man so einen Interposer herstellen kann mit der auch für Fiji angewendeten Methode "belichten, weiterziehen und nochmal belichten"?
Ginge es noch größer als bei Fiji?

maguumo
2015-10-25, 23:11:20
Weiß hier vlt einer, wie groß man so einen Interposer herstellen kann mit der auch für Fiji angewendeten Methode "belichten, weiterziehen und nochmal belichten"?
Ginge es noch größer als bei Fiji?
Meinst du "stitched Interposer"? Das wurde bei Fiji explizit nicht gemacht, die belichtete Fläche des Fiji Interposers entspricht dem reticle limit der verwendeten Fertigungsstraße. Der Interposer ist sogar etwas größer als die belichtete Fläche, sieht man an den Rändern an denen der HBM sitzt ganz gut.

Wie weit man mit Interposer stitching ist weiß ich nicht, irgendwo hatte wer eine interessante Präsentation dazu (von kmeps/kemco?) gepostet, das sah aus als ob man damit schon recht weit wäre. Welcher Prozess da überhaupt genutzt wurde und wie wirtschaftlich das schon ist kann ich dir nicht sagen. Vielleicht meldet sich ja mal wer von den Leuten hier die sich damit auskennen...

EDIT: Hab's gefunden, schon mehr als ein Jahr alt. Das hier meinte ich:
http://puu.sh/kXwH7/a19559fe46.PNG

iuno
2015-10-25, 23:17:43
Quatsch. Rein garnichts spricht gegen 2GB Stacks.
Ausser dass Hynix nie welche genannt hat?
"HBM1" = 4x2Gib bei 1Gbps/pin
"HBM2" = 4/8x8Gib bei 2Gbps/pin

Oder meinst du, Hynix baut extra fuer AMD 2Hi stacks mit HBM2 slices oder 4Gib slices? Wuerde Hynix solche Wuensche erfuellen, haette AMD auch von Anfang an fuer Fiji 8Hi Stacks mit standard-HBM1-slices oder 4Gib slices bestellen koennen.

Ich kenne die aktuellen 28nm Waverpreise bei TSMC nicht
und man weiß auch nichts über die Yield-Rate des 600mm² Fiji aber ich würde einfach mal behaupten, dass ein ca. 350mm² großer Chip im neuen 16nm FF Verfahren mit ca. Fiji Performance teurer ist als ein 28nm Big Chip. Das gibt sich erst mit der Zeit.
Das dachte ich auch erst, allerdings gibt AMD selbst an, dass der Preise "pro funktionierenden Transistor" bei 14 nm um 14% niedriger ist als bei 28nm.

maguumo
2015-10-25, 23:26:37
Oder meinst du, Hynix baut extra fuer AMD 2Hi stacks mit HBM2 slices oder 4Gib slices? Wuerde Hynix solche Wuensche erfuellen, haette AMD auch von Anfang an fuer Fiji 8Hi Stacks mit standard-HBM1-slices oder 4Gib slices bestellen koennen.
Samsung sprach doch von 2-8Hi Stacks mit 8Gbit Slices...

y33H@
2015-10-25, 23:39:42
Hynix sprach durchaus mal von Stacks mit 16 GBit = 2 GByte, weswegen es auch ewig Gerüchte zur Fury X mit 8 GByte gab. Am Ende soll es am Yield gescheitert sein.

Agent117
2015-10-25, 23:42:22
Das dachte ich auch erst, allerdings gibt AMD selbst an, dass der Preise "pro funktionierenden Transistor" bei 14 nm um 14% niedriger ist als bei 28nm.

Hmh ok. Hängt halt auch vom Zeitpunkt ab. Für jetzt wäre das ein sehr guter Wert, für den Releasezeitraum in Q2-Q3 16 wäre das auch noch gut.

Falls du das hier meinst: http://www.3dcenter.org/news/14nm-und-10nm-fertigung-deutlich-kleiner-werdende-vorteile-bei-platzersparnis-und-kostenredukti
das wird ein Mittelwert sein über den Zeitraum, wo man die jeweilige Fertigung nutzt. Die 14% wären dann wiederum schlecht aber dass zukünftige Nodes immer teurer werden ist ja bekannt und man sieht es ja auch an der Tabelle.

@maguumo
Danke, das meinte ich. War iwie überzeugt dass man das bei Fiji schon macht. Dann scheint Fijis Interposer aber wirklich das maximal mögliche zu sein, was UMC herstellen kann.

iuno
2015-10-26, 00:01:37
Hynix sprach durchaus mal von Stacks mit 16 GBit = 2 GByte, weswegen es auch ewig Gerüchte zur Fury X mit 8 GByte gab. Am Ende soll es am Yield gescheitert sein.
Ja, auf das Bild hatte ich mich damals auch bezogen. Allerdings wurde das als Fehler abgetan, es war nicht klar, das es diese 4 Gib dies wirklich geben sollte geschweige denn dass man sie gefertigt hat.

Dass Samsung 2 Hi stacks plant, wusste ich natürlich nicht.

ndrs
2015-10-26, 01:22:47
Wuerde Hynix solche Wuensche erfuellen, haette AMD auch von Anfang an fuer Fiji 8Hi Stacks mit standard-HBM1-slices oder 4Gib slices bestellen koennen.
Gewünscht hätten sie es sich wohl, nur war es einfach zum anvisierten Termin für Fiji noch nicht technisch bzw. wirtschaftlich fertigbar. AMD musste einfach nehmen, was es gab.

Davon abgesehen gehe ich nicht davon aus, dass Fiji noch ein Update erleben wird.

Edit: 2GB-Stacks müssten 4Hi sein, nicht 2. Ok, wusste nicht, dass es so schnell auch 8Gb-Slices geben wird.

mczak
2015-10-26, 01:32:58
Dass Samsung 2 Hi stacks plant, wusste ich natürlich nicht.
2/4/8Hi Stacks (mit 8gbit Chips) standen schon immer auf dem Programm. Ich würde mal sagen die Wahrscheinlichkeit dass 2Hi Stacks am Anfang verfügbar sind ist enorm viel höher als 8Hi Stacks. Wenn's aber nicht wirklich Bedarf dafür gibt konzentriert man sich vielleicht am Ende doch auf 4Hi...

Leonidas
2015-10-26, 03:58:53
das wird ein Mittelwert sein über den Zeitraum, wo man die jeweilige Fertigung nutzt. Die 14% wären dann wiederum schlecht aber dass zukünftige Nodes immer teurer werden ist ja bekannt und man sieht es ja auch an der Tabelle.



Es reicht aber aus, um zu sagen: Chip für gleiche Performance (d.h gleiche Transistorenanzahl, nur kleinere Chipfläche) kostet in der neuen Fertigung doch etwas weniger als in der alten.

Es wird nur keine Kostenreduktion um die idealen -50% erreicht, aber dennoch eben eine Kostenreduktion. Hinzukommend weniger Stromverbrauch (damit mehr Takt und mehr Performance möglich) samt Neuheitswert lohnt das in jedem Fall, das herzustellen.




PS zu Interposer-Ideen: Bitte nicht vergessen, daß dies eine in den Raum geworfenen Hypothese oder gar nur ein Wunschtraum ist. Niemand hat dafür reale Anzeichen entdeckt.

StefanV
2015-10-26, 10:51:37
Dann braucht es aber schon interoperative Logik auf dem Package, wenn sich die zusammen gepappten Dies als einer ausgeben.
NÖ, einfach eine Master/Slave Konfiguration der Chips...
Und eben auch entsprechende Interfaces in den Chips selbst müssen vorhanden sein...

Hübie
2015-10-26, 11:17:02
Dann macht dass Null Komma Null Sinn so etwas zu designen und du halbierst wieder den Speicher.

HOT
2015-10-26, 11:28:29
Eine NUMA-Lösung braucht weder einen Zusatzchip noch halbiert sich der Speicher. Einer von den Grafikchips muss dann das gesamte restliche I/O übernehmen, wäre dann also Master und die beiden Chips müssten über den Interposer miteinander kommunizieren können.

Palpatin
2015-10-26, 11:30:21
Fest steht auch, dass die Furys sich nicht gerade praechtig verkaufen und daran wird sich imho auch mit mehr Speicher nichts aendern, wenn der Preis nicht drastisch sinkt.

Also bei mir wäre/ist das genau der Grund warum ich eine 980ti vorziehen würde/werde, wechsel von 980.
Gäb es die Fury mit 8 oder 16 Gb würde ich klar die Fury vorziehen.

OBrian
2015-10-26, 11:35:01
Wenn so eine Logik nicht viel Diefläche ausmacht, dann kann man sie ja durchaus verbauen, auch wenn man sie in 99,9% aller verkauften Chips deaktiviert. Aber muß man das überhaupt? Warum nicht einfach Crossfire? Soll doch mit DX12 viel besser laufen. Nur weil alles auf einem Interposer sitzt, können es doch logisch trotzdem zwei "Karten" sein.

iuno
2015-10-26, 11:40:11
Ja, du und noch zwei andere ;-)
Der Großteil derer die so eine Karte wollten hat jetzt schon eine 980 ti. Eine potentielle fury mit 8 GiB, die erst irgendwann nächstes Jahr kommen kann, ändert daran nichts.
Ein potentielles 14 nm Äquivalent zur fury das halb so viel Strom braucht (übertrieben dargestellt), die Leistung auch auf die Straße bekommt und von vorneherein mehr Speicher hat imho schon eher. Daher lohnt sich es sich imho nicht die fury irgendwann 2016 neu aufzulegen

Kartenlehrling
2015-10-26, 11:44:03
Solange ich nichts von Nvidia sehe, glaub ich lansam das wir nichts sehen,
380x und NanoX2 werden es wohl noch dieses Jahr schaffen.


R380 + R380x > werden 2016 so weiter geführt
R390 + R390x > werden die ersten 16nm sein
Fury bekommen vielleicht ein 8gb update
NanoX2 bleibt bis Ende 2016 AMD schnellste Grafikkarte.

Erst November 2016 zeigt uns AMD die schnellste 16nm Grafikkarte, verkauf erst 2017.

Hübie
2015-10-26, 11:56:23
Eine NUMA-Lösung braucht weder einen Zusatzchip noch halbiert sich der Speicher. Einer von den Grafikchips muss dann das gesamte restliche I/O übernehmen, wäre dann also Master und die beiden Chips müssten über den Interposer miteinander kommunizieren können.

Wenn ein Chip I/O macht muss es schon mal breiter sein, als regulär. NUMA ist noch keine Realität. Und das was ein Chip raus gibt muss ja auch irgendwo angenommen werden.
Es ist nicht so einfach wie dargestellt. Punkt. Sonst hat man wieder die schrottige AFR-Lösung. Oder halt miese Skalierung.

HOT
2015-10-26, 12:31:17
Wenn ein Chip I/O macht muss es schon mal breiter sein, als regulär. NUMA ist noch keine Realität. Und das was ein Chip raus gibt muss ja auch irgendwo angenommen werden.
Es ist nicht so einfach wie dargestellt. Punkt. Sonst hat man wieder die schrottige AFR-Lösung. Oder halt miese Skalierung.
AFR gibt es weil die Latenzen über den PCIe zu hoch sind und man ein Protokoll bräuchte. Auf dem Interposer ist ein proprietäres Protokoll und eine günstige Anbindung möglich. Natürlich braucht diese Lösung Die-Fläche, die Frage stellt sich nicht - und nichts davon ist Realität, da hat Leo schon recht. Aber wenn man das so lösen sollte, dann sicher richtig.

Hübie
2015-10-26, 13:18:23
Wenns richtig sein soll ist Master<->Slave eben aus genannten Gründen (Latenz, Bandbreite ...) eben nicht die beste Lösung.

HOT
2015-10-26, 14:05:08
Nur wenn man einen monolithischen Monsterchip vermeiden will. Ich geh aber wie gesagt nicht davon aus. AMD wird sicherlich einen 500mm²-Chip in 2017 nachschieben.

S940
2015-10-26, 14:08:18
Eine NUMA-Lösung braucht weder einen Zusatzchip noch halbiert sich der Speicher. Einer von den Grafikchips muss dann das gesamte restliche I/O übernehmen, wäre dann also Master und die beiden Chips müssten über den Interposer miteinander kommunizieren können.

Naja, die Bandbreite muss halt passen .. und bei der legte HBM ja gerade tüchtig nach. D.h. auch der "NUMA-Link" müsste ziemlich fett ausfallen.

Die 100 GB/s von 4 GMI-Links aus der Leak-Folie reichten nicht, die reichen nur um keinen Flaschenhals zum vergleichsweise immer noch langsameren DDR4-Systemspeicher herzustellen.

Ergo müsste man doch wieder über halbem Speicher nachdenken, aber wenn mit HBM2 nur noch 2 Stacks vorgesehen wurden, könnten 4 wohl auch noch auf den Interposer passen.

Vorteil: Keine PCIe-Latenzen und immer noch platzsparender.

Aber wie schon erwähnt, Wunschdenken. Und wenn wir schon mal dabei sind:

"Sehr hübsch" wären auch 2P-Boards, in dessen Sockel man Alternativ zu nem 2. Zen ne Interposer-GPU packen könnte. Damit könnte man auf solchen AMD-Boads ebenfalls PCIe umgehen. Grafikanschlüsse muss der Sockel sowieso schon haben, da ja auch ne APU reinpassen soll. Einziger Nachteil: Die VRMs auf dem Mainboard des 2. Sockels müssten die 300W einer GPU packen ...

Das macht das Board sicherlich teurer, außerdem muss der Sockel ebenfalls darauf ausgelegt werden. Aber AM3+ packte am Ende auch 220W und die "nackte" Grafik-GPU (ohne Karte) könnte man entsprechend billiger verkaufen ;)

MilesEdgeworth
2015-11-12, 19:07:40
Ein neuer Haufen Spekulation..
Lets go over the codenames we know so far. We know that the next generation flagship will be called Greenland with the high and mid end offerings being Ellesmere and Baffin. We also know that these GPUs recently taped out, as revealed by an exec’s linkedin profile. We are now adding another codename to the mix – namely “Vega10”. Ellesmere and Baffin have been mentioned close togather in AMD’s internal documents and Vega10 has been mentioned similarly alongside Greenland. This leads us to believe that Vega10 might be a derivative or a superlative of the Greenland die. It could also be a power efficient version of the same (rather like the R9 Nano). One thing is for sure, ‘Ellesmere/Baffin’ and ‘Vega10/Greenland’ will target different market segments.

Another thing our source mentioned was that AMD will be increasing its focus on ISVs and Software in 2016 and 2017. This means new initiatives and polishing existing software. Part of this can already be seen by the new Radeon Crimson drivers and it looks like there is more in the pipeline. A good guess (caution: speculation) on what might be coming includes VR, since that is pretty much the new killer app (or rather killer-field) for gaming nowadays. You might remember that AMD has been increasing focus on virtual reality with its LiquidVR dev kit.

Lastly, it looks like AMD will be giving special attention to power saving in the next generation – an initiative it started with Tonga, continued with the R9 Nano and will probably perfect with the FinFET generation of GPUs. This could mean that we can expect more power efficient variants – in the mainstream as well as enthusiast market segments. Infact, AMD is counting on this very fact and is pretty confident on design wins for Ellesmere and Baffin – which should target the performance market. The source further mentions that the company is very pleased about the transition to DirectX 12 and Vulkan – claiming it to be a game changer and very good for Radeons and FirePros in the long run. The new low level APIs should truly help leverage the power of AMD’s GCN and improve Radeon and FirePro positioning as (relatively) future proof GPUs.

While this information doesn’t mention anything explicit (except the Vega10 codename) it does give us a very good idea of what to expect from AMD. Not only is the company increasing its focus on power efficiency, it will also be working on the software side of things. Radeon Crimson drivers were a much welcomed change and I am sure whatever the company has in the pipeline will be met with great gusto. The transition from 28nm to 14nm/16nm FinFET will naturally result in double the performance/watt and AMD will be looking to leverage this to further its own unique position in the dGPU market.



Quelle: Die üblichen verdächtigen (http://wccftech.com/exclusive-amd-pursuing-aggressive-performance-watt-finfet-generation-d-gpus-vega10-codename/)

Nakai
2015-11-12, 21:01:56
Another thing our source mentioned was that AMD will be increasing its focus on ISVs and Software in 2016 and 2017. This means new initiatives and polishing existing software. Part of this can already be seen by the new Radeon Crimson drivers and it looks like there is more in the pipeline. A good guess (caution: speculation) on what might be coming includes VR, since that is pretty much the new killer app (or rather killer-field) for gaming nowadays. You might remember that AMD has been increasing focus on virtual reality with its LiquidVR dev kit.


Ja, da kommt aber Software-mäßig noch etwas völlig anderes.
Vor allem auch im Bezug zu HSA und HPC. ;)

€: Nur 3 GPU-Tapeouts für eine ganze Gen? Gut, GCN 1.0 war am Anfang genauso.

MilesEdgeworth
2015-11-12, 21:19:30
€: Nur 3 GPU-Tapeouts für eine ganze Gen? Gut, GCN 1.0 war am Anfang genauso.

Sollte doch locker ausreichen, das ergibt dann wahrscheinlich wieder sechs verschiedene Produkte für den Endanwender?

Locuza
2015-11-12, 23:33:52
Thema Software und Entwickler:
Brad Wardell
‏@draginol

The engineers @AMDGaming are doing some insanely cool things with lighting effects this week @OxideGames.
https://twitter.com/draginol/status/664556614972780544

Timothy Lottes ‏@TimothyLottes 11. Nov.

Our team, AMD Devtech, is hiring with open positions in the US for both general GPU and VR focused individuals. DM | email me if interested.
https://twitter.com/TimothyLottes/status/664458810640191488

Und auf Twitter gab es von September bis dem heutigem November eine kleine Welle an Jobangeboten:
https://twitter.com/amd_jobs?lang=de

AffenJack
2015-11-13, 17:56:24
Raja also talked about how Advanced Micro Devices’ RTG will need to execute on their architectural designs and create brand new GPUs, something that Advanced Micro Devices has struggled with lately. He promised two brand new GPUs in 2016, which are hopefully going to both be 14nm/16nm FinFET from GlobalFoundries or TSMC and will help make Advanced Micro Devices more power and die size competitive.
http://www.forbes.com/sites/patrickmoorhead/2015/11/12/advanced-micro-devicess-head-of-radeon-technologies-group-raja-koduri-talks-about-the-future/

Hmm also wohl eher erstmal nur 2 GPUs in 2016. Schätze die nächsten werden dann Anfang 2017 kommen, dann sollte das auch kein Problem sein, da Nv auch eher in H2 16 anzukommen scheint und vielleicht auch erst komplett in 2017 launcht.

Nightspider
2015-11-13, 18:09:16
Würde mich nicht wundern wenn AMD die gleiche Strategie wie NV verfolgt und erst den Mainstream und Performance-Markt bedient und Anfang 2017 dann nochmal mit einem richtig fetten >=500mm² Chip nachlegt.

iuno
2015-11-13, 18:20:38
Hm wenn es wirklich nur zwei sind, ist die Frage wo diese einzuordnen sind.
Nvidia wird oben Druck machen, egal ob GP100, 102 oder 104. Am anderen Ende steht AMD aber auch nicht gerade gut da mit den alten Southern Island Chips.

Nightspider
2015-11-13, 18:22:42
AMD wird sicherlich da einsteigen wo man am meisten Geld macht:

Mainstream und Performance

Außer sie haben super Deals im HPC Segment. (Server, Workstations, Apple,...)

AffenJack
2015-11-13, 18:41:57
Man hat immer betont, dass man im Prof. Segment stärker werden will. Also würde ich schon eher sowas ala Hawaii erwarten, dazu auch noch aus dem Text:
They are also planning a stronger professional graphics push with these new products and their renewed focus on better and more stable software.

Mit Mainstream und Performance kann man da nicht punkten. Ein ~400mm² oder etwas mehr Chip wie Hawaii und dazu irgendwas im etwas niedrigeren Segment, was vor allem auch bei den Notebooks gelauncht werden kann.

Nakai
2015-11-13, 18:45:27
Die bringen etwas um Cuda zu sprengen. Obs klappt ist etwas anderes.

horn 12
2015-11-13, 19:11:43
Also doch nicht ganz verkehrt meinerseits doch auf die Sapphire Fury gesetzt zu haben und zudem noch für meinen bezahlten Preis!
So schnell wird dies wohl nicht´s werden mit der Ablöse der Fury X - bzw. jener der GTX 980 TI.

Nightspider
2015-11-13, 19:14:25
Das hast du schon bei Hawaii erzählt und doch hast du zu Fiji gewechselt.

Fiji wird dank 4GB eh kein langes Leben haben.

Knuddelbearli
2015-11-13, 19:59:27
ein längeres als die 3,5Gb 970 ^^

Brillus
2015-11-13, 20:44:53
Eine theoritische Möglichkeit wäre auch per interposer verschaltete Chips, da könnte ich mir dann auchso Sachen vorstellen wie Uncore Sachen in den Interposer zu schieben. Mit so einem Design würden auch wenige 14nm Chips reichen um das ganze Spektrum abzudecken und man wäre zusätzlich noch sehr flexible in den Produkten.

Sowas in der Richtung hatte AMD ja schonal auf Folien drauf, auch wenn ich es eher für die nächste Generation erwarte.

Nightspider
2015-11-13, 21:34:08
Auf sowas warte ich ja schon 10 Jahre. Das wäre ja quasi SLI mit perfekter Skalierung wenn sich 4 mittelgroße Chips so verhalten würden als wären sie ein ganz großer. Zumindest solange diese auf einer Platine bzw. auf einem Interposer stecken.

Knuddelbearli
2015-11-13, 22:32:00
2 Chips mehr braucht es da nicht 1 Logigblock mit alles was nicht skaliert wird und Erweiterungsblöcke

aber ne dafür ist es noch viel zu früh
2017 vielleicht eher 2018

iuno
2015-11-13, 23:35:06
Ja das wird schon lange gewünscht, aber wer rechnet ernsthaft damit für Arctic islands?

Knuddelbearli
2015-11-14, 11:23:43
Nö sagte ich ja

mocad_tom
2015-11-14, 18:27:33
Ich glaube, man hat schon bei den Quartalszahlen von nvidia gesehen, dass eine hohe Nachfrage nach den teuersten Produkten besteht.
Oculus und Vive sind extrem fordernd.
Im Oculus DK2 ist ein Display mit 1920x1080 verbaut und das ist einfach hinten und vorne zu knapp und man benötigt durchgehend 75 Frames aufwärts.

Ein Freesync-Feature wäre für die Oculus auch noch perfekt.

Ich denke wir werden im nächsten Jahr eine Erdrutsch-artige Veränderung der Leistung sehen.
Die Leute sind bereit in noch extremere Luftkühlkonzepte auf breiter Front zu investieren und der 14nm oder 16nm-Prozess muss zeigen, was er drauf hat.

Man benötigt diese brachialen Leistungsreserven halt einfach und wir werden auf Jahre hin VR-Spiele mit Comic-Grafik sehen.

Ich habe jetzt seit 2 Wochen die DK2 und eine GTX980 und muss immer wieder an die Grenzen des machbaren zurück. Framerates mit weniger als 45 Frames werden einfach nicht verziehen.

Schaffe89
2015-11-14, 18:30:31
Ich glaub langsam sieht es so aus, als könne AMD kein komplettes Lineup an Grafikkarten mehr liefern da ihnen womöglich das Geld ausgeht und sie alles in Zen setzen.
Intel schiebt jetzt ja auch einen 20 Threader nach, es könnte also wieder spannend werden.

N0Thing
2015-11-14, 18:54:02
Tonga und Fiji sind ja die neuesten Chips, gut möglich, dass AMD zuerst Karten ersetzen will, die noch auf Southern Islands basieren, also eher kleinere und ältere Chips.
Spannend ist für mich, ob und wenn wie AMD Chips mit GCN 1.1 ersetzen will, ohne dabei Fiji das Wasser abzugraben.

Kartenlehrling
2015-11-14, 19:19:57
Ich glaub langsam sieht es so aus, als könne AMD kein komplettes Lineup an Grafikkarten mehr liefern...

Schon vor 3 Jahren hat AMD gesagt das es keine jährliche Modellwechsel geben wird, wie soll das auch gehen?
Nvidia hat für Maxwell 2 1/2 Jahre gebraucht beziehungsweise geschickt ..... gestreckt.

Wenn das Gerücht stimmt das AMD 2016 nur zwei Chips auf 16nm bringt wird sich daran auch nichts gross ändern.
Meine Vorhersage glaube ich mit jeden Tag mehr, die Leistungklasse R390x und R9370 (Laptop) werden ersetzt ohne Leistungszuwachs und die nanoX2 bleibt bis ende 2016 stärkste AMD Grafikkarte.

Knuddelbearli
2015-11-14, 19:37:08
bis 17. Oktober 2016 muss jedenfalls was kommen das meine 970 ablöst dann läuft nämlich meine Gewährleistung ab ... ^^

Und NV kommt mir nicht mehr in den PC nach der verarsche.

KHJ
2015-11-15, 10:30:00
Vielleicht bringen sie aber wieder pro GPU 3 Ausführungen .

490X 8GB HBM 2.0 (vollausbau)
490 8Gb HBM 2.0
480X 6GB HBM 2.0 (theoretisch als 3te Asuführung des Top Chips)

480 4GB HBM 2.0 (vollausbau)
470X 4GB HBM 1.0
470 4GB GDDR5 - 3GB HBM 1.0

460X 2-4 GB
460 2-4 GB


Wenn HBM 1 mehr als 4Gb erlaubt wäre auch eine andere Konstellation denkbar.

Fury II 8GB HBM 2.0
Fury II 8GB HBM 2.0
Fury II 6Gb HBM 2.0 (theoretisch als 3te Asuführung des Top Chips)

490X (Fiji) 8GB HBM 1.0
490 (Fiji) 8GB HBM 1.0

480X 6GB HBM 1.0
480 4GB HBM 1.0

470X (Tonga) 4GB GDDR5
470 (Tonga) 4GB GDDR5 (evtl nur 192 bit/3GB si für Effizienz?)

460X 2-4 GB
460 2-4 GB

@iuno
omg ka wie ich auf 300 kahm ich hab das mal geändert :)

horn 12
2015-11-15, 11:32:47
Nun, meinerseits bringt AMD so März/April 2016 einen Fiji (Fury X) mit HBM 2 zu 8GB und 1150 bis 1200 Mhz auf den Markt und löst dann im Laufe des Jahres die R9 390 und 390X ab mit etwas unter Fiji Performance aber sehr sehr gutem Stromverbrauch (Unter 150 Watt)
Fiji wird wohl bis Ende 2016 durchhalten müssen, zudem gar die mageren 4GB HBM-1 nicht zu limitieren zu scheinen.


PS:
Lords of Fallen mit Alles MAX probiert zudem unter 4K und die Speicherauslastung immer zwischen 3805 bis 3860 MB.
Und jenes Spiel sollte zudem enorm fordernd sein!

W4RO_DE
2015-11-15, 13:29:32
Jo, nur zwei Chips nächstes Jahr: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Grafik-Chef-Raja-Koduri-verspricht-zwei-neue-GPUs-fuer-2016-1177904/

N0Thing
2015-11-15, 14:20:45
Jo, nur zwei Chips nächstes Jahr: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Grafik-Chef-Raja-Koduri-verspricht-zwei-neue-GPUs-fuer-2016-1177904/

Das ist auch nur die Nacherzählung des Artikels von Forbes, der die Diskussion erst ins Rollen gebracht hat. ;

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10846200#post10846200

iuno
2015-11-15, 16:17:10
@KHJ: wir sind aktuell schon bei der 300er Reihe.
Dass 3 Varianten pro Die kommen, könnte schon sein, Tahiti war ja damals früh in 28 nm und den gab es auch noch als LE.

Ich glaube erst wenn ich sehe, dass 2016 kein Chip auf/über Fiji Niveau kommt. Er muss ja Fiji nicht direkt ablösen, sondern kann dem Pro Markt vorbehalten sein, solange die Fertigung noch teurer ist als beim 600m² in 28 nm Fiji. Koduri hat explizit den Professionellen Markt angesprochen, der mit den neuen Chips bedient werden soll. Fiji ist aktuell auf einer FirePro so nicht zu gebrauchen, viel zu wenig Speicher und FP64 Leistung.
Die Packdichte verdoppelt sich im neuen Prozess, zudem schrumpft das SI mit HBM2 nochmal, sofern alles klappt, nicht wie bei Fiji. Ein 4096+ SP Computing Chip mit 2:1 SP:DP wäre also in 14/16 nm mit 16-32 GiB HBM2 wohl nur etwa ~300-400 mm² groß, also etwa wie Tahiti als 28nm neu war. Angesichts der Spekulationen über GP100 mit 17 Mrd. Transistoren sollte das doch denkbar sein.

OBrian
2015-11-15, 16:20:18
Auf sowas warte ich ja schon 10 Jahre. Das wäre ja quasi SLI mit perfekter Skalierung wenn sich 4 mittelgroße Chips so verhalten würden als wären sie ein ganz großer. Zumindest solange diese auf einer Platine bzw. auf einem Interposer stecken.
sowas klingt gut, würde wohl auch funktionieren. Aber grundsätzlich ist es ja nun mal einfach so, daß höherer Integrationsgrad per se immer einen Vorteil bietet, d.h. man versucht, so viel wie möglich auf einen Chip zu packen. Erst wenn daraus Nachteile erwachsen, die die Vorteile überwiegen, muß man aufteilen.

Bei den Doppel-GPU-Karten ist es die sehr geringe verkaufbare Stückzahl und vor allem die unfabrizierbare Diegröße, die eine 8000-Shader-GPU in 28nm unmöglich macht.

Bei den kommenden APUs, die angeblich als Multi-Die geplant sind, ist es angeblich die Fertigung, die für CPUs und GPUs nicht gleichermaßen optimal sein kann.

In solchen Fällen lohnt sich die Aufteilung, bzw. besser gesagt es geht gar nicht anders. Aber für den Großteil der Chips ist ein einzelner Die sicherlich die bessere Wahl. Daß in der nächsten oder übernächsten Generation auf einmal nur noch ein winziges 512-Shader-Die haben und es dann zwei, drei, sechs, acht, zwanzig auf einem Interposer geben wird, um die verschiedenen Marktbereiche abzudecken, halte ich für eher unwahrscheinlich. Machbar sicherlich, aber wohl in der Abwägung der Vor- und Nachteile dann doch schlechter als ein großes Die.

iuno
2015-11-15, 17:36:58
Und was wären die Nachteile wenn die Technik so weit sein sollte? Wäre doch perfekt wenn es so laufen würde. Aber ich denke bis da ist es halt noch etwas hin..
Es gibt einfach viele Dinge, die mitskalieren müssen, aber dennoch sehr stark zusammenhängen. Z.B. wäre es klar, dass sowas wie Displaycontroller, UVD, VCE, PCIe Logik problemlos in ein die in der Mitte kommen können. In das "äußere" die, das mehrfach vorkommen kann, kommen selbstverständlich CUs. Was ist aber mit Frontend, Speichercontroller, ACEs/HWS, L2$? Entweder in das innere die volle Ausbaustufe, dann müsste das aber immer noch teildeaktiviert werden, oder ins äußere, wie bindet man den Kram dann aber richtig an? Und dann braucht es mehr Platz als ein einzelner, monolithischer Chip und HBM muss ja auch noch auf den Interposer.
Es wird schon eine Lösung geben, ich denke nur noch nicht so schnell. Es wird vielleicht auch nicht gleich voll modular, sondern verschiedene "äußere" und/oder "innere" dies geben. :confused: Oder doch ein ganz anderer Ansatz :P

Hübie
2015-11-15, 18:56:13
Der größte Nachteil wären die Kosten. Der Interposer selber müsste ne Menge Logik und einen Datenbus haben. Und dann braucht man ja unterschiedliche Interposer. Bei APUs können wir gerne darüber reden, aber bei GPUs macht es keinen Sinn die aufzusplitten.

horn 12
2015-11-15, 19:30:30
Interessant:

Fiji will categorically not be respun and makes zero sense being continued on 28nm when even a 300mm^2 part would likely beat it by a good 10-15% on 16nm due to new architecture/efficiency.

You have to tune bits of architecture to a specific process. The new architecture has to be done on the new core, doing the old architecture on the new process is another very large piece of work and cost. It would be, because there is already a new architecture taped out on the process, far cheaper to make a circa 300mm^2 core with the new architecture than to shrink Fiji which would required redoing the old architecture on the new process for a single chip.

New architecture will incorporate everything they learned on memory controller and architecture in general optimised for HBM as well as multiple other improvements and newer features. Fiji redone on 16nm would be effectively the worst decisions AMD could make.

Even Nvidia after years of problems stopped attempting 500mm^2 + cores on a new process. GK100 both came later on and even when it arrived was very low yield and put into higher yield/lower volume professional lines. I'd be surprised to see a big core from either company. This leads you to think anything from a disappointing 150-200mm^2 for one of these gpus and 300-350mm^2 for the other. While it should comfortably beat Fiji that wouldn't be awesome in comparison to Fiji/980ti. A little more optimistic and probably more likely is maybe 200-250mm^2 for one gpu and 375-450mm^2 on the other. a 450mm^2 die could be with architectural improvements, potentially a good 60% faster than Fiji.

I would honestly put 500mm^2+ cores at an extremely low chance and may not even appear later on either. 10nm is a bit of an odd one. The shrink isn't really what slowed everyone down directly, it was double patterning and finfets more than the shrink which is why 10nm looks to be pretty close behind 14/16nm, because once they crack the finfet/double patterning, it's really the same tech being used for 10nm.

So rather than circa 400mm^2 core then a 500mm^2 core 9-12 months later, we might see 400mm^2 16nm, then 300-400mm^2 10nm 12-15 months later instead.

Hübie
2015-11-15, 19:41:23
Quelle bitte immer angeben. Ist ja auch nur reine Spekulation wenn ich das richtig deute.

Unicous
2015-11-15, 19:58:46
Quelle ist ein random user bei OcUK.:rolleyes:

horn 12
2015-11-15, 20:01:12
Genau! Exakt :-)

HOT
2015-11-16, 15:02:43
Das macht eh keinerlei Sinn Fiji zu recyclen. Das würde nur dann irgendeinen Sinn ergeben, wenn AMD eine HighEnd-GPU und eine mit 200mm² macht. Da würde Fiji noch dazwischen passen, dass halte ich aber für extrem unwahrscheinlich. AMD wird mit einer 350mm²+ GPU anfangen, die wär dann ja auf Fiji-Niveau bzw. etwas darüber. Wenn es 2 GPUs gibt, macht das eigentlich nur Sinn eine 350 und eine 250mm²-GPU zu nutzen. Alles darunter kann von Tonga+Bonaire+Oland ergänzt werden.

Nakai
2015-11-16, 15:18:01
Die bringen etwas um Cuda zu sprengen. Obs klappt ist etwas anderes.

Ja, da kommt aber Software-mäßig noch etwas völlig anderes.
Vor allem auch im Bezug zu HSA und HPC. ;)


http://www.planet3dnow.de/vbulletin/threads/412508-Prognose-Board-Wie-geht-es-bei-AMD-weiter-Entwicklungen-Strategien-Massnahmen-die-AMD-betreffen-bzw-die-AMD-treffen-koennte?p=5052973&viewfull=1#post5052973

http://www.anandtech.com/show/9792/amd-sc15-boltzmann-initiative-announced-c-and-cuda-compilers-for-amd-gpus

Na endlich wird was veröffentlicht.
Da kommt noch mehr, vor allem auch im Bezug zu OpenMP und C++17.
Wartet auf morgen, ergo SC15.;)

Unicous
2015-11-16, 15:23:41
Einmal reicht doch. Hat mit dem Thema an sich nicht viel zu tun. Mach doch einen neuen Thread auf.:confused:

OBrian
2015-11-16, 19:49:51
Das macht eh keinerlei Sinn Fiji zu recyclen. Das würde nur dann irgendeinen Sinn ergeben, wenn AMD eine HighEnd-GPU und eine mit 200mm² macht. Da würde Fiji noch dazwischen passen, dass halte ich aber für extrem unwahrscheinlich. warum? Fiji ist die modernste und effizienteste GPU, gerade die Nano-Variante kann man noch eine ganze Weile anbieten. Etwas geringerer Preis wäre sicher dem Absatz nicht abträglich, aber rein technisch? Nee, da müssen erstmal andere Marktbereiche beacktert werden, die haben es nötiger.

Knuddelbearli
2015-11-16, 20:07:15
naja bei doppelter DIE größte leicht effizienter ist jetzt nicht so der Burner ...

HOT
2015-11-16, 21:04:43
warum? Fiji ist die modernste und effizienteste GPU, gerade die Nano-Variante kann man noch eine ganze Weile anbieten. Etwas geringerer Preis wäre sicher dem Absatz nicht abträglich, aber rein technisch? Nee, da müssen erstmal andere Marktbereiche beacktert werden, die haben es nötiger.
Ich bezweifle ernsthaft, dass sich das Teil für ein 300€-Produkt eignet mit seinen 600mm².

Kartenlehrling
2015-11-16, 21:50:50
Ich kann es kaum erwarten das Nvidia seine 16nm zeigt, vielleicht Werte das entlich meine Nano auf.

Hübie
2015-11-16, 22:22:30
Ich bezweifle ernsthaft, dass sich das Teil für ein 300€-Produkt eignet mit seinen 600mm².

Schwer zu sagen ob Fiji bleibt, aber ich sag mal: Nach den doch recht schwachen Absatzzahlen der Fiji-GPUs (wohl durch schlechte Ausbeute bedingt) kann ich mir nur schwer vorstellen, dass wenigstens R&D für das Ding eingefahren wurde. Vielleicht ist es aber auch einfach Teil einer langfristigen Strategie und bedeutet nur den Auftakt zur sehr ähnlichen Architekturen unter neuem Prozess. Da jetzt aber neue Designrules angesetzt werden müssen bezweifel ich dies ebenfalls.
Meine Kenntnisse sind jedoch zu schwach, also ist es natürlich ebenso spekulativ.

Ich kann mir denken, dass die Ausbeute mit der Zeit besser wird und man so auch in den 450-$-Bereich kommen könnte. Oben herum wird mit kleinerem Die mehr Performance und mehr Marge erzielt. Unten herum mit lächerlich kleinem Die das Paket abgerundet und Fiji (vorerst) weiter produziert. Eventuell als Respin mit 8GB HBM2. Hawaii (aka Grenada) und die alten Architekturen verschwinden alle nach und nach. Da es hieß zwei Chips 2016 sage ich: oben ein fetter mit 16 GB HBM2->Fiji 8GB HBM2->kleiner, effizienter und kostengünstiger Chip mit 4 GB GDDR5.

horn 12
2015-11-16, 22:34:47
So schlecht verkauft sich Fiji als Ganzes gar nicht, in etwa wie die GTX Titan X und wenn der Preis mal gedrückt werden sollte, weitaus mehr.
Zudem die Titan X nun wohl zum Ladenhüter verdammt wurde den Gewinn bei NV extrem schmälert. Kosten teilweise 1150 bis 1200 Euro diese Teile und brauchen die wenigsten für diesen Wucherpreis!

Fakt ist aber auch:
in Regionen der GTX 980TI wird Fury X nicht kommen, aber die Gesamte Fury Palette sollte doch etwas Gewinn abwerfen.

HOT
2015-11-16, 22:44:52
Fiji muss man aber auch unter einem anderen Aspelt sehen: a.) AMD schafft auch 600mm²-Chips (ist ja premiere) b.) HBM ließ sich in einem Projekt verwirklichen. Vielleicht sind die Verkaufszahlen gar nicht so entscheidend für Fiji.

Hübie
2015-11-16, 22:54:50
So schlecht verkauft sich Fiji als Ganzes gar nicht, in etwa wie die GTX Titan X und wenn der Preis mal gedrückt werden sollte, weitaus mehr.
Zudem die Titan X nun wohl zum Ladenhüter verdammt wurde den Gewinn bei NV extrem schmälert. Kosten teilweise 1150 bis 1200 Euro diese Teile und brauchen die wenigsten für diesen Wucherpreis!

Fakt ist aber auch:
in Regionen der GTX 980TI wird Fury X nicht kommen, aber die Gesamte Fury Palette sollte doch etwas Gewinn abwerfen.

Die gesamte Fiji-Serie verkauft sich selbstverständlich besser als Titan X. Aber kommt wenn überhaupt auf ein Verhältnis von 1:8 wenn man Chip vs. Chip vergleicht. Fiji selber wird wohl keine so schlechte Ausbeute haben, aber die Hochzeiten mit dem Interposer und HBM DRAM lassen eine Menge Spielraum für miese yields und einiges an Nacharbeit. Die Karten, welche verfügbar sind lagern wohl nicht lang, wenn ich das richtig beobachte, aber die Produktion ist offenbar noch ziemlich schwierig*.

AMD arbeitet schon sehr lange an HBM und Fiji. Da ist sicher richtig fett Kohle reingeflossen, also nein: Das Produkt macht wohl noch keinen Gewinn. Klammerst du dies aus wirft so eine Karte aber sicher eine höhere Marge ab, als z.B. Hawaii/Grenada Pro. Wer da konkrete Zahlen hat: immer her damit. Bin da auch mal dran interessiert.
nV bekommt andere Konditionen, daher kann ich mir das nur in etwa ausmalen ;)

*Afaik ist das eh alles Zukauf (outsourcing) und wie da Lieferbedingungen etc. aussehen weiß hier bestimmt niemand. Gestaffelte Volumenverträge würden sich hier z.B. anbieten, aber dann trägt immer einer das größere Risiko.

Nakai
2015-11-16, 22:59:47
Der Prototyp vor Fiji war ~500mm² groß. Ich denke das wird GP100 auch werden.

Man ist wohl mit HBM etwa ein Jahr vor Nvidia dran. Das ist nicht schlecht, bedenkt man, dass NV auch erst in alle Fettnäpfchen treten muss. ;)

OBrian
2015-11-16, 22:59:47
Alles seiner R&D-Kosten muß Fiji ja nicht einfahren, es ist ja auch ein Testballon für HBM-Konstruktionen insgesamt. Ob sich das noch lohnt, den weiterzuproduzieren, wenn der Verkaufspreis gesenkt werden muß, hängt ja dann nur von den Herstellungskosten ab, aber es ist bestimmt noch eine Weile lang tolerabel. Die Alternative ist doch, einen neuen Chip zu konstruieren, der dann wieder neue Entwicklungskosten mitbringt. Bei den sicherlich nicht so riesigen Mengen an verkauften Fiji-Karten denke ich, AMD wird den erstmal eine Weile einfach so weiterbenutzen.

Man sollte doch nicht von den eigenen Wuschvorstellungen her spekulieren, sondern von den vorhandene Infos/Fakten: 1. es gab gerade die Aussage, daß es nur zwei neue Chips geben wird; 2. andere 28-nm-Chips sind viel älter und weniger konkurrenzfähig.

Tonga ist ja nun mal nicht so geil wie gehofft, muß sich mit einer 960 rumschlagen, die viel billiger herzustellen ist, deren OC-Versionen aber leistungsmäßig durchaus auf ähnlicher Höhe sind. Und über Pitcairn brauchen wir wohl gar nicht zu reden.

Sinnvoll wäre es also, 1. einen kleineren Mainstream-Chip aufzulegen, der billig in der Herstellung ist und 2. einen Chip, der die Performancekrone erringen soll.

Man ist wohl mit HBM etwa ein Jahr vor Nvidia dran. Das ist nicht schlecht, bedenkt man, dass NV auch erst in alle Fettnäpfchen treten muss. ich denke eher, Nvidia versucht, in möglichst wenige Fettnäpfchen zu treten und ist daher vorsichtiger, läßt sich ein Jahr mehr Zeit um auf HBM2 zu warten (Speichermenge) und bringt wohl auch nicht so viele Karten mit HBM. Aber Nvidia jat ja auch weniger Druck, Risiken eingehen zu müssen.

HOT
2015-11-16, 23:29:08
Es gab schon öfter Grafikchips die nicht länger als 1 Jahr liefen. Das heißt gar nix.
Wenn es einen 300mm² 14nm Chip gibt ist Fiji outdated.
Cayman war auch als Abgesang auf die 40nm-Architektur zu verstehen und lief grade mal 1 Jahr. Dafür hat man sich sogar die Mühe gemacht, die VLIW-Architektur komplett umzukrempeln. Ich bezweifle einfach, dass AMD mit Fiji irgendwie mehr vor hatte als die Kosten reinzuholen.

Nakai
2015-11-16, 23:35:12
HBM braucht man auch für die Custom-ASIC-Sparte. Genauso wie K12, falls es für Custom-Chips erwünscht ist. Man kann eben einen HighPerformance-ARM-Kern liefern. ARM wird für die Zukunft noch sehr wichtig werden.

Der nächste Schritt wär es mehrere Logik-Dies auf einen Interposer zu setzen. Da wäre die nexte GPU-Gen auch ein Testballon. Was ist Vega10?
Die 10 macht mir Gedanken. 10 TFLOPs DP-Performance?:freak:

Wie erreicht man die? Ich habe mir Gedanken gemacht, wie AMD das erreichen könnte.
http://www.fudzilla.com/news/graphics/39035-amd-s-2016-gpu-has-double-performance-per-watt

Womöglich hat AMDs größte GPU "Greenland" (oder ist Greenland die Größte?) nur 2 HBM2-Stacks. Dabei steht 4+ TFLOPs/s. Zwei HBM Stacks nur nur 4+ TFLOPs/s? Unmöglich, da passt was nicht...außer da ist DP gemeint. Vega10 könnte es sein, zwei solcher Greenland-GPUs auf einen Interposer zu klatschen. Dazu ein ordentlicher Interconnect zwischen den GPUs und Marketing als völlige VR-GPU. 4+ TFLOPs/s DP spricht für mehr als 4000 SPs, wenn man nicht mehr als 1 GHz schafft.

Kurz für Greenland sehe ich dann irgendwas zwischen 300~400mm² auf uns zukommen. Das sollten mehr als 4000SPs Platz haben. Man muss auch eine höher DP-Funktionalität einrechnen. Mehr als 5000SPs bei max 400mm² kann ich mir nicht vorstellen. Mit 5000 SPs und wohl etwas mehr Takt, sollte man schon ordentlich vor Fiji liegen (+~40%). Wenn man die Auslastung verbessert und den Takt anheben kann...was nur läuft, wenn die Effizienz und das Taktverhalten gesteigert wurde. Das muss man aber wohl die Architektur etwas umkrempeln. Ich weiß nicht, ob Fiji dann weiter bestehen bleibt. 4 HBM-Stacks?

horn 12
2015-11-16, 23:44:55
Nehmen wir mal an es kommt so wie du denkt, Release Spätsommer 2016 und Preislich wo würden wir dann in etwa landen mit HBM-2 und 8GB zumindest.
Zudem kann mir nicht vorstellen das Fiji nicht bis Sommer 16 durchhalten muss!
So schnell auch AMD Fiji ersetzen möchte, oder aber auch nicht.

OBrian
2015-11-17, 03:44:47
richtig, Greenland als ziemlich großes Die wurde auch genannt, und wenn da nicht nur mehr Einheiten kommen, sondern auch die Architektur verbessert wurde, liegt man sicher deutlich vor der Fiji, damit ist Fiji genau eben nicht abgelöst. Sonst hat man ein Riesenloch im Angebot.

Warum wollt Ihr Fiji denn so schnell loswerden? Wie wär's denn erstmal mit dem ollen gammeligen schon stinkenden Pitcairn von Anno Tobak?

Wenn AMD eine sparsame 128bit-Karte (ohne HBM) mit geringer Diefläche backen kann, die Pitcairn bis Tonga ersetzen kann, dann haben sie eine Brot- und Butterkarte für viele Jahre, sowas bringt Geld in die Kasse. Sowas muß kommen. Und Greenland mit HBM als Top-Modell, wo der Die auch auf Server-APUs verbaut werden kann, ist der zweite Chip.

Alles andere kommt auch irgendwann, aber wohl erst 2017. Ist mir auch zu spät, aber wenn es so ist, ist es so.

Hübie
2015-11-17, 03:58:58
Exakt das was ich oben aussage. Seh da auch noch nicht viel Sinn Fiji so schnell abzuschießen. Testballon hin oder her, die Basis ist solide. Breiteres Frontend, wäre vielleicht nicht verkehrt (womit ich nicht zwangsläufig mehr ACEs meine ;)).

Brillus
2015-11-17, 14:05:12
Auch noch so ein Gedane von mir warum Fiji, nicht unbedingt so schnell abgelöst werden müsste. Habe jetzt keine aktuellen Zahlen aber vor ca. 2 Jahren auf der Date war zumindest die Annahme, dass der Preis pro Transitor zwischen 28nm und 14nm sehr ähnlich sein soll. Sprich ein shrink würde auch nicht soviel billigier in der Produktion sein.

unter der Annahme von 2 Chips sehe ich daher auch eher 1 Low-End* , der dann auch Mobile fähig ist (gutes Perf/watt) und aktuelle Features(HDMI 2.0, Freesync, etc..) und einen Highend Chip, den man so nicht in 28nm herstellen könnte sinnvoll an. Und der rest must Fiji und evtl. Tonga übernehmen.

Disclaimer: Alles Speculatius unter der Annahme, dass sich das Preisverhältnis nicht geändert hat.

*der wohl etwas dicker sein wird wie frühere Low-Ends da man nun APUs hat.

HOT
2015-11-17, 14:08:05
richtig, Greenland als ziemlich großes Die wurde auch genannt, und wenn da nicht nur mehr Einheiten kommen, sondern auch die Architektur verbessert wurde, liegt man sicher deutlich vor der Fiji, damit ist Fiji genau eben nicht abgelöst. Sonst hat man ein Riesenloch im Angebot.
[...]
Das ist allerdings ein Argument.
Also
490(X) = Greenland (ca. 350-400mm²)
480(X) = Fiji
470(X) = Tonga
460(X) = Baffin (ca. 120-150mm²)
450(X) = Bonaire
440(X) = Oland

Und Ellesmere = nur embedded.

Den Namen FuryII wird man sich für einen evtl. 500-600mm²-Chip mit 4 HBM2-Stacks aufbewahren würd ich sagen. Das wär dann was für 2017.

Nakai
2015-11-17, 14:22:42
Mhh, Fiji hat einen fetten Interposer und braucht 4 Stacks. Mit HBM2 braucht man nur zwei Stacks für die gleiche Bandbreite. Aber klar, Fiji wird man updaten und weiterlaufen lassen. Man müsste dennoch einen neuen Topdog bringen, ala Fury II. Diesen sehe ich aber nicht vor 2017.

Reinher von der Inselgröße ist Greenland das Topmodell, dann kommt Baffin und weiter unten Ellesmere.
Welche 2 GPUs in 2016 kommen, wird interessant. Laut WTF-Tech sind es Baffin und Ellesmere. AMD hat 1,5 Jahre von Hawaii auf Fiji benötigt. Hawaii kam etwas mehr als 1,5 Jahre nach Tahiti. Kurz einen neuen Topdog kann ich mir vor Ende 2016 schwer vorstellen. Wie wird AMD seinen Finfet Debüt durchführenn? Man braucht definitiv eine GPU aka Pitcairn und eine GPU aka Capeverde. Die restlichen 28nm-GPUs müssen auch abverkauft werden.

Also ich denke Tonga und Fiji werden weiter bestehen, reinher vom technologischen Level. Man bräuchte etwas über Fiji und eine Cashcow.

€: Wollte ich auch grad so erstellen:
Das ist allerdings ein Argument.
Also
490(X) = Greenland
480(X) = Fiji
470(X) = Tonga
460(X) = Baffin (ca. 120-150mm²)
450(X) = Bonaire
440(X) = Oland

Und Ellesmere = nur embedded.

Den Namen FuryII wird man sich für einen evtl. 500-600mm²-Chip mit 4 HBM2-Stacks aufbewahren würd ich sagen. Das wär dann was für 2017.

Ich würde Ellesmere als Oland/Bonaire-Ersatz sehen. Im unteren Bereich fressen die Integrierten GPUs die Marktanteile weg. Eventuell wird man keine LowCost-GPU mehr anbieten, bzw kann man mit Capeverde und Bonaire bedienen.
Eventuell wird Baffin zwischen Fiji und Tonga platziert und Ellesmere unterhalb Tonga.

Also:
490(X) = Greenland (ca. 350-400mm²)
480(X) = Fiji
470(X) = Baffin
460(X) = Tonga
450(X) = Ellesmere

Troyan
2015-11-17, 14:26:15
Weder Tonga noch Fiji sind konkurrenzfähig für den Aufwand.

Das Problem für AMD ist, dass die Architekturverbesserungen zuviel Transistoren kosten, aber gegenüber nVidia zu keinem Mehrwert geführt haben. Maxwell hat klar einen Strich durch die Rechnung gemacht.

AMD kann sich nicht erlauben beide Chips weiter mitzuschleifen sondern muss hier ziemlich schnell aufräumen.

HOT
2015-11-17, 14:26:17
Ich halte es für Unwahrscheinlich, dass Greenland mit den bisher bekannten Daten der "echte" Dopdog ist. MMn ist Greenland eher sowas wie Tahiti war, also 350mm²+ mit 2 Stacks. Inselgröße hin oder her. Fiji wird man sicherlich mit nur noch 2 Stacks bringen, um Kosten zu sparen.
Aber mal was anderes: Ob der 380X ein reparierter Tonga ist, also ne echte neue Rev.? Vllt hat der deshalb solange gebraucht. Der ursprüngliche Tonga war ja schwer zu fertigen AFAIK und das CU-Powermanagement war ja auch kaputt.

Ein weiterer Chip ist ja als Pitcairn-Ersatz unerlässlich. Man könnte Tonga höher takten und einen 14nm-Chip nach unten hin ergänzen. Dank hochgetaktetem HBM2 kommt man ja auch mit deutlich weniger Chipfläche für das RAM-Interface und einem sehr kleinen Interposer für einen Stack aus.
Einen Chip zwischen Fiji (2Stack) und Tonga zu bringen ist mMn sinnlos, zumal sich der (reparierte?) TongaXT offenbar fast auf 390er Niveau befindet. Und Fiji Pro ist nicht weit weg von der 390X.
Einer von den beiden neuen Chips muss einfach eine High-End-Variante sein, alles andere wär aus meiner Sicht vollkommen sinnlos, zumal man ja auch angekündigt hat weiter im Profisegment wachsen zu wollen. Greenland wird mMn Hawaii als Profi-Topdog ersetzen.
i.Ü. hat ein 14nm-Chip für Embedded einfach zu viele Vorteile, um den nicht sofort mitzubasteln. Von daher geh ich fest davon aus, dass Ellesmere ein embedded-Produkt ist. Der wird bei dem "2-GPUs-Statement" nicht mitgezählt worden sein, dort wird man Desktop-Modelle gemeint haben - und das "vielleicht 14nm" bedeutet einfach, dass das Portfolio auch alte Chips enthält.

Ich dachte an sowas:
460X = Baffin XT mit 1x4GB HBM2
470 = Tonga Pro 1000MHz mit 4-8GB
470X = Tonga XT 1100MHz mit 8GB -> knapp unter 390
480 = Fiji Pro 950MHz mit 16GB (2xHBM2) -> ganz leicht über 390X
480X = Fiji XT 1050MHz mit 16GB (2xHBM2)

Falls man den Namen Fury ausschlachten möchte rutschen halt alle eine Nummer rauf.

Nakai
2015-11-17, 14:34:31
Tonga war nicht schwer zu fertigen, aber Apple hat wohl alle guten Dies genommen. Die derzeitige Tonga-Mobile-Variante hat eine TDP sub 95W.

Um Fiji im portfolio einigermaßen zu behalten, wird man Richtung Nano gehen und 4~8GB HBM2 liefern. Kurz man könnte zwischen Tonga und Fiji mit einer Fiji PRO die Lücke stopfen, wenn man eine Variante mit deaktivierten SPs und etwas weniger Takt liefert. Mit 8GB wird man Performancemäßig jegliche 4GB-Variante schlagen können. Naja dann dürfen sich jegliche Fiji-Kunden mal wie Nvidia-Kunden fühlen. ;D

Ich sag mal Greenland wird eine GPU mit 2 Stacks mit HPC-Charakter, auch um in der HPC-APU verwendet zu werden. Der darf nicht so groß werden, der Interposer darf nicht zu fett werden, damit MCMs möglich sind. Mit max. 400mm² sollte ein großer Interposer zwei solche GPUs tragen können, um als absoluter TopDog im HPC-Sektor zu dienen. Man müsste es nur schaffen, dass diese 2-GPUs sich als eine Einzige ausgeben könnten.

€: Wie gut sich Tonga-XT schlagen wird, werden wir bald sehen.

€2: Ellesmere als Embedded GPU? Man sollte wirklich jegliche Modelle überall Launchen. AMD muss das tun, um Gewinn zu erwirtschaften.

€3: Ahja GCN2 wird eher die generelle Struktur und den Aufbau des Chips umkrempeln. Die CUs sind gut genug, aber deren Anbindung ist einfach Overkill. Fiji hat eine abartig große Crossbar: Allein die CUs haben 96 Peers zu den MCs. Dazu kommt noch GDS und andere Sachen vom Frontend. NV hat gut daran getan, die einzelnen SMs im laufe der Zeit immer weiter umzukrempeln, damit die Crossbar wohl kleiner ausfällt. Das Frontend ist auch nicht so ohne.

http://www.vgleaks.com/orbis-gpu-compute-queues-and-pipelines

Das ist das Frontend von der PS4-GPU.
Der untere Teil sieht nach der Workgroup/Wavefront-Arbitration-Dispatcher der ShaderEngines aus. Umso mehr ShaderEngines, desto mehr wächst auch die Verdrahtung. Außerdem weiß man nicht, wie Arbitration/Allocation Probes intern funktionieren. Nicht das diese etwas sequentialisieren. GCN wird erst richtig potent, wenn die Backpressure der ganzen Shaders relativ hoch geht. Dann steigt die Auslastung an.

HOT
2015-11-17, 15:06:20
Aber es ist doch klar, dass man grad im Embedded-Bereich sofort einen 14nm-Chip benötigt. Oder Mobil ohne Displayengine, wie Iceland - oder beides.
Ich find das plausibel, dass 2 von den 3 Codenamen "reguläre" GPUs sind und einer nicht.
Greenland wird sich sicherlich auch als HPC-APU-Ergänzung eignen, das stimmt und ich denke, dass er AMDs wichtigstens Produkt neben Zen ist und somit so früh wir möglich kommen wird.

Weder Tonga noch Fiji sind konkurrenzfähig für den Aufwand.

Das Problem für AMD ist, dass die Architekturverbesserungen zuviel Transistoren kosten, aber gegenüber nVidia zu keinem Mehrwert geführt haben. Maxwell hat klar einen Strich durch die Rechnung gemacht.

AMD kann sich nicht erlauben beide Chips weiter mitzuschleifen sondern muss hier ziemlich schnell aufräumen.

Das ist zu negativ mMn. Ein FijiPro mit 2 HBM2-Stacks auf nur 950MHz wird sicherlich die 220W kaum überschreiten, aber dennoch den GM204 übertrumpfen. NV müsste dann ebenfalls auf regulär 220W gehen mit dem GM204 um konkurrenzfähig zu bleiben. Das passt sehr gut. Zudem sind die GCN1.2 bei DX12 ziemlich stark, nur die Tesselation ist weiterhin der Pferdefuss, aber lange nicht so gravierend wie bei Hawaii.
Ich geh sowieso sehr stark davon aus, dass NV in 2016 nur eine TitanII (GP100) zum Markt als neue FinFET-GPU beitragen wird. Alles weitere werden Renames von Maxwell-GPUs mit höheren TDPs sein.

GTX1080 = GM200 full mit 16GB gegen Greenland XT mit 16GB

Nakai
2015-11-17, 15:13:29
Ah, das meinst du mit Embedded-GPU. Ja, das braucht man definitiv. Diese sollte aber etwas fetter ausfallen, als sonst. Im unteren Sektor wildern die integrierten GPUs.

€: Greenland gegen GM200? Da muss NV GM200 ordentlich hochpushen.

HOT
2015-11-17, 15:18:19
Ne, das wäre ja Mobil (Juhuu Goldwaage :D).
So ein Chip wär übrigens auch als APU-Ergänzung hervorragend -> Ellesmere auf einen Interposer geklebt an ein RavenRidge-CPU-Die.

Mit Embedded meinte ich eigentlich sowas wie den E8860 - wobei ich seh grad - das sind normale umgelabelte GPUs. Der E8950 ist ein TongaXT.

Bisher ist ja nichts weiter als ein GP100-Respin gesichtet worden, da gibts offenbar noch einiges zu tun für NV ;).
Na ja, AMD darf auch mal die besseren Karten haben finde ich.

Nakai
2015-11-17, 15:20:54
Ne, das wäre ja Mobil (Juhuu Goldwaage :D).
So ein Chip wär übrigens auch als APU-Ergänzung hervorragend -> Ellesmere auf einen Interposer geklebt an ein RavenRidge-CPU-Die.

Mal reinher von den Specs, würde ich Ellesmere schon bei 1000SPs+ einordnen.
So eine RavenRidge-APU wird auch ~1000 SPs besitzen.

€:

Bisher ist ja nichts weiter als ein GP100-Respin gesichtet worden, da gibts offenbar noch einiges zu tun für NV ;).
Na ja, AMD darf auch mal die besseren Karten haben finde ich.

Man kann AMD vieles vorwerfern, aber deren Engagement bei HBM wird sich wohl noch als sehr wichtig herausstellen.

Pick
2015-11-17, 16:48:57
My guess:

Baffin GPU GDDR5X (~ Fiji XT Performance)
Greenland GPU HBM2 (Fury II)

Agent117
2015-11-17, 17:33:08
Reinher von der Inselgröße ist Greenland das Topmodell, dann kommt Baffin und weiter unten Ellesmere.
Welche 2 GPUs in 2016 kommen, wird interessant. Laut WTF-Tech sind es Baffin und Ellesmere. AMD hat 1,5 Jahre von Hawaii auf Fiji benötigt. Hawaii kam etwas mehr als 1,5 Jahre nach Tahiti. Kurz einen neuen Topdog kann ich mir vor Ende 2016 schwer vorstellen. Wie wird AMD seinen Finfet Debüt durchführenn? Man braucht definitiv eine GPU aka Pitcairn und eine GPU aka Capeverde. Die restlichen 28nm-GPUs müssen auch abverkauft werden.


Laut http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-readies-three-new-gpus-for-2016-greenland-baffin-and-ellesmere/
wurde mit der Entwicklung von Greenland ca. im Sommer 2013 begonnen, vermutlich als ersten Post-GCN Chip.
Baffin und Ellesmere wurden erst im Sommer 2014 angefangen.
Nebenbei: Über Fiji sagte Lisa Su einmal, dass er im Novenmber 2013 begonnen wurde.
Man hat also 3 neue Chips mit Post-GCN in der Pipeline, davon einen größeren aufwendigeren höchst wahrscheinlich auch für HPC und zwei kleinere einfachere, mit deren Design man erst 1 Jahr nach Greenland begonnen hat.

Interessant ist, dass davon 2016 nur zwei kommen. Da Baffin und Ellesmere beide eher einfache Chips von der Stange zu sein scheinen wie Pitcairn und Cape Verde, fällt mir kein Grund ein, warum man 2016 nur einen bringen sollte, wenn man beide bringen kann. Probleme macht dann vlt eher der Greenland, wer weiß was da alles neues auch gerade für HPC drinnen ist.


Ich sag mal Greenland wird eine GPU mit 2 Stacks mit HPC-Charakter, auch um in der HPC-APU verwendet zu werden. Der darf nicht so groß werden, der Interposer darf nicht zu fett werden, damit MCMs möglich sind. Mit max. 400mm² sollte ein großer Interposer zwei solche GPUs tragen können, um als absoluter TopDog im HPC-Sektor zu dienen. Man müsste es nur schaffen, dass diese 2-GPUs sich als eine Einzige ausgeben könnten.


Ich finde das garnicht mal so abwegig und klingt für mich - nach den Erfahrungen mit Interposern bei Fiji - als der nächste logische Schritt. AMD sprach schon vor dem RV770 Launch 2008 von solchen Konzepten.
Wenn man sich dann jede Generation einen 500-600mm² Chip sparen kann hat das sicher auch viele Vorteile. Technisch weiß ich aber nicht wie und wo man da am besten die Fabric auf beiden Chips zusammen führt.

Es gab auch von AMD mal einen Chip der sich "Tiran" nannte aber es nie zum Launch schaffte. Der hatte ca. 400mm², wurde als HBM Testchip verwendet und war laut Gerüchten ursprünglich statt Hawaii geplant, nachdem auch Tahiti ursprünglich mit HBM geplant war. Wer weiß, was die mit dem wirklich alles getestet haben; ich kann irgendwie schwer glauben - trotz aller Komplexität von HBM und Interposer - dass man einen 400mm² Chip extra nur auflegt, um HBM zu testen.

iuno
2015-11-17, 20:35:21
wurde mit der Entwicklung von Greenland ca. im Sommer 2013 begonnen, vermutlich als ersten Post-GCN Chip.
Post-GCN?
Es sollte eher eine Weiterentwicklung sein, diesmal aber wohl eine größere Überarbeitung als die kleinen Schritte von 1.0 bis 1.2. Warum soll auch eine komplett neue Architektur her? GCN schlägt sich doch gut und anders als bei den CPU Kernen ist das ja überhaupt nicht nötig.

Agent117
2015-11-17, 22:26:48
Ich habe den Begriff "Post GCN" einfach aus dem Artikel übernommen.
Denke aber auch dass sie das noch GCN nennen es werden nur, wie du ja auch meintest, werden es deutlichere Veränderungen sein als die bisherigen kleineren Iterationen.
Was die Veränderungen betrifft ist sehr interessant, was Nakai oben geschrieben hat. An den CUs selbst kann man vlt noch den Registerzugriff verbessern und/oder die Register verkleinern.

Nakai
2015-11-17, 22:48:15
Ich könnte mir vorstellen, dass AMD mehrere CUs in größere Blöcke kombiniert. Es gibt ja bereits Quad-Engines, sprich bis zu 4 CUs teilen sich einen Vector- und Instruction-Cache, welche auch an den Crossbars hängt.
Ich denke von da kann man den L1-Cache aller CUs zu einem größeren Cache vereinigen und Crossbar-Pfade miteinander kombinieren. Ergo statt 6 Peers pro 4 CUs sind es nur noch 3 Peers. Natürlich muss die Breite des Crossbars dementsprechend auch erhöht werden. Selbstverständlich müsste man innerhalb dieser Quad-CU noch eine weiteren Scheduling-Block für Wavefronts integrieren. Das Frontend muss überarbeitet werden, um mehr Last zu erzeugen. Eventuell muss man erreichen, dass die ACEs mehr Wavefronts schedulen können. Wenn man solche Quad-CUs baut, müssten die ACEs 4 Wavefronts pro Takt an eine Quad-CU schedulen können damit das Verhältnis wieder stimmt.
Das wäre aber ein ziemlich großer Refresh in der Hinsicht.

Falls man FP16-Instruktionen ausführen möchte und zwar sogar mit mehr Durchsatz als FP32, analog zu NV, bei GCN würde sich eine nette Möglichkeit bieten. GCN hat eine Latenz von 4 Takten. Bei FP16 könnte man das doch auf 2 Takte schrumpfen. Dadurch hätte man auch einen besseren Durchsatz. Ich frage mich eher, ob das von der zugrundelegenden Architektur möglich ist...mhh.

horn 12
2015-11-17, 22:55:55
Erstmals sollte AMD zusehen die komplette Furie Serie g´scheid verkauft zu bekommen
Spielebundle gibt es ja nun langsam aber so eine starre Preispolitik mösste man überdenken, oder man ist einfach zufrieden mit den Verkauften Stückzahlen der Fury X - Fury und Nano, was ich aber stark bezweifle!

Preis etwas absenken würde schon für den erhofften Verkauf sorgen.
Aber da bleibt AMD steinhart, hätten jetzt ja die Wahl alle verfügbaren Kartnender Furie zu Weihnachten an den Mann bringen zu können, aber es will wohl nicht sooo Recht.

Godmode
2015-11-17, 22:57:38
Warum willst du den Preis senken, wenn sie jetzt nicht mal die Stückzahlen befriedigen können? Oder hat sich das schon gebessert?

Nakai
2015-11-17, 23:00:04
Fiji wird definitiv weiterleben. Falls die MCs HBM2-kompatibel ist, kann es, wie oben schon von HOT angesprochen, alles umgekrempelt werden. Dann liegt natürlich eine Hälfte der MCs Brach. Die MCs von Fiji wurde ja auch noch nicht wirklich beleuchtet.

Mancko
2015-11-17, 23:09:11
Preis etwas absenken würde schon für den erhofften Verkauf sorgen.
Aber da bleibt AMD steinhart, hätten jetzt ja die Wahl alle verfügbaren Kartnender Furie zu Weihnachten an den Mann bringen zu können, aber es will wohl nicht sooo Recht.

Preise senken ist genau das, was AMD im Augenblick überhaupt nicht weiter hilft. Nvidia hat im Augenblick durch die Bank weg die für sie kostengünstigeren Produkte und die deutlich höheren Margen am Start. Die können jede Preissenkung mitgehen und verdienen dann immer noch eine ganze Weile Geld, während AMD noch weiter in die roten Zahlen rutscht. Das bringt AMD momentan gar nichts. Da ist es m.E. besser im Fahrwasser unauffällig mit zuschwimen und zu versuchen so viel $ wie möglich mitzunehmen. Die aktuelle Generation haben die intern doch schon längst abgeschrieben und betreiben Schadensbegrenzung. Den Kampf können sie auch nicht mehr gewinnen da sie einfach zu spät waren. Da hilft nur Durchhalten bis zur nächsten Generation und dann von Neuem beginnen.

Hübie
2015-11-17, 23:13:02
Das Problem bei einer so "kommunikativen" (speicherbasierten) Architektur ist ja, dass man sich die Effizienz versaut. Jedes zu übertragende Bit kostet Energie. Je weiter der Weg, desto mehr "Verbrauch". Wenn es also geht, sollte man mehr Cache zusammenführen und Message Bus entschlacken. GCN ist eine mächtige Architektur, weil du im Prinzip alles drauf werfen kannst und erhälst dennoch gute Performance, aber es wäre nicht verkehrt, jetzt mit neuen Compilern und APIs mehr in diese Richtung zu verlagern.

Wer Maxwell und CUDA kennt weiß wovon ich rede. ;)

Edit: Es gibt mehrere Möglichkeiten wie man eben einen Markt bedient. AMDs Situation wäre meiner Einschätzung nach gut beraten die Preise von Fiji im kompletten Lineup anzupassen und vor allem mit Aktionen auf sich aufmerksam zu machen. Man braucht erst mal Marktanteile für margenträchtige Strategien. Genau in so einer Situation ist ja nVidia, von daher hinkt dein Vergleich diesbezüglich, Mancko.

horn 12
2015-11-17, 23:14:17
Lieferbarkeit hat sich bedeutend stark verbessert, aber so wie es scheint liegen viele Karten einfach auf Halde und verkaufen sich nur binnen einer Woche 5 -10 Stück

Preislich würde eine Anpassung in etwa AMD wohl die Verkaufzahlen besser von der Hand laufen.

Fury X 579 Euro
Nano 529 Euro
Fury 479 Euro

Dies wäre eine krasse Preis Ansage auch gegenüber NV und immer noch besser die Gewinn-Marge um etwa 50 Dollar senken, aber dann weitaus besser verkaufen zu können.
Italien machte es ja vor, und teilweise immer noch... Bleiben aber dennoch im Regal liegen. Dies ist aber dem Land geschuldet, nicht dem Hersteller.

G3cko
2015-11-17, 23:22:34
Preise senken ist genau das, was AMD im Augenblick überhaupt nicht weiter hilft. Nvidia hat im Augenblick durch die Bank weg die für sie kostengünstigeren Produkte und die deutlich höheren Margen am Start. Die können jede Preissenkung mitgehen und verdienen dann immer noch eine ganze Weile Geld, während AMD noch weiter in die roten Zahlen rutscht. Das bringt AMD momentan gar nichts. Da ist es m.E. besser im Fahrwasser unauffällig mit zuschwimen und zu versuchen so viel $ wie möglich mitzunehmen. Die aktuelle Generation haben die intern doch schon längst abgeschrieben und betreiben Schadensbegrenzung. Den Kampf können sie auch nicht mehr gewinnen da sie einfach zu spät waren. Da hilft nur Durchhalten bis zur nächsten Generation und dann von Neuem beginnen.

Erstmals sollte AMD zusehen die komplette Furie Serie g´scheid verkauft zu bekommen
Spielebundle gibt es ja nun langsam aber so eine starre Preispolitik mösste man überdenken, oder man ist einfach zufrieden mit den Verkauften Stückzahlen der Fury X - Fury und Nano, was ich aber stark bezweifle!

Preis etwas absenken würde schon für den erhofften Verkauf sorgen.
Aber da bleibt AMD steinhart, hätten jetzt ja die Wahl alle verfügbaren Kartnender Furie zu Weihnachten an den Mann bringen zu können, aber es will wohl nicht sooo Recht.

AMD hat es in der Vergangenheit versucht mit riesigen Spielebundles Marktanteile zu gewinnen. Das hat wie man sieht offensichtlich nicht geklappt. Lieber verkauft man keine Karten, als so eine erneute Dumingschlacht zu führen.

Das muss man sich mal vor Augen halten. GTX670 2GB vs 7970 3GB inkl Spielebundle. Die schwachen Marktanteile sehen wir ja. Obwohl man ja heute klar sieht wie stark GCN geblieben ist. Rein von der Leistung gesehen vielleicht 30% Wertverlust in 3 Jahren.

iuno
2015-11-17, 23:27:11
Fiji wird definitiv weiterleben. Falls die MCs HBM2-kompatibel ist, kann es, wie oben schon von HOT angesprochen, alles umgekrempelt werden. Dann liegt natürlich eine Hälfte der MCs Brach. Die MCs von Fiji wurde ja auch noch nicht wirklich beleuchtet.
Ja, vor allem nicht, warum das gesamte SI 3x so groß ist, wie zunächst angenommen.
"HBM2" wäre an sich wohl kein Problem, könnte man ja einfach der Kapazität wegen HBM2 Stacks nehmen und diese niedriger takten. Andererseits könnte das SI ja möglicherweise auch deshalb so groß sein, dass dort noch taktreserven sind. Dann könnte man die gewünschte günstigere Fury auch mit 2 Stacks auf kleinerem Interposer bringen und eine darüber positionierte mit mehr Speicher. Das finde ich trotzdem immer noch sehr zweifelhaft.
Ich glaube aber auch nicht an eine Preisanpassung bei Fiji-Karten. Alleine, weil ich denke, dass gar nicht so viel mehr Karten abgesetzt würden, wenn man die Masse an verkauften GM200 und vor allem GM204 sieht. Von einer 980 wechselt doch keiner auf eine Fury, von einer Ti erst recht nicht. Selbst von 970 oder Hawaii lohnt das ja kaum. Und besonders zukunftsträchtig ist die Karte halt auch nicht mit ihren 4 GiB.

OBrian
2015-11-18, 06:03:15
Wir sollten nciht außer Acht lassen, daß wir hier auch gerade einer absichtlichen Verwirrungsstrategie von AMD zum Opfer fallen. Echte Leaks gibt es bei denen ja schon seit Jahren nicht mehr, was es also gibt, sind absichtlich gestreute Pseudo-Infos (was sagen Codenamen schon aus? Genau, nichts), und ich halte es für durchaus plausibel, daß die sich dann auch mal widersprechen, z.B. indem wir drei Codenamen hören und dann gesagt kriegen, es seien zwei Chips in der Mache.

Baffin und Ellesmere als Chips für jeweils Consumer- und Embedded-Bereich zu deuten, halte ich für abwegig, denn die sind ja in der gleichen Kategorie, aber AMD würde da sicherlich andere Kategorien von Codenamen wählen: Wie z.B. Kaveri und Berlin identisch sind, aber das eine eine Consumer-APU (Flüsse wie Trinity, Brazos usw.) ist und das andere ein Opteron (Städte mit Formel1-Kursen wie Barcelona, AbuDhabi usw.), und als embedded-Version heißt derselbe Chip "BaldEagle", also Raubvogelklasse sozusagen. Und bei den GPUs genauso: Der embedded E8860 ist "Adelaar" (niederländisch für Adler), heißt als Notebookgrafik aber "Venus" (Planet) und ist im Desktopbereich "Cape Verde" (Insel).

Leonidas
2015-11-18, 10:41:56
AMD hat es in der Vergangenheit versucht mit riesigen Spielebundles Marktanteile zu gewinnen. Das hat wie man sieht offensichtlich nicht geklappt. Lieber verkauft man keine Karten, als so eine erneute Dumingschlacht zu führen.

Das muss man sich mal vor Augen halten. GTX670 2GB vs 7970 3GB inkl Spielebundle. Die schwachen Marktanteile sehen wir ja. Obwohl man ja heute klar sieht wie stark GCN geblieben ist. Rein von der Leistung gesehen vielleicht 30% Wertverlust in 3 Jahren.



Sie sollten es dennoch tun, um weiterhin eben wenigstens die 30% zu erreichen. Bringt mehr, egal ob es mehr kostet. 30% ist ein erträglicher Wert, 18% eben nicht.

Daneben bin ich ja dafür, daß AMD ein bißchen Clevernes an den Tag legt und ein Spielebundle im Stil von "unbekannte Perlen" auflegt. Da wird man mit den Publishern sicherlich exzellente Einkaufspreise vereinbaren können (Werbeeffekt ist für die dann entscheidend) und kann dann tolle Bundles zu niedrigen Kosten zusammenzimmern. Und wenn dann ein Spieler darüber auch noch ein Spiel entdeckt, was er vorher niemals in Betracht gezogen hätte - dann gibt es positive Stimmung pro AMD ohne Ende. Lohnt mehr als Blockbuster beizulegen, das wird einfach zu sehr nur als platter geldwerter Vorteil (oder Nachteil, wenn mich der Blockbuster nicht interessiert) gesehen.

HOT
2015-11-18, 13:44:03
[...]

Baffin und Ellesmere als Chips für jeweils Consumer- und Embedded-Bereich zu deuten, halte ich für abwegig, denn die sind ja in der gleichen Kategorie, aber AMD würde da sicherlich andere Kategorien von Codenamen wählen: Wie z.B. Kaveri und Berlin identisch sind, aber das eine eine Consumer-APU (Flüsse wie Trinity, Brazos usw.) ist und das andere ein Opteron (Städte mit Formel1-Kursen wie Barcelona, AbuDhabi usw.), und als embedded-Version heißt derselbe Chip "BaldEagle", also Raubvogelklasse sozusagen. Und bei den GPUs genauso: Der embedded E8860 ist "Adelaar" (niederländisch für Adler), heißt als Notebookgrafik aber "Venus" (Planet) und ist im Desktopbereich "Cape Verde" (Insel).
Ellesmere kommt sicherlich auch für Desktop als Ellesmere, nur eben nicht 2016.
Ich denke, man wird den Chip Ellesmere erst mal nur mobil und als APU-Grafik verwenden und dann später in 2017 die kleineren Desktop-Chips verwenden, wenn die Kosten nicht mehr so hoch sind und die Kapazität für Low-End-Krempel in dem Prozess auch da sind.
MMn sind die kleinen GCN1-Chips einfach so viel günstiger und man kann so große Mengen davon liefern, dass es sich einfach nicht lohnt Ellesmere im Desktop in 2016 einzusetzen. Wichtig ist es hingegen eigentlich nur etwas über Fiji zu liefern, das auch für den Profimarkt (inklusive DP) super ist - und Pitcairn zu ersetzen, weil da ein riesen Loch im Portfolio ist zwischen Tonga und Bonaire.

Kartenlehrling
2015-11-18, 13:55:56
Wichtig ist es hingegen eigentlich nur etwas über Fiji zu liefern, das auch für den Profimarkt (inklusive DP) super ist

Ich finde es immer Lustig das ausgerechend AMD immer sein Kartenblatt als erster aufdecken muss,
hat nicht Nvidia erst vor einem Monat ihre Maxwell Profikarte veröffentlich?

iuno
2015-11-18, 17:17:08
Warum immer? GK110 ist schon länger auf dem Markt als Hawaii.
Die Quadro mit GM200 (M6000) ist auch schon seit Frühjahr draußen, nur die Tesla kam so spät. Für die gibt es aber auch nicht wirklich viele Einsatzgebiete, ist ja eine reine Beschleunigerkarte, während die Quadros noch für Workstations gedacht sind.
Es gebe zwar Einsatzgebiete für Tesla, in denen Single-Precision-Leistung gefragt sei, diese machten mit 40 bis 45 Prozent des Umsatz aber den kleineren Geschäftsbereich aus, gab PNY zu verstehen. Hier soll die nächste Generation, Codename Pascal, Abhilfe schaffen – aktuell verweist Nvidia weiter auf die Vor-Vorgängergeneration Kepler.
Quelle (http://www.computerbase.de/2015-03/nvidia-quadro-m6000-hat-zu-wenig-speicher/)
Die Maxwells passen da kaum hin und GK110 bleibt das top Produkt der Sparte. Zumal Maxwell ja kaum noch schneller und effizienter ist, wenn Höchstleistung gefordert ist, das Teil taktet aber höher als die Kepler Karte und hat eine höhere TDP.

Nakai
2015-11-18, 18:09:10
Zwischen Tonga und Bonaire wird man Ellesmere platzieren. Baffin kann ich mir gut zwischen Tonga und Fiji vorstellen. Über Fiji eben Greenland.

horn 12
2015-11-18, 18:24:11
Fiji 4GB, sprich Anfang 2016 wohl mit 8GB HBM wird noch ein langes Leben bevorstehen, mindestens 1 Jahr!

iuno
2015-11-18, 18:47:11
Und wie kommst du darauf?
Selbst wenn bis Herbst kein ~300mm² Chip von AMD kaeme, warum sollte AMD Fiji nicht mit mehr Speicher aufwerten, wenn er verfuegbar ist? HBM2 wird naechstes Jahr verfuegbar sein und in groesseren Stueckzahlen gefertigt als HBM1, da er nicht nur fuer eine Karte sondern auch fuer Nvidia und andere Kunden ist. Daher denke ich nicht, dass er so viel teurer ist, ausserdem gaebe das dem Produkt ein klarer Mehrwert, den man preislich auch an den Kunden weitergeben kann. Man muss ja sehen, dass Fiji veraltet ist, sobald ein Chip ab 300mm² in 14/16 nm kommt, egal ob von AMD oder Nvidia. Zudem wird der neue dann sicherlich mehr als 4 GiB haben, selbst mit GP104. Da wuerde man nicht mehr so wenige Fiji verkaufen wie jetzt, sondern gar keine mehr

HOT
2015-11-18, 19:04:57
Zwischen Tonga und Bonaire wird man Ellesmere platzieren. Baffin kann ich mir gut zwischen Tonga und Fiji vorstellen. Über Fiji eben Greenland.
Da ist kein Platz. Da brauchst du nix. Fiji Pro wird sicherlich nicht auf vollen 1000 takten um Strom zu sparen und Tonga XT mit fast 1100 reicht um Hawaii Pro mit 1000 einzufangen. Und wenn man da widererwarten doch was braucht gibts noch Hawaii.

Kriton
2015-11-18, 21:50:26
Warum eigentlich nur 2 neue Karten?

He promised two brand new GPUs in 2016, which are hopefully going to both be 14nm/16nm FinFET from GlobalFoundries or TSMC and will help make Advanced Micro Devices more power and die size competitive.

Mal davon ausgehend, dass Forbes jetzt nicht so technologieaffin ist (auch wenn ich mir die Vita des Autoren angesehen habe), wieso gehen wir davon aus, dass AMD nicht eigentlich von 2 Chips gesprochen hat?
Gerade bei der neuen Fertigung müssen wir doch davon ausgehen, dass es Chips geben wird, welche nicht voll funktionsfähig sind.

N0Thing
2015-11-18, 21:56:02
Für mich ging es immer um Chips. Sonst hätte in dem Artikel cards statt GPUs gestanden.

Thunder99
2015-11-18, 22:01:15
Da ist kein Platz. Da brauchst du nix. Fiji Pro wird sicherlich nicht auf vollen 1000 takten um Strom zu sparen und Tonga XT mit fast 1100 reicht um Hawaii Pro mit 1000 einzufangen. Und wenn man da widererwarten doch was braucht gibts noch Hawaii.
Glaube ich erst wenn Benches da sind. Tonga ist stark aber nicht so viel stärker als Tahiti. Sonst hätte das man ja sehen können anhand 285/380. Hawaii Pro bleibt immer schneller meiner Meinung nach

Kriton
2015-11-18, 22:01:48
Für mich ging es immer um Chips. Sonst hätte in dem Artikel cards statt GPUs gestanden.

Was er geschrieben hat ist mir klar. Worauf ich hinaus will: Warum glauben alle, dass der Typ nicht Chips und Karten vertauscht/in einen Topf geworfen hat, also AMD von Chips geredet und er Karten daraus gemacht hat?

Skysnake
2015-11-18, 22:35:11
Ich könnte mir vorstellen, dass AMD mehrere CUs in größere Blöcke kombiniert. Es gibt ja bereits Quad-Engines, sprich bis zu 4 CUs teilen sich einen Vector- und Instruction-Cache, welche auch an den Crossbars hängt.
Ich denke von da kann man den L1-Cache aller CUs zu einem größeren Cache vereinigen und Crossbar-Pfade miteinander kombinieren. Ergo statt 6 Peers pro 4 CUs sind es nur noch 3 Peers. Natürlich muss die Breite des Crossbars dementsprechend auch erhöht werden. Selbstverständlich müsste man innerhalb dieser Quad-CU noch eine weiteren Scheduling-Block für Wavefronts integrieren. Das Frontend muss überarbeitet werden, um mehr Last zu erzeugen. Eventuell muss man erreichen, dass die ACEs mehr Wavefronts schedulen können. Wenn man solche Quad-CUs baut, müssten die ACEs 4 Wavefronts pro Takt an eine Quad-CU schedulen können damit das Verhältnis wieder stimmt.
Das wäre aber ein ziemlich großer Refresh in der Hinsicht.

Halte ich alles für keine gute Idee.

Die Caches zuasmmen zu fassen macht Sie langsamer und vergrößert auch die Länge der Datenpfade, was wieder zu mehr Routingaufwand und damit congestion führt.

Dann doch lieber "einfach" eine weitere Cachestufe einziehen. Bei GPUs sollte das an sich nicht so sehr weh tun, da man ja keine cache cohärenz hat. Ansonsten den L2 größer machen, aber Registerfile und L1 sind da ziemlich kritisch, und meiner Einschätzung nach auch eher nicht das Hauptproblem bei GCN.


Falls man FP16-Instruktionen ausführen möchte und zwar sogar mit mehr Durchsatz als FP32, analog zu NV, bei GCN würde sich eine nette Möglichkeit bieten. GCN hat eine Latenz von 4 Takten. Bei FP16 könnte man das doch auf 2 Takte schrumpfen. Dadurch hätte man auch einen besseren Durchsatz. Ich frage mich eher, ob das von der zugrundelegenden Architektur möglich ist...mhh.
Seh ich jetzt keine Notwendigkeit, und würde die ISA auch hässlicher machen. 4 Takte für FP16 nur halt mit doppelter Anzahl an Flops ist voll auf OK. Damit muss man nicht schauen, wie denn nun wann welche Art von Instruktionen fertig ist, und hat sicherlich auch weniger Probleme eine vernünftige Pipeline zu bauen. 4 Takte sind ja wirklich sehr kurz. Schaut euch doch mal CPUs an mit >10 Stufen.

Ansonsten würde ich auch ungern an GCN eine Änderung bezüglich der "Allgemeinverträglichkeit" sehen. GPUs sind eh schon recht schwer auszulasten, da braucht man nicht auch noch eine wählerische Architektur...

Nakai
2015-11-19, 16:05:22
AMD hätte auch diesbezüglich nochmal 64 KB Local Memory. Mich stört bei Gcn der fette Interconnect. Wenn man die CUs gleichgroß lässt, dann wird der noch größer...

Und klar, man muss, wenn man die CUs zusammenfasst oder umstrukturiert, die interne Cache-Struktur anpassen.
Ein anderer Punkt ist es das Frontend zu über arbeiten. Pro Ace kann man pro Takt Eine Workgroup auf eine CU schedulen. FAS wird wohl auch auf den Graphics Command Processor zutreffen. Ergo kann man bei GCN asyncen, um die Auslastung zu erhöhen. Ergo man kann mehr scheduling Logik ausnutzen. Ich denke das tut bereits NV in dem mehrere Blöcke intern gleichzeitig geschedult werden.

HOT
2015-11-19, 16:59:43
Ok, nach dem verkackten TongaXT-Launch ist klar, dass AMD was zwischen Fiji und Tonga braucht. Offenbar kann Tonga einfach nicht sein Potenzial ausschöpfen. Ich würd mal vermuten, dass der als Pitcairn-Ersatz eher zu gebrauchen ist.

Gipsel
2015-11-19, 18:25:38
Ich könnte mir vorstellen, dass AMD mehrere CUs in größere Blöcke kombiniert. Es gibt ja bereits Quad-Engines, sprich bis zu 4 CUs teilen sich einen Vector- und Instruction-Cache, welche auch an den Crossbars hängt.Instruktions- und skalaren L1-D$. Die 16kB L1-vD$ gibt es pro CU.
Ich denke von da kann man den L1-Cache aller CUs zu einem größeren Cache vereinigen und Crossbar-Pfade miteinander kombinieren. Ergo statt 6 Peers pro 4 CUs sind es nur noch 3 Peers. Natürlich muss die Breite des Crossbars dementsprechend auch erhöht werden. Selbstverständlich müsste man innerhalb dieser Quad-CU noch eine weiteren Scheduling-Block für Wavefronts integrieren.Wie das genau intern läuft, weiß man glaube ich öffentlich gar nicht genau. Die CUs bekommen die vom Graphics Command Processor oder den ACEs erzeugten Wavefronts über ein Work Distribution Netzwerk zugewiesen, daß irgendwie den Überblick behalten muß, wie stark die einzelnen CUs ausgelastet sind bzw. welche Resourcen in den einzelnen CUs gerade belegt sind, um zu entscheiden, ob und wohin man das ganze leitet (da hängt auch noch ein Rattenschwanz dran, wie z.B. Initialisierung des LDS und/oder Registern mit den entsprechenden Parametern). Da wird es wahrscheinlich eine Art Scoreboarding-System geben. Aber ob und wie das zentralisiert oder verteilt arbeitet, ist (soweit ich weiß) nicht bekannt. Insofern ist es schwierig, über Änderungen dort zu spekulieren. Ich vertrete aber schon länger die These, daß die GCN-GPUs in dem Bereich noch Reserven haben.
Das Frontend muss überarbeitet werden, um mehr Last zu erzeugen. Eventuell muss man erreichen, dass die ACEs mehr Wavefronts schedulen können. Wenn man solche Quad-CUs baut, müssten die ACEs 4 Wavefronts pro Takt an eine Quad-CU schedulen können damit das Verhältnis wieder stimmt.
Das wäre aber ein ziemlich großer Refresh in der Hinsicht.Das ist meiner Meinung nach unnötig. Die Möglichkeiten der ACEs in der Hinsicht sind zum jetzigen Zeitpunkt recht großzügig ausgelegt. Überlege doch mal, was insgesamt 8 Wavefronts pro Takt über die ACEs bedeuten! Wie lange läuft denn ein relativ kurzer Shader mit sagen wir mal lediglich 20 Instruktionen (bei erstmal als unlimitiert angenommenem Durchsatz des Shaderarrays)? Doch mindestens 80 Takte (mit dem Overhead der Initialisierung und Latenzen von z.B. Speicherzugriffen wohl noch erheblich länger, es geht hier nur um die limitierende Größenordnung). Dies bedeutet, daß man mehr als 640 Wavefronts in-flight halten würde (realistisch eher ein paar tausend).
Und 20 Instruktionen im Shader würden dann bei einem Durchsatz von 8 Wavefronts pro Takt einen Durchsatz des Shaderarrays von 160 (Wavefront-)Instruktionen pro Takt erfordern, also grob 160 CUs (jede CU hat einen Durchsatz von genau einer Vektorinstruktion für eine Wavefront pro Takt, benötigt dafür aber mindestens 4 Wavefronts auf der CU, realistisch aber mehr).
Die ACEs machen ja nicht das Scheduling der einzelnen Instruktionen, das geschieht in den CUs selber. Die 8 ACEs mit ihren einen Wavefront pro Takt limitieren die Abarbeitung von Compute-Shadern (bei 1GHz) auf 8*64*1GHz=512 Milliarden work items (Threads in DX- oder CUDA-Sprech) pro Sekunde. Andere Limits kommen da im Normalfall sehr viel eher zum Tragen ;).
Falls man FP16-Instruktionen ausführen möchte und zwar sogar mit mehr Durchsatz als FP32, analog zu NV, bei GCN würde sich eine nette Möglichkeit bieten. GCN hat eine Latenz von 4 Takten. Bei FP16 könnte man das doch auf 2 Takte schrumpfen. Dadurch hätte man auch einen besseren Durchsatz. Ich frage mich eher, ob das von der zugrundelegenden Architektur möglich ist...mhh.Das funktioniert nicht, weil der Scheduler in einer CU im Prinzip im round robin Verfahren zwischen den vier den jeweiligen SIMDs zugeordneten Instruction Buffer (in denen die nächsten Instruktionen von bis zu 10 Wavefronts liegen [also maximal 40 pro CU] und selbständig die nächsten Instruktionen vom L1-I$ holt) wechselt. Die minimale Latenz von Instruktionen beträgt also 4 Takte (in denen vier Häppchen zu je 16 work-items durch die Pipeline geschoben werden, pro Takt eines), weil vorher kommt die Wavefront nicht wieder zum Scheduling dran. Wenn man nicht das komplette Scheduling-System der CU (was sehr durchdacht ist) durcheinanderwerfen will, geht das schlicht nicht.
Davon abgesehen würden 2 Takte die Taktbarkeit erheblich limitieren (wenn man nicht sehr große und stromfressende Einheiten verbauen will, das tut man auf GPUs aus naheliegenden Gründen ja nicht). Die 4 Takte jetzt sind schon an der Grenze (und mit 16 Bit kann man die Pipeline nicht mal auf die Hälfte kürzen, da könnte man nur deutlich weniger sparen [was es unpraktikabel macht]). Was hat Maxwell? Das waren doch minimal sechs Takte, oder?

Die einfachste Möglichkeit für (performancesteigernde) 16Bit-Instruktionen wäre, wie Skysnake schon sagte, SIMD (vec2) innerhalb der einzelnen work-items. Also Instruktionen, die einen 32bit Registerslot wie ein Paar aus 16-Bit-Werten behandelt und mit einer Instruktion auf beiden Hälften das Gleiche macht. Einfach und halbwegs effektiv. Dürfte das beste Kosten-zu-Nutzen-Verhältnis ergeben.

reaperrr
2015-11-19, 19:14:32
GCN's Problem liegt meiner Meinung nach weniger bei der Auslastung (sonst müsste Tonga gegen Tahiti besser abschneiden), sondern eher beim Verbrauch bzw. der Taktbarkeit über 1 GHz, sowie teilweise dem massiven Hinterherhinken in einzelnen speziellen Kategorien (Z/Stencil-Durchsatz pro ROP, FP16-Texturfilter-Durchsatz pro TMU sind jeweils nur halb so hoch wie bei Maxwell).

Dass GCN mehr ALUs/TMUs für eine ähnliche pro-MHz-Leistung braucht ist grundsätzlich kein Problem, solange diese weniger Platz brauchen und somit die Perf./mm² ähnlich ist wie bei den Nvidia-Gegenstücken (was außer bei Tonga bei allen aktuell produzierten GCN-Chips weitestgehend der Fall ist).

Das Hauptproblem gegenüber den Maxwell-Chips ist eher, dass letztere bei ähnlicher Chipgröße innerhalb des gleichen Stromverbrauchs mal eben ~30% höhere Taktraten schaffen, und vom Takt profitieren eben alle Einheiten, nicht nur CU/SMX, was indirekt natürlich dann auch für bessere Auslastung sorgt (weniger Einheiten, die von höher taktendem Frontend gefüttert werden). Ich behaupte einfach mal, ein Tonga mit vollem aktivierten 384-bit SI, 6GB, 64 ROPs und vor allem @1.3 GHz Chiptakt käme auch problemlos in 390er Regionen. Nur bräuchte er dafür bei GCNs Taktskalierung wohl 400 Watt...:freak:

Könnte AMD bei gleichbleibendem Verbrauch Pitcairn, Hawaii, Fiji und Tonga allesamt wenigstens 100-150 MHz höher takten, sähe die Welt schon heute anders aus, dann hätte sich im übrigen auch für Tonga XT das 384-bit SI gelohnt. Aber so halt nicht.

AMD hätte lieber einen GCN1.2-basierten Pitcairn-Nachfolger mit 24 CUs, 4 ACEs und sonst halt Pitcairn-Specs @1050-1100 MHz machen sollen, damit hätten sie die Leistung der 380-4GB wohl auch in 250-260mm² Fläche und evtl. sogar mit weniger Verbrauch trotz höherem Takt hinbekommen, und hätten damit Tahiti UND Pitcairn ablösen sowie deutlich mehr Gewinnmarge pro Chip einfahren können.

Ich frage mich immer noch, welche seltsamen Beweggründe AMD für diese Spezifikationen hatte. Ich könnte mir gut vorstellen, dass Tonga einer der Hauptgründe dafür war, dass Ende letztes Jahr u.a. der GPU-Roadmap-Chef gegangen wurde. Ich meine, vermutlich wäre das halbe Forum in der Lage, sinnvollere Spezifikationen anzusetzen. Entweder kleiner und stromsparender wie oben beschrieben, um auch Pitcairn ersetzen zu können, oder etwas größer und leistungsfähiger (40 CU, 64 ROP), um auch Hawaii (im Gaming-Markt) ersetzen zu können, aber doch nicht so einen Murks, durch und durch nichts halbes und nichts ganzes.

iuno
2015-11-19, 20:27:08
Naja nun übertreib mal nicht... immerhin war Tonga für Apple gut genug, ist ja auch gut möglich dass die da ein Wort mitgesprochen haben

HOT
2015-11-19, 21:09:55
@reaperrr
Wohl wahr. Ich denke, Tonga sollte einfach nur Tahiti ersetzen, das ist aber a.) technisch schiefgelaufen und b.) kam Maxwell mit voller Wucht, sodass die Pläne komplett umgeworfen wurden und Hawaii dahin musste, wo Tonga hin sollte.

Skysnake
2015-11-19, 23:31:25
AMD hätte auch diesbezüglich nochmal 64 KB Local Memory. Mich stört bei Gcn der fette Interconnect. Wenn man die CUs gleichgroß lässt, dann wird der noch größer...

Dreh es um. Schau dir an, wie gut man an sich mit dem tollen Interconnect hinkommt, obwohl man die ganzen Möglichkeiten an sich gar nicht nutzt die GCN einem eröffnet...

Und klar, man muss, wenn man die CUs zusammenfasst oder umstrukturiert, die interne Cache-Struktur anpassen.
Ein anderer Punkt ist es das Frontend zu über arbeiten. Pro Ace kann man pro Takt Eine Workgroup auf eine CU schedulen. FAS wird wohl auch auf den Graphics Command Processor zutreffen. Ergo kann man bei GCN asyncen, um die Auslastung zu erhöhen. Ergo man kann mehr scheduling Logik ausnutzen. Ich denke das tut bereits NV in dem mehrere Blöcke intern gleichzeitig geschedult werden.
Lass das Sheduling bei nVidia lieber außen vor. Keiner der wirklich etwas weiß wird sich dazu irgendwie öffentlich äußern. Selbst hinter vorgehaltener Hand eher unwahrscheinlich.




Wie das genau intern läuft, weiß man glaube ich öffentlich gar nicht genau. Die CUs bekommen die vom Graphics Command Processor oder den ACEs erzeugten Wavefronts über ein Work Distribution Netzwerk zugewiesen, daß irgendwie den Überblick behalten muß, wie stark die einzelnen CUs ausgelastet sind bzw. welche Resourcen in den einzelnen CUs gerade belegt sind, um zu entscheiden, ob und wohin man das ganze leitet (da hängt auch noch ein Rattenschwanz dran, wie z.B. Initialisierung des LDS und/oder Registern mit den entsprechenden Parametern). Da wird es wahrscheinlich eine Art Scoreboarding-System geben. Aber ob und wie das zentralisiert oder verteilt arbeitet, ist (soweit ich weiß) nicht bekannt. Insofern ist es schwierig, über Änderungen dort zu spekulieren. Ich vertrete aber schon länger die These, daß die GCN-GPUs in dem Bereich noch Reserven haben.

GCN hat meiner! Meinung nach noch gewaltige Reserven. Für mich sieht die Architektur einfach danach aus, als ob Sie so designt wäre, in APUs gut zu funktionieren. Ist ja auch irgendwie klar. Man muss sich ja nur HSA anschauen. Irgendwie muss man die Hardware für die Softwareumgebung ja entwickeln. Klassisches Henne-Ei Problem...

Der Punkt ist nur, das Sie eben schon sehr lang brauchen um wirklich mal die Software zu bringen.

Wer weiß, eventuell war auch was an einigen Sachen kaputt, aber so recht vorstellen kann ich es mir ab Hawaii/Tonga nicht mehr.

Wenn man sich mal überlegt, das Preemption, GPU->CPU workdistribution usw usf alles möglich sein soll/muss mit GCN, dann wird einem eigentlich schlecht, wenn man sieht, wie wenig aktuell geht.

AMD wird aber die Boltzmann Innitiative nicht ohne Grund jetzt gestartet haben. Ich hoffe Sie kriegen jetzt wirklich endlich mal die Kurve. Die Features lassen es hoffen. Man kann vor allem auch hoffen, das es relativ Effizient, also ohne Penalties daherkommt, man die Features also auch wirklich nutzen WILL.

Der "einzige" Knackpunkt ist halt, es ist AMD. Die schaffen es immer wieder irgendwas in den Sand zu setzen.... -.-

OBrian
2015-11-20, 05:55:59
hmm, ich denke, andere Firma setzen auch einiges in den Sand, sie kommunizieren es nur nicht so. Was erfahren wir denn von Nvidia oder Intel oder Apple, was sie genau in x Jahren machen wollen? Pläne, die intern bleiben, erzeugen keine öffentliche Enttäuschung, wenn sie umgestoßen werden. Ich glaub, wenn wir wüßten, welche tollen Features es in das jeweils neue iPhone nicht geschafft haben, dann gäbs auch solche Shitstürme wie sie AMD öfter umtosen. Immerhin haben sie sich in zwischen die "Fünfjahrespläne" abgewöhnt, irgendwelche weitreichenden Roadmaps, die sowieso nie die Chance hatten, eingehalten zu werden.

Ailuros
2015-11-20, 09:21:14
hmm, ich denke, andere Firma setzen auch einiges in den Sand, sie kommunizieren es nur nicht so. Was erfahren wir denn von Nvidia oder Intel oder Apple, was sie genau in x Jahren machen wollen? Pläne, die intern bleiben, erzeugen keine öffentliche Enttäuschung, wenn sie umgestoßen werden. Ich glaub, wenn wir wüßten, welche tollen Features es in das jeweils neue iPhone nicht geschafft haben, dann gäbs auch solche Shitstürme wie sie AMD öfter umtosen. Immerhin haben sie sich in zwischen die "Fünfjahrespläne" abgewöhnt, irgendwelche weitreichenden Roadmaps, die sowieso nie die Chance hatten, eingehalten zu werden.

Von Apple erfaehrt man so gut wie gar nichts im voraus. Die ersten leaks kommen immer von dritten Herstellern wenn die i-Geraet Komponenten schon bei der Auslieferung fuer die endgueltigen Geraete sind. Sonst ist es Bloedsinn Apple mit AMD sowieso zu vergleichen ueberhaupt mit dem i-Zeug da Apple hier rein zufaellig erstmal ihr eigenes OS hat.

Sonst muss ein Projekt fast total k.o. sein dass es selbst Intel storniert; in der einen oder anderen Form wird es schon ausgenutzt. Intel haette es sich leisten koennen die Larabee Entwicklungs-Milliarden einfach zu schlucken; machten sie aber nicht und drehten das Ding einfach in eine HPC Schleuder und das heutige Zeug ist auch wirklich nichts anderes als einfache Weiterentwicklungen von Larabee Prime.

Die Idee dass IHVs einfach nur so Milliarden in Entwicklungskosten einfach nur so ins Klo schuetten kann man leichten Herzens vergessen. Es meistens dann nur die zu lebendige Phantasie einiger hoffnugslosen fanboys die einfach zu viel fuer die Zukunft erwarten bzw. spekulieren.

AMD hat im gegebenen Fall keine besonderen hw Entwicklungs-Probleme. Das was Skysnake oben meinte ist die zu lahme sw Unterstuetzung in mehreren Feldern und das hat auch nichts wirklich mit all dem obrigen zu tun. Wir wissen ALLE dass tolle hw auch tolle sw braucht um ihr eigentliches Ziel zu erreichen. Eine "Weissheit" die wohl nur dem obrigen AMD management noch nie bewusst war; ich will lediglich hoffen dass Kaduri genug Bewegungsfreiheit hat einiges an genau diesen Schmerzstellen zu aendern. Das einzige was das AMD management gut konnte in letzter Zeit ist auszurechnen um wie viel weniger Verlust sie machen werden wenn sie N Anzahl an engineers entlassen :rolleyes:

AffenJack
2015-11-20, 10:31:07
GCN's Problem liegt meiner Meinung nach weniger bei der Auslastung (sonst müsste Tonga gegen Tahiti besser abschneiden), sondern eher beim Verbrauch bzw. der Taktbarkeit über 1 GHz, sowie teilweise dem massiven Hinterherhinken in einzelnen speziellen Kategorien (Z/Stencil-Durchsatz pro ROP, FP16-Texturfilter-Durchsatz pro TMU sind jeweils nur halb so hoch wie bei Maxwell).

Da koennte AMD vielleicht Finfet Prozess in die Karten spielen. Nvs Karten takten sowieso schon so hoch, da glaube ich nicht, dass soviel mehr durch Finfet drin sein wird. Aber AMD koennte damit vielleicht noch mehr rausholen.

reaperrr
2015-11-20, 16:55:17
Da koennte AMD vielleicht Finfet Prozess in die Karten spielen. Nvs Karten takten sowieso schon so hoch, da glaube ich nicht, dass soviel mehr durch Finfet drin sein wird. Aber AMD koennte damit vielleicht noch mehr rausholen.
Zu wünschen wäre es, aber offiziell reden sowohl AMD als auch Nvidia davon, dass die jeweiligen 14/16nm-Chips die Perf/W verdoppeln werden. Falls das in beiden Fällen zutrifft, bleibt es beim Status Quo, was natürlich schlecht für AMD wäre.

Man kann wirklich nur hoffen, dass sie den Rückstand wenigstens weit genug reduzieren können um Marktanteile und Gewinnmargen so zu erhöhen, dass sie auch wieder etwas mehr Geld für Software und R&D reinbekommen, sonst wird der Rückstand auf Dauer eher anwachsen, und dann ist es irgendwann vorbei.

Agent117
2015-11-20, 17:50:03
Es spricht aktuell nur noch AMD von 2*Perf/W. Nvidia hat das auf 1,67*Perf/W korrigiert; kann man auch auf der aktuellen Pascal Roadmap sehen.
Das deutet etwa auf Gleichstand an, wobei bei AMD die Unbekannte ist ob sie sich auf Fury oder die 390er Serie beziehen, was nochmal einiges ändern könnte.

Ailuros
2015-11-20, 20:27:18
Es spricht aktuell nur noch AMD von 2*Perf/W. Nvidia hat das auf 1,67*Perf/W korrigiert; kann man auch auf der aktuellen Pascal Roadmap sehen.
Das deutet etwa auf Gleichstand an, wobei bei AMD die Unbekannte ist ob sie sich auf Fury oder die 390er Serie beziehen, was nochmal einiges ändern könnte.

Ich wuerde in das Marketing-Gefusel nicht zu stark reinlesen; wenn NV's marketing theoretisch irgendwo aufrundet kann es auch die Konkurrenz.

Sonst bin ich persoenlich eher neugierig wie es im performance Bereich bei beiden Seiten genau aussehen wird.

HOT
2015-11-21, 12:10:41
Wenn die Hersteller von 2x-Leistung als bisher sprechen, meinen die TFlops/W, nicht wie schnell so ein teil in einem Spiel ist.

Complicated
2015-11-22, 11:24:53
GCN ist eine mächtige Architektur, weil du im Prinzip alles drauf werfen kannst und erhälst dennoch gute Performance, aber es wäre nicht verkehrt, jetzt mit neuen Compilern und APIs mehr in diese Richtung zu verlagern.

Wer Maxwell und CUDA kennt weiß wovon ich rede. ;)

Ich denke AMD hat begriffen, dass sie bei Software mehr Initiative zeigen müssen um Ihre Hardware im Markt zu platzieren.
es geht ja schon los, siehe Boltzman-Initiative:
http://www.planet3dnow.de/vbulletin/threads/414730-Alles-ueber-um-HSA-aus-dem-Kabinithread?p=5054153&viewfull=1#post5054153
Dieser ist bekanntlich der führende Anbieter von GPU-Computing, weshalb viele Anwendungen für Heterogenous Computing in der proprietären Sprache CUDA geschrieben sind. AMD nutzt für seine Grafikkarten die freie Sprache OpenCL und HSA. Boltzmann bringt eine Vielzahl von Werkzeugen und Neuerungen mit sich. Die HIP-Library dürfte für das Machtverhältnis eine entscheidende Rolle spielen, sie ermöglicht es, CUDA-Anwendungen für AMD-Grafikkarten zu übersetzen.
Dies kommt zum richtigen Zeitpunkt um genug Vorlauf für Arctic Islands zu bieten, so dass bei Release einige Entwickler schon Erfahrungen haben mit dem Portieren und sich eventuell auch schon dazu entschließen nativen HSA Code zu schreiben der dann die Hardware optimal auslastet.

HOT
2015-11-23, 15:37:02
Mal ne neue Speku an den GP100-Thread angelehnt:
AMD Greenland = reiner HPC-Chip, keine GPU? Wurde ja bisher immer so kommuniziert, auf AMDs Folien war Greenland nie eine GPU.
Dann wären Baffin + Ellesmere die einzigen GPUs, was zur offiziellen Aussage passen würde.

Meine Speku:
Baffin = >400mm² -> 6k Shader mit 4 Stacks
Fiji -> 4k Shader mit 4 Stacks
Ellesmere = <200mm² -> 2k Shader mit 2 Stacks

Greenland = 300mm² mit 2 Stacks und irgendwelche Fabric-Links, Dualgreenland Interposer mit 4 Stacks und Zen/Greenland-"APU".

Botcruscher
2015-11-23, 16:21:15
Greenland ist ganz sicher eine GPU. Was du meinst ist die geplante Integration in APUs. Ohne Spieler wäre das Ding nicht finanzierbar.
Auf der Folie sind 2 Links für 2 Stacks zusehen. 500GB/s bei 4+ TFLOPs. Klick (http://wccftech.com/amd-greenland-gpu-32-gb-hbm2-memory-15-18-billion-transistors/)

HOT
2015-11-23, 16:29:37
Den link kassiert mein Virenscanner :freak:

Aber ich nehme an du meinst das hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10823317&postcount=302

Das steht in der Tat "Graphics". Dennoch ist Greenland offenbar vornehmlich für den professionellen Sektor gedacht. Nach den Specs kann er nicht der Spiele-Top-Chip sein, zumal der ja für MCMs tauglich sein muss. Der darf 300mm² meiner Ansicht nach nicht überschreiten, wird er auch nicht, denn 4 TFLOPs ist ja TahitiXT mit 1000MHz. Vielleicht hat er ja 1:1 DP/SP. Als Grafikchip würde das Teil höchstens als Tonga-Ersatz taugen und das ist z.Z. nicht notwendig im Grafikbereich.

Ich bleibe bei der Theorie: Baffin ist der vorläufige TopDog und Ellesmere ein Pitcairn-Ersatz, der auch auf die APU geklebt wird. So passt das auch alles zusammen.

Botcruscher
2015-11-23, 16:58:48
Der Chip wird einfach Hawaii beerben und die neue Mainstreamlösung sein. Der bleibt imo deutlich unter 300mm². Mit dem MCM wird das ein schönes Stück Hardware. Für irgendwas müssen die Sachen in Tonga doch gut gewesen sein.

HOT
2015-11-23, 17:02:25
Der Chip wird einfach Hawaii beerben und die neue Mainstreamlösung sein. Der bleibt imo deutlich unter 300mm². Mit dem MCM wird das ein schönes Stück Hardware. Für irgendwas müssen die Sachen in Tonga doch gut gewesen sein.
Da ist was dran. Ob der Hawaii packt?

Fury -> Baffin
490 -> Fiji HBM2
380 -> Tonga -> 2017 -> 480 Greenland
470 -> Ellesmere -> 2017 -> Raven Ridge
360 -> Bonaire
350 -> Oland

Wie auch immer man das dreht: In meinem Kaufbereich liegt nur Fiji und das find ich KACKE :D.

Botcruscher
2015-11-23, 17:08:13
AMD hat Probleme bei der Skalierung. Die 4,8 TFlops der Pro sind auch noch 4+. Es ist auf jeden Fall die Richtung in der ich die Leistung sehe.
Mit den 3 neuen Chips und einer gewissen Nutzung von Fiji würde es zumindest vom Lineup passen.

PS: Zumal AMD nicht die Möglichkeiten für Sonderprojekte hat.

Agent117
2015-11-23, 17:16:02
Den link kassiert mein Virenscanner :freak:

Aber ich nehme an du meinst das hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10823317&postcount=302

Das steht in der Tat "Graphics". Dennoch ist Greenland offenbar vornehmlich für den professionellen Sektor gedacht. Nach den Specs kann er nicht der Spiele-Top-Chip sein, zumal der ja für MCMs tauglich sein muss. Der darf 300mm² meiner Ansicht nach nicht überschreiten, wird er auch nicht, denn 4 TFLOPs ist ja TahitiXT mit 1000MHz. Vielleicht hat er ja 1:1 DP/SP. Als Grafikchip würde das Teil höchstens als Tonga-Ersatz taugen und das ist z.Z. nicht notwendig im Grafikbereich.


1:1 DP/SP ist riesen Verschwendung in der Hardware.
Vlt ist Greenland einfach ein Fiji mit 1:2 DP/SP und Post-GCN. Hat dann 2 mal Perf/W und zwei lassen sich auf einen Interposer packen und verhalten sich wie ein Chip - eins der hauptfeatures von Post GCN - zumindest träume ich schon länger davon, könnte sich das angeschlagene AMD so doch das Design und Validierung eines Fiji großen Monsters für die neue Generation sparen.

HOT
2015-11-23, 17:19:11
AMD hat Probleme bei der Skalierung. Die 4,8 TFlops der Pro sind auch noch 4+. Es ist auf jeden Fall die Richtung in der ich die Leistung sehe.
Mit den 3 neuen Chips und einer gewissen Nutzung von Fiji würde es zumindest vom Lineup passen.

PS: Zumal AMD nicht die Möglichkeiten für Sonderprojekte hat.

1:1 DP/SP ist riesen Verschwendung in der Hardware.
Vlt ist Greenland einfach ein Fiji mit 1:2 DP/SP und Post-GCN. Hat dann 2 mal Perf/W und zwei lassen sich auf einen Interposer packen und verhalten sich wie ein Chip - eins der hauptfeatures von Post GCN - zumindest träume ich schon länger davon, könnte sich das angeschlagene AMD so doch das Design und Validierung eines Fiji großen Monsters für die neue Generation sparen.
Wenn die auf die Folie schreiben 4 TFLOPs, dann meinen die mit tödlicher Sicherheit SP, sonst würde das das stehen und meinen nicht 4,8, sonst würd das ebenfalls da stehen. Die meinen 4 bei 1GHz, das + steht für mehr als 1GHz, sollte es besonders gut laufen. Sollte die Quelle stimmen, ist der Fall sonnenklar. Greenland wird die 300mm² nicht voll machen mMn, eher 250. Das ist einfach ein Tonga in Post-GCN mit noch mehr Profifeatures.

Hübie
2015-11-23, 17:19:13
Da ist was dran. Ob der Hawaii packt?

Fury -> Baffin
490 -> Fiji HBM2
380 -> Tonga -> 2017 -> 480 Greenland
470 -> Ellesmere -> 2017 -> Raven Ridge
360 -> Bonaire
350 -> Oland

Ich versteh deine Aussage nicht. Fury wird zu Baffin und Fiji ist 490 oder wie oder was? Hä?? :confused::freak:


Top dog: Greenland+16GB HBM2 (Fury 2??)
Performance: Fiji wird zu Baffin+8GB HBM2 und ersetzt das Performance-Segment (Hawaii / Grenada)
Mainstream: Ellesmere 3-6GB GDDR5 (oder 4 / 8 GB... eher nebensächlich)

Ich könnte mir denken dass Fiji einen respin erhält, aber nicht wirklich stirbt. Damit hätte man über Fiji aka Baffin einen neuen Chip und darunter. Zack hat man die These von zwei neuen Chips in 2016. :biggrin:

Kartenlehrling
2015-11-23, 17:30:33
über Fiji kommt 2016 überhaupt nichts, die dualkarte (nanoX2) wird bis ende 2016 stärkste AMD Karte bleiben.

Godmode
2015-11-23, 17:43:41
über Fiji kommt 2016 überhaupt nichts, die dualkarte (nanoX2) wird bis ende 2016 stärkste AMD Karte bleiben.

Hast du irgend eine Bestätigung dafür? Gegen Pascal muss sehr wohl irgend eine 14/16nm GPU erscheinen, sonst verkauft man wieder nichts.

Hübie
2015-11-23, 17:47:00
über Fiji kommt 2016 überhaupt nichts, die dualkarte (nanoX2) wird bis ende 2016 stärkste AMD Karte bleiben.

Und das sagt dir wer oder was? :| Man wird sich auch mit einer X2 blamieren. Vor allem in puncto Effizienz. Mit Fiji wird man das Jahr nicht überstehen. Pascal wird keine Finte, wie es aussieht.

HOT
2015-11-23, 17:52:20
über Fiji kommt 2016 überhaupt nichts, die dualkarte (nanoX2) wird bis ende 2016 stärkste AMD Karte bleiben.
Es sind ja 2 Chips bestätigt. Die machen aber nur an zwei Stellen auch Sinn. Natürlich wird einer über Fiji sein. Nur wird der so teuer, dass der völlig uninteressant ist.

Und das sagt dir wer oder was? :| Man wird sich auch mit einer X2 blamieren. Vor allem in puncto Effizienz. Mit Fiji wird man das Jahr nicht überstehen. Pascal wird keine Finte, wie es aussieht.

Wie es aussieht, wird das 2016 aber eh nix mit Pascal. Außer HPC-Varianten ist da definitiv nichts zu erwarten mAn.
Greenland ist mit 4 TFLOPs definitiv auch kein TopDog. Das ist grade mal Tahiti-Leistung, darum geht es hier die ganze Zeit. Ich hatte mich nur darüber echauffiert, dass nächstes Jahr dann nur Fiji in "meinem" Preisbereich sein wird (um 400€ herum), das war alles. Und natürlich überlebt Fiji das Jahr. Mit HBM2 ist das Ding ja endlich auch mal brauchbar. Ich glaub 2016 wird für Grafikkartenkäufer ein noch schlimmeres Jahr als 2015. Wenn es TopDogs schaffen werden die unerschwinglich, Ellesmere ist von der Positionierung her sicher ziemlich uninteressant und von NV kommt gar nix, die bleiben bei Maxwell bis 2017. Fermi hat eine Umbennung hinter sich, Kepler ebenfalls, natürlich wird das auch Maxwell blühen. Die können eben nicht eben fertige 16nm HBM2-GPUs herzaubern, das ist viel Arbeit.

Hübie
2015-11-23, 18:01:56
Wer sagt dass die 4TFLOPs SP sind? Und wer sagt das definitiv kein Gamer Pascal 2016 kommen wird? :|

Godmode
2015-11-23, 18:02:53
Wer sagt dass die 4TFLOPs SP sind? Und wer sagt das definitiv kein Gamer Pascal 2016 kommen wird? :|

Keine Ahnung wie er darauf kommt? Zumindest GP104 kommt zu 100% im Jahr 2016.

HOT
2015-11-23, 18:04:44
Keine Ahnung wie er darauf kommt? Zumindest GP104 kommt zu 100% im Jahr 2016.
Hast du schon irgendetwas davon gesehen? Woher die Gewissheit.

Wer sagt dass die 4TFLOPs SP sind? Und wer sagt das definitiv kein Gamer Pascal 2016 kommen wird? :|
Das ist SP, weil da kein DP dransteht. Und weil der Chip aus offensichtlichen Gründen unter 300mm² haben wird. AMD geht eben völlig andere Wege als NV im Profisegment. AMD kombiniert die eigene Grafik mit eigener CPU-Technik, das ist wesentlich besser, als nur GPUs anzubieten.

Hübie
2015-11-23, 18:04:53
Der alte Kepler bietet mit Boost schon 2,9 TFLOPs DP :D Dann soll ein moderner Chip 2016 4 TFLOPs SP bieten? Nääää...

Keine Ahnung wie er darauf kommt? Zumindest GP102 kommt zu 100% im Jahr 2016.

ftfy ;)

Edit: 300 mm² sind 50% von 600 (ganz sicher ;D) und mit 14/16FF+ kann man ~2,2-fache Packdichte erreichen. Nur weil da kein DP dran steht bedeutet es nicht gleich SP. Das ist doch das tolle an Spekulationen. Man zieht erst mal alles in Betracht.

tm0975
2015-11-23, 18:14:26
einer der 2 amd chips muß definitiv für notebooks und aio sein, sonst ist da der zug komplett abgefahren. der 2. chip wird darüber sein müssen. ggf. dann noch eine dual-chip lösung, aber abwarten, wie nachteilig das noch wird unter dx12.

ich glaube, dass wir noch eine ganze weile nix mit hbm von nvidia sehen werden. zum einen kleckern sie nicht so in den markt wie amd, zum anderen müssen sie wahrscheinlich noch einige zeit auf hbm2 warten.

Agent117
2015-11-23, 18:42:35
Das ist SP, weil da kein DP dransteht. Und weil der Chip aus offensichtlichen Gründen unter 300mm² haben wird. AMD geht eben völlig andere Wege als NV im Profisegment. AMD kombiniert die eigene Grafik mit eigener CPU-Technik, das ist wesentlich besser, als nur GPUs anzubieten.

Ich habe mal gelesen dass es DP ist. Dazu gab es noch 16 oder 32 Zen Kerne, natürlich nicht auf dem gleichen Chip. Quelle finde ich leider nicht mehr.
Nur 2 TFlops DP sind auch zu wenig.
Sagen wir mal ein HPC Chip mit 4096 SP und 1:2 DP:SP kommt auf 10-11Mrd Transistoren und könnte auch nur 300mm² groß sein in 14/16nm FF.

Der erst neue GPU Chip den man in der kommenden Generation oberhalb von Raven Ridge braucht wird leistungsmäßig etwa bei Pitcairn liegen, vlt leicht schneller. Darüber benötigt einen 1:1 Hawaii Ersatz. Wenn die 4 TFlop DP richtig sind dann liegt Greenland als 3. Chip oberhalb von Fiji und zwar soviel, wie Post GCN an IPC drauflegt.

StefanV
2015-11-23, 19:11:30
Man sollte erwarten, dass als erstes ein 'Mainstream' Chip kommt, wie schon erwähnt, für Notebooks und co. Also im Bereich von Tonga, der ja nicht ganz so erfolgreich zu sein scheint.
Sehr wahrscheinlich sogar noch 'nen ganzes Stück drüber.

Der zweite Chip wird eher Fiji ersetzen bzw sogar darüber liegen. Ich glaube ehrlich gesagt nicht, dass wir nächstes Jahr noch Fiji Karten kaufen werden können. Dafür ist das Die einfach viel zu groß...

Naja, schauen wir mal, was kommen wird...

Oh und der 3. Chip, der kommen wird, wird wohl (wieder) Fiji Größe haben...

Locuza
2015-11-23, 19:15:06
Gemäß dem Fall, dass die Folien alle stimmen, ist es DP:
http://www.fudzilla.com/media/k2/items/cache/bdff5e4df5710735d8a1ecdc5dd9efcf_XL.jpg

Die HPC-APU wäre demnach ein MCM-Package bestehend aus Zeppelin (CPU) 16 Zen-Cores mit einem Quad-Channel zum DDR4 3200 Speicher mit insgesamt ~ 100 GB/s + 4 GMI Links die dann passend für insgesamt 100GB/s coherent BW zur Greenland GPU sorgen.
Greenland hat ein DP:SP Ratio von 1:2, leistet 4TF DP bzw. 8 TF SP, hat ein 2048-Bit Interface zu zwei HBM Stacks mit insgesamt 512 GB/s.
http://www.fudzilla.com/media/k2/items/cache/7e42c9447e754167c85105ffe1a1d866_L.jpg

Nakai
2015-11-23, 19:23:47
Wie das genau intern läuft, weiß man glaube ich öffentlich gar nicht genau. Die CUs bekommen die vom Graphics Command Processor oder den ACEs erzeugten Wavefronts über ein Work Distribution Netzwerk zugewiesen, daß irgendwie den Überblick behalten muß, wie stark die einzelnen CUs ausgelastet sind bzw. welche Resourcen in den einzelnen CUs gerade belegt sind, um zu entscheiden, ob und wohin man das ganze leitet (da hängt auch noch ein Rattenschwanz dran, wie z.B. Initialisierung des LDS und/oder Registern mit den entsprechenden Parametern). Da wird es wahrscheinlich eine Art Scoreboarding-System geben. Aber ob und wie das zentralisiert oder verteilt arbeitet, ist (soweit ich weiß) nicht bekannt. Insofern ist es schwierig, über Änderungen dort zu spekulieren. Ich vertrete aber schon länger die These, daß die GCN-GPUs in dem Bereich noch Reserven haben.

http://www.vgleaks.com/orbis-gpu-compute-queues-and-pipelines

Das ist ein etwas detailierter hierarchischer Überblick über die PS4 GPU und deren Frontend.

Es gibt 8 CS Pipes, wie man sieht, und darunter ist das Work Distribution Netzwerk, eben in zwei Blöcken aufgeteilt, da es zwei Shader Engines in der PS4 gibt. Höchstwahrscheinlich werden die erzeugten Wavefronts im Round Robin Verfahren auf die Work Distribution Logik einer Shader Engine verteilt. In einer Shader Engine werden die anfallenden Wavefronts in einer Queue zwischengespeichert und dann über einen Arbiter zu einem Dispatcher vergeben. Immer zwei Queues gehen über einen Arbiter, welche dann zu den eigentlichen Arbitration/Allocation Probes gehen. Ich vermute hier liegt das Scoreboarding System, da dort ein Überblick über die CUs einer ShaderEngine existiert. Ahja ich betrachte nur den Computing-Teil. Für generelle 3D Shader existiert natürlich dementsprechend Logik.

Wohlgemerkt, das gilt nur für die PS4 GPU.

Benutzt man nur eine CommandQueue (eine ACE kann bis zu 8 Queues verwalten), muss es natürlich zu jeder Shader Engine gehen. Werden sequentiell Wavefront erzeugt und geschedult, dann bekommt eine Shader Engine abwechselnd eine Wavefront zugewiesen, um die Auslastung zu verteilen. Bei 4 Shader Engines, eben im 4er Zyklus.

.
Das ist meiner Meinung nach unnötig. Die Möglichkeiten der ACEs in der Hinsicht sind zum jetzigen Zeitpunkt recht großzügig ausgelegt. Überlege doch mal, was insgesamt 8 Wavefronts pro Takt über die ACEs bedeuten! Wie lange läuft denn ein relativ kurzer Shader mit sagen wir mal lediglich 20 Instruktionen (bei erstmal als unlimitiert angenommenem Durchsatz des Shaderarrays)? Doch mindestens 80 Takte (mit dem Overhead der Initialisierung und Latenzen von z.B. Speicherzugriffen wohl noch erheblich länger, es geht hier nur um die limitierende Größenordnung). Dies bedeutet, daß man mehr als 640 Wavefronts in-flight halten würde (realistisch eher ein paar tausend).
Und 20 Instruktionen im Shader würden dann bei einem Durchsatz von 8 Wavefronts pro Takt einen Durchsatz des Shaderarrays von 160 (Wavefront-)Instruktionen pro Takt erfordern, also grob 160 CUs (jede CU hat einen Durchsatz von genau einer Vektorinstruktion für eine Wavefront pro Takt, benötigt dafür aber mindestens 4 Wavefronts auf der CU, realistisch aber mehr).

Ja, das gilt für die ACEs.
Ich vermute, dass bei generellen 3D Anwendungen dies aber sehr ähnlich ist...und hier gibt es nur eine "Pipe". Ebenso muss man wirklich 8 Queues ausnutzen, damit wohl 8 ACEs "gefüttert" werden und somit eben 8 Wavefronts dispatcht werden. Die ACEs sind ja in der Lage Dependency Trees zu erzeugen und so verwalten. Bei AMD & OpenCL ist es auch so, dass eine Software-CommandQueue zu einer Hardware-CommandQueue direkt zugeordnet ist. Kurz, bei meiner GPU hier, FirePro M4100 GCN1.0, gibt es nicht mehr als zwei Queues und Softwaremäßig gibt es auch nicht mehr, weil dann der Treiber crasht. AMD erlaubt hierbei keine größere Anzahl pro Task, als das was erlaubt ist.:freak:

https://community.amd.com/thread/190084

Es funktioniert hierbei wiedermal über ein Round Robin Verfahren.

Ahja, NV hat dieses hard-limit nicht.

Du bringst mich auf eine Idee auch diebezüglich. Eventuell code ich eine kleine OpenCL App, welche einen Kernel über mehrere CommandQueues zerlegt (dann einfach per Global Offset expandieren). Je nach Kernel/Shader-Länge, also auch globale Kernelgröße, sollte es einen Performanceunterschied geben, je nachdem wieviele CommandQueues ich verwende.

Das funktioniert nicht, weil der Scheduler in einer CU im Prinzip im round robin Verfahren zwischen den vier den jeweiligen SIMDs zugeordneten Instruction Buffer (in denen die nächsten Instruktionen von bis zu 10 Wavefronts liegen [also maximal 40 pro CU] und selbständig die nächsten Instruktionen vom L1-I$ holt) wechselt. Die minimale Latenz von Instruktionen beträgt also 4 Takte (in denen vier Häppchen zu je 16 work-items durch die Pipeline geschoben werden, pro Takt eines), weil vorher kommt die Wavefront nicht wieder zum Scheduling dran. Wenn man nicht das komplette Scheduling-System der CU (was sehr durchdacht ist) durcheinanderwerfen will, geht das schlicht nicht.
Davon abgesehen würden 2 Takte die Taktbarkeit erheblich limitieren (wenn man nicht sehr große und stromfressende Einheiten verbauen will, das tut man auf GPUs aus naheliegenden Gründen ja nicht). Die 4 Takte jetzt sind schon an der Grenze (und mit 16 Bit kann man die Pipeline nicht mal auf die Hälfte kürzen, da könnte man nur deutlich weniger sparen [was es unpraktikabel macht]). Was hat Maxwell? Das waren doch minimal sechs Takte, oder?

Ja, soweit ich weiß hat Maxwell 6 Takte.

Die einfachste Möglichkeit für (performancesteigernde) 16Bit-Instruktionen wäre, wie Skysnake schon sagte, SIMD (vec2) innerhalb der einzelnen work-items. Also Instruktionen, die einen 32bit Registerslot wie ein Paar aus 16-Bit-Werten behandelt und mit einer Instruktion auf beiden Hälften das Gleiche macht. Einfach und halbwegs effektiv. Dürfte das beste Kosten-zu-Nutzen-Verhältnis ergeben.

Ja, das macht sehr viel Sinn. Mein Gedanke ging aber schon weiter. Wenn ich pro SIMD theoretisch statt 16 FP32 auch 32 FP16 durchjagen könnte, wäre es dann nicht möglich eine 16er SIMD als 32er SIMD zu nutzen? Sodass, nicht 16 work-items auf einer SIMD laufen, sondern 32 work-items. Und mir ist es sehr wohl bewusst, dass es architekturell an vielen Ecken anschlägt. ;)

...

€:
Gemäß dem Fall, dass die Folien alle stimmen, ist es DP:
http://www.fudzilla.com/media/k2/items/cache/bdff5e4df5710735d8a1ecdc5dd9efcf_XL.jpg

Die HPC-APU wäre demnach ein MCM-Package bestehend aus Zeppelin (CPU) 16 Zen-Cores mit einem Quad-Channel zum DDR4 3200 Speicher mit insgesamt ~ 100 GB/s + 4 GMI Links die dann passend für insgesamt 100GB/s coherent BW zur Greenland GPU sorgen.
Greenland hat ein DP:SP Ratio von 1:2, leistet 4TF DP bzw. 8 TF SP, hat ein 2048-Bit Interface zu zwei HBM Stacks mit insgesamt 512 GB/s.
http://www.fudzilla.com/media/k2/items/cache/7e42c9447e754167c85105ffe1a1d866_L.jpg

Ich kann mir nicht vorstellen, dass Greenland ein purer HPC-Coprozessor ist. Außerdem ist Greenland unter "Graphics" gelistet. Es wird eine GPU sein, nicht sowie, wie es derzeit bezüglich GP100 & 102 gemunkelt wird.

Und die 4+ TFLOPs DP sehen schön aus. Wenn ein Takt um 800MHz für die GPU angesetzt ist und ~5000 SPs verbaut sind, dann sind die 4+ TFLOPs sehr einfach herzuleiten.
Wie gesagt, für so eine HPC APU mit Interposer und dedizierter GPU sollte Greenland nicht mehr als 400mm² groß sein. Existieren die ReticleLimits für Interposer? Ich denke nicht, AMD hat hierzu auch schon mal was erwähnt gehabt, dass die Reticle Limits bei Interposer überwunden wurden?

Hübie
2015-11-23, 19:50:49
Ich bin zwar nicht so in der Materie wie du, aber kann mir denken, dass 2x16=32 mehr Overhead und mehr Data movements auf dem Bus erfordert als 1x32=32 bzw. 16+16=32, da ein großer Anteil von Code stets FP32 ist. Die klakulatorische Grundlage für Engineers ist: wieviel pJ kostet 1 Bit pro mm im System. Wenn ich jetzt mehr Overhead habe kommt mit jedem weiteren Bit und Takt halt eine negative Bilanz heraus. So mein Verständnis und meine Herangehensweise das zu schlußfolgern. Kann natürlich voll Banane sein, aber erfahrungsgemäß eher nicht. :smile:

Ps: Greenland wird ja mit 1:2 angegeben, also denke ich dass die 4TFLOPs DP sind. Und beißt euch mal nicht so an MCM fest, da es keine genormten Größen dafür gibt. Kann ja, ums mal unsinnig übertrieben auszudrücken, auch ein 5000 mm² Package sein. Verstößt genau gegen welche design rule? :D

HOT
2015-11-23, 21:43:43
Man sollte erwarten, dass als erstes ein 'Mainstream' Chip kommt, wie schon erwähnt, für Notebooks und co. Also im Bereich von Tonga, der ja nicht ganz so erfolgreich zu sein scheint.
Sehr wahrscheinlich sogar noch 'nen ganzes Stück drüber.

Der zweite Chip wird eher Fiji ersetzen bzw sogar darüber liegen. Ich glaube ehrlich gesagt nicht, dass wir nächstes Jahr noch Fiji Karten kaufen werden können. Dafür ist das Die einfach viel zu groß...

Naja, schauen wir mal, was kommen wird...

Oh und der 3. Chip, der kommen wird, wird wohl (wieder) Fiji Größe haben...
Ok, manchmal macht man Sachen einfach zu kompliziert :D.

Skysnake
2015-11-23, 21:50:30
Den link kassiert mein Virenscanner :freak:

Aber ich nehme an du meinst das hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10823317&postcount=302

Das steht in der Tat "Graphics". Dennoch ist Greenland offenbar vornehmlich für den professionellen Sektor gedacht. Nach den Specs kann er nicht der Spiele-Top-Chip sein, zumal der ja für MCMs tauglich sein muss. Der darf 300mm² meiner Ansicht nach nicht überschreiten, wird er auch nicht, denn 4 TFLOPs ist ja TahitiXT mit 1000MHz. Vielleicht hat er ja 1:1 DP/SP. Als Grafikchip würde das Teil höchstens als Tonga-Ersatz taugen und das ist z.Z. nicht notwendig im Grafikbereich.

Ich bleibe bei der Theorie: Baffin ist der vorläufige TopDog und Ellesmere ein Pitcairn-Ersatz, der auch auf die APU geklebt wird. So passt das auch alles zusammen.
1:1 DP:SP macht keinen Sinn, schlag dir das ausm Kopf.

Ailuros
2015-11-24, 06:41:06
1:1 DP:SP macht keinen Sinn, schlag dir das ausm Kopf.

ROFL :biggrin: Hat ueberhaupt jemand der kunterbunten Spekulanten hier eine Ahnung wie teuer so etwas in hw hypothetisch waere?

Hübie
2015-11-24, 07:01:33
Aaaach, egal. Mit 16FF+ braucht man nicht sparen. :freak: 1:1 macht vielleicht in 10-15 Jahren mal Sinn - wenn überhaupt.

Godmode
2015-11-24, 09:50:18
Hast du schon irgendetwas davon gesehen? Woher die Gewissheit.


Offtopic:
NV will neue Produkte verkaufen und viele der GTX 980+ Käufer, werden sich nächstes Jahr nach was neuem umsehen. Wenn nichts neues angeboten wird, wird auch kein Umsatz generiert. Sobald der Prozess eine vernünftige Ausbeute zulässt, kommen die GPUs auf den Markt.

GP104 muss 2016 erscheinen. Der GM200 Nachfolger GP102 kommt dann wohl aber erst 2017, wie schon öfters von mir angemerkt wurde. GP100 kommt auch auch 2016, aber eben nur für die Profimärkte. Ob dann noch kleinere Pascal in 2016 erscheinen ist fraglich.

Ontopic:
AMD muss hier ebenfalls was neues liefern, sonst kommen sie noch mehr unter die Räder.

Kartenlehrling
2015-11-24, 10:10:51
Die grösste Käuferschicht ist aber zwischen 250-400€ , bestimmt nicht >700€

Brillus
2015-11-24, 11:05:34
Die grösste Käuferschicht ist aber zwischen 250-400€ , bestimmt nicht >700€
Ich denke eher die größte Käuferschicht ist <150€.

HOT
2015-11-24, 12:19:15
Offtopic:
NV will neue Produkte verkaufen und viele der GTX 980+ Käufer, werden sich nächstes Jahr nach was neuem umsehen. Wenn nichts neues angeboten wird, wird auch kein Umsatz generiert. Sobald der Prozess eine vernünftige Ausbeute zulässt, kommen die GPUs auf den Markt.

GP104 muss 2016 erscheinen. Der GM200 Nachfolger GP102 kommt dann wohl aber erst 2017, wie schon öfters von mir angemerkt wurde. GP100 kommt auch auch 2016, aber eben nur für die Profimärkte. Ob dann noch kleinere Pascal in 2016 erscheinen ist fraglich.

Ontopic:
AMD muss hier ebenfalls was neues liefern, sonst kommen sie noch mehr unter die Räder.
Das beantwortet meine Frage nicht. Bisher ist nix zu sehen, aber auch überhaupt nichts abseits des GP100. "muss das dann und dann haben" ist keine Antwort. Zudem fährt man mit Maxwell doch immer noch gut, da gibts weder Druck noch Probleme.
AMD ist tatsächlich unter Zwang, aber von AMD wirds ja auch 2 GPUs geben.

Mandalore
2015-11-24, 12:23:00
Es ist doch schon vom Chef der Grafiksparte seitens AMD bestätigt, dass 2 16nm GPUs kommen. Und dass es bestimmt keine GPUs sein werden die sich mit Intels HD 530 messen müsste doch klar sein, dass es High-End Pendants sind. Selbst wenn wir diese Infos nicht hätten, AMD wird liefern, denn es wird ihr wohl wichtigstes Jahr in der Unternehmensgeschichte werden. Alleine schon das Marketing wird das verlangen. High-End-CPU die vielleicht Intel schlägt und ne GPU die Nvidia schlägt. Hoffentlich passierts ;)

Kriton
2015-11-24, 16:01:36
Ich werfe noch einmal in den Raum, dass 2 Chips, nicht 2 GPUs gemeint waren.

Nakai
2015-11-24, 16:19:26
AMD bringt drei GPUs für Arctic Islands.
- Greenland ist eine HPC-SKU mit Highend-Gaming-Faktor.
- Baffin wird ein Pitcairn-Ersatz für stärkeres Mobile und mit Gaming-Faktor.
- Ellesmere wird ein Capeverde-Ersatz für OEMs, mittleres Mobile und Multimedia-Faktor, also auch Embedded-Faktor.

Greenland => HBM
Baffin & Ellesmere => GDDR5X?

AMD hofft ja mit einer Zen-APU den Bereich zu erschließen, den Intel mit ihren CPUs mit integrierter GPU besitzen. Ergo nur ein Chip mit guter IPC und annehmbarer GPU. Wenn AMD das schafft, gibt es definitiv mehr Notebook-Design-Wins.

Skysnake
2015-11-24, 23:44:54
ROFL :biggrin: Hat ueberhaupt jemand der kunterbunten Spekulanten hier eine Ahnung wie teuer so etwas in hw hypothetisch waere?
Da brauchts noch nicht mal genaue Zahlen bezüglich Transistor budget. Schon allein der doppelte Aufwand für die Datenpfade Register/Cache Zugriffe usw usf. ist völlig utopisch von den Kosten her. Und gerade bei GPUs sollte man eh schon zu viele Wires routen müssen.

Der reine Transistor count für die ALUs mal gar nicht mit reingenommen. Da kannste ja rein gar nichts wiederverwenden in so einem Fall. Absolut zu viel "tote" Logik.

StefanV
2015-11-24, 23:55:32
Aaaach, egal. Mit 16FF+ braucht man nicht sparen. :freak: 1:1 macht vielleicht in 10-15 Jahren mal Sinn - wenn überhaupt.
Nein, es macht niemals sinn, da man die Einheiten ja auch ohne großen Aufwand so bauen kann, dass statt einem 64bit Wert auch zwei 32bit Werte verarbeiten kann...

Ist ja bei der FPU der CPU nicht soo viel anders, die baut man ja auch eher so, dass der doppelte Durchsatz bei halber Genauigkeit geschafft wird...

mczak
2015-11-25, 16:07:03
Da brauchts noch nicht mal genaue Zahlen bezüglich Transistor budget. Schon allein der doppelte Aufwand für die Datenpfade Register/Cache Zugriffe usw usf. ist völlig utopisch von den Kosten her. Und gerade bei GPUs sollte man eh schon zu viele Wires routen müssen.

Richtig, selbst bei den CPUs gibt es das nicht. Na gut bei i387 schon. Aber bei modernen SIMD-Einheiten geht das logischerweise nicht. Und wenn hohe DP-Rate so billig wäre würde nicht manche CPU sogar auf 1:2 verzichten (AMD Jaguar z.B. hat SP:DP irgendwo zwischen 2:1 - 4:1, die meisten Instruktionen sind 2:1, z.B. add, kann aber bis 4:1 gehen, insbesondere beim mul), mal abgesehen von der Implementation im alten Atom (weiss nicht was das effektiv für eine Rate war, da packed doubles unpipelined sind, im Endeffekt wohl so etwa 8:1). Mehr als 2:1 ist schlicht kompletter Unsinn für jegliches Design, ausser es wäre _ausschliesslich_ für DP konzipiert.

OBrian
2015-11-25, 18:56:25
SP:DP 1:1 wird genau dann kommen, wenn DP sehr häufig und von allen genutzt wird, denn dann ist es keine Verschwendung mehr. Aber aktuell braucht das keine Sau außer einigen Profis und vielleicht ein paar Nerds aus dem Distributed-Computing-Bereich (für die baut bestimmt niemand was extra^^).

Gibt es denn die Perspektive, daß DP in Spielen eingesetzt wird? Bzw. allgemein irgendwo im Consumerbereich Sinn macht? Oder ist das auch in x Jahren noch schlicht Quatsch?

AnarchX
2015-11-25, 19:05:57
Eher wird man wohl noch den Mixed-Mode auf FP8 erweitern.

Nakai
2015-11-30, 14:06:29
http://semiaccurate.com/2015/11/30/37856/

Was immer Charlie da erwähnt, es ist eigentlich egal, da Namen Schall und Rauch sind.

Gipsel
2015-11-30, 14:44:33
Ja, das macht sehr viel Sinn. Mein Gedanke ging aber schon weiter. Wenn ich pro SIMD theoretisch statt 16 FP32 auch 32 FP16 durchjagen könnte, wäre es dann nicht möglich eine 16er SIMD als 32er SIMD zu nutzen? Sodass, nicht 16 work-items auf einer SIMD laufen, sondern 32 work-items. Und mir ist es sehr wohl bewusst, dass es architekturell an vielen Ecken anschlägt. ;)Am ehesten scheitert es daran, daß man in einem Shader die Datentypen beliebig mischen darf. Es werden also im Allgemeinfall einige Sachen mit 32bit-Datentypen gemacht, andere mit 16bit oder gar nur 8bit. Wie willst Du das denn handhaben? Also einfach opportunistisch zwei 16Bit-Werte durchschieben, wenn der Programmierer einen vec2/vec3/vec4 Datentypen für int16/fp16 benutzt. Wenn man viel Zeit hat, kann man noch einen Vektorisierer in den Compiler einbauen. Das war's.
Ansonsten verarbeitet ja ein SIMD immer eine 64er Wavefront über 4 Takte (Durchsatz=Latenz). Will man da jetzt die Anzahl der der work items ändern, ändert sich notgedrungen die Wavefront-Größe. Man bräuchte die doppelte Anzahl Flags, doppelt so große Maskenvektoren (die werden momentan alle in 64bit Werten gespeichert, 1 Bit pro workitem in der Wavefront, deswegen kann die sALU auch passabel 64bit Ints oder Bitmanipulationen ;)), alle Conditional-Anweisungen müßten ebenfalls entsprechend aufgebohrt werden, jeder (Vektor-)Speicherzugriff in einer Wavefront hat nun die doppelte Anzahl von Offsets (weil die Wavefront doppelt so groß geworden ist und willst Du die dann eigentlich auch auf 16bit limitieren?) usw. usf. Der ganze Rattenschwanz lohnt sich nie und nimmer oder die Einschränkungen wären zu groß.

Nakai
2015-11-30, 16:14:10
Am ehesten scheitert es daran, daß man in einem Shader die Datentypen beliebig mischen darf. Es werden also im Allgemeinfall einige Sachen mit 32bit-Datentypen gemacht, andere mit 16bit oder gar nur 8bit. Wie willst Du das denn handhaben? Also einfach opportunistisch zwei 16Bit-Werte durchschieben, wenn der Programmierer einen vec2/vec3/vec4 Datentypen für int16/fp16 benutzt. Wenn man viel Zeit hat, kann man noch einen Vektorisierer in den Compiler einbauen. Das war's.

Keine Sorge, ich weiß ja, dass mein Vorschlag in diesem Fall selbstverständlich "interessant" ist.


Ansonsten verarbeitet ja ein SIMD immer eine 64er Wavefront über 4 Takte (Durchsatz=Latenz). Will man da jetzt die Anzahl der der work items ändern, ändert sich notgedrungen die Wavefront-Größe. Man bräuchte die doppelte Anzahl Flags, doppelt so große Maskenvektoren (die werden momentan alle in 64bit Werten gespeichert, 1 Bit pro workitem in der Wavefront, deswegen kann die sALU auch passabel 64bit Ints oder Bitmanipulationen ;)), alle Conditional-Anweisungen müßten ebenfalls entsprechend aufgebohrt werden, jeder (Vektor-)Speicherzugriff in einer Wavefront hat nun die doppelte Anzahl von Offsets (weil die Wavefront doppelt so groß geworden ist und willst Du die dann eigentlich auch auf 16bit limitieren?) usw. usf. Der ganze Rattenschwanz lohnt sich nie und nimmer oder die Einschränkungen wären zu groß.

Da sind Argumente enthalten, welche mir vorher nicht so bewusst waren.
Sehr interessant. ;)

reaperrr
2015-12-01, 18:35:23
Will an dieser Stelle mal zu den aktuellsten Gerüchten meinen Senf dazugeben:

1) Die benchlife.info Gerüchte, laut denen Baffin und Ellesmere auch zwei Codenamen für den gleichen Chip sein könnten, und die Spekulation von pcgh dazu, dass ja eines von beidem der Mobile-Codename sein könnte, sind mit ziemlicher Sicherheit Blödsinn.

Ellesmere und Baffin sind beides Inseln zwischen Grönland und Kanada. AMD hat Inselnamen bisher IMMER ausschließlich für Desktop-Chips verwendet, die Mobile-Codenamen waren bisher mal Städte, mal Edelsteine, mal Planeten, aber nie Teil der Inseln. Das sind (wenn die Codenamen nicht selbst nur Gerüchte sind) zu 99% zwei verschiedene Chips.

2) Charlie D. sagt nicht, dass nur zwei Chips existieren, sondern lediglich, dass einer der drei kursierenden Codenamen auf jeden Fall falsch ist. Was alles mögliche bedeuten kann.
Edit: Und er schreibt explizit, dass sich die Leute wahrscheinlich beim Namen der High-End-GPU irren, also Greenland.

Unicous
2015-12-01, 18:43:34
Kann damit auch bedeuten, dass die slides fake sind... oder zumindest könnten sie alt sein.

Nakai
2015-12-02, 00:38:52
Oder Greenland ist keine richtige GPU, sondern eine embedded GPU, also keine standalone GPU.

Man muss solche HPC-APUs auch so sehen, dass diese ein bestimmte TDP nicht überschreiten dürfen (~125W?). Kurz, Greenland liefert wirklich nur 4+ TFLOPs in SP und dann eben 2+ TFLOPs in DP und hat eine TDP von <65W in dieser Konfig. Auch viele dieser Leaks kommen von Fudzilla und könnte auch ein Fake und Trollversuch sein.

Eine andere Möglichkeit wäre, dass Greenland gecancelt wurde, wegen Problemen und/oder Lieferbarkeit von HBM2.

Oder Greenland ist ein völlig anderer Name und keine GPU. Evlt ein Codename für eine GPU-Architektur oder ein anderer Name für Arctic Islands?

€:
http://www.roadtovr.com/layla-mah-future-advanced-rendering-amds-liquidvr/

So ab Minute 10.

Wenn AMD nur zwei GPUs bringt, also Baffin und Ellesmere, dann könnte Greenland eine Name für eine GPU-Kombination sein.

Mit nur zwei GPUs könnte man den gesamten Markt abdecken, von unten bis oben.

Da gibt es dieses Bild:
http://www.kitguru.net/wp-content/uploads/2015/08/amd_sk_hynix_hbm_history_graph_proto_1.jpg

http://www.computerbase.de/2015-08/amd-fiji-vom-ersten-schritt-zum-fertigen-produkt-in-8.5-jahren/

Der Testchip vor Fiji bestand aus 4 GPUs mit je einem HBM-Stack. ;)
Macht AMD Grundlagenforschung?

€2: AMD hat schon ordentlich Aufwand in die Entwicklung von HBM gesteckt...das muss man ihnen lassen.

maguumo
2015-12-02, 02:26:23
Der Testchip vor Fiji bestand aus 4 GPUs mit je einem HBM-Stack. ;)
Wo genau siehst du das denn? Ich sehe auf der von dir verlinkten Slite nur monolithische GPUs/Test ASICs mit HBM drum?

Nakai
2015-12-02, 03:19:02
Wo genau siehst du das denn? Ich sehe auf der von dir verlinkten Slite nur monolithische GPUs/Test ASICs mit HBM drum?

Nachdem diese Tests erfolgreich abgeschlossen waren, wurde der Weg zu Fiji geebnet. Erneut entstand zu Beginn ein weiteres Testdesign. Der nun bereits deutlich größere Grafikchip bestand dabei intern eigentlich aus vier kleineren GPUs, die jeweils mit ihrem eigenen Speichercontroller einen einzelnen Speicherchip ansprechen konnten.

Quote von CB vom obigen Link.

OBrian
2015-12-02, 10:33:18
wahrscheinlich einfach vier Testchips aneinandergelassen, um die Diegröße auszuprobieren, wie man das auf einem großen Interposer festkriegt, die Abwärme managt etc.


Aber Cypress auf einem Interposer, hätte nicht gedacht, daß das geht, einen "normalen" Chip auf einem Interposer festzukriegen. Vielleicht löte ich meine 5850 ja noch um, bißchen tunen *lol*

Flusher
2015-12-03, 10:33:33
In Anlehnung an die aktuellen News - was haltet ihr von dieser Theorie bezüglich der nur zwei geplanten 14/16 nm Chips in 2016:

Vielleicht ist AMD in der Lage mit den beiden Grafikchips eine grössere Bandbreite zu bedienen. Möglicherweise ist es mit der 14/16 nm Generation günstiger die nun flächenmässig kleineren Chips stärker beschnitten zu verkaufen, als für jedes Segment einen anderen Chip aufzusetzen.

Erst mit der Refreshgeneration könnte man dann die einzelnen Segmente mit dedizierten GPUs ausstatten. Bis dahin dürften Fertigungs- und Designkosten weiter gesunken sein.