PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

horn 12
2016-01-23, 11:10:54
Nope, Preislich Nicht unter 400 bis 450 Euro und dann nur + - mit Fiji
Jener wird nicht sooo schnell abgelöst werden können.

AnarchX
2016-01-23, 11:21:19
Fiji ist in der Fertigung einfach zu teuer und mit seiner 4GiB-Beschränkung für 2016 nicht wirklich mehr brauchbar. Kein Wunder das Dual-Fiji wohl möglich gecancelt wird.
Da ist ein ~250mm² Die, selbst wenn der Wafer 50% teuer als 28nm ist, deutlich cleverer und GDDR5(X) dürfte für 2016 die beste Wahl für <$500 Karten sein.

horn 12
2016-01-23, 12:00:00
Dies schon, HBM inkl. Interposer Macht Fiji recht Teuer aber die 4GB langen derzeit noch auch für 4K und dass Polaris nicht viel schneller, bzw. nur mehr Speicher bekommen wird zu 8 GB macht den Kohl auch nicht mehr fett.
Vielleicht 10 bis 20% über Fiji sehen wir Anfang Herbst, mehr aber auch nicht. Der große Aufschrei kommt wohl erst 2017 daher!
----> und bis dahin sind viele Blockbuster Spiele bereits durchgespielt!
Dies sagt einer welcher eine Sapphire Fury 4GB besitzt und warten kann man immer, aber nach dem Sommerloch kann man sich dies ja nochmals durch den Kopf gehen lassen...

iuno
2016-01-23, 12:21:13
Wir wissen noch nichts und 10-20% ist doch nur dein Wunschdenken, damit deine Karte noch etwas laenger oben mitschwimmen darf.
Selbst wenn der grosse Polaris Chip "nur" gleich viel SPs wie Fiji hat, dafuer aber mehr Speicher, das "Taktproblem" und allen voran die Flaschenhaelse in den Griff bekommt, kann der Chip schon deutlich mehr als 20% vor Fiji liegen. Fiji bekommt die Leistung einfach nicht auf die Strasse und liegt traurigerweise oft genug nur 10-20 statt 40-50% vor Hawaii.

Da ist ein ~250mm² Die, selbst wenn der Wafer 50% teuer als 28nm ist, deutlich cleverer und GDDR5(X) dürfte für 2016 die beste Wahl für <$500 Karten sein.
Ich kann mich nur wiederholen: wir kennen keine genauen Preise zu HBM oder ist das bei dir anders? Wenn man sich auch unter 500$ mit HBM einen Vorteil ggue der Konkurrenz verschaffen und das Produkt daher evtl. auch teurer absetzen kann, gibt es imho nur einen einzigen Grund das nicht zu tun: der Verzicht durch Bedenken an der Lieferbarkeit der Stacks und dementsprechend moeglicher "Kannibalisierung" einer groesseren Karte. Aber diese Entscheidungen sind ja ohnehin schon laengst gesfallen.
Weiteres zu den Kosten: Interposer und HBM faellt ja bei Fiji genauso an. Problematisch wird es aber, wenn beim Zusammenbau/Packaging was kaputt gehen kann. Dann faellt der Preisunterschied zwischen den GPUs an sich deutlich staerker ins Gewicht, denn man hat ja quasi funktionale Chips (in der kleinen Strukturbreite wohl "seltener"), kann sie aber trotzdem noch wegschmeissen. Ist das denn so, dass da noch was schief gehen kann?

YfOrU
2016-01-23, 13:21:12
Was den Interposer selbst betrifft gibt es zumindest grobe Zahlen von Amkor: http://regions.semi.org/en/sites/semi.org/files/docs/2_SiP%20Global%20Summit%203DIC%20Technology%20Forum_Choon%20Lee%20%20.pdf

Die sind zwar schon etwas älter (Ende 2013) aber unter $2,50 pro 100mm² halte ich nicht für realistisch denn ein erheblicher Teil der Kosten kommt vom Wafer selbst. Bei Fiji dürfte das Richtung $25+ gehen. Aufgrund der deutlichst höheren Komplexität steigen die Kosten gegenüber einem klassischen Package mit Sicherheit weiter an (mehr Schritte, Tests und eine zwangsläufig höhere Anzahl an Fehlern).

Das HBM Stacks teurer sind als GDDR5 Module bei gleicher Speichermenge steht denke ich außer Frage. Bei Fiji dürfte das kein ganz so großes Problem sein da nur 4GB verbaut werden (für eine GPU in diesem Segment vergleichsweise wenig). Bei 8GB dürfte es dann aber schon auch zu einem relevanten Faktor werden. Praktisch ist es deshalb ausgeschlossen das wir in naher Zukunft Performance GPUs mit 4GB HBM sehen werden da Designs mit 4GB GDDR5(x) in jedem Fall wesentlich günstiger in der Produktion sind.

OBrian
2016-01-23, 13:27:28
Mit so wenigen Chips (selbst wenn es drei sind) kann man einfach nicht das ganze Portfolio auf 14nm umstellen, von Low-End bis High-End. Es muß also irgendwas noch weiterbenutzt werden. Und da ist die Nano einfach die energieeffizienteste Karte. Hawaii muß unbedingt weg wg. Performance/Watt, Pitcairn noch dringender weil total alt, und eine neue High-End-Karte muß auch her. Also entweder behält man Nano noch eine Weile oder man hat eine fette Lücke.

Ich sage ja nicht, daß die Nano noch ewig und drei Tage mitgeschleift wird. Aber für z.B. 300 € Verkaufspreis ist die sicherlich noch sinnvoll herstellbar. Und in neuen Fertigungsverfahren ist anfangs die Produktionsmenge begrenzt, es muß darin aber alles mögliche gebaut werden, das geht nicht alles auf einmal, wenn man auch liefern können will.

Kriton
2016-01-23, 13:51:25
Du hast ja auch noch teilaktivierte Chips.

Hübie
2016-01-23, 13:55:45
Eine komplette FuryX würde ich schon bei 190-200$ ansiedeln. Das ist der Gesamtkostenanteil. Teuer ist die Nacharbeit.

YfOrU
2016-01-23, 14:43:05
Ich sage ja nicht, daß die Nano noch ewig und drei Tage mitgeschleift wird. Aber für z.B. 300 € Verkaufspreis ist die sicherlich noch sinnvoll herstellbar.

Das wären vor Steuern nur ~ $260. Damit für AMD, Kartenhersteller (inkl. Garantie), Distributor und Händler noch was übrig bleibt ist das eher zu wenig.

fondness
2016-01-23, 14:50:04
Sehe ich auch so, Fiji wird mit hoher Wahrscheinlichkeit ein kurzes Leben haben. Der Interposer ist viel zu teuer, durch den begrenzten VRAM ist der Chip auch nicht sonderlich attraktiv. Das war eben ein Testballon.

Nakai
2016-01-23, 15:00:14
Je nachdem, wie man 3D-API nun definiert, aber für Computeshader unter DX oder OpenGL geht es natürlich, die Größe der Workgroup zu wählen.

Afaik kann es Einschränkungen diesbezüglich geben, ergo die maximale Größe ist vordefiniert etc.

Unter den Grafik-APIs kommt man außer bei Computeshadern auch z.B. nicht ans local/shared memory (indirekt wird es schon benutzt, z.B. für die Übergabe der Attribute an einen Pixelshader). Also von der Hardware her gesehen funktioniert der Zugriff und man kann mit ein paar Umständen auch Code generieren, der das benutzt (könnte auf den Konsolen vielleicht passieren). Aber das ist dann nicht mehr portabel zwischen nV und AMD.

Es ergibt sich zwar schon aus der Problematik, dass Pixel nicht auf Daten benachbarter Pixel zugreifen können. Dass Local Memory wirklich nur für Compute gedacht ist, ist sehr interessant zu wissen.

Was die Dreiecke angeht, so werden die Wavefronts für Pixelshader ja im Prinzip von den Rasterizern gefüllt. Bei AMD spuckt jeder Rasterizer bis zu 16 Pixel pro Takt von maximal einem Dreieck pro Takt aus (außer bei den ganz kleinen Karten/iGPUs). Eine Wavefront wird also immer über mehrere Takte von einem der Rasterizer gefüllt (minimal vier Takte für sehr große Dreiecke, maximal 16 für sehr kleine [falls es keinen Stall vor dem Rasterizer gibt, der das noch weiter limitiert]; jedes Dreieck belegt immer mindestens ein Quad, egal wie klein). Dabei werden in einer Wavefront auch mehrere hintereinander zum Rasterizer kommende Dreiecke aus einem Drawcall zusammengefaßt (wenn die durch die gleiche Pipeline mit den gleichen Shadern laufen, ist das ja kein Problem). Also außer wenn es keine weiteren Dreiecke mehr gibt, werden die Wavefronts immer mit 64 Fragments gefüllt (nur dauert das bei kleinen Dreiecken etwas länger, aber das ist eine Sache des Frontends, also hier im Speziellen Setup/Raster). Verschnitt in dem Sinne gibt es somit nur auf Quadebene.

Wäre ein Dreieick also nur 1 Pixel groß, wäre es ein Verschnitt von 75%?

Tatsächlich ist der Verschnitt durch die Quad-Aufteilung deutlich geringer, jedoch immer noch präsent. Ergo ist es eher eine Einschränkung des Frontends, wenn die Auslastung durch kleinen Dreiecken sinkt.

Wenn der Polaris11 näher an den 200mm² liegt, dann könnte ich mir auch 256-Bit GDDR5(X) vorstellen. Mit >256GB/s hat man durchaus eine Basis deutlich über einer GTX 980 zu landen. Und vergleichbar könnte ja nach aktuellem Stand auch "GP104" sein. Fiji/GM200-Leistung mit modernerem Feature-Set für <$400.

AMD schrieb Memory Compression in eine Folie bzgl Polaris. Wenn die GPUs nun echte Speicherkompression beherrschen würden, wäre das sehr nett. Es würde aber doch viel Logik kosten und das Backend aufblähen.

GDDR5X oder HBM2 mit 256GB/s. Ich sehe dahingehend eigentlich nicht viel Unterschied. HBM2 ermöglicht kleinere einfachere PCBs und Stromversorgung. Ebenso lässt es den Energieverbrauch wohl etwas reduzieren. Es ermöglicht viele Optionen. Wie die Kosten aussehen kA. Ich denke es ist eher der Fall, ob AMD gewillt ist, zwei Interposer-Produkte zu liefern. Vega10 wird auch einen bekommen, mit großer Sicherheit.

Wie erwähnt ich gehe davon aus, dass wir 3 Chips mit den Größen ~150, ~250 und ~350mm² sehen werden.


Und Fiji war definitiv ein Pipecleaner bzgl HBM.

del_4901
2016-01-23, 15:11:28
Es ergibt sich zwar schon aus der Problematik, dass Pixel nicht auf Daten benachbarter Pixel zugreifen können. Dass Local Memory wirklich nur für Compute gedacht ist, ist sehr interessant zu wissen.
ddx, ddy, lane swizzling etc.? Local Memory wird nicht nur fuer Compute genutzt.

robbitop
2016-01-23, 15:12:08
Nakai,

Was ist denn "echte" Speicherkompression und was macht die von Tonga und Fijii folglich zu einer "unechten"?
Es wurde gehinted, dass Maxwell ziemlich viel von einem TBDR hat. Ich tippe auf eine Art größeren Tilecache inkl eines Mechanismusses, diesen ähnlich effektiv wie bei einem TBDR nutzen zu können. Das würde schon den enormen Sprung, den Maxwell bei der Bandbreitennutzung hingelegt hat, erklären. Immerhin hat Maxwell schon die Dritte Gen der Speicherkompression. Gemäß Gesetz des sinkenden Grenzertrags sind die größten Sprünge anfangs zu erwarten und nicht erst in der dritten Iteration. Daher tippe ich auf die Tilecache Sache.

YfOrU
2016-01-23, 15:15:26
Sehe ich auch so, Fiji wird mit hoher Wahrscheinlichkeit ein kurzes Leben haben. Der Interposer ist viel zu teuer, durch den begrenzten VRAM ist der Chip auch nicht sonderlich attraktiv. Das war eben ein Testballon.

Eine 8GB Variante als Refresh ist deshalb auch unwahrscheinlich. Beim Interposer bewegt sich AMD nahe am Limit weshalb die oben veranschlagten $25 schon eher optimistisch sind. Eine 14nm GPU mit vergleichbarer Performance sollte in jedem Fall deutlich wirtschaftlicher sein. Schön an Fiji ist das man sich bei AMD mal wirklich was zugetraut hat. Mit Blick auf die Kosten und die Risiken ist das ein richtiges Ausrufezeichen gewesen.

Agent117
2016-01-23, 15:19:12
Was den Interposer selbst betrifft gibt es zumindest grobe Zahlen von Amkor: http://regions.semi.org/en/sites/semi.org/files/docs/2_SiP%20Global%20Summit%203DIC%20Technology%20Forum_Choon%20Lee%20%20.pdf

Die sind zwar schon etwas älter (Ende 2013) aber unter $2,50 pro 100mm² halte ich nicht für realistisch denn ein erheblicher Teil der Kosten kommt vom Wafer selbst

Hier etwas neueres, wurde par Seiten vorher schonmal geposted:
http://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs
1$ pro 100mm² - weiß leider nicht, ob das nur aus den Waferkosten abgeleitet ist, also im wesentlichen nur der FE-Layer, oder ob darin schon weitere Produktionsschritte wie einbringen der TSVs und uBumps enthalten sind. Vermutlich nicht. Kann mir auch nicht vorstellen dass der größte Teil der Kosten vom Wafer selbst kommt.


Ist das denn so, dass da noch was schief gehen kann?
Das sollte man im Griff haben; Interposer sind ja auch kein komplettes Neuland.

Wenn der Polaris11 näher an den 200mm² liegt, dann könnte ich mir auch 256-Bit GDDR5(X) vorstellen. Mit >256GB/s hat man durchaus eine Basis deutlich über einer GTX 980 zu landen. Und vergleichbar könnte ja nach aktuellem Stand auch "GP104" sein. Fiji/GM200-Leistung mit modernerem Feature-Set für <$400.

Halte für einen guten Ansatz, angenommen HBM + Interposer sind für sagen wir minimal 300€ (noch) nicht wirtschaftlich.
Gibt es denn Infos zum Stromverbrauch von GDR5X?
Wenn der verglichen mit 7Gbs GDR5 noch weiter ansteigt, wird der Speicher dann schon ordentlich reinhauen.

Sunrise
2016-01-23, 15:20:56
Es gab von AMD eine Folie, dort wurde die Geschichte mit der Kompression in den Folgegenerationen auf eine Roadmap-Zeitachse gelegt. Ich finde die leider nichtmehr.

Aus dem Gedächtnis kann ich mich noch erinnern, dass Fiji gerade an der Grenze war (Tonga), jedoch erst jetzt die richtig starken, tiefgreifenden Änderungen kommen.

Nakai
2016-01-23, 15:22:13
ddx, ddy, lane swizzling etc.? Local Memory wird nicht nur fuer Compute genutzt.

Oke, ich halte den Mund. Ich habe wenig Ahnung von 3D-Programmierung.:freak::tongue:

Nakai,

Was ist denn "echte" Speicherkompression und was macht die von Tonga und Fijii folglich zu einer "unechten"?
Es wurde gehinted, dass Maxwell ziemlich viel von einem TBDR hat. Ich tippe auf eine Art größeren Tilecache inkl eines Mechanismusses, diesen ähnlich effektiv wie bei einem TBDR nutzen zu können. Das würde schon den enormen Sprung, den Maxwell bei der Bandbreitennutzung hingelegt hat, erklären. Immerhin hat Maxwell schon die Dritte Gen der Speicherkompression. Gemäß Gesetz des sinkenden Grenzertrags sind die größten Sprünge anfangs zu erwarten und nicht erst in der dritten Iteration. Daher tippe ich auf die Tilecache Sache.

Diesbezüglich hatten wir doch schon eine Diskussion (auch mit Gipsel). Tonga benutzt DCC, wodurch der Framebuffer komprimiert wird. Das Problem ist eher, dass man vorher nicht genau weiß, wie weit man tatsächlich komprimieren kann. Für DCC wird ein Block (bestimmte Größe) mit einem Referenzpixel komprimiert, indem die Unterschiede gespeichert werden und nicht die konkreten Pixelwerte. Im Worst Case wird sogar mehr Speicher benötigt, wenn sich die einzelnen Pixelwerte im Kompressionsblock völlig unterscheiden, da man für DCC zusätzliche Daten benötigt. Man nutzt eigentlich die Eigenschaft aus, dass Pixel in einer Nachbarschaft ähnliche Eigenschaften haben.
Man muss jedoch immer das Maximale an Speicher reservieren und spart dadurch nicht wirklich etwas ein, sondern die Zugriffe werden optimiert. Mit einer MMU mit der es möglich ist Speicher konkret zu (re)allozieren, könnte man natürlich immer soviel speichern wie nur notwendig ist.

Ich möchte das nicht nur auf DCC beschränken, sondern es wurde schon auf AMD-Folien angedeutet, dass man Speicherkompression auch für den HPC-Sektor anwenden möchte. Hierzu würde man je nach Anwendungsfall bestimmte andere Kompressionsalgorithmen verwenden müssen.

del_4901
2016-01-23, 15:26:56
Oke, ich halte den Mund. Ich habe wenig Ahnung von 3D-Programmierung.:freak::tongue:(y)


Diesbezüglich hatten wir doch schon eine Diskussion (auch mit Gipsel). Tonga benutzt DCC, wodurch der Framebuffer komprimiert wird. Das Problem ist eher, dass man vorher nicht genau weiß, wie weit man tatsächlich komprimieren kann. Für DCC wird ein Block (bestimmte Größe) mit einem Referenzpixel komprimiert, indem die Unterschiede gespeichert werden und nicht die konkreten Pixelwerte. Im Worst Case wird sogar mehr Speicher benötigt, wenn sich die einzelnen Pixelwerte im Kompressionsblock völlig unterscheiden, da man für DCC zusätzliche Daten benötigt. Man nutzt eigentlich die Eigenschaft aus, dass Pixel in einer Nachbarschaft ähnliche Eigenschaften haben.
Man muss jedoch immer das Maximale an Speicher reservieren und spart dadurch nicht wirklich etwas ein, sondern die Zugriffe werden optimiert. Mit einer MMU mit der es möglich ist Speicher konkret zu (re)allozieren, könnte man natürlich immer soviel Speichern wie nur notwendig ist.

Ich möchte das nicht nur auf DCC beschränken, sondern es wurde schon auf AMD-Folien angedeutet, dass man Speicherkompression auch für den HPC-Sektor anwenden möchte. Hierzu würde man je nach Anwendungsfall bestimmte andere Kompressionsalgorithmen verwenden müssen.
Es ist meisstens nur Bandbreitenkompression. DCC ist glaube ich sogar verlustbehaftet, und kann damit auch kleiner sein. Aber alles was lossless sein soll ist schwer umzusetzen da man nicht wirklich RLE verwenden kann, da das nicht parallelisierbar ist.

Nakai
2016-01-23, 15:34:26
(y)


;D

Es ist meisstens nur Bandbreitenkompression. DCC ist glaube ich sogar verlustbehaftet, und kann damit auch kleiner sein. Aber alles was lossless sein soll ist schwer umzusetzen da man nicht wirklich RLE verwenden kann, da das nicht parallelisierbar ist.

Ich gehe davon aus, es gibt mehrere Implementierungsansätze. DCC von Tonga, Fiji und wohl auch Maxwell ist jedoch lossless. Verlustbehaftete DCC ermöglicht einen minimalen Wert der Kompression anzugeben, je nach Implementierung bzw. Grenzwert.
Lossless ist ja auch ein Grund weswegen man keine unter Schranke der Kompression angeben kann.

YfOrU
2016-01-23, 15:43:12
Hier etwas neueres, wurde par Seiten vorher schonmal geposted:
...


Ist älter (Ende 2012) und die $1 pro 100mm² beziehen sich nur auf den Wafer bei einer theoretischen Ausbeute von 100%. Bei den Kalkulationen ging es allgemein darum wo man hin will (high Volume für Mobile etc.) als wo man ist.

Botcruscher
2016-01-23, 15:45:29
Praktisch ist es deshalb ausgeschlossen das wir in naher Zukunft Performance GPUs mit 4GB HBM sehen werden da Designs mit 4GB GDDR5(x) in jedem Fall wesentlich günstiger in der Produktion sind.
HBM 2 dürfte bei nur 2 Speicherebenen deutlich billiger sein als der HBM der Fury. 6 oder 8 GB dürften wir ganz schnell sehen.
Nope, Preislich Nicht unter 400 bis 450 Euro und dann nur + - mit Fiji
Jener wird nicht sooo schnell abgelöst werden können.
Du mit deinen Träumereien. Ein optimierter 16nm 250mm² Chip könnte Fury schon zersägen. Dazu billiger GDDR5.

YfOrU
2016-01-23, 16:05:46
HBM 2 dürfte bei nur 2 Speicherebenen deutlich billiger sein als der HBM der Fury. 6 oder 8 GB dürften wir ganz schnell sehen.

Günstiger als bei der Fury mit Sicherheit. Im Segment darunter sehe ich HBM 2 aber erstmal nicht. Auch deshalb da AMD aufgrund der wenigen GPU Designs pro Chip jeweils ein recht großes Spektrum abdecken wird müssen.

Ist ja auch die Aussage von AMD gewesen (Robert Hallock). Je nach Segment GDDR5 oder HBM.

AnarchX
2016-01-23, 17:23:43
Halte ich für einen guten Ansatz, angenommen HBM + Interposer sind für sagen wir minimal 300€ (noch) nicht wirtschaftlich.
Gibt es denn Infos zum Stromverbrauch von GDR5X?
Wenn der verglichen mit 7Gbs GDR5 noch weiter ansteigt, wird der Speicher dann schon ordentlich reinhauen.
GDDR5X 10/12Gbps sollte weniger verbrauchen als 7Gbps GDDR5, da nur 1.35V statt 1.5V und nur 2.5/3.0GHz Interfacetakt: http://www.hardware.fr/news/14501/gddr5x-standardisee-par-jedec.html

horn 12
2016-01-23, 17:26:42
http://www.3dcenter.org/dateien/abbildungen/AMD-Product-Roadmap-Januar-2016-Slide6.jpg

Novum
2016-01-23, 18:43:00
ddx, ddy, lane swizzling etc.? Local Memory wird nicht nur fuer Compute genutzt.
Alle drei operieren rein auf dem Register-File und brauchen keinen LDS.

del_4901
2016-01-23, 18:52:36
Alle drei operieren rein auf dem Register-File und brauchen keinen LDS.
Hat auch niemand behauptet. Du hast es nur im falschen Kontext zusammen gelesen.

Agent117
2016-01-23, 20:39:33
GDDR5X 10/12Gbps sollte weniger verbrauchen als 7Gbps GDDR5, da nur 1.35V statt 1.5V und nur 2.5/3.0GHz Interfacetakt: http://www.hardware.fr/news/14501/gddr5x-standardisee-par-jedec.html

Für den Großteil des Verbrauchs ist aber laut AMD der Speichercontroller in der GPU verantwortlich.
http://media.bestofmicro.com/W/V/435343/original/Capture-2014-05-12-at-13.02.59.png
Und der muss dank dem 16 Bit Prefetch doppelt so hoch takten.

Verbraucht eigentlich ein gleich hoch taktender MC in 14nm weniger als in 28nm? Wahrscheinlich schon aber bei weitem nicht so viel weniger wie das Verhältnis gesamter Chip 14nm/ gesamter Chip 28nm. Weiß da einer was genaues?

ndrs
2016-01-23, 21:18:54
Verbraucht eigentlich ein gleich hoch taktender MC in 14nm weniger als in 28nm?
Naja, ein Speicherinterface besteht zum einen aus Logik und zum anderen aus PHYs (also Treiber für höhere Ströme um die große Leitungslänge zu überwinden). Ersteres sollte natürlich im normalen Umfang schrumpfen. Letzteres hingegen nicht.

Agent117
2016-01-24, 00:19:41
Ok, hab ich mir ein biszchen schon gedacht, dass man um so ein hochfrequentes Signal in guter Qualität über die halbe Platine zu jagen gewisse Schaltlängen unabhängig von der Node braucht. Hatte mit sowas leider noch nie zu tun.

Die PHYs sollten dann auch den mit Abstand größten Teil des Stromverbauchs vom MC ausmachen. Die normale Logik von Fijis MC sollte ja wegen der großen breite von 4096Bit deutlich komplexer sein und Fijis MC verbraucht ja trotzdem viel weniger.

Etwas kurios wäre es ja schon wenn dann bei einem Polaris11 mit hypotetischen 120-150W Spieleverbrauch der Speicher und MC alleine 100 Watt verbrauchen.
Das kann ich mir nicht vorstellen.

AnarchX
2016-01-24, 09:29:50
Für den Großteil des Verbrauchs ist aber laut AMD der Speichercontroller in der GPU verantwortlich.
http://media.bestofmicro.com/W/V/435343/original/Capture-2014-05-12-at-13.02.59.png
Und der muss dank dem 16 Bit Prefetch doppelt so hoch takten.

Da steht doch PHYs und die müsste halt bei 10/12Gbps GDDR5X nur auf 2,5/3,0GHz takten und nicht auf 3,5/4,0GHz wie bei 7/8Gbps GDDR5.

Noch ein guter Artikel, der noch auf mehr Detail eingeht: http://monitorinsider.com/GDDR5X.html?hmsr=toutiao.io&utm_medium=toutiao.io&utm_source=toutiao.io

OBrian
2016-01-24, 13:59:19
also bis 256 bit SI wird "normaler" GDDR sicherlich eingesetzt werden, darüber fängt es ja an, unangenehm zu werden, und da kann man auch HBM sinnvoll verwenden. Ein HBM2-Stack hat ja schon eine Bandbreite, die für eine kleine GPU völlig überdimensioniert wäre, d.h. 128-Bit-Karten wird man sicherlich nicht damit ersetzen, solange HBM nicht so irre billig ist, daß man es einfach dafür verballern kann. Die Zeit kommt aber evtl. noch, in zwei Jahren könnte das ganz anders aussehen.

AnarchX
2016-01-24, 14:30:41
Von Hynix wird es doch auch HBM2 mit 1,0 und 1,6Gbps geben. 128GB/s Bandbreite sind wohl selbst für einen ~70mm² 16/14nm Chip nicht so überdimensioniert.
Problematisch wird wohl eher die Verfügbarkeit von 4GiB Modulen sein, sodass dann ein breiter Einsatz von HBM2 wohl erst mit dem 16/14nm Refresh im H2/2017 kommt.

Wichtig ist eine ausreichende HBM2-Verfügbarkeit um wohl ein gute 2-stellige Millionzahl pro Jahr an GPUs damit ausstatten zu können, mit solchen Stückzahl wird dann auch die Fertigung günstiger:
http://semiengineering.com/is-the-stacked-die-supply-chain-ready/ (ASE Group Zitat).

horn 12
2016-01-24, 15:44:28
Alles mehr als nur kompliziert und dies wird vor Allem Nvidia sehr nach hinten drängen.

Agent117
2016-01-24, 16:08:29
Da steht doch PHYs und die müsste halt bei 10/12Gbps GDDR5X nur auf 2,5/3,0GHz takten und nicht auf 3,5/4,0GHz wie bei 7/8Gbps GDDR5.

Noch ein guter Artikel, der noch auf mehr Detail eingeht: http://monitorinsider.com/GDDR5X.html?hmsr=toutiao.io&utm_medium=toutiao.io&utm_source=toutiao.io

Ok, danke. Dann gebe ich dir Recht.
Mir war nicht bewusst dass die Quad Data Rate nutzen. Der Unterschied DDR zu QDR scheint ja doch gewaltig zu sein.
Heißt also dass der Controller jetzt 4 jeweils um 1/4 Periode versetzte gleich starke Frequenzbänder erzeugt und die "Delays" so platziert, dass In- und Outputsygnal des Controllers synchron sind. So kann man effektiv 4 Bits pro Periode übertragen, statt bisher 2 und hat zusammen mit dem 16er Prefetch die doppelte Speicherbandbreite.
Bleibt halt noch die Frage, auch wenn die Frequenzen nicht erhöht werden, ob man dafür mehr PHYs und Logik im MC braucht.

AnarchX
2016-01-24, 17:38:01
Nicht umsonst hat wohl "GP104" ~2100 Pins.
Aber GDDR5X scheint schon für 2016/2017 eine ziemlich nette Alternative zu HBM zu sein. Und mit den lustigen 0,75/1,5GiB Modulen kann nun auch AMD "krumme" Speichermengen verkaufen. Bei NV würde es mich nicht wundern, wenn man mit 6GiB@256-Bit möglicherweise erstmal nur Gleichstand zu 980Ti liefert.

R.I.P.
2016-01-27, 12:36:12
http://gpuopen.com/

Neue GPUOPEN Seite von AMD is online

tm0975
2016-01-27, 12:49:39
Du mit deinen Träumereien. Ein optimierter 16nm 250mm² Chip könnte Fury schon zersägen. Dazu billiger GDDR5.

und mit nem shrink wird automnatisch der gddr5 schneller und liefert die benötigte bandbreite bei nem günstigen 256 bit si? na ich glaube nicht so recht daran.

Bei NV würde es mich nicht wundern, wenn man mit 6GiB@256-Bit möglicherweise erstmal nur Gleichstand zu 980Ti liefert.
das wird wohl so kommen, schließlich sollen die kunden ja im folgejahr den refresh mit 8 bis 12 gb wieder kaufen und dazu muß es was geben, was in 2016 gerade so nicht limitiert. 6 gb scheinen mir da geeignet.

AnarchX
2016-01-27, 18:59:18
und mit nem shrink wird automnatisch der gddr5 schneller und liefert die benötigte bandbreite bei nem günstigen 256 bit si? na ich glaube nicht so recht daran.


Mit GDDR5X sollte man Bandbreiten erreichen, die mehr als ausreichend für Fury-Leistung sind. 512GB/s braucht es da nicht.

Elite_Warrior
2016-01-28, 08:00:32
Dazu kommt noch noch Kompression um Bandbreite einzusparen.

Gabs da auch nicht Benchmarks wo man sehen konnte dass die Fury nicht die komplette Bandbreite ausgenutzt hat? Wird überhaupt noch DDC mit HBM verwendet?

Agent117
2016-01-28, 11:58:01
Fiji hat DCC.
Das kostet auch so gut wie keinen DIE-Space und ist eine verlustfreie Kompression.

Flusher
2016-01-29, 12:59:26
Dazu kommt noch noch Kompression um Bandbreite einzusparen.

Gabs da auch nicht Benchmarks wo man sehen konnte dass die Fury nicht die komplette Bandbreite ausgenutzt hat? Wird überhaupt noch DDC mit HBM verwendet?

Gab aber auch Benchmark in denen Fiji deutlich von einer HBM übertaktung profitiert hat. Wieviel kann ich aber grade nicht sagen.

M4xw0lf
2016-01-29, 13:05:05
Gab aber auch Benchmark in denen Fiji deutlich von einer HBM übertaktung profitiert hat. Wieviel kann ich aber grade nicht sagen.
Zum Teil linear.

iuno
2016-01-29, 13:13:24
iirc weiss man aber gar nicht genau, was ueberhaupt alles direkt an dem Takt haengt.

Zudem zeigten ja auch Speichertests bei Fiji, dass die theoretische Bandbreite nicht annaehernd erreicht wird.

Unicous
2016-01-29, 14:24:19
btw.

http://forums.overclockers.co.uk/showpost.php?p=29045102&postcount=6977

Nice one Kaap. Here's a fun fact for all your Fiji overclockers.

Fiji’s MCLK overdrives in discrete steps, so while various overclocking tools are increasing in 5Mhz steps the MCLK is actually only able to support 500.00/545.45/600.00/666.66MHz and right now it just rounds to the nearest step. If you are intending to overclock HBM on Fiji, then 545Mhz works well on all four of my Fury X cards. 600MHZ proved a step too far on each card and resulted in instability.

So for all those people setting their MCLK at 570Mhz, it's actually running at 545Mhz.
:freak:

Locuza
2016-01-29, 18:19:34
11,6% maximal zu übertakten.
Ich warte immer noch auf meine kostenlose Fury HBM OC Analyse im Internet. :redface:

M4xw0lf
2016-01-29, 18:51:16
btw.

http://forums.overclockers.co.uk/showpost.php?p=29045102&postcount=6977

:freak:
Faszinierend. :uponder:

Skysnake
2016-01-29, 22:59:11
je nachdem, welche Taktgenerierungstechnik man verwendet durchaus logisch. Nicht immer kann man einfach den Takt beliebig durchstimmen.

Locuza
2016-01-30, 04:46:58
Wow, ich bin beeindruckt wie solide Roy Taylor seine VRLA-Präsentation gehalten hat.
Kein ständiges Pfotenlecken oder überhypen, einfach schön durchgezogen.
https://youtu.be/p010lp5uLQA?t=16m

Eh, zur Info die interessant ist, Roy spricht über das Problem der Min-Spec für Oculus Rift mit einer 290X/970, mit Polaris will AMD Produkte anbieten die genau in diese Kerbe schlagen, für einen geringeren Preis, mit einem höherem Verkaufsvolumen, weniger Stromaufnahme und mit mehr Geschwindigkeit.

horn 12
2016-01-30, 07:33:36
Damit sieht man welche GPU Polaris ersetzen soll, die R9 290X und dürfte wohl knapp vor, hinter Fury (X) daherkommen.
Zwar 8GB Speicher aber der HBM verhält sich immer noch weitaus besser und optimaler als GDDR5 Jener (X) Speicher könnte da besser aufschließen.
Alle welche Fury (X) erworben haben, müssten also sicher nichts falsch gemacht haben bis Anfang, Mitte 2017.

iuno
2016-01-30, 09:29:26
horn wehrt sich immer noch dagegen, dass seine Karte alt wird...
Finde dich endlich damit ab und hoer auf die Threads damit zu fuellen. Dasselbe hast du schon gefuehlt 18x geschrieben und es wird deshalb nicht wahrer.
Habe einfach Spass mit deiner Karte, hattest sie ja lange genug bis Polaris/Pascal kommen und wirst sie auch noch lange genug benutzen koennen :rolleyes:

Im Uebrigen verhaelt sich HBM aktuell nirgendwo besser als GDDR5, ausser beim Stromverbrauch. Das ist voelliger Quatsch und war es schon immer. Man braucht wegen HBM nicht weniger Speicher und ausserdem krankt Fiji am Durchsatz.

w0mbat
2016-01-30, 17:15:28
Hör doch auf iuno, eine Fury wird auch noch in einem Jahr super sein.

Nightspider
2016-01-30, 18:20:24
iuno HBM hat auch noch andere (kleine?) Voreile als GDDR5.

Soweit ich mich richtig erinnere sind die Latenzen etwas kürzer und HBM unterstützt refresh single bank wobei ich nicht wirklich weiß wann sowas genutzt wird.

http://cdn.wccftech.com/wp-content/uploads/2014/09/Hynix-HBM-15.jpg

r-or
2016-01-30, 20:52:41
sind die Latenzen etwas kürzer [/url]
Es ist immer noch DDR Ram: https://en.wikipedia.org/wiki/Dynamic_random-access_memory#Principles_of_operation

HBM hat prinzipbedingt dadurch nur den Latenzvorteil durch die höhere Lokalität. Wieviel ist das? Sagen wir mal im Schnitt 10cm weniger PCB: 0.1m / 200M m/s = .5ns

also 1ns hin/zurück. Die geringere Kapazität der Leitung wird duch die kleineren PHY Transistoren wieder aufgehoben, also, quasi kein Latenzgewinn.


Edit: how to calc

OBrian
2016-01-31, 15:32:59
Eh, zur Info die interessant ist, Roy spricht über das Problem der Min-Spec für Oculus Rift mit einer 290X/970, mit Polaris will AMD Produkte anbieten die genau in diese Kerbe schlagen, für einen geringeren Preis, mit einem höherem Verkaufsvolumen, weniger Stromaufnahme und mit mehr Geschwindigkeit.ja, das ist eigentlich das erste Mal und überhaupt auch glaubhaft und zudem höchstoffiziell eine Performanceeinstufung für zumindest einen der Polaris-Chips (egal mit welchem Namen). Nehmen wir also an, es wird ein HBM-Chip mit ungefähr halber Chipfläche wie Fiji und zwei Stacks, somit 8 GB, dann liegt auch die TDP sicherlich deutlich unter der einer Nano. Dürfte eine hochinteressante Karte werden.

Die Frage ist, welche alten Karten drumherum können sich dann überhaupt noch halten? Hawaii ist sowieso tot, aber wenn Ihr meint, eine Nano sei nicht weit über einer 390X, wieso sollte die dann noch bestehen können gegen eine Karte, die sparsamer ist und mehr RAM hat?

Tonga könnte unten drunter stehenbleiben, aber bekommt dann wohl eher Druck von dem kleineren zweiten Polaris-Chip. Wenn der etwas schwächer ist (Pitcairn-Niveau), aber viel sparsamer, dürfte der doch viel attraktiver sein.

Wird jedenfalls ein interessantes Preisgefüge.

AnarchX
2016-01-31, 15:43:41
~300mm² 16/14nm GPUs mit 6/8GiB GDDR5X in verschiedenen Ausbaustufen für ~$299-499. Für den $129-229 Markt hat man Polaris10.
Wenn man genügenden Fertigungskapazitäten hat, kann AMD sein komplettes $159-599 Portfolio EOL gehen lassen.
Sollte AMD jetzt mit R9 290X Leistung @ Polaris für >$400 ankommen, sollte man diese nochmal an die Präsentation erinnern. ;D

Botcruscher
2016-01-31, 16:07:08
Wird jedenfalls ein interessantes Preisgefüge.
Sollte bei 3 Versionen pro Chip nicht das Problem sein.

Kriton
2016-01-31, 17:04:17
Tonga könnte unten drunter stehenbleiben, aber bekommt dann wohl eher Druck von dem kleineren zweiten Polaris-Chip. Wenn der etwas schwächer ist (Pitcairn-Niveau), aber viel sparsamer, dürfte der doch viel attraktiver sein.

Tonga ist recht groß. Da müssten die Kosten von HBM und dem Prozess schon deutlich teurer sein (ich weiß, ich weiß...).

Pretest
2016-01-31, 17:19:07
Die Frage ist wo für Tonga noch ein Platz sein wird.
Wenn AMD mit Polaris VR wirklich weiter Richtung Mainstream treiben will muss die Leistung der 290x zu einem guten Preis geboten weren.

In der Folie von Roy stehen 290x und 970 mit 349$. Polaris ~300$ wäre (nach der Early-Adopter-Steuer) ein netter Preis.

Der bereits gezeigte Chip liegt im gtx 950 Bereich. Das sind aktuell um die 150+.

Wenn alle Chips 2016 in dem Bereich liegen siehts für Tonga doch eher mau aus. Wenn die kleineren Polaris aber (vielleicht beschnitten) noch langsamer als die 950 sein sollte könnte da noch was gehen.

Pretest
2016-01-31, 17:25:08
PS: Meinte Lisa Su nicht auch das sie in den kommenden Quartalen ihr Portfolio komplett erstzen wollen? Das würde Tonga in der kommenden Generation noch unwahrscheinlicher machen.

fondness
2016-01-31, 17:31:56
Tonga dürfte mit ziemlicher Sicherheit irgendwie weiter Leben. Alleine schon weil AMD in embedded-Bereich bei der Tonga-Karte 3 Jahre Verfügbarkeit garantiert.

OBrian
2016-01-31, 18:16:09
Mit "interessantem Preisgefüge" meinte ich eher, daß die 28-nm-Karten bei gleicher Performance dann deutlich unattraktiver sind, weil sie mehr TDP haben (Stichwort Lautstärke, Abwärme), eine ältere Architektur und allgemein einfach unsexy sind. Ggf. auch noch weniger RAM. Das könnte dazu führen, daß es im Preisspektrum größere Lücken gibt, im Leistungsspektrum aber nicht, bzw. die dann ganz woanders sind.

Also als Beispiel: Um 300€ gibt es keine Karte, weil die Nano dann 400€ kostet und die schwächere, aber "geilere" neue Polaris-sowieso-Karte auch erstmal 400€, und Tonga ist kaum leistungsschwächer als diese, kostet aber nur 200€. Oder so. Muß dann der Hawaii-Restbestand noch irgendwie aushalten (schwachsinnig gegen die NV-Konkurrenz), oder gibt es eine extrem stark deaktivierte Variante des neuen Chips (nur ein statt zwei Stacks?), oder was?

Hübie
2016-01-31, 18:20:56
Es ist schwer zu glauben dass man sein Portfolio derart fragmentiert. Aber es war auch schwer vorstellbar dass AMD tatsächlich 128 Bit Busbreite tot lässt und dennoch ineffizienter mit weniger Features, als die Konkurrenz, daher kommt. :freak:

AnarchX
2016-01-31, 18:20:58
Man sollte eher von GDDR5(X) ausgehen. Und damit ist man sehr flexibel.

Wenn man Tonga Pro weiter verkaufen will, muss man ihn deutlich unter $199 senken - mit 4GiB.

Käsetoast
2016-01-31, 18:23:49
Das ist ein Grund weswegen ich an die Gerüchte, dass es dieses Jahr nur die zwei Polaris Chips geben wird nicht glauben mag. AMD braucht einfach was kleines, was mittleres und was großes. Tonga war zwar dahingehend nett als dass es ein paar neue Features mit sich brachte, aber von Tahiti konnte man sich nur sehr geringfügig absetzen. Ich will schwer hoffen, dass AMD nicht längerfristig ihren ganzen Mid-Range Sektor auf dem Niveau rumkrebsen lassen will. Da muss ein neuer Chip her - AMD hat jetzt lange genug ihr Portfolio nur punktuell aufpoliert, jetzt wird ein vollständiger Hausputz nötig. Wer soll Tonga noch kaufen wenn daneben die zwei Polaris Chips ihre Runden drehen? Muss ja vielleicht nicht Mitte des Jahres mit den anderen erscheinen, aber bis zum Ende des Jahres muss da im wichtigen Mid-Range Sektor was passieren. Ich zumindest würde mir Mitte 2016 keinen Tonga mehr kaufen wo doch sowohl neue Fertigung als auch neue Architektur quasi schon am Markt sind und auch noch als einer der größten Leistungssprünge beworben werden..

Botcruscher
2016-01-31, 18:47:39
Mit "interessantem Preisgefüge" meinte ich eher, daß die 28-nm-Karten bei gleicher Performance dann deutlich unattraktiver sind, weil sie mehr TDP haben (Stichwort Lautstärke, Abwärme), eine ältere Architektur und allgemein einfach unsexy sind. Ggf. auch noch weniger RAM. Das könnte dazu führen, daß es im Preisspektrum größere Lücken gibt, im Leistungsspektrum aber nicht, bzw. die dann ganz woanders sind.
Da sind wir uns glaube ich alle einig und deswegen verstehe ich die Umfrage auf der Hauptseite nicht. 28nm ist für die Zielgruppe hier tot. Der Grafikkartenmarkt ist bis zur nächsten Generation immer extrem wert stabil. Abseits Wenigspieler lässt sich da nicht mal ein Schnäpchen machen.
Das ist ein Grund weswegen ich an die Gerüchte, dass es dieses Jahr nur die zwei Polaris Chips geben wird nicht glauben mag.
Das ist alles eine Frage des damaligen Zeitplans. Für Juli/August reicht spekulativ ein ~150mm² und ein 300/350mm² Chip. Die Billigversion mit 90 und der Große kommen dann früh im neuen Jahr. Für beide muss der Prozess reif und billig sein.
Was da dran ist muss sich mangels leaks eh zeigen.

stinki
2016-02-01, 12:27:09
Ich schaue auch mal in meine Glaskugel und sehe...
- Polaris 11 wird ca. 3072 Schader haben und zwei HBM Stacks und als R490 kommen
- mit deaktivierten Einheiten gibt es dann die R480 (ca. 2560 Schader)
- und ebenfalls mit deaktivierten Einheiten R470 (ca. 2048 Schader, vielleicht nur 1 HBM Stack)
- Polaris 10 wird ca. 1024 Schader (vielleicht auch ein paar mehr) haben und kommt als R460
- und mit deaktivierten Einheiten noch als R450 (ca. 768 Schader)
- Vega 10 (ca. 6144 Schader und 4 HBM Stacks) ersetzt dann Fury Anfang 2017

Damit hätte AMD erst einmal ein komplettes R4x0 Line-up mit nur zwei Chips.
Nvidia hat momentan ja im Bereich bis 500€ auch nur 980/970/960/950 (also 4 Varianten) da sollte AMD erst einmal mit ca. 5 Varianten auch locker hinkommen.

Hübie
2016-02-01, 12:44:58
Zwei cutdown von Anfang an? Wäre ungewöhnlich oder? Klar. Neuer Prozess und neue Designrules. Aber dann fehlt ja etwas zwischen 1024 und 2048. 3072 klingt realistisch wenn man von Fiji ausgeht, nur ist die Frage warum sich das jemand kaufen soll?

dargo
2016-02-01, 12:53:11
3072 klingt realistisch wenn man von Fiji ausgeht, nur ist die Frage warum sich das jemand kaufen soll?
Verstehe die Frage nicht. Genau so könnte ich fragen warum sich so viele GM204 gekauft haben wo der kaum schneller als GK110 war/ist?

tm0975
2016-02-01, 12:54:20
gefällt mir, stinki ;-)

allerdings glaube ich, dass die lagsamenen grafikkarten keine relevante rolle mehr spielen. wieviel r7 hat den amd im desktop bereich verkauft? vermutlich eine nicht relevante anzahl.

Zwei cutdown von Anfang an? Wäre ungewöhnlich oder?

eine ander eoption wäre die beschränkung des taktes änlich wie die 270 und die 270 x, die sich auch nur im takt unterschieden und wo man die 270 nicht zu 270x OCen konnte. hätte zudem den vorteil besonders effizienter karten, natürlich zu lasten der variablen herstellungskosten. dafür würde man die fixen herstellungskosten minimal halten.

Botcruscher
2016-02-01, 12:57:42
Die Lücke zwischen 3072 und 6144 wäre viel zu groß. PS: Historisch beträgt der Unterschied 1/4 bis 1/3.
Verstehe die Frage nicht. Genau so könnte ich fragen warum sich so viele GM204 gekauft haben wo der kaum schneller als GK110 war/ist?
Weil die 970 so tolle 4GB Ram hat...

stinki
2016-02-01, 14:20:52
Zwei cutdown von Anfang an? Wäre ungewöhnlich oder? Klar. Neuer Prozess und neue Designrules. Aber dann fehlt ja etwas zwischen 1024 und 2048. 3072 klingt realistisch wenn man von Fiji ausgeht, nur ist die Frage warum sich das jemand kaufen soll?

Die zweite cut-down Variante kommt vielleicht etwas später um die Tongas noch abzuverkaufen.

Ich könnte mir auch vorstellen, dass es bei Polaris 10 1280 oder 1536 Schader werden, ich weiß leider nicht wieviel man in 30 Watt für Mobile-Implementierungen hineinbekommt und wieviel Schader in die angepeilte Größe hinein passen.

HOT
2016-02-01, 14:24:08
Ich würd da eher sagen, dass Polaris10 mindestens 1,5k Shader hat und Polaris11 4k. Das ist sicherlich mit ca. 150 und 350-400mm² realisierbar. Auch jeweils 2 Cutdowns sind nicht unrealistisch. Neue Kostenstrukturen, neue Vorgehensweisen. Bei Tahiti gab es auch 2 Cutdowns. Tahiti Pro wurde sicherlich öfter verkauft und Tahiti LE ersetzte z.T. Pitcairn XT, ich musste mich neulich mit Pitcairn BIOSsen beschäftigen und war schwer überrascht, wieviele Tahiti-LE-7870-Karten es gab. Selbst heute setzt AMD auf Salvage-Ware, sowohl PitcairnXT als auch BonaireXT sind hier ja kaum noch verfügbar und nicht in der 300er-Serie vorgesehen. TongaXT war es eigentlich auch nicht, da ließ man sich von den eigenen Partnern zu breitschlagen.
3k hat der große bestimmt nicht, wie gesagt wird AMD keine Rücksicht auf die 28nm-Produkte beim Design der neuen Produkte genommen haben. Fiji lebt ja als VR-Chip weiter bis Ende 2017. Zudem soll ja auch diese Variante die Profivariante werden, ich glaub kaum, dass man ausgerechnet hier so sparsam ist.
Vielmehr wird man hinterher 4 Chips in Händen halten, wahrscheinlich um die 768, 1,5k, 4k und 6-8k Shader.

Vega10 ist bestimmt ein kleineres PCB/Package für Polaris11.
Also
Polaris10 -> 1-1,5k Shader (ehemals Ellesmere)
Vega10 -> neues Package mit Polaris11-Chip mit 2,5-3k Shader (ehemals Baffin), könnte später durch einen nativen Chip mit gleichem Pinout ersetzt werden.
Polaris11 mit 3,5-4k Shader (ehemals Greenland)
oder sowas.

stinki
2016-02-01, 14:30:45
Die Lücke zwischen 3072 und 6144 wäre viel zu groß. PS: Historisch beträgt der Unterschied 1/4 bis 1/3.

Bei nur drei Chips werden die Lücken halt sehr groß.
Ich bin von Fiji +50% ausgegangen.

Würde man von Polaris 11 +50% (plus FP64 Funktionalität) ausgehen käme man wahrscheinlich nur auf ca. 4608 (72*64) Schader oder vielleicht etwas mehr 5120 (80*64) Schader.

Wahrscheinlich kommen wir wieder zu der Situation wie früher, dass die AMD Chips etwas größer/schneller sein werden wie die entsprechenden Nvidia Chips.
Vega 10 > GP104
Polaris 11 > GP106
Polaris 10 > GP107

Und natürlich dann auch
GP100/GP102 > Vega 10

stinki
2016-02-01, 14:41:27
Ich würd da eher sagen, dass Polaris10 mindestens 1,5 Shader hat und Polaris11 4k. Das ist sicherlich mit ca. 150 und 350-400mm² realisierbar. Auch jeweils 2 Cutdowns sind nicht unrealistisch. Neue Kostenstrukturen, neue Vorgehensweisen. Bei Tahiti gab es auch 2 Cutdowns. Tahiti Pro wurde sicherlich öfter verkauft und Tahiti LE ersetzte z.T. Pitcairn XT, ich musste mich neulich mit Pitcairn BIOSsen beschäftigen und war schwer überrascht, wieviele Tahiti-LE-7870-Karten es gab.
3k hat der große bestimmt nicht, wie gesagt wird AMD keine Rücksicht auf die 28nm-Produkte beim Design der neuen Produkte genommen haben.
Vielmehr wird man hinterher 4 Chips in Händen halten, wahrscheinlich um die 1k, 2k, 4k und 8k Shader.

Wenn Polaris 10 & 11 wirklich so klein werden wie zuletzt von einigen gesagt, glaube ich persönlich einfach nicht, dass man soviele Schader in die Größe kleiner 300mm² hineinbekommen wird. Und wenn das Ziel ist R290X zu ersetzen dann halte ich 3K Schader in 250mm² als Konkurent für GM204 und GP106 für wahrscheinlicher.
Ich denke Ziel von Polaris 11 ist es GM204 und GP106 deutlich zu schlagen. Ziel von Polaris 10 wäre dann GM206 bzw. GP107 zu schlagen.
Und Vega 10 soll GP104 schlagen und bei FP64 GP100 (4GFlops FP64) schlagen.
Für GP102 hätte man dann allerdings nichts als Konter. Für den Gegenspieler müsste man dann auf 10nm in 2018 warten.

HOT
2016-02-01, 14:50:41
Die werden nicht "so klein wie angekündigt". Da haben sich ein paar Leute grandios verschätzt, messen konnte das ja keiner. Die Größen 150 bzw. ~350mm² bleiben am wahrscheinlichsten. Und 150mm² ist definitiv > Pitcairn. Und FP64 braucht so gut wie keine Fläche, vergleich mal Hawaii mit Tonga.

GP102 -> unbekannter Chip in 2017
GP104 -> zwischen Polaris11 und Vega10
GP106 -> zwischen Vega10 und Polaris10
GP107 -> < Polaris10
würd ich aus dem Bauch heraus sagen.

dargo
2016-02-01, 14:55:25
Weil die 970 so tolle 4GB Ram hat...
GTX980 ist auch GM204. Und da Fiji 4GB hat könnten wir die gleiche Ausgangssituation bei Polaris haben. Mehr Speicher (6-8GB) bei weniger Verbrauch + etwas mehr Leistung.

Agent117
2016-02-01, 19:28:20
Und Vega 10 soll GP104 schlagen und bei FP64 GP100 (4GFlops FP64) schlagen.
Für GP102 hätte man dann allerdings nichts als Konter. Für den Gegenspieler müsste man dann auf 10nm in 2018 warten.

Das wäre fatal, wenn man Marktanteile zurückgewinnen will.
Warum heißt denn Vega10 nicht z.B. Polaris 12?
Weil er HPC Sachen an Bord hat?
Könnte sein aber der Name Polaris wurde ja wohl auch eingeführt, um Nvidias bei Gamern gehörige und Eindruck schindende Namensstrategie zu adaptieren. Keppler und Maxwell klingen wohl besser als Pirates Island oder Volcanic Islands und bewerben zudem direkt eine Architektur. Bei HPC Kunden ist man jedoch weniger auf Namen angewiesen, die kaufen auch nicht einfach so jeden Mist mit tollen Namen.
Vega ist dann vlt schon eine größere Abspaltung von Polaris, mit HPC, speziellen Interconnect für Einsatz zusammen mit Server Zen Zeppelin auf einem Package oder gar Interposer.
Dann ist vlt auch die Bestückung von 2 Vegas auf einem Interposer möglich und schlägt GP102.
Hatte hier schonmal gemutmaßt dass AMD sowas mit 4 kleinen Chips macht aber das scheitert wohl daran dass man einen kleinen kaum für 500€ verkaufen kann, einen größeren wie Vega aber schon und 2 Vega bestimmt für 800 und so sind dann auch die Margen hoch genug bei kostspieligem HBM und Interposer (wo man aber auch nicht weiß ob das wirklich so teuer ist).

iuno
2016-02-01, 19:44:35
Verstehe die Frage nicht. Genau so könnte ich fragen warum sich so viele GM204 gekauft haben wo der kaum schneller als GK110 war/ist?
Ist das ernst gemeint?
Ist doch klar warum. Die 970 war zum Release - fuer Nvidia Verhaeltnisse - ein wahnsinns-Schnaeppchen. Knapp 780 Ti-Leistung fuer ~300 statt 500 €, noch Fragen? Deine Annahme ist ja auch voellig falsch, es wechselte ja (ausser ein paar die es wirklich "noetig" hatten vielleicht von einer 780 zu einer 'guten' 980) keiner* mit GK110 zu GM204 sondern von GK104 oder noch niedriger :rolleyes:
In Konkurrenz stand ja auch "nur" Hawaii mit den schrottigen Kuehlern.
Ja, wir haben erst spaeter erfahren, wieso die 970 so 'verschleudert' wurde, aber das spielt dabei auch keine Rolle.

*damals zum Launch. Inzwischen vielleicht schon mehr, weil Kepler mal wieder schlechter "gealtert" ist, als die Konkurrenz und natuerlich Maxwell (bis jetzt).

Die werden nicht "so klein wie angekündigt". Da haben sich ein paar Leute grandios verschätzt, messen konnte das ja keiner. Die Größen 150 bzw. ~350mm² bleiben am wahrscheinlichsten. Und 150mm² ist definitiv > Pitcairn. Und FP64 braucht so gut wie keine Fläche, vergleich mal Hawaii mit Tonga.
"angekuendigt" ist ja sowieso nichts. Wenn aber alle die dabei waren das kleine Teil auf deutlich < 200mm^2 schaetzen und PCGH auch noch wach war und eine passende Skizze gemacht hat, die das belegt, ist das imho eine sichere Quelle.
Zum Grossen weiss man ja noch nichts, ausser die duemmliche Aussage, die sinngemaess war "er ist riesig und ausserdem habe ich ihn schon sehen duerfen :P"
Und was soll uns der Tonga-Hawaii Vergleich sagen?
Tonga hat ein 4x Frontend, wie Hawaii, hat ein 384-Bit SI, das nicht genutzt wird, GCN 1.2 und neuere VCE/UVD, DCC, Virtualisierungsfeatures... So genau kann man da den Einfluss von mixed-precision (32/64) beim besten Willen nicht abschaetzen.

Für GP102 hätte man dann allerdings nichts als Konter. Für den Gegenspieler müsste man dann auf 10nm in 2018 warten.
Unsinn. Selbst wenn es so kaeme, wie von dir prognostiziert koennte AMD ja immer noch Problemlos einen groesseren 14/16 nm Chip nachschieben. In 28 nm waren das Tahiti, Hawaii, Fiji mit ~350, ~440, ~600 mm^2. Wenn der Prozess eingelaufen ist, kommen auch groessere Chips.
Und 10nm fuer 2018 ist auch hochspekulativ...

reaperrr
2016-02-01, 20:51:49
Meine Vermutungen aufgrund bisheriger Gerüchte, Hinweise und Andeutungen:

Polaris10 und Polaris11 sind einfach die Polaris-Umbenennungen von Baffin und Ellesmere (welcher davon jetzt 10 und welcher 11 ist weiß ich natürlich auch nicht).

Vega10 ist der Ersatz für den gestrichenen (nicht umbenannten) Greenland.

Greenland war wohl entweder
a) auf einen Prozess ausgelegt, der gestrichen (20nm), verschoben oder nicht gut genug (TSMC 16FF ohne +?) wurde, oder
b) hatte für den Zeitraum, in dem er - vielleicht auch durch a) bedingt - erschienen wäre, zu mittelprächtige Specs. Auf den alten, geleakten Schaubildern war ja u.a. von 'nur' 4+ [DP?] TFLOPs (entspräche 64 CUs mit 1:2 DP) und nur 2 HBM2 Stacks die Rede.

OBrian
2016-02-01, 23:49:11
ist das überhaupt wichtig? Es wurden Codenamen, mit denen keinerlei Informationen verbunden waren, durch andere Codenamen ersetzt, die ebenfalls mit keinerlei Infos verknüpft sind. Ich halte dieses Geleake von inhaltsleeren Codenamen nur für reine Beschäftigungstherapie für uns Spekuforen-Heinis, damit wir was zu quatschen haben und die Marke im Gespräch halten.

stinki
2016-02-02, 12:22:59
Unsinn. Selbst wenn es so kaeme, wie von dir prognostiziert koennte AMD ja immer noch Problemlos einen groesseren 14/16 nm Chip nachschieben. In 28 nm waren das Tahiti, Hawaii, Fiji mit ~350, ~440, ~600 mm^2. Wenn der Prozess eingelaufen ist, kommen auch groessere Chips.
Und 10nm fuer 2018 ist auch hochspekulativ...

Ich bin mir 100% sicher, dass wir 2017 "10nm" SoCs von TSMC und Samsung sehen werden. Beide fahren gerade die Produktion an und werden ca. 5 bis 6 Quartale bis zur Massenproduktion brauchen (wenn nicht irgendetwas völlig schief geht). Bei beiden entspricht der "10nm" Prozess ungefähr dem was Intel als 14FinFet momentan laufen hat (von den Daten die es gibt sind beide Prozesse ungefähr 10-20% kompakter als Intels P1272). Intels P1274 "10nm" Prozess für Ende 2017 wird aber wahrscheinlich noch einmal wesentlich kompakter werden.
Nvidia hat "10nm" Volta mit 7 GFlops DP für 2018 auf der Roadmap und deshalb rechne ich auch für AMD 2018 mit "10nm" Chips von TSMC.
Von AMD werden wir so einen riesigen 600mm² Chip wie Fiji aus meiner Sicht unter 16FF+/14LPP nicht sehen da die Zeit bis "10nm" mit ca. zwei Jahren zu kurz ist. Fiji kam 3,5 Jahre nach Anlauf der 28nm Produktion wenn ich mich nicht irre und solange werden wir 16FF+/14LPP wahrscheinlich/hoffentlich als high-end Prozess nicht erleben.
Außer AMD ließe "10nm" TSMC aus und würde wie bereits von Xilinx angekündigt direkt auf "7nm" TSMC gehen (TSMC will in 12 Monaten schon beginnen mit "7nm", also genau 1 Jahr nach "10nm", das würde bedeuten "7nm" SoCs in 2018 und mögliche Grafik-Chips in 2019). Das glaube ich persönlich aber nicht, dass AMD das Risiko geht.

PS: Wurde eigentlich schon mal irgendwo hier diskutiert, dass GF der einzige der großen vier ist der noch keinen next-Generation "10nm" Prozess angekündigt hat?

iuno
2016-02-02, 13:01:39
Kannst du eine Roadmap linken, die offiziell Volta in 10 nm nennt? Das ist mir bisher neu. Bei Roadmaps muss man auch vorsichtig sein, wir sehen das ja aktuell.
Lisa Su nannte uebrigens fuer die aktuellen FinFet Prozesse eine aehnliche Lebensspanne wie bei 28 nm, in Zahlen ~4-5 Jahre. Daher ist es fuer mich nicht realistisch, dass in 2 Jahren gleich 10 nm uebernimmt.

Zum PS: ich glaube nicht, aber fuer GF alleine gibt es einen extra Thread ;)

stinki
2016-02-02, 13:38:44
Kannst du eine Roadmap linken, die offiziell Volta in 10 nm nennt? Das ist mir bisher neu. Bei Roadmaps muss man auch vorsichtig sein, wir sehen das ja aktuell.
Lisa Su nannte uebrigens fuer die aktuellen FinFet Prozesse eine aehnliche Lebensspanne wie bei 28 nm, in Zahlen ~4-5 Jahre. Daher ist es fuer mich nicht realistisch, dass in 2 Jahren gleich 10 nm uebernimmt.

Ich glaube kaum, dass Nvidia von 4GFlops DP bei Pascal auf 7GFlops DP bei Volta ohne einen Prozess-Shrink kommen kann (außer 4GFlops DP gelten noch für einen 28nm Pascal Chip, dann würde Volta in 16FF passen :wink: ...Scherz...).

Die 4-5 Jahre gelten wahrscheinlich für GlobalFoundries :biggrin:
Wie gesagt, keine Ahnung wann die mal etwas nach 14LPP ankündigen wollen...das macht richtig Hoffnung für Zen+/Zen++...

Und wie gesagt, vielleicht lässt man "10nm" aus (genau wie 20nm) und geht direkt auf "7nm" in 2019/20 dann käme das mit den 4 Jahren vielleicht hin.
Ich glaube aber auch, dass in Zukunft zu Anfang nur noch die high-end/high-performance Chips auf den neuesten Prozessen kommen und die kleineren Chips immer eine Node zurückhängen werden.

HOT
2016-02-02, 14:37:03
Meine Vermutungen aufgrund bisheriger Gerüchte, Hinweise und Andeutungen:

Polaris10 und Polaris11 sind einfach die Polaris-Umbenennungen von Baffin und Ellesmere (welcher davon jetzt 10 und welcher 11 ist weiß ich natürlich auch nicht).

Vega10 ist der Ersatz für den gestrichenen (nicht umbenannten) Greenland.

Greenland war wohl entweder
a) auf einen Prozess ausgelegt, der gestrichen (20nm), verschoben oder nicht gut genug (TSMC 16FF ohne +?) wurde, oder
b) hatte für den Zeitraum, in dem er - vielleicht auch durch a) bedingt - erschienen wäre, zu mittelprächtige Specs. Auf den alten, geleakten Schaubildern war ja u.a. von 'nur' 4+ [DP?] TFLOPs (entspräche 64 CUs mit 1:2 DP) und nur 2 HBM2 Stacks die Rede.
Das klingt absolut plausibel und ist eine echt gute Erklärung, warum das so gelaufen ist. Ich geh da noch einen Schritt weiter und bau da Pascal noch mit ein: Sowohl AMD als auch NV haben sich an Testchips bei TSMC versucht und sind - gescheitert! Da AMD aber eh auf GloFo umswitchen wollte, sind Ellesmere und Baffin im Plan, jedoch Greenland nicht, der musste erst für GloFo redesignt werden. Von daher sind die beiden großen Chips erst für 2017 zu erwarten, auch von AMD. Das ist wie gesagt weiterhin höchst spekulativ aber in eine Geschichte gegossen, die zumindest Sinn ergibt. Ich vermute ja schon seit 2014, dass sich TSMC hier viel zu weit aus dem Fenster gelehnt hat und würde zur Spekulation passen, dass FF+ die Chipgröße arg beschränkt. SoCs gehen, GPUs nicht.

Kannst du eine Roadmap linken, die offiziell Volta in 10 nm nennt? Das ist mir bisher neu. Bei Roadmaps muss man auch vorsichtig sein, wir sehen das ja aktuell.
Lisa Su nannte uebrigens fuer die aktuellen FinFet Prozesse eine aehnliche Lebensspanne wie bei 28 nm, in Zahlen ~4-5 Jahre. Daher ist es fuer mich nicht realistisch, dass in 2 Jahren gleich 10 nm uebernimmt.

Zum PS: ich glaube nicht, aber fuer GF alleine gibt es einen extra Thread ;)
Volta ist 100%ig 16nm, das was Leo sich da zusammengeschrieben hat bei den Foundries, explizit was TSMC angeht, ist viel zu optimistisch. 10nm jenseits von Intel wird vor 2019 sowieso nix (und selbst bei denen bin ich überaus skeptisch, was 2018er Produkte angeht); das TSMC, Samsung oder GloFo 10nm bis 2018 schafft halte ich für absolute Träumerei (wobei ich GloFo das lustigerweise am ehesten zutraue früh zu sein, da die ja IBM-Fertigung weiterführen). 14/16nm geht bei AMD/NV erst 2017 richtig los und läuft sicher bis 2020 mindestens, eher 2022, wenn die Foundies (außer Intel) auf 7nm springen. 10nm sprengt sicher wieder jede Kosten/Nutzen-Rechnung, ähnlich wie 20nm planar.

Nakai
2016-02-02, 15:26:49
Für NV wird es dann doppelt problematisch, wenn man noch HBM durchboxen muss. NV hat auch deutlich mehr R&D und die Verzögeurng von einem Produkt muss sich nicht auf andere Produkte auswirken.
Es kommt drauf an.

Von GP106 sollte man definitiv einen GM204-Ersatz erwarten dürfen, welcher auch ein 256 Bit SI mit sich bringen könnte (~200mm²).

Polaris11 scheint mir ein guter Kontrahent in dieser Disziplin zu sein. Womöglich ähnliche Stats und man wird auch im GM204-Bereich landen.

Ich sehe nur bei Polaris10 einen Zeitvorteil seitens AMD.

Ahja womöglich war Greenland als erster Chip geplant, man braucht ja ein Zugpferd. Die Erklärung mit GF und TSMC bzgl dem FF-Prozess klingt gut. Womöglich wurde der gesamte Chip sehr früh verworfen und neu konzipiert, deswegen auch der Name Vega10. Ergo ist Greenland eher die Vega-Serie als die Polaris-Serie. Womöglich ist Polaris gleich GF, und Vega TSMC?

stinki
2016-02-02, 15:26:59
Ich vermute ja schon seit 2014, dass sich TSMC hier viel zu weit aus dem Fenster gelehnt hat und würde zur Spekulation passen, dass FF+ die Chipgröße arg beschränkt. SoCs gehen, GPUs nicht.
Und deshalb gibt es auch keine 16FF+ Xilinx Virtex UltraScale+ FPGAs oder wie?
TSMC kann auf jeden Fall große FPGAs in 16FF+ herstellen (kleinstes Package vom größten FPGA ist 52.5x52.5mm). Das dann keine GPUs gehen halte ich für ein Gerücht.

Volta ist 100%ig 16nm, das was Leo sich da zusammengeschrieben hat bei den Foundries, explizit was TSMC angeht, ist viel zu optimistisch. 10nm jenseits von Intel wird vor 2019 sowieso nix (und selbst bei denen bin ich überaus skeptisch, was 2018er Produkte angeht); das TSMC, Samsung oder GloFo 10nm bis 2018 schafft halte ich für absolute Träumerei (wobei ich GloFo das lustigerweise am ehesten zutraue früh zu sein, da die ja IBM-Fertigung weiterführen). 14/16nm geht bei AMD/NV erst 2017 richtig los und läuft sicher bis 2020 mindestens, eher 2022, wenn die Foundies (außer Intel) auf 7nm springen. 10nm sprengt sicher wieder jede Kosten/Nutzen-Rechnung, ähnlich wie 20nm planar.
Sorry, aber dazu habe ich eine völlig andere Meinung. Den Zeitplan der Herstellungsprozesse den ich im Kopf habe kann man weiter oben lesen. Und ich habe in der Vergangenheit in der Branche gearbeitet...

HOT
2016-02-02, 15:34:39
Und deshalb gibt es auch keine 16FF+ Xilinx Virtex UltraScale+ FPGAs oder wie?
TSMC kann auf jeden Fall große FPGAs in 16FF+ herstellen (kleinstes Package vom größten FPGA ist 52.5x52.5mm). Das dann keine GPUs gehen halte ich für ein Gerücht.

Wir werden sehen, ob das vergleichbar ist.


Sorry, aber dazu habe ich eine völlig andere Meinung. Den Zeitplan der Herstellungsprozesse den ich im Kopf habe kann man weiter oben lesen. Und ich habe in der Vergangenheit in der Branche gearbeitet...
Die 10nm-Prozesse können gar nicht Intels 14nm entsprechen. Da stecken doch völlig andere Spezifikationen dahinter. Ich denke eher, dass die derzeitigen FinFET-Prozesse ziemlich ähnliche Leistungsdaten haben, bei dem was da letztendlich an Produkten hinten rauskommt. Intel schafft offenbar nur minimal kleinere Strukturbreiten, das heißt doch aber nicht, dass der Prozess soviel besser ist. Die Belichtung, die die Foundries vorsehen für 10nm ist ja viel aufwändiger, als das was Intel derzeit mit 14nm betreibt. Und das eine Foundry daran arbeitet und in 2017 schon 10nm-Produkte haben will heißt noch lange nicht, dass die das auch schaffen. Da kann eine Menge Marketinggelaber drin stecken und es wär ja peinlich, wenn da keiner am neuen Prozess arbeiten würde, natürlich arbeiten die alle mit Hochdruck an 10nm.

[...]
Ahja womöglich war Greenland als erster Chip geplant, man braucht ja ein Zugpferd. Die Erklärung mit GF und TSMC bzgl dem FF-Prozess klingt gut. Womöglich wurde der gesamte Chip sehr früh verworfen und neu konzipiert, deswegen auch der Name Vega10. Ergo ist Greenland eher die Vega-Serie als die Polaris-Serie. Womöglich ist Polaris gleich GF, und Vega TSMC?
Jo, genau. Dann sind die beiden 2017er Chips die Vega Serie, das klingt sehr plausibel. Vega10 der "Kleine" und Vega11 der Große. Ich glaub nicht, dass die von TSMC kommen, wenn Polaris schon von GloFo kommt.

stinki
2016-02-02, 16:02:03
Die 10nm-Prozesse können gar nicht Intels 14nm entsprechen. Da stecken doch völlig andere Spezifikationen dahinter. Ich denke eher, dass die derzeitigen FinFET-Prozesse ziemlich ähnliche Leistungsdaten haben, bei dem was da letztendlich an Produkten hinten rauskommt. Intel schafft offenbar nur minimal kleinere Strukturbreiten, das heißt doch aber nicht, dass der Prozess soviel besser ist. Die Belichtung, die die Foundries vorsehen für 10nm ist ja viel aufwändiger, als das was Intel derzeit mit 14nm betreibt. Und das eine Foundry daran arbeitet und in 2017 schon 10nm-Produkte haben will heißt noch lange nicht, dass die das auch schaffen. Da kann eine Menge Marketinggelaber drin stecken und es wär ja peinlich, wenn da keiner am neuen Prozess arbeiten würde, natürlich arbeiten die alle mit Hochdruck an 10nm.

Es ging mir um die Metall und Gate Pitches und die sind bei Intel 14FF deutlich kleiner als bei 16FF+ und 14LPP genau wie die SRAM Cell Size. Natürlich sind die Prozesse nicht direkt vergleichbar. Die Design Rules für z.B. Double Pattering sind völlig verschieden. Ich bezog mich rein auf die Metal und Gate Pitches und die SRAM Cell Size. Und diese sind bei 10FF sowohl bei TSMC als auch bei Samsung nur 10-20% kleiner als momentan bei Intel 14FF. Damit wollte ich nur sagen, dass ich den beiden durchaus zutraue nächstes Jahr in 2017 10FF SoCs in Massenproduktion zu liefern. Warten wir mal ab was im 2017 iPhone und im 2017 S8 oder Note/Edge+ von Samsung drin ist. Ich tippe ganz stark auf 10FF SoCs.

Gipsel
2016-02-02, 16:30:14
Und deshalb gibt es auch keine 16FF+ Xilinx Virtex UltraScale+ FPGAs oder wie?
TSMC kann auf jeden Fall große FPGAs in 16FF+ herstellen (kleinstes Package vom größten FPGA ist 52.5x52.5mm). Das dann keine GPUs gehen halte ich für ein Gerücht.FPGAs sind so ziemlich das Einfachste für einen neuen Prozeß, was man sich vorstellen kann (kommen gleich nach SRAM-Arrays; der Grund ist der Gleiche: man kann die sehr einfach redundant auslegen und benutzt halt alle defekten Blöcke nicht; die Granularität für diese Redundanz ist viel kleiner als bei GPUs, man kann also mit sehr viel mehr Defekten leben). Die kann man schon produzieren, wenn alles Andere noch bei Yields im völlig unakzeptablen Bereich rumkrebst. Das kann man nicht wirklich mit großen ASICs wie GPUs vergleichen.

stinki
2016-02-02, 16:47:41
FPGAs sind so ziemlich das Einfachste für einen neuen Prozeß, was man sich vorstellen kann (kommen gleich nach SRAM-Arrays; der Grund ist der Gleiche: man kann die sehr einfach redundant auslegen und benutzt halt alle defekten Blöcke nicht; die Granularität für diese Redundanz ist viel kleiner als bei GPUs, man kann also mit sehr viel mehr Defekten leben). Die kann man schon produzieren, wenn alles Andere noch bei Yields im völlig unakzeptablen Bereich rumkrebst. Das kann man nicht wirklich mit großen ASICs wie GPUs vergleichen.
Schon klar, die Xilinx FPGAs bestehen ja zum großen Teil aus SRAM Look-up Tablen und SRAM, haben nutürlich heutzutage auch noch ARM Cores, DSPs und viel High-Speed IOs. Aber das grundsätzlich keine großen Chips in 16FF+ herzustellen wären, halte ich für ein Gerücht. Bei GPUs kann ich auch gewisse Shader-Bereiche einfach disablen, bis zu einer gewissen Defect-Rate geht das auch. Wie hoch die aktuelle Defect-Rate bei 16FF+ ist weiß ich aber leider auch nicht.

Hübie
2016-02-02, 16:49:28
Plus die wirtschaftlichen Differenzen.

HOT
2016-02-02, 16:49:48
Offenbar zu groß um damit größere GPUs zu produzieren. Genau, man muss die Wirtschaftlichkeit mit einkalkulieren. Wenn man 500mm² braucht um Shader eines sagen wir 400mm²-Chips zu realisieren, dürften die Kosten bei 16FF+ katastrophal sein.

Ach so, falls Polaris tatsächlich kein 12_1 bieten sollte, dürfte Vega10 das mit an Sicherheit grenzender Wahrscheinlichkeit tun.

stinki
2016-02-02, 16:58:15
Offenbar zu groß um damit größere GPUs zu produzieren. Genau, man muss die Wirtschaftlichkeit mit einkalkulieren. Wenn man 500mm² braucht um Shader eines sagen wir 400mm²-Chips zu realisieren, dürften die Kosten bei 16FF+ katastrophal sein.
Wenn man den Chip trotzdem für 1000$ verkaufen kann, wäre das aus Kostensicht durchaus vertretbar :freak:

Nakai
2016-02-02, 17:07:10
Jo, genau. Dann sind die beiden 2017er Chips die Vega Serie, das klingt sehr plausibel. Vega10 der "Kleine" und Vega11 der Große. Ich glaub nicht, dass die von TSMC kommen, wenn Polaris schon von GloFo kommt.

Ich ziehe mal Parallelen:

Polaris10 - Capeverde
Polaris11 - Pitcairn
Vega10 - Tahiti
Vega11 - Hawaii

Reinher von den Verbesserungen des Fertigungsprozesses, kann man bei allen Chips eine Verdopplung der Spezifikationen und der Performance einkalkulieren. Dass Polaris aber doch starke technische Verbesserungen haben wird, sollte zu erwarten sein.

Man wird die CUs und das Frontend stark überarbeiten. Auch das Backend, ergo Cache-System sowie MCs werden stark überarbeitet werden. Womöglich mehr Cache, sowie eine bessere Memory Compression.

Polaris10 1000~1500 SPs
Polaris11 2000~3000 SPs
Vega10 3000~4000 SPs
Vega11 6000~8000 SPs

(SP-Schätzung äquivalent zu GCN1.0/1.1/1.2)

Ich denke wir werden einen Effizienzanstieg erleben, ergo mehr Performance pro SP. Das sollte durch eine bessere Skalierung erreicht werden.
Wer die letzten neuesten Ashes of Singularity Benches gesehen hat, sieht wie mies Fiji gegenüber Hawaii skaliert.

stinki
2016-02-02, 18:31:07
Woher habt ihr jetzt Vega11 ausgegraben???

Agent117
2016-02-02, 18:39:58
Ich glaube kaum, dass Nvidia von 4GFlops DP bei Pascal auf 7GFlops DP bei Volta ohne einen Prozess-Shrink kommen kann (außer 4GFlops DP gelten noch für einen 28nm Pascal Chip, dann würde Volta in 16FF passen :wink: ...Scherz...).


Ohne genaue Architekturkenntnisse etwas zu beziffern ist zwar schwierig aber 7GFlops DP sollten in 16nm gerade so machbar sein. Wird dann aber ein verdammt fetter Chip >550mm².


Von GP106 sollte man definitiv einen GM204-Ersatz erwarten dürfen, welcher auch ein 256 Bit SI mit sich bringen könnte (~200mm²).


Ich denke eher, dass man es aus Kostengründen bei den bisherigen SI-Breiten belassen und auf GDR5X setzen wird.
Mit GP106 @12.000Mhz GDR5X hätte man genug Bandbreite um GM204 von unten zu ersetzen. GP104 dann das gleiche mit 256Bit.
Ist nur die Frage ob beide Chips wieder so weit auseinanderliegen wie GM204 und GM206. Das war bisher fast immer Nvidias Lineup; auch GK106 wurde nachträglich umdesigned und war mal mit nur 768SP geplant.

Spannend ist auch ob man GP102 mit HBM oder 384Bit GDR5X bestückt.


Polaris11 scheint mir ein guter Kontrahent in dieser Disziplin zu sein. Womöglich ähnliche Stats und man wird auch im GM204-Bereich landen.

Nach Roy Taylors letzter Präsentation, wo er GTX970 und 390 als VR Einstiegskarten bezeichnete und für Polaris mehr Leistung bei gutem Verbrauch und billigen Preis versprach denke ich eher, dass man mit Polaris 11 die GTX970 beerben will.
Etwa 40% mehr Leistung, leicht sparsamer und gleicher Preispunkt wären ein sexy Produkt und könnten gut in 250-280mm² passen.

tm0975
2016-02-02, 19:06:26
Wenn man den Chip trotzdem für 1000$ verkaufen kann, wäre das aus Kostensicht durchaus vertretbar :freak:

kann man so pauschal nicht sagen. man muß die kosten der herstellung abziehen und mit dem deckungsbeitrag rechnen. die 1000 $ sind ja i.d.r. kein zusätzlicher umsatz, sondern ein anderer chip wird dafür nicht gekauft.

AnarchX
2016-02-02, 19:11:37
Nach Roy Taylors letzter Präsentation, wo er GTX970 und 390 als VR Einstiegskarten bezeichnete und für Polaris mehr Leistung bei gutem Verbrauch und billigen Preis versprach denke ich eher, dass man mit Polaris 11 die GTX970 beerben will.
Etwa 40% mehr Leistung, leicht sparsamer und gleicher Preispunkt wären ein sexy Produkt und könnten gut in 250-280mm² passen.

40% mehr Leistung ist 980 Ti Niveau, was sich momentan für >$600 verkauft.
Dieses Niveau jetzt gleich auf ~$300 entwerten, ist doch eher fraglich. Da kann man besser bei $499 (@8GiB) anfangen und dann bis Weihnachten noch ein paar Preissenkungen einschieben, erst recht wenn man GP104 1/2 Monate zuvor kommt.

Agent117
2016-02-02, 19:38:41
Ok die 40% sind wohl doch etwas übertrieben.
Ich denke aber dass es Sinn macht den Preispunkt um 300€ anfangs attraktiv zu besetzen und sich in dem Zuge mit der GTX 970 anzulegen, die sich laut Steam ja sehr sehr oft verkaufte. 400€ sind schon zu teuer für die Masse.
Ich korrigiere mich mal auf Fury non X Leistung für 330-350 und einen Salvage für knapp 300.
Aber eigentlich wissen wir ja überhaupt nix über Polaris11 außer dass Polaris10 mit halbwegs bekannter DIE-Size darunter und Vega10 wahrscheinlich darüber angesiedelt ist.

Sunrise
2016-02-02, 22:02:09
Die 970 muss AMD auf jedenfall angreifen, u.a. weil sich NV mit der dumm und dämlich verdient und da ein dicker Batzen Geld zu holen ist.

Das sollte aber nicht das Ende des Chips darstellen, sondern das absolut unterste Ziel. Alles im Bereich 299-499 EUR muss man damit abdecken, sonst stimmt die Kostenrechnung nicht, oder das Ding ist deutlich kleiner, was aber auch vollkommener Quatsch ist, weil bereits der kleine Polaris in diesem Bereich wildern wird.

AMD braucht etwas wie GK104, der würde perfekt den Nerv treffen. Das war eine der geilsten GPUs, die NV jemals rausgehauen hat. Noch unter 300mm^2, spitzenmäßige Leistung/Verbrauch auch noch im Vollausbau und langjähriger Einsatz in allen möglichen Produkten aufgrund der Flexibilität mit GDDR5, nicht nur kostentechnisch, sondern auch leistungstechnisch unglaublich gut skalierbar.

Genau sowas will ich von AMD sehen.

Gerne auch erstmal höhere Einstiegspreise zum Start als oben angegeben, NV hat da eine Lücke gelassen, die sollte man nutzen. Zudem will der Markt Leistung und Effizienz und das ist vielen auch etwas mehr Wert, auch wenn AMD drauf steht.

Das wäre auch für FreeSync, wo ich hoffe, dass AMD ihre Display Engines dahingehend auch noch verbessert hat, ein grandios guter Chip, der genau den Nerv der Zeit trifft.

Zusammen mit aktuellen Standards, die im Multimedia-Bereich auch aktualisiert werden, will das Ding dann auch jeder HPC-Käufer, der kleine Polaris wird dann einfach noch stärker im Verbrauch aber gleichzeitig weniger Maximalleistung.

Sollte AMD da ähnlich denken, wird ihnen das Ding geradezu aus den Händen gerissen, weil man bereits an der 960/970-Kombination sieht, wie extrem beliebt die sind.

stinki
2016-02-03, 11:30:27
Deshalb denke ich auch, dass Polaris11 ca. 3072 Shader haben wird und 980 schlagen wird bzw. auf Fury (non X) Performance landen wird (die hat ja 3584 Shader).
Und der Salvage Part mit ca. 2560 Shader schlägt 970.
Die beiden mit 8GByte und einem schön niedrigen Verbrauch wären bestimmt der Renner.
Dann vielleicht später noch eine weitere Salvage Variante (oder wenn der Yield wirklich schlecht sein sollte) mit ca. 2048 Shadern und 4GByte als Ersatz von Tonga.

Nur Fiji wird sich dann kaum noch verkaufen lassen, nur Fury X hätte dann noch eine bessere Performance als Polaris11. Und der Verbrauch von Fury (non X) und Fury Nano wäre zu hoch im Vergleich mit Polaris11...

horn 12
2016-02-03, 11:38:32
Deshalb wird man wohl Fury und Nano für maximal 399 bis 429 Euro anbieten und Polaris 11 mindestens >549 Euro.

@edit
Für mich keinGrund zu wecheln bei selber Performance und weitaus geringerem Stromverbrauch
Zwar doppelter GDDR5X Speicher und Besserung in der Architektur
Wieviel davon aber schlussendlich ankommt.... ---- Und im extrem Fall werd ich wohl doch wechseln müssen :-)

Der_Korken
2016-02-03, 12:00:31
Ich finde die Einschätzung, dass Polaris 11 mit nur 48 CUs kommt und nur Fury nonX Niveau erreichen soll, ziemlich pessimistisch. Bei Hawaii hat man 44 CUs auf 440mm² in 28nm untergebracht. Wenn man davon ausgeht, dass sich die Packdichte in 16nm knapp verdoppelt, wären das vllt 230mm² in 16nm. Mit 10% Aufschlag für die restlichen 4 CUs und vllt nochmal 10% für die Frontend-Verbesserungen sollte man deutlich unter 300mm² bleiben.

Die Taktraten werden sicherlich auch erhöht, z.B. auf 1,2Ghz. So eine Steigerung hat Nvidia mit Maxwell auch locker geschafft und das sogar auf dem gleichen Prozess. Der Rohleistungsgewinn wäre gegenüber Hawaii XT schon etwa 25% - wird die auch umgesetzt ist man mit diesen imho recht konservativen Annahmen schon bei Fury X Niveau. Denkt man Richtung 350mm² bekäme man vllt sogar 64 CUs unter. Damit würde man auch die Titan X locker schlagen (wenn gegenüber Hawaii die Rohleistung voll in Leistung umgesetzt wird, nicht so wie bei Fiji).

horn 12
2016-02-03, 12:02:38
Taktraten werden wohl unter 1 Ghz sein, vor Allem bei Polaris 10 und 11
Neuer Prozess und extrem Teuer obendrauf!

Der_Korken
2016-02-03, 12:10:26
Taktraten werden wohl unter 1 Ghz sein, vor Allem bei Polaris 10 und 11
Neuer Prozess und extrem Teuer obendrauf!

Wie kommt das? Soweit ich mich erinnern kann ist bei allen Prozesswechseln die Taktrate immer angestiegen. Maxwell hat unter 28nm schon die 1,2Ghz erreicht und mit OC waren auch 1,5Ghz keine Seltenheit - selbst mit dem riesigen GM200. Außerdem spart man mit hohen Taktraten indirekt Kosten ein, weil man weniger Recheneinheiten, also weniger Fläche braucht für die gleiche Leistung braucht.

HOT
2016-02-03, 12:19:35
Deshalb denke ich auch, dass Polaris11 ca. 3072 Shader haben wird und 980 schlagen wird bzw. auf Fury (non X) Performance landen wird (die hat ja 3584 Shader).
Und der Salvage Part mit ca. 2560 Shader schlägt 970.
Die beiden mit 8GByte und einem schön niedrigen Verbrauch wären bestimmt der Renner.
Dann vielleicht später noch eine weitere Salvage Variante (oder wenn der Yield wirklich schlecht sein sollte) mit ca. 2048 Shadern und 4GByte als Ersatz von Tonga.

Nur Fiji wird sich dann kaum noch verkaufen lassen, nur Fury X hätte dann noch eine bessere Performance als Polaris11. Und der Verbrauch von Fury (non X) und Fury Nano wäre zu hoch im Vergleich mit Polaris11...
Nach der neuen Theorie, dass Vega10 der Greenland-Ersatz seitens AMD sind dürfte (und den D000-Produktcode haben dürfte) klingt das sehr plausibel. Dann nimmt man die Nano wieder vom Markt und behält die beiden Fury-Varianten bis Vega10 soweit ist.

Botcruscher
2016-02-03, 12:23:14
Die Gegner eines Polaris sind aber nicht irgendwelche 28nm Gurken aus der letzten Gen. Mit der Planung kann AMD gleich dicht machen.:rolleyes:

HOT
2016-02-03, 12:29:25
Wie es aussieht wohl erst mal doch.

Wahrscheinlich hat Polaris11 aber 384Bit, damit würde Polaris 10 als 470(X) mit 4GB kommen und Polaris11 als 480(X) mit 6GB. Vega10 ist dann 490(X) mit HBM, vermutlich 2 Stacks. Darüber könnte es noch einen Vega11 geben später mit 4 Stacks als Fury2.

stinki
2016-02-03, 12:30:54
Ich finde die Einschätzung, dass Polaris 11 mit nur 48 CUs kommt und nur Fury nonX Niveau erreichen soll, ziemlich pessimistisch. Bei Hawaii hat man 44 CUs auf 440mm² in 28nm untergebracht. Wenn man davon ausgeht, dass sich die Packdichte in 16nm knapp verdoppelt, wären das vllt 230mm² in 16nm. Mit 10% Aufschlag für die restlichen 4 CUs und vllt nochmal 10% für die Frontend-Verbesserungen sollte man deutlich unter 300mm² bleiben.

Die Taktraten werden sicherlich auch erhöht, z.B. auf 1,2Ghz. So eine Steigerung hat Nvidia mit Maxwell auch locker geschafft und das sogar auf dem gleichen Prozess. Der Rohleistungsgewinn wäre gegenüber Hawaii XT schon etwa 25% - wird die auch umgesetzt ist man mit diesen imho recht konservativen Annahmen schon bei Fury X Niveau. Denkt man Richtung 350mm² bekäme man vllt sogar 64 CUs unter. Damit würde man auch die Titan X locker schlagen (wenn gegenüber Hawaii die Rohleistung voll in Leistung umgesetzt wird, nicht so wie bei Fiji).

Das Problem ist halt wir kennen die Größe von Polaris11 nicht. Ich gebe Dir Recht, wenn wir von ca. 350mm² ausgehen, würden ich auch auf ca. 64 CUs tippen, bei ca. 250mm² wären wir halt nur bei ca. 48 CUs.
Aber wie groß soll Vega10 werden mit 1:2 DP Verhältnis wenn Polaris11 schon ca. 350mm² wäre? 500-550mm²? Ich persönlich glaube nicht, dass AMD so einen großen Chip so "früh" bringen wird. Hawaii hatte 1:2 DP Verhältnis, war nur 440mm² groß und kam mehr als 1,5 Jahre (oder waren es fast 2 Jahre) nach Mass-Production-Start des Prozesses...aber hey, vielleicht irre ich mich auch und liege voll daneben :smile:

AffenJack
2016-02-03, 13:04:46
Ich finde die Einschätzung, dass Polaris 11 mit nur 48 CUs kommt und nur Fury nonX Niveau erreichen soll, ziemlich pessimistisch. Bei Hawaii hat man 44 CUs auf 440mm² in 28nm untergebracht. Wenn man davon ausgeht, dass sich die Packdichte in 16nm knapp verdoppelt, wären das vllt 230mm² in 16nm. Mit 10% Aufschlag für die restlichen 4 CUs und vllt nochmal 10% für die Frontend-Verbesserungen sollte man deutlich unter 300mm² bleiben.


Ich finde es schon ziemlich optimistisch davon auszugehen, dass man nur 10% mehr Platz für Architekturverbesserungen brauchen wird. Man krempelt ja ganz schön viele Teile des Chips um und das wird Platz kosten. Ich meine Raja hat auch gemeint die Shader an sich sollen auch effizienter werden. Daher mehr als 48 CUs bei 300 mm² würde ich nicht erwarten. Wenn die Shader 10% effizienter genutzt werden sollten,man zusätzlich noch die Bremsen bei niedrigeren Auflösungen löst und dann mehr Takt hat kann ich mir aber auch ähnliche Geschwindigkeit wie Fury X vorstellen.

stinki
2016-02-03, 13:05:06
Wie es aussieht wohl erst mal doch.

Wahrscheinlich hat Polaris11 aber 384Bit, damit würde Polaris 10 als 470(X) mit 4GB kommen und Polaris11 als 480(X) mit 6GB. Vega10 ist dann 490(X) mit HBM, vermutlich 2 Stacks. Darüber könnte es noch einen Vega11 geben später mit 4 Stacks als Fury2.

Ich hoffe für Polaris11 immer noch auf 2 HBM Stacks, und für Vega10 auf 4 HBM Stacks.
Wenn AMD Vega10 für HPC verwenden will, kommen sie mit 2 HBM Stacks (und einer maximalen RAM Bestückung von 16GB (2x8Hi)) glaube ich nicht hin (GP100 als Nvidias HPC Chip wird ja 4 HBM Stacks bekommen).

Edit:
Aber wahrscheinlich würde ein 384Bit GDDR5(X) Interface für Polaris11 auch reichen und günstiger sein.

Der_Korken
2016-02-03, 14:05:10
Ich finde es schon ziemlich optimistisch davon auszugehen, dass man nur 10% mehr Platz für Architekturverbesserungen brauchen wird. Man krempelt ja ganz schön viele Teile des Chips um und das wird Platz kosten. Ich meine Raja hat auch gemeint die Shader an sich sollen auch effizienter werden.

Ok, das kann ich nicht einschätzen. Allerdings setzt man die investierte Chipfläche auch in Leistung um, wenn die Architektur effizienter wird (falls nicht, kann man auch gleich bei der alten bleiben), sodass 48 CUs erst Recht für Fury X Leistung reichen sollten.

Ich hoffe für Polaris11 immer noch auf 2 HBM Stacks, und für Vega10 auf 4 HBM Stacks.
[...]
Aber wahrscheinlich würde ein 384Bit GDDR5(X) Interface für Polaris11 auch reichen und günstiger sein.

Bei <300mm² dürfte es aber eng werden mit 384Bit. Bei der Vorstellung von Fiji hat AMD afaik gesagt, dass sie gegenüber dem 512Bit-SI von Hawaii 55mm² Fläche und ~60W Strom einsparen. Selbst auf 384Bit runtergebrochen, würde das bei <300mm² imho einfach zu viel Platz und Strom fressen. 256Bit-SI könnte schon wieder knapp werden bzw. würde 10Gbps-Speicher voraussetzen.

stinki
2016-02-03, 14:20:58
Bei <300mm² dürfte es aber eng werden mit 384Bit. Bei der Vorstellung von Fiji hat AMD afaik gesagt, dass sie gegenüber dem 512Bit-SI von Hawaii 55mm² Fläche und ~60W Strom einsparen. Selbst auf 384Bit runtergebrochen, würde das bei <300mm² imho einfach zu viel Platz und Strom fressen. 256Bit-SI könnte schon wieder knapp werden bzw. würde 10Gbps-Speicher voraussetzen.
Das ist ein sehr guter Punkt! Danke für den Hinweis! Bei weniger als 300mm² dürfte ein 384Bit GDDR5 Interface von der Fläche her gar nicht passen.
Dann bliebe wirklich nur 256Bit GDDR5X oder 2 HBM Stacks...also ich bleibe bei 2 HBM Stacks für Polaris11 :smile: (dürfte auch deutlich energieeffizienter sein, wenn auch teurer)

Käsetoast
2016-02-03, 15:30:13
Das ist ein sehr guter Punkt! Danke für den Hinweis! Bei weniger als 300mm² dürfte ein 384Bit GDDR5 Interface von der Fläche her gar nicht passen.
Dann bliebe wirklich nur 256Bit GDDR5X oder 2 HBM Stacks...
Reicht das 256er denn nicht dicke aus? Dank der Kompressionsverfahren sollte doch ähnlich viel Bandbreite wie bei einem Hawaii vorliegen wenn man nur ein 256er nutzt. Das sollte vollkommen ausreichend sein. Die nächst schnelleren Karten sollten dann in Preisregionen liegen, wo man tatsächlich HBM Speicher nutzen kann...

Gerade wenn ich an die GTX 960 mit ihren 128 Bit denke, die nicht nennenswert limitieren, sollte ein 256 Bit Interface mit Kompressionsfeatures und ggf leicht höherem Takt vollkommen ausreichend sein...

Der_Korken
2016-02-03, 16:14:45
Reicht das 256er denn nicht dicke aus? Dank der Kompressionsverfahren sollte doch ähnlich viel Bandbreite wie bei einem Hawaii vorliegen wenn man nur ein 256er nutzt. Das sollte vollkommen ausreichend sein. Die nächst schnelleren Karten sollten dann in Preisregionen liegen, wo man tatsächlich HBM Speicher nutzen kann...

Gerade wenn ich an die GTX 960 mit ihren 128 Bit denke, die nicht nennenswert limitieren, sollte ein 256 Bit Interface mit Kompressionsfeatures und ggf leicht höherem Takt vollkommen ausreichend sein...

Die Maxwell-Karten dürften die Kompressionsverfahren schon längst nutzen. Außerdem weiß man nicht, ob und wieviel sparsamer die Nvidia-GPUs mit Speicherbandbreite sind. Gemessen an den AMD-GPUs wären 256Bit@8Ghz verdammt wenig, nämlich nur 2/3 von Hawaii XT und 1/2 von Fiji XT, welchen man imho überbieten sollte bei der Gesamtperformance. Mit 10Gbps-GDDR5X könnte es vllt gehen.

Käsetoast
2016-02-03, 17:40:30
Gemessen an den AMD-GPUs wären 256Bit@8Ghz verdammt wenig, nämlich nur 2/3 von Hawaii XT und 1/2 von Fiji XT, welchen man imho überbieten sollte bei der Gesamtperformance. Mit 10Gbps-GDDR5X könnte es vllt gehen.
Ich kann es gerade nicht mehr beschwören, aber war die Hawaii Bandbreite für den Hawaii nicht mehr als ausreichend, so dass ein ändern des Speichertaktes nicht viel Unterschied machte? Und halbe Bandbreite von Fiji klingt natürlich krass, aber der Chip schwimmt ja auch geradezu in Bandbreite dank HBM. Da weiß ich aber nicht inwiefern es da schon Untertaktungsversuche gegeben hat und ab welchen Bandbreiten Fiji dann stark einbricht...

Mit Schielen auf die GTX 960 kann ich mir eben vorstellen, dass ein Chip auf Hawaii Level mit einem 256er Interface gut auskommen kann, was die ganze Sache dann ja auch wieder ne Ecke günstiger macht...

Agent117
2016-02-03, 19:14:32
Reicht das 256er denn nicht dicke aus? Dank der Kompressionsverfahren sollte doch ähnlich viel Bandbreite wie bei einem Hawaii vorliegen wenn man nur ein 256er nutzt. Das sollte vollkommen ausreichend sein. Die nächst schnelleren Karten sollten dann in Preisregionen liegen, wo man tatsächlich HBM Speicher nutzen kann...

Gerade wenn ich an die GTX 960 mit ihren 128 Bit denke, die nicht nennenswert limitieren, sollte ein 256 Bit Interface mit Kompressionsfeatures und ggf leicht höherem Takt vollkommen ausreichend sein...

GDR5X ist sogar bis 14Gb/s spezifiziert. Es ist auch nicht unrealistisch dass solch schneller Speicher schon zu Beginn eingesetzt wird, weil die Chips an sich gleich schnell takten wie GDR5@7Gb/s.
Man nutzt stattdessen Quad Data Übertragung.
DDR4 taktet hingegen einfach nur höher als DDR3.

Mal nebenbei: Ich halte es auch für möglich, dass wegen der Quad Data Rate und dem verdoppelten Prefetch der Speichercontroller etwas aufgeblät wird, weil man mehr Pins nach draußen fürhen muss. Das war beim wechsel von SDR zu DDR-Ram auch damals so. Hieße dann dass ein 256Bit GDR5X SI etwas größer wird als ein 256Bit GDR5 SI und man für die kommende Generation anhand von GDR5 SIs nicht einfach so sagen kann, dass passt noch in einen x mm² großen DIE rein.

Gipsel
2016-02-03, 20:47:37
GDR5X ist sogar bis 14Gb/s spezifiziert. Es ist auch nicht unrealistisch dass solch schneller Speicher schon zu Beginn eingesetzt wird, weil die Chips an sich gleich schnell takten wie GDR5@7Gb/s.
Man nutzt stattdessen Quad Data Übertragung.Na, die Datenrate ist trotzdem sehr hoch und damit dann das Signal über ein paar Zentimeter Leiterbahn auf einem PCB sauber drüber zu bekommen, ist schon nicht so trivial. Auch wenn das Taktsignal nicht so hoch ist, die Datenrate am Pin ist trotzdem 14GT/s, da muß man sich schon anstrengen, damit man noch sowas wie ein "Auge" hat und eine 0 noch vernünftig von einer 1 unterscheiden kann. Also ich würde eher erst mal sowas wie maximal 10-12 GT/s erwarten, und für die 12 GT/s muß man sich schon ganz schön strecken.

HOT
2016-02-03, 23:19:51
Warum sollen 384Bit an 300mm² nicht klappen? Tonga bietet doch mehr als genug Platz beispeilsweise. Das geht auch bei 300mm² oder weniger, wird dann halt knapper. Dann sind eben 3 Seiten voll belegt. Aber vielleicht gibts ja doch HBM für Polaris11. Ausgeschlossen ist das sicherlich nicht.

Käsetoast
2016-02-03, 23:22:47
Ist es überhaupt realistisch, dass Grafikkarten die ca. zur Jahresmitte erscheinen schon GDDR5X benutzen? Ist das nicht zu kurzfristig?

Spasstiger
2016-02-04, 00:44:19
Fiji ist doch kein Maßstab, was Performance pro Transistor oder Performance pro Fläche angeht. Der reale Durchsatz von Fiji ist ziemlich bescheiden und nur durch den Verzicht auf Double Precision sowie das HBM-Interface konnte AMD überhaupt den Platz schaffen, um bei der Performance eine Schippe auf Hawaii draufzulegen.

Sollte AMD mit Polaris den Flaschenhals beseitigt haben, sehe ich ein 300-mm²-Derivat vor der Fury X.

OBrian
2016-02-04, 01:25:42
ja genau, deswegen schätze ich den Chip ja auch kleiner, damit er performancemäßig darunter bleibt. Hawaii muß ersetzt werden, jedenfalls dringlicher als Fiji (strenggenommen natürlich alles so schnell wie möglich, aber irgendwo muß man ja anfangen).

Pick
2016-02-04, 02:57:36
AMD C993 - big Polaris GPU (Vega10/11)?
https://www.zauba.com/import-102-c99398-00-hs-code.html
http://abload.de/img/090890aoez.jpg

AMD C883 - Dual Fiji
http://images.anandtech.com/doci/9385/DualFiji2.jpg

Leonidas
2016-02-04, 05:29:11
Volta ist 100%ig 16nm,


Ich denke: Bei nahezu doppelter Rechenleistung wird es nicht ohne neue Fertigung gehen.

AnarchX
2016-02-04, 06:56:56
http://www.matrox.com/graphics/de/products/graphics_cards/c-series/c900/

Aktuelle AMD GPUs unterstützen maximal 6 Displays.

M4xw0lf
2016-02-04, 07:51:01
http://www.matrox.com/graphics/de/products/graphics_cards/c-series/c900/

Aktuelle AMD GPUs unterstützen maximal 6 Displays.
Sicher? Ich dachte Matrox böte schon länger AMD-basierte Karten mit mehr als 6 Displays pro GPU.

€: Die Website sagt davon nichts.
Spezifikationen von Matrox: Die C680 bietet die Möglichkeit, 6 4k-Monitore zu befeuern. Die C900 bietet 9x FullHD, an 9 miniHDMI 1.4 Ausgängen. Wirkt nicht sehr next-gen.

dargo
2016-02-04, 09:14:05
Fiji ist doch kein Maßstab, was Performance pro Transistor oder Performance pro Fläche angeht.
Warum nicht? Nur weil man die Leistung mit der Steinzeit API nicht abrufen kann?
http://www.computerbase.de/2016-02/directx-12-benchmarks-ashes-of-the-singularity-beta/#diagramm-ashes-of-the-singularity-1920-1080

Vorsicht bei den Ergebnissen, ist alles noch Betastadium.

iuno
2016-02-04, 09:36:12
Warum nicht? Nur weil man die Leistung mit der Steinzeit API nicht abrufen kann?
http://www.computerbase.de/2016-02/directx-12-benchmarks-ashes-of-the-singularity-beta/#diagramm-ashes-of-the-singularity-1920-1080

Vorsicht bei den Ergebnissen, ist alles noch Betastadium.
Jeder hier weiss, dass Fiji die Rohleistung nirgends auf die Strasse bekommt. Das hat nicht mehr oder weniger mit DX11 zu tun, als das auch sonst schon bei Radeons der Fall ist.
AotS dann als Positivbeispiel bringen zu wollen ist geradezu laecherlich. Fiji skaliert genauso schlecht wie sonst auch ueberall mit und so liegt die Fury X hier in dem von dir verlinkten "Paradetest" gerademal 24% vor Hawaii PRO.
Schau dir mal Battlefront an. Das ist gute Skalierung - mit DX11.

dargo
2016-02-04, 09:48:44
Jeder hier weiss, dass Fiji die Rohleistung nirgends auf die Strasse bekommt. Das hat nicht mehr oder weniger mit DX11 zu tun, als das auch sonst schon bei Radeons der Fall ist.
AotS dann als Positivbeispiel bringen zu wollen ist geradezu laecherlich. Fiji skaliert genauso schlecht wie sonst auch ueberall mit und so liegt die Fury X hier in dem von dir verlinkten "Paradetest" gerademal 24% vor Hawaii PRO.

Hast du dir auch mal die absoluten Zahlen angesehen? Von 1080p auf 1440p verliert die Fury X 18%. Von 1080p auf 4k verliert sie 24%. Jetzt denke mal scharf nach woran das wohl liegt? ;)

Edit:
Ich sehe gerade, dass 4k nicht wirklich brauchbar ist da ein High-Preset und kein Extrem Preset verwendet wurde. Nicht weiter schlimm. Bei 1440p vs. 1080p verliert die Karte trotzdem viel zu wenig. Ergo starkes CPU-Limit.

HOT
2016-02-04, 10:23:13
Ich denke: Bei nahezu doppelter Rechenleistung wird es nicht ohne neue Fertigung gehen.
Aber nicht, wenns die nicht gibt. Und 2017 ist sowas von viel zu optimistisch... Intel wirds auch nicht vor 2018 schaffen, Produkte in 10nm hinzubekommen und Intel läuft außer Konkurrenz. Getönt wird immer viel seitens der Foundries.
Zudem hat 10nm das Problem, dass auch 20nm hatte: Zu wenig Effekt bei viel zu hohen Kosten. Ob der überhaupt eingesetzt wird bei den Grafikherstellern steht also ebenfalls noch in den Sternen. Mit SoCs ist das sicher kein Problem, aber GPUs?
Nur weil Volta viel mehr Einheiten bekommen soll, heißt das doch nicht, dass man eine neue Fertigung zwingend braucht. Und wenn doch, also wenn die wirklich dumm genug sind, sich auf 10nm zu verlassen, wird NV ein zweites Mal tierisch Probleme bekommen... Nein, Volta ist die zweite 16nm-Architektur, ich bleibe dabei.

Hübie
2016-02-04, 12:00:17
Und dass es schlicht daran liegt dass der CP einfach schon sehr gut ausgelastet ist während die ACEs auch Daten in die ALUs stopfen kam dir dabei nicht in den Sinn?

OBrian
2016-02-04, 12:00:26
Ja, ganz recht. Stellt euch mal darauf ein, daß man mit 14/16nm genauso lange auskommen muß wie mit 28nm.

Bei AMD gings etwas durcheinander, weil sie erst auf 20nm setzen wollten und es dann doch gelassen haben, deswegen keinen ordentlichen Refresh auf 28nm in der Pipeline hatten. Nvidia hat das mit Maxwell gemacht und kam ganz gut klar. Also warum sollten das nicht beide nochmal machen können? Die Probleme in der Fertigung sind ja systematisch vorhanden und zunehmend, und nicht singulär auf den einen 20-nm-Prozeß bezogen.

Der_Korken
2016-02-04, 13:13:09
Ich sehe gerade, dass 4k nicht wirklich brauchbar ist da ein High-Preset und kein Extrem Preset verwendet wurde. Nicht weiter schlimm. Bei 1440p vs. 1080p verliert die Karte trotzdem viel zu wenig. Ergo starkes CPU-Limit.

Gegen diese These spricht, dass sich an den Kräfteverhältnissen nichts ändern, wenn man von 1080p zu 1440p übergeht.

1080p: 72% - 100% - 124% (280X - 390 - Fury X)
1440p: 72% - 100% - 121% (280X - 390 - Fury X)
2160p: 75% - 100% - 127% (280X - 390 - Fury X)

Die Fury X hat aber eigentlich ~50% mehr Rohleistung gegenüber der 390, allerdings kann sie die hier nicht umsetzen, auch wenn die "Pixellast" sehr hoch ist im Vergleich zum Rest. Hier muss an der Architektur etwas limitieren, was man mit Polaris hoffentlich löst.

HOT
2016-02-04, 14:28:40
Ja, ganz recht. Stellt euch mal darauf ein, daß man mit 14/16nm genauso lange auskommen muß wie mit 28nm.

Bei AMD gings etwas durcheinander, weil sie erst auf 20nm setzen wollten und es dann doch gelassen haben, deswegen keinen ordentlichen Refresh auf 28nm in der Pipeline hatten. Nvidia hat das mit Maxwell gemacht und kam ganz gut klar. Also warum sollten das nicht beide nochmal machen können? Die Probleme in der Fertigung sind ja systematisch vorhanden und zunehmend, und nicht singulär auf den einen 20-nm-Prozeß bezogen.
Exakt. Wenn die Foundries 10nm dann in 2019 frühestens soweit haben, wird man dennoch auf 7nm warten, um bei den gestiegenen Kosten genug Effekt mitzunehmen. Das Zeitfenster für 14/16nm bei AMD/NV ist also 2016/2017 - 2022 ca.
AMD wird 10nm GloFo(IBM) sicherlich nutzen, aber nicht für GPUs oder APUs, sondern sicherlich nur für Server-CPUs und große Desktop-CPUs (8Kerne+).

iuno
2016-02-04, 14:54:59
Die Fury X hat aber eigentlich ~50% mehr Rohleistung gegenüber der 390
In der Theorie sind es sogar eher ~70%.
Natuerlich wird das nie alles ausgeschoepft aber von der 970 zur 980 Ti sind es ~60% und im Test sieht man davon immerhin noch ~40-50%, was jedoch ganz klar an der API liegt. scnr.
Next-Gen APIs koennen helfen, muessen aber nicht und vor allem nicht umsonst. Und es ist einfach wichtig, dass auch ohne die "perfekte" Implementierung seitens der Entwickler mehr rausgeholt wird. Da muss AMD einfach was machen mit Polaris, sowohl durch Beseitigen von Flaschenhaelsen als auch softwareseitig.

fondness
2016-02-04, 18:06:36
http://www.matrox.com/graphics/de/products/graphics_cards/c-series/c900/

Aktuelle AMD GPUs unterstützen maximal 6 Displays.

Der Chip kommt mit an Sicherheit grenzender Wahrscheinlichkeit von AMD. Da nur HDMI ist das auch kein Großes Problem, den Rest muss halt die Software machen.

iuno
2016-02-04, 18:54:57
Die Stochastik kannst du dir sparen, es steht ueberall dran, dass er von AMD ist ;) . Vermutlich wieder Cape Verde, wie schon beim kleineren Modell.

y33H@
2016-02-04, 19:05:37
Es ist der neue Parhelia-1337 :ulol:

M4xw0lf
2016-02-04, 19:29:08
Es ist ja nicht gerade eine Neuigkeit, dass Matrox keine eigenen GPUs mehr macht und auf AMD setzt. :confused:

Nakai
2016-02-05, 16:27:44
Es gibt nun 3 Boards auf Zauba:

C99
C98
D00

Das passt doch gut zu Polaris10, Polaris11 und Vega10.

€: Natürlich nicht in dieser Reihenfolge. Ich vermute, dass AMD ihre R300-Serie noch dieses Jahr bestehen lässt. Man braucht einen Topdog für die neue Architektur und das ist Vega10. Polaris10 und 11 sind Mainstream und Midrange. Vega10 wird weiter oben ansetzen. Ich bin dann auf das Namensschema gespannt.


Zu Matrox wird es etwas schwieriger. Bonaire unterstützt OpenCL2.0, diese Matrox-GPU jedoch nicht. Es sieht nach Capeverde aus.

Außerdem sind die Spezifikationen ziemlich eindeutig.

Bietet neun Mini-HDMI-Anschlüsse und unterstützt eine Maximalauflösung von 1.920 x 1.200 pro Ausgang

Was man am Board erkennt sind zusätzliche Chips bei den Displayausgänge.
Capeverde unterstützt maximal:

The AMD Radeon E8860 GPU provides multi-display flexibility,
supporting up to five 3840x2160 @30Hz displays simultaneously
in clone mode and extended desktop in static screen. Competitive
NVIDIA GPUs can only support up to four independent displays.5

Ja, ich nahm die Embedded GPU.

Die Auflösung wird dann dementsprechend gesplittet, dass es eben passt.

hellm
2016-02-06, 22:34:23
Ich hab nicht allzu viel gelesen, ich hoffe ihr verzeit mir das, allso weiß ich nicht ob die Theorie schon aufkam.

Wenn AMD sagen wir den Fiji in 28nm nicht aus dem Programm nimmt, einfach nur herabstuft, dann ist doch Platz für einen vergleichsweise kleinen Polaris unterhalb, und einen fetten Polaris überhalb. Oder sehe ich da was falsch? DX12 kann Fiji ja auch schon genug, immerhin GCN 1.2. Stromsparen funzt ebenfalls, siehe Nano. Für eine 1. Generation evtl genug, und mit dem 28nm, auch wenn er recht groß ist, spart man am Ende noch?

Ravenhearth
2016-02-07, 01:20:05
Der Stromverbrauch wäre nicht mehr wirklich konkurrenzfähig, für "HBM2" und 8GB bräuchte man sowieso einen neuen Interposer, außerdem dürfte ein ähnlich schneller Chip mit neuen Features in 14nm, der nur etwa halb so groß wäre, im Endeffekt doch billiger sein. Vielleicht noch nicht am Anfang, aber mittelfristig auf jeden Fall. Da sehe ich nur Nachteile. Deswegen glaube ich, dass der größere der beiden neuen Chips das Leistungsniveau von Fiji oder GM200 erreicht (+n%) um als Konkurrenz zum GP104 anzutreten, und dass der kleinere Chip dann vielleicht exakt halb so groß ist. Die Vermutung haben ja auch schon andere geäußert. 2017 kommt dann noch mindestens ein weiterer Chip, auf jeden Fall ein schnellerer als Konkurrenz zu GP102.

von Richthofen
2016-02-07, 01:31:40
@hellm
Nach der unvorhergesehen langen Lebensspanne des 28nm Herstellungsprozesses wird man die nagelneue Generation nicht um die alte herumbauen. Das macht man eigentlich nie. Falls es doch Tendenzen gibt, so geschieht dies sicherlich unbeabsichtigt.
Die aktuelle GCN-Inkarnation ist weder technisch der große Wurf noch wird sie vom Markt gut angenommen und sollte daher möglichst schnell Nachfolger erhalten. Das ist mit AMDs aktuell begrenzten Möglichkeiten leichter gesagt als getan und so wird es eine schrittweise Veröffentlicheung neuer Grafikchips geben. Wann das NextGen-Portfolio dann vollständig ist kann aktuell niemand sagen - mglw. nicht einmal AMD selbst.

Da zunächst ein etwas kleinerer Polaris-Chip erwartet wird, kommen die Fiji-SKUs diesem nicht in die Quere und hätten damit ihre Daseinsberechtigung weit ins Jahr hinein.
Der größere der beiden für dieses Jahr zu erwarteten Chips sollte leicht über Fiji kommen. Selbst wenn dies nicht gelänge, würden vieles für Polaris und gegen Fiji sprechen, so dass letzterer schlagartig unattraktiv würde. Für eine Herabstufung wird Fiji zu teuer sein bzw. wird die grüne Konkurrenz diesen Ansatz wahrscheinlich gar nicht zulassen.

Vllt. möcht man aber auch (aus diversen Gründen) aktuell nicht ganz vorn mitmischen und belässt es (vorerst) bei einem Performancechip in der Spitze - nach dem R600 hat man auch eine Weile kleinere Brötchen gebacken bzw. MGPU forciert, bis man mit RV770 aka HD 4870 wieder überraschend Anschluss fand.

Leonidas
2016-02-07, 04:34:38
@hellm
Nach der unvorhergesehen langen Lebensspanne des 28nm Herstellungsprozesses wird man die nagelneue Generation nicht um die alte herumbauen. Das macht man eigentlich nie.


Siehe erste 28nm-Generation von AMD: Radeon HD 7000 ... innerhalb von wenigen Monaten wurde das komplette alte Portfolio obsolet gemacht (mit nur 3 Chips).

Fiji weiterzuverwenden wird spätestens dann ungünstig, wenn GP106 & GP104 draußen sind und Fiji mit seinen 250-280W sich dann gegen Lösungen á 100-150W behaupten soll. Das wird nicht gutgehen - und das ist auch AMD klar. Es sind zwar nur Energiekosten, aber der psychologische Negativeffekt ist immens.

Ravenhearth
2016-02-07, 04:56:24
Das wäre so, als hätte AMD bei der 7000er-Serie nur Tahiti und Cape Verde gebracht und Cayman in 7870/7850 umbenannt. Geht einfach nicht. Da fehlen Features, der Stromverbrauch ist viel zu hoch, damit auch Abwärme und Lautstärke, und die Produktionskosten sind auch höher durch den großen Chip und teurere Komponenten.

OBrian
2016-02-07, 06:52:09
ja, mit drei Chips ginge das auch alles. Aber es wird ja gesagt, es seien nur zwei. Mit zweien muß man zwangsläufig was stehenlassen. Aber möglicherweise kommt der dritte ja wenige Monate später, so daß es sich dann dieses Problem in Wohlgefallen auflöst. Dann müßte man nicht mal was umbenennen, sondern baut die neue Serie einfach noch nicht komplett auf und läßt die Sache von den alten im Handel rumfleuchenden Karten regeln.

Leonidas
2016-02-07, 08:04:57
So ähnlich würde ich es auch lösen. Damit sichert man sich einen guten Abverkauf (ansonsten immer ein Problem) und bringt keine Rebranding, die immer nur schlechte Presse ergeben.

AnarchX
2016-02-07, 10:08:50
Wenn Polaris11 es mit Fiji aufnimmt, dann reichen auch 2 GPUs für 2016. In den >$799 Markt kann man mit einer Dual-GPU-Lösung vorstoßen, die dank GDDR5(X) 12-16GiB pro GPU aufbieten kann. Bis NV GP100 auf den Endkundenmarkt loslässt ist es sicherlich 2017.
Im Endeffekt eine Rückkehr in die erfolgreiche 2007-2013-Strategie, Big-GPUs wie Fiji und zum Teil Hawaii haben AMD nie wirklich Erfolg gebracht. Gerade beide letzteren haben AMD Ressourcen für eine aktuell brauchbare $199-299 Karte gekostet.

Pirx
2016-02-07, 10:56:50
Hm trotzdem hat AMD mit R9 390 und 380 die brauchbarsten Karten in dem Bereich, erstaunlich.;)

Ich erwarte ja aufgrund der geringeren Strukturgröße (und garantiert besserer Features) wesentlich verbesserte Eigenschaften der neuen Karten. Wer wird dann noch die alten nachfragen/zu welchem noch wirtschaftlichen Preis?

Complicated
2016-02-07, 11:07:36
Das wäre so, als hätte AMD bei der 7000er-Serie nur Tahiti und Cape Verde gebracht und Cayman in 7870/7850 umbenannt. Geht einfach nicht. Da fehlen Features, der Stromverbrauch ist viel zu hoch, damit auch Abwärme und Lautstärke, und die Produktionskosten sind auch höher durch den großen Chip und teurere Komponenten.
Caicos und Cedar haben es als 40 nm Chips neben der 7000er sogar in die HD 8000er Serie geschafft. Also die Lowend-Chips finden bei neuerer Fertigung keine Berücksichtigung mehr und werden durchaus weiter verwendet trotz Fertigungs-Rückstand. Der Stromverbrauch ist auch kaum zu berücksichtigen in dieser Klasse, da er sowieso sehr niedrig ist.

Da die APU-Grafik-Leistung seit der Einführung der 28nm deutlich gestiegen ist, könnte AMD der Meinung sein, dass eben 2 Chips ausreichen und man nicht weiter nach unten Lowend abdecken muss mit den kommenden APUs. Sozusagen die Weiterverwendung von 28nm bis hoch zur HD x6xx anstatt wie bisher bis zur HD x5xx Klasse für 40nm. Pitcairn oder Cape Verde könnten durchaus das untere Limit sein wo keine 14nm in der neuen Generation kommen.

AnarchX
2016-02-07, 11:10:23
Hm trotzdem hat AMD mit R9 390 und 380 die brauchbarsten Karten in dem Bereich, erstaunlich.;)

Wie brauchbar die Karten sind, sieht man wie gut sie sich verkaufen, trotz der niedrigen Marge die AMD hier in Kauf nimmt. :freak:

Ich erwarte ja aufgrund der geringeren Strukturgröße (und garantiert besserer Features) wesentlich verbesserte Eigenschaften der neuen Karten. Wer wird dann noch die alten nachfragen/zu welchem noch wirtschaftlichen Preis?
Wenn die Fertiger ausreichend Stückzahlen liefern (das Erdbeben gestern hat TSMC wohl zum Glück nur geringfügig getroffen) steht zusammen mit GDDR5X ein mächtiger Generationssprung vor uns, der für AMDs aktuelles Portfolio in großen Teile das EOL bedeuten wird. Nvidia kann wohl GM206 noch einige Zeit als Einsteiger-Lösung <<$199 anbieten. Den GM204-Bestand kann man wohl dann im Sommer mit Preissenkungen als mögliche Reaktion auf einen zeitigen Polaris-Launch abbauen.

Complicated
2016-02-07, 11:13:23
Den GM204-Bestand kann man wohl dann im Sommer mit Preissenkungen als mögliche Reaktion auf einen zeitigen Polaris-Launch abbauen.Was für eine andere Wahl hat man denn ohne neues fertiges Produkt wenn AMD tatsächlich einige Monate voraus ist wie die Gerüchteküche spekuliert? Daher ist das wohl eher kein "kann".

AnarchX
2016-02-07, 11:18:06
Was für eine andere Wahl hat man denn ohne neues fertiges Produkt wenn AMD tatsächlich einige Monate voraus ist wie die Gerüchteküche spekuliert? Daher ist das wohl eher kein "kann".
Es kommt halt darauf an, wie weit man bei der Pro-Watt-Leistung vor Maxwell landen wird und ob AMD bereit ist das aktuelle Preis-Leistungs-Verhältnis deutlich zu verbessern.

R.I.P.
2016-02-07, 11:20:29
Wie brauchbar die Karten sind, sieht man wie gut sie sich verkaufen, trotz der niedrigen Marge die AMD hier in Kauf nimmt. :freak:
Das hängt leider weder von der Qualität der Produkte, noch vom Preis ab, sondern nur von der mangelnden Intelligenz und vom nicht vorhandenen Hausverstand vieler Käufer...

HOT
2016-02-07, 11:22:23
Wenn Polaris11 es mit Fiji aufnimmt, dann reichen auch 2 GPUs für 2016. In den >$799 Markt kann man mit einer Dual-GPU-Lösung vorstoßen, die dank GDDR5(X) 12-16GiB pro GPU aufbieten kann. Bis NV GP100 auf den Endkundenmarkt loslässt ist es sicherlich 2017.
Im Endeffekt eine Rückkehr in die erfolgreiche 2007-2013-Strategie, Big-GPUs wie Fiji und zum Teil Hawaii haben AMD nie wirklich Erfolg gebracht. Gerade beide letzteren haben AMD Ressourcen für eine aktuell brauchbare $199-299 Karte gekostet.
Das seh ich aber GAAANZ anders. Hawaii war notwendig und passt auch zur früheren Desktop-Strategie. Hawaii ist der X1900XT zur X1800XT oder der RV770 zum RV670. Die Wahrheit ist aber, dass AMD noch so gute Produkte machen kann und sich noch so abstrampeln kann, die haben den Apple-Faktor einfach nicht, den NV reich macht.
Zudem war Hawaii für AMD essenziell um in Profimarkt zu überleben. Überleg mal, wie das heute ohne Hawaii aussehen würde? AMD könnte im Grafikmarkt keinen Blumentopf mehr gewinnen.
Fiji ist aus technischer Sicht für AMD ebenfalls ein gewaltiger Erfolg, auch wenn ihm aus naheliegenden Gründen der Erfolg beim Konsumenten verwehrt bleibt. AMD kann sinnvoll Big-Chips bauen, AMD kann Interposer in Mengen herstellen und verkaufen, AMD kann HBM im Massenmarkt anwenden, alles dank Fiji.

Ravenhearth
2016-02-07, 11:31:04
Wenn Polaris11 es mit Fiji aufnimmt, dann reichen auch 2 GPUs für 2016. In den >$799 Markt kann man mit einer Dual-GPU-Lösung vorstoßen, die dank GDDR5(X) 12-16GiB pro GPU aufbieten kann. Bis NV GP100 auf den Endkundenmarkt loslässt ist es sicherlich 2017.
Im Endeffekt eine Rückkehr in die erfolgreiche 2007-2013-Strategie, Big-GPUs wie Fiji und zum Teil Hawaii haben AMD nie wirklich Erfolg gebracht. Gerade beide letzteren haben AMD Ressourcen für eine aktuell brauchbare $199-299 Karte gekostet.

Die small chip-Strategie ist tot und gerade die Multi-GPU-Lösungen waren nie wirklich erfolgreich. Da wird mit Sicherheit noch was größeres kommen.

AnarchX
2016-02-07, 11:42:12
Das seh ich aber GAAANZ anders. Hawaii war notwendig und passt auch zur früheren Desktop-Strategie. Hawaii ist der X1900XT zur X1800XT oder der RV770 zum RV670. Die Wahrheit ist aber, dass AMD noch so gute Produkte machen kann und sich noch so abstrampeln kann, die haben den Apple-Faktor einfach nicht, den NV reich macht.
Zudem war Hawaii für AMD essenziell um in Profimarkt zu überleben. Überleg mal, wie das heute ohne Hawaii aussehen würde? AMD könnte im Grafikmarkt keinen Blumentopf mehr gewinnen.
>2 TFLOPs sind zwar nett, aber ohne CUDA wohl für viele professionelle Abnehmer nicht wirklich interessant.
Deswegen sehe ich Hawaii noch an der Grenze eines sinnvollen Produktes, Fiji muss sich da noch beweisen.


Fiji ist aus technischer Sicht für AMD ebenfalls ein gewaltiger Erfolg, auch wenn ihm aus naheliegenden Gründen der Erfolg beim Konsumenten verwehrt bleibt. AMD kann sinnvoll Big-Chips bauen, AMD kann Interposer in Mengen herstellen und verkaufen, AMD kann HBM im Massenmarkt anwenden, alles dank Fiji.
Da bin ich gespannt, ob man dann 2017 wirklich eine Erfolg daraus ziehen kann und Nvidia wie beim GDDR5 anfangs überholt und nicht das es AMDs na(t)iven QC gleicht kommt.

Die small chip-Strategie ist tot und gerade die Multi-GPU-Lösungen waren nie wirklich erfolgreich. Da wird mit Sicherheit noch was größeres kommen.
AMD propagiert ja momentan eine sehr fragwürdige 2x4GiB Karte...
Aber natürlich kommt noch etwas Größeres: 4TFLOPs DP und HBM2 sind für Greenland/VegaXX schon divers spekuliert bzw. auf AMD Folien belegt wurden.

KHJ
2016-02-07, 12:10:11
Da wir ja grössere Anzahl an Shadereinheiten sehen werden denke ich besteht durchaus die Möglichkeit das man 3 Karten aus einem Chip mit deaktivierten Shadern zaubern kann.
Mit HBM 1, 2 und XGDDR5 und GDDR5 hat man auch in Sachen Speicherausstattung und Bandbreite einiges an Spielraum was die Differenzierung angeht.

iuno
2016-02-07, 13:19:51
Ach sind wir jetzt schon so weit, dass eine "hoehere Anzahl als Shadereinheiten" (ggue. Fiji?!) als gesetzt gilt?
Davon ab wird man sicherlich kein HBM UND GDDR5 SI gleichzeitig auf einem Chip sehen.

Complicated
2016-02-07, 14:18:33
>2 TFLOPs sind zwar nett, aber ohne CUDA wohl für viele professionelle Abnehmer nicht wirklich interessant.
Deswegen sehe ich Hawaii noch an der Grenze eines sinnvollen Produktes, Fiji muss sich da noch beweisen.
Das sehe ich anders. Diesen Marketing-Vektor hat AMD erfolgreich mit dem Relaese von HIP (http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2012/09/7637-HIP-Datasheet-V1_4-US-Letter.pdf)und HCC gedeckelt (Siehe Boltzmann-Initiative (http://www.amd.com/en-us/press-releases/Pages/boltzmann-initiative-2015nov16.aspx)).
Dieses Argument ist wohl erst mal vom Tisch bei Neuanschaffung oder zumindest entkräftigt durch die angebotene Alternative beim kompilieren des Codes. Hier muss sich lediglich die Leistungsfähigkeit zeigen.


AMD propagiert ja momentan eine sehr fragwürdige 2x4GiB Karte...
Eher nicht fragwürdig, sondern absolut passend zu dem VR-Hype. Warum sollte AMD hier nicht ein vorhandenes Produkt best möglich bewerben und im best möglichen Licht darstellen? 2 GPUs werden in diesem Sektor als zwingend notwendig erachtet und die Dual-Lösung wurde bei vielen VR-Anbietern dankend als Plattform genutzt hinter den Kulissen (http://www.heise.de/newsticker/meldung/AMDs-VR-Geschoss-Dual-GPU-Grafikkarte-Radeon-R9-Fury-X2-mit-zwei-Fiji-Prozessoren-3083514.html).
Liquid VR ist auch die softwareseitige Unterstützung die ja von AMD immer wieder so vehement gefordert wurde, welche die Industrie offensichtlich auch willkommen heisst und nutzt. (http://www.heise.de/newsticker/meldung/LiquidVR-Neues-Virtual-Reality-SDK-von-AMD-2566652.html)

Hier ist AMD zur rechten Zeit mit dem richtigen Produkt zur Stelle um diesen VR-Herstellern weitere Innovationen zu ermöglichen und ihre Techniken weiter zu entwickeln und zu verfeinern. Nicht zufällig, wie das vorhanden sein des VR-SDKs zeigt.

von Richthofen
2016-02-07, 15:29:21
...
Eher nicht fragwürdig, sondern absolut passend zu dem VR-Hype. Warum sollte AMD hier nicht ein vorhandenes Produkt best möglich bewerben und im best möglichen Licht darstellen?

Sollte man, solange man günstig im Rampenlicht stehen kann OK, aber nur solange man nicht im Hintergrund zuviel der knappen Ressourcen an fragwürdig einträgliche Geschäftsfelder der Zukunft bindet - Boltzmann-Initiative, GPUOpen oder Liquid VR hört sich alles toll an, dabei hat man aktuell ganz andere Baustellen.
Viel wichtiger wäre es imho ihren Crimson-Treiber endlich gerade zu ziehen und von Altlasten zu befreien. Die aktuellen Treiberdiskussion dazu ist in vollem Gange und das könnte auch den einen oder anderen Enthusiasten (zu ungunsten AMDs) zum Nachdenken bringen.
Hauptsächlich wichtig ist aber natürlich den erfolgreichen Marktstart der neuen VGA-Generation vorzubereiten.
Von Polaris erwarten sich alle viel - dabei wartet niemand auf Dual-Fiji! Den Chip wollte schon vor einem 3/4 Jahr keiner haben.
Fiji ist reine Homöopathie.

Agent117
2016-02-07, 15:39:10
Die Wahrheit ist aber, dass AMD noch so gute Produkte machen kann und sich noch so abstrampeln kann, die haben den Apple-Faktor einfach nicht, den NV reich macht.


AMD muss NV einfach mal über einen längeren Zeitraum performancemäißg schlagen und sich sonst keine Schwächen wie Treiber, zu hohe Ineffizienz, Lautstärke usw. leisten. Dann wird man auch deutlich mehr verkaufen.
Die Small Chip Strategie war im Nachhinein ein Fehler. Das Aufgeben des Ati Labels auch.
Die Marke Ati stand Nvidia im Nichts nach und bot von der 9700Pro bis zur X1950XTX duchweg die bessere Performance. Bei Lautstärke, Treiber und vor allem Effizienz hat man sich damals noch nicht so angestellt.
Die 4870 war mit ihren nur 250mm² DIE-Size eine super Karte und Nvidia brauchte doppelt so viel Platz für etwas mehr Leistung.
Trotzdem hätte man den Chip auch deutlich größer bauen können und Nvidia abziehen können, die mit ihren 576mm² für GT200 schon am Limit waren. Hat man aber nurmal nicht; wäre nach dem R600 Debakel mMn besser gewesen.
So hatte man seit dem immer nur den 2. schnellsten Chip (7970Ghz war da eine kurze Ausnahme).

Complicated
2016-02-07, 16:07:14
Von Polaris erwarten sich alle viel - dabei wartet niemand auf Dual-Fiji! Den Chip wollte schon vor einem 3/4 Jahr keiner haben.
Fiji ist reine Homöopathie.
Ohne Fiji kein Öko-System für Polaris um den Markt stärker zu durchdringen als in der Prä-GCN Zeit. Mit HSA/GCN hat AMD begonnen das Software-Ökosystem ernst zu nehmen und mit Polaris und DX12 soll dieses Überwinden der API-/Compiler Schwierigkeiten, die AMD hatte, abgeschlossen werden.

AMD hat enorm investiert mit HSA, Mantle und OpenGPU, ebenso wie mit den oben schon erwähnten Tools. Die Konvergenz in 14nm könnte AMD den richtigen Schub geben, vor allem da Nvidia hier offensichtlich noch nichts zu bieten hat. Niemand wartet auf Dual-Fiji, doch viele die auf Polaris warten werden mit Dual-Fiji evaluieren und das neue Ökosystem testen, welches mit Polaris dann etabliert sein soll. Daher ist Dual-Fiji wichtig. Fiji ist jetzt da und wird gefolgt von Polaris, Pascal kommt später. Der richtige Zeitpunkt für Entwickler sich AMDs Ökosystem anzuschauen.

Sunrise
2016-02-07, 16:49:24
Fiji ist leider zu einem sehr ungünstigen Zeitpunkt aufgeschlagen, trotz 28nm, eben aufgrund der für dieses Design teilweise verwerteter, aber auch weiterentwickelter IP um den eigentlichen Kern. Das Ding ist nichts Ganzes und nichts Halbes und wurde dem Hype leider nicht ansatzweise gerecht.

AMD kann allerdings jetzt durchstarten, und wenn sie an den richtigen Schrauben gedreht haben, wird Polaris sehr beliebt sein, und auch im zweiten Anlauf schnellstmöglich für High-End-Desktop bzw. HPC/Workstations zur Verfügung gestellt. Ich gehe zwar nicht davon aus, dass man NV im obersten High-End so schnell Konkurrenz machen kann, jedoch wird man durch den Zeitvorteil schneller am Endkunden-Markt sein und dagegen kann wieder nur NVs Marketing (das leider nicht zu unterschätzen ist) arbeiten, und im April ordentlich mit Fakten zu GP100 austeilen, sodass man wieder die Qual des Wartens hat. Wer aber nicht warten will, der greift dann erstmal zu AMD (warten kann man immer).

Hoffentlich geht nichts schief und AMD hat ihre Software unter Kontrolle, sodass man die Fachpresse nicht nur mit technischen Daten überzeugen kann, sondern mit Ergebnissen.

Complicated
2016-02-07, 19:56:57
Auch das ist Teil von AMDs Strategie den Druck hier hoch zu halten und Nvidia so wenig Zeit wie möglich zu geben bevor sie Ankündigungen machen müssen. Entweder Nvidia ist konservativ dabei und AMD kann Feature technisch einen Vorsprung verbuchen oder sie sind optimistisch und laufen Gefahr nicht abliefern zu können. In jedem Fall bestimmt AMD wann es soweit ist. Denn nach dem Polaris Release muss Nvidia irgendwie in die Presse kommen.

Screemer
2016-02-07, 20:06:42
Ich bin mal gespannt ob sich die "nur" dx12 fl12_0 und polaris somit wirklich kein rov und CV unterstützt.

von Richthofen
2016-02-07, 20:23:46
Ich würde mir neben hoffentlich stark ausfallenden Fertigungs- und Architekturverbesserungen eine Art "Secret Sauce" wünschen, mit der man nicht nur den Enthusiasten anspricht, sondern einen Großteil der Kundschaft - eine Art "Must have Feature", welches dann auch direkt durch Mehrverkäufe in bare Münze umgesetzt werden könnte.
Das klingt vllt. ein bisschen nach "Wünsch dir was" aber AMD hat mit Mantle schon einmal positiv überrascht.
Alleinig ein gutes Design reicht in der jetzigen Situation nicht mehr.

Troyan
2016-02-07, 22:16:19
Auch das ist Teil von AMDs Strategie den Druck hier hoch zu halten und Nvidia so wenig Zeit wie möglich zu geben bevor sie Ankündigungen machen müssen. Entweder Nvidia ist konservativ dabei und AMD kann Feature technisch einen Vorsprung verbuchen oder sie sind optimistisch und laufen Gefahr nicht abliefern zu können. In jedem Fall bestimmt AMD wann es soweit ist. Denn nach dem Polaris Release muss Nvidia irgendwie in die Presse kommen.

Oder nVidia veröffentlicht einfach vor AMD. :freak:

Raff
2016-02-07, 22:25:32
AMD kann allerdings jetzt durchstarten, und wenn sie an den richtigen Schrauben gedreht haben, wird Polaris sehr beliebt sein, und auch im zweiten Anlauf schnellstmöglich für High-End-Desktop bzw. HPC/Workstations zur Verfügung gestellt. Ich gehe zwar nicht davon aus, dass man NV im obersten High-End so schnell Konkurrenz machen kann, jedoch wird man durch den Zeitvorteil schneller am Endkunden-Markt sein und dagegen kann wieder nur NVs Marketing (das leider nicht zu unterschätzen ist) arbeiten, und im April ordentlich mit Fakten zu GP100 austeilen, sodass man wieder die Qual des Wartens hat. Wer aber nicht warten will, der greift dann erstmal zu AMD (warten kann man immer).

Hoffentlich geht nichts schief und AMD hat ihre Software unter Kontrolle, sodass man die Fachpresse nicht nur mit technischen Daten überzeugen kann, sondern mit Ergebnissen.

Wir wissen doch alle, dass ein Vorsprung AMDs nicht viel bringt. Siehe HD 5000, siehe HD 7000: AMD hatte vor Nvidias Konter jeweils die ganzen Produktfamilien am Markt. Und was ist passiert? Die meisten Leute haben auf Nvidia gewartet – und dann dort gekauft, auch wenn die Produkte keineswegs besser waren, sondern einfach nur andere Stärken hatten (teils eingeredete ;)). Jetzt, wo ich drüber nachdenke: In genau diesen Fällen habe ich zuletzt bei AMD eingekauft (HD 5870 und HD 7970). Nun ist die Titan X zu geil und war zu teuer, um sie schon zu entsorgen. Aber wenn AMD dieses Jahr vor Nvidia etwas Fettes bringt, werde ich das kaufen und einfach in den Zweitrechner stecken. Die Mainstream-Sparwunder interessieren mich privat nicht die Bohne, undervolten kann ich selbst. :biggrin:

MfG,
Raff

Kartenlehrling
2016-02-07, 22:31:50
Ich bin mal gespannt ob sich die "nur" dx12 fl12_0 und polaris somit wirklich kein rov und CV unterstützt.

Ausführen werden sie es können, es ist nur eine frage der Leistung, genau so wie der Blödsinn mit HEVC-Main 4k, hybrid können das die AMD Karten bis runter zur HD5000.

Locuza
2016-02-07, 22:51:44
Dafür gibt es keine Garantie.
Entweder sie unterstützen es oder sie tun es nicht.

Troyan
2016-02-07, 22:52:52
Es ist keine Frage der Leistung. Wird es nicht unterstützt, entstehen Bildfehler. Es kostet natürlich keine Leistung, da eben auch nichts getan wird.

dargo
2016-02-08, 07:33:18
Oder nVidia veröffentlicht einfach vor AMD. :freak:
Ne Holzatrappe? :D

Zettabit
2016-02-08, 09:28:44
Auch das ist Teil von AMDs Strategie den Druck hier hoch zu halten und Nvidia so wenig Zeit wie möglich zu geben bevor sie Ankündigungen machen müssen.
Das ist aber schon ziemlich verklärend. Beim letzten Fertigungsumstieg (40->28), war AMD vor NVIDIA, ja, ca. 3 Monate.

Allerdings war der AMD-TopDog gerade mal 20% schneller als die Vor-Generation von NVIDIA (GTX580) - da wäre hier ja schon was los, hier wird ja immer von 100% und besser noch mehr geträumt.

Drei Monate später kam dann die GTX680: schneller, sparsamer, leiser.

Also ich sehe nicht, wo AMD da den Druck hochgehalten hat, außer schneller am Markt zu sein. Mit den aktuellen Karten war dann sogar NVIDIA schneller, da gab es gar keinen Druck.

Würde die Frage eher andersherum stellen: Ist nicht AMD unter Druck und ist nicht z.B. die Fury Nano eine Reaktion auf die Energieeffizienz der Maxwell-Karten? Könnte mir durchaus vorstellen, dass es dieses Produkt Nano in der ursprünglichen Planung nie gab und man das nach Präsentation der ersten Maxwell-karten schnell angefangen hat zu entwickeln, um in dieser Kategorie mithalten zu können.

Datarecovery09
2016-02-08, 10:52:16
Es ist keine Frage der Leistung. Wird es nicht unterstützt, entstehen Bildfehler. Es kostet natürlich keine Leistung, da eben auch nichts getan wird.

Dähä? Ich dachte, zumindest CV könne auch ohne dedizierte Hardwareunterstützung geliefert werden?
https://developer.nvidia.com/content/dont-be-conservative-conservative-rasterization
Oder habe ich da was falsch verstanden? :confused:

Sunrise
2016-02-08, 11:16:05
Auch das ist Teil von AMDs Strategie den Druck hier hoch zu halten und Nvidia so wenig Zeit wie möglich zu geben bevor sie Ankündigungen machen müssen. Entweder Nvidia ist konservativ dabei und AMD kann Feature technisch einen Vorsprung verbuchen oder sie sind optimistisch und laufen Gefahr nicht abliefern zu können. In jedem Fall bestimmt AMD wann es soweit ist. Denn nach dem Polaris Release muss Nvidia irgendwie in die Presse kommen.
AMD ist leider auch in der Position, bestimmen zu müssen, und wieder wie vor einigen Jahren zuerst auf der neuen Fertigung zu liefern. NV könnte sich theoretisch mit aktuellem Line-Up ohne jegliche Sorgen ausruhen, bis von AMD was kommt, und wartet eigentlich nur darauf, dass AMD ihnen wieder Konkurrenz macht. Denn die Margen, die NV aktuell fährt sollten aktuell am obersten Limit sein, da 28nm spottbillig geworden ist und die Architektur so gut ist, dass sie absolut nichts machen müssten. Der Druck, wie du ihn nennst ist also eher bei AMD.

Dahingegen ist der einzige Druck, den NV hat, der, dass sie im HPC-Markt schnellstmöglich liefern müssen. GP104 wird erst dann kommen, wenn sie müssen, um sich wieder besser zu positionieren, weil ich nicht davon ausgehe, dass der in der Fertigung billiger ist als GM204 und somit bei NV automatisch die Margen leiden würden.

Nvidia hat ja den April bereits fest gebucht, insofern muss da AMD jetzt auch relativ bald mit Fakten kommen und damit meine ich nicht unbedingt schon Benchmarks. Allerdings wird man bei Feature-Unterlegenheit evtl. genau das tun und vor allem die Leistung pro TDP (Effizienz) bewerben, sofern nicht sofort auch ein größer Chip (wonach es aussieht) folgt und dieser erst spätestens Anfang 2017 erscheint.

Dahingegen hat NV auch mit einem GP100 und GP104 die besten Werbemittel, da ist es auch fast schon egal, ob GP100 für Endkunden aufschlägt. Wenn das Nvidia-Marketing geschickt arbeitet, dann werden sie wieder öffentlich Feature-Kriege führen, worauf AMD dann wieder kontern muss.

Man hält sich damit dann solange über Wasser, dass viele 980 Ti und Titan X-Käufer einfach ein paar Monate länger warten, auch wenn AMD bereits am Markt ist. Da wir aber wissen, dass AMD in die volumenträchtigeren Märkte zuerst möchte, wird das ein interessantes "Gegeneinander-Abwägen" werden.

Leider hat die Vergangenheit auch gezeigt, dass NV das viel bessere (weil durchdringender) Marketing hat, weil sie genau wissen, was ihre Zielgruppe möchte. Selbst als ATI damals die besseren Features und Geschwindigkeit hatte, wurde NV gekauft ohne Ende. Das ist ähnlich dem AMD vs. Intel-Verhältnis bei CPUs, nur mit dem Unterschied, dass Intel heute auch tatsächlich die bessere Leistung und Features liefern kann.

Wir wissen doch alle, dass ein Vorsprung AMDs nicht viel bringt. Siehe HD 5000, siehe HD 7000: AMD hatte vor Nvidias Konter jeweils die ganzen Produktfamilien am Markt. Und was ist passiert? Die meisten Leute haben auf Nvidia gewartet – und dann dort gekauft, auch wenn die Produkte keineswegs besser waren, sondern einfach nur andere Stärken hatten (teils eingeredete ;)). Jetzt, wo ich drüber nachdenke: In genau diesen Fällen habe ich zuletzt bei AMD eingekauft (HD 5870 und HD 7970). Nun ist die Titan X zu geil und war zu teuer, um sie schon zu entsorgen. Aber wenn AMD dieses Jahr vor Nvidia etwas Fettes bringt, werde ich das kaufen und einfach in den Zweitrechner stecken. Die Mainstream-Sparwunder interessieren mich privat nicht die Bohne, undervolten kann ich selbst. :biggrin:

MfG,
Raff
Der NV-Faktor ist natürlich immer präsent, das wird AMD auch schwerlich mit einer Generation um 180 Grad drehen können.

Allerdings sollten wir nicht vergessen, dass so ein GP100 oder GP102 im Endeffekt enorm teuer wird und man darauf auch sicher noch einige Zeit warten muss, wonach AMD bereits in vielen Märkten (außer Enthusiast-Desktop) präsent wäre und liefern kann. AMD muss ja vor allem wieder Geld verdienen, daher sehe ich das auch trotz dem NV-Vorteil wieder als Chance, hier Fuß zu fassen. Sollte AMD sogar drei Chips bringen (wovon ich nicht ausgehe), dann wäre das sogar noch das i-Tüpfelchen.

GP104 wird leider dennoch ein gefährlicher Gegner, denn wenn der weit nach unten skalierbar ist (sagen wir bei etwa 280-300mm²), dann wird es für AMD nur ein sehr enges Zeitfenster geben, dass sie unbedingt mit allen erdenklichen Marketing-Mitteln nutzen müssen.

Ein Titan X-Käufer wie du kann ohnehin noch bis Anfang des nächsten Jahres warten, das war bisher auch immer die beste Investition (weshalb ich normalerweise auch immer zum Big-Chip greife).

Complicated
2016-02-08, 11:17:13
Wir wissen doch alle, dass ein Vorsprung AMDs nicht viel bringt. Siehe HD 5000, siehe HD 7000: AMD hatte vor Nvidias Konter jeweils die ganzen Produktfamilien am Markt. Und was ist passiert? Die meisten Leute haben auf Nvidia gewartet – und dann dort gekauft, auch wenn die Produkte keineswegs besser waren, sondern einfach nur andere Stärken hatten (teils eingeredete ;)).
Das ist aber schon ziemlich verklärend. Beim letzten Fertigungsumstieg (40->28), war AMD vor NVIDIA, ja, ca. 3 Monate.

Allerdings war der AMD-TopDog gerade mal 20% schneller als die Vor-Generation von NVIDIA (GTX580) - da wäre hier ja schon was los, hier wird ja immer von 100% und besser noch mehr geträumt.

Drei Monate später kam dann die GTX680: schneller, sparsamer, leiser.

Also ich sehe nicht, wo AMD da den Druck hochgehalten hat, außer schneller am Markt zu sein. Mit den aktuellen Karten war dann sogar NVIDIA schneller, da gab es gar keinen Druck.
Aktuell gibt es einen gravierenden Unterschied zu früher. AMD hat sowohl in 40nm als auch in 28nm bei TSCM als "Firstmover" den Weg auch für die Konkurrenz geebnet. 6 Monate später dann optimiert besser raus zu kommen ist deutlich einfacher. Nur ist diesmal Polaris in 14nm und nicht im TSMC Prozess den Nvidia nutzt. AMD wird den 16nm Chip nach Nvidia bringen und den Spieß umdrehen.

Nvidia war noch nie als erster in den Markt bei einem neuen Prozess gegangen - diesmal müssen sie dies tun und zusätzlich aufholen bei DP-Performance ür den Profisektor und DX12 Features wie Asynchronous Compute in Hardware. Und dann kommt noch hinzu, dass Nvidia noch kein Interposer Design hergestellt hat bis zum heutigen Tag. Also ich sehe die Herausforderungen für Nvidia den Marktanteil zu halten deutlich größer, als AMDs Chance auf einen deutlichen Zugewinn in der 14nm Generation.

Sie haben zwar Federn gelassen auf dem Weg hierher durch Nvidias sehr gutes fokussieren auf Effizienz, doch dafür haben sie jetzt eine gute Position.

Raff
2016-02-08, 11:26:38
2003 -> Geforce FX 5800 -> erste GPU in 130 nm. ;) Das ging nicht gut aus, aber die Fertigung war noch das kleinste Problem.

MfG,
Raff

Troyan
2016-02-08, 11:31:50
Dähä? Ich dachte, zumindest CV könne auch ohne dedizierte Hardwareunterstützung geliefert werden?
https://developer.nvidia.com/content/dont-be-conservative-conservative-rasterization
Oder habe ich da was falsch verstanden? :confused:

Dafür muss die Codebasis angepasst werden.
Ohne Unterstützung von Hardware-CR gäbe es Bildfehler, da die Rasterizer nicht fein genug arbeiten können, jedoch der Effekt darauf ausgelegt ist.

Sunrise
2016-02-08, 11:35:59
Dafür muss die Codebasis angepasst werden.
Ohne Unterstützung von Hardware-CR gäbe es Bildfehler, da die Rasterizer nicht fein genug arbeiten können, jedoch der Effekt darauf ausgelegt ist.
Dann werden eben zwei Codepfade im Code berücksichtigt, mit Vendor- bzw. Feature-Erkennung, oder du machst eine Abfrage und bietest eine Fallback-Alternative im Code an, wo ist das Problem? Klingt ja wie rocket science.

"Es entstehen Bildfehler", wenn ich das schon wieder lese... :rolleyes:

Zettabit
2016-02-08, 11:40:13
Aktuell gibt es einen gravierenden Unterschied zu früher. AMD hat sowohl in 40nm als auch in 28nm bei TSCM als "Firstmover" den Weg auch für die Konkurrenz geebnet. 6 Monate später dann optimiert besser raus zu kommen ist deutlich einfacher. Nur ist diesmal Polaris in 14nm und nicht im TSMC Prozess den Nvidia nutzt. AMD wird den 16nm Chip nach Nvidia bringen und den Spieß umdrehen.

Nvidia war noch nie als erster in den Markt bei einem neuen Prozess gegangen - diesmal müssen sie dies tun und zusätzlich aufholen bei DP-Performance ür den Profisektor und DX12 Features wie Asynchronous Compute in Hardware. Und dann kommt noch hinzu, dass Nvidia noch kein Interposer Design hergestellt hat bis zum heutigen Tag. Also ich sehe die Herausforderungen für Nvidia den Marktanteil zu halten deutlich größer, als AMDs Chance auf einen deutlichen Zugewinn in der 14nm Generation.

Sie haben zwar Federn gelassen auf dem Weg hierher durch Nvidias sehr gutes fokussieren auf Effizienz, doch dafür haben sie jetzt eine gute Position.
Ich verstehe nicht, was du sagen willst. Erst soll laut deiner Aussage AMD Druck machen und früher veröffentlichen - und jetzt erscheinen die Chips doch plötzlich später. Passt irgendwie nicht zusammen.

Wie Sunrise ja so schön schrieb: Aktuell hat NVIDIA exakt null Druck. Die haben sehr erfolgreiche Produkte am Markt, der Marktanteil liegt überdurchschnittlich hoch (war ja mal >80%, wird aktuell immer noch irgendwo in der Region liegen) und hatten das beste Geschäftsjahr aller Zeiten. Wo AMD steht wissen wir.

Nehmen wir als Beispiel mal die DP-Performance: Da war NVIDIA schon immer hinter AMD, zum Teil deutlich weiter hinten dran als Heute (Fury hat z.B. auch keine 1/2-DP-Performance) und trotzdem ist der AMD Marktanteil nahezu nicht-existent in diesem Bereich. Warum sollte das 2016 plötzlich ein Problem sein?

Aktuell verkaufst du nur ein Bärenfell, dessen Träger du noch nicht erlegt hast. Solange wir nicht beide Produkte kennen, ist das die reinste Glaskugel, wer da wen unter Druck setzt. Aktuell ist definitiv AMD unter Druck und muss etwas zeigen. NVIDIA kann abwarten.

Complicated
2016-02-08, 11:50:24
Ich verstehe nicht, was du sagen willst. Erst soll laut deiner Aussage AMD Druck machen und früher veröffentlichen - und jetzt erscheinen die Chips doch plötzlich später. Passt irgendwie nicht zusammen.
Nun im Gegensatz zu Nvidia fertigt AMD in 14nm bei Globalfoundries. Nvidia kommt in 16nm TSMC. AMD kann 14nm Releasen ohne Vorarbeit für Nvidia gemacht zu haben und erst nach Nvidia den 16nm High-Performance Chip aus TSMC Fertigung launchen.

Durch das Releasen von 14nm Chips in egal welcher Leistungsklasse ist die 28nm Produktpalette obsolet und wird nicht mehr gekauft. Nvidia muss seine 16nm Chips schnellst möglich nach AMD bringen. AMD kann sich den schnellsten Chip für die 16nm TSMC Fertigung aufbewahren.

Polaris muss nicht viel schneller als Fiji sein um das zu bewerkstelligen.


Solange wir nicht beide Produkte kennen, ist das die reinste Glaskugel, wer da wen unter Druck setzt. Aktuell ist definitiv AMD unter Druck und muss etwas zeigen. NVIDIA kann abwarten.Ich verstehe nicht so ganz was dich daran verwirrt in einem Spekulationsthread? Willst du nun das spekulieren unterbinden? Oder ist es etwas anderes das dich hier aufbringt, vielleicht die fundierte Grundlage der Spekulation?

HOT
2016-02-08, 12:04:22
AMD muss NV einfach mal über einen längeren Zeitraum performancemäißg schlagen und sich sonst keine Schwächen wie Treiber, zu hohe Ineffizienz, Lautstärke usw. leisten. Dann wird man auch deutlich mehr verkaufen.
Die Small Chip Strategie war im Nachhinein ein Fehler. Das Aufgeben des Ati Labels auch.
Die Marke Ati stand Nvidia im Nichts nach und bot von der 9700Pro bis zur X1950XTX duchweg die bessere Performance. Bei Lautstärke, Treiber und vor allem Effizienz hat man sich damals noch nicht so angestellt.
Die 4870 war mit ihren nur 250mm² DIE-Size eine super Karte und Nvidia brauchte doppelt so viel Platz für etwas mehr Leistung.
Trotzdem hätte man den Chip auch deutlich größer bauen können und Nvidia abziehen können, die mit ihren 576mm² für GT200 schon am Limit waren. Hat man aber nurmal nicht; wäre nach dem R600 Debakel mMn besser gewesen.
So hatte man seit dem immer nur den 2. schnellsten Chip (7970Ghz war da eine kurze Ausnahme).
ATI war keine bessere Marke, selbst in Höchstzeiten (X800) war ATI nur wenige Monate über den NV-Verkäufen. Und in der X800-Zeit konnte ATI einfach besser liefern, da NV ja das IBM-Experiment mit der 6000er-Serie wagte, das ja einigermaßen schieflief. Selbst mit X1900 und 9700 war ATI nicht vorne. Aus der Sicht war die Small-Chip-Strategie absolut richtig, da keine Aussicht bestand NV vom Markenthron zu stoßen und die Kosten in Grenzen gehalten werden mussten. Erst GCN änderte das, da GCN erstmals für Konsolen und den Profibereich ausgezeichnete Hardware bietet.

AMD tut grade alles dafür, um die alten Imageprobleme loszuwerden. Ich bin mir auch sicher, dass man den DX11-Treiber von Grunde her neu gestaltet. Das dauert aber alles seine Zeit. Während viele Softwareprojekte angeschoben wurden, gab es beim Crimson keinen nennenswerten Fortschritt im DX11-Treiber. Die Software, die Displayengine und einige wurde neu geschrieben, aber der eigentliche Treiber ist nicht weit vom letzten halbwegs großen Update 15.15 entfernt. Da Su das Treiberteam massiv aufgestockt hat und in 2015 offenbar CPU-Experten eingetellt hat, wird da schon was passieren.

Das Problem ist, selbst wenn AMD die DX11-Performance in den Griff bekommt und Polaris auch gut ist, ist NVidia weiterhin übermächtig, AMD kann sich noch so abstrampeln, die kommen gegen die Marke NVidia (nicht etwa Geforce) nicht an. Ein 14nm-500mm²+-Monster mit aktuellem Featureset auf Gaming optimiert würde evtl. wirklich was reißen, aber erst jetzt hätte AMD die Technologie dafür. Das war mMn mit VLIW und auch in 28nm nicht zu machen. Ich geh stark davon aus, dass das Projekt auch kommt und Vega11 heißt.

AMD braucht einen weiteren massiven Erfolg wie den 9700, um sich weiter "freizustrampeln".

Kriton
2016-02-08, 12:19:02
Das ist aber schon ziemlich verklärend. Beim letzten Fertigungsumstieg (40->28), war AMD vor NVIDIA, ja, ca. 3 Monate.

Allerdings war der AMD-TopDog gerade mal 20% schneller als die Vor-Generation von NVIDIA (GTX580) - da wäre hier ja schon was los, hier wird ja immer von 100% und besser noch mehr geträumt.

Drei Monate später kam dann die GTX680: schneller, sparsamer, leiser.

Also ich sehe nicht, wo AMD da den Druck hochgehalten hat, außer schneller am Markt zu sein. Mit den aktuellen Karten war dann sogar NVIDIA schneller, da gab es gar keinen Druck.


Vergleiche mal wo die 7970 und die 680 jeweils heute stehen...

Also ehrlich: Wenn man auf der einen Seite an NVIDIA zweifelt, weil die einen doch relativ einfachen Interposer erstmal bauen müssen, dann wäre ich spätestens beim Wort "GlobalFoundries" ziemlich leise :freak:

Ich sag nur "Bulldozer".

Das Zusammenbauen ist wohl eher das Problem als der Interposer an sich. Und das Thema BD war doch eher das Design, und nicht der Prozess, oder (wie bei Netburst)?

Sunrise
2016-02-08, 12:38:30
Vergleiche mal wo die 7970 und die 680 jeweils heute stehen...
Das hilft nur weder den unmittelbaren Verkäufen zur Lebzeit, noch hilft es, weil die Karten für Vieles mittlerweile zu langsam sind. Damals gab es die X1800 (basierend auf R520), die bei ATI relativ gut ausbalanciert war. Da ATI aber wusste, dass die Gaming-Welt deutlich Shader-intensiver wird, hat man dann noch R580(+) nachgeschoben, mit der dreifachen Shaderkonfiguration. Das hat nur leider keinen mehr interessiert, auch wenn die Karten nach 2-3 Jahren dann Kreise um NV gedreht haben. Als der Shaderwandel stattfand waren sie einfach zu langsam. Die Kunst ist, während der Lebzeit von bestimmten angesagten Features diese zu integrieren und voll auf Leistung und Effizienz zu setzen. Das gelingt nicht immer, aber es ist auch nicht so, dass ein IHV das einfach mal so in 6 Monaten ändern könnte.

Dass man später kommt und das dann besser ist, ist ein verklärtes Argument, weil es komplett ignoriert, dass in einer optimalen Situation (ohne Yield-Schwierigkeiten und begrenzten Ressourcen) das komplette Line-Up inkl. neuem Big-Chip kommen müsste, damit man durchgehend eine neue Generation für jeden Markt präsentieren kann.

Beim "später kommen" erhoffen sich einige scheinbar immernoch, dass man in der Zwischenzeit Änderungen am Design machen kann, damit man ganz urplötzlich schneller als die Konkurrenz ist.

Dass man später kommt hat aber in der Regel ganz andere Gründe. Das hat mit Taktik relativ wenig zu tun, sondern mit Kosten, der Fertigungsrealität und der Validierungszeit (siehe Zen).

Troyan
2016-02-08, 12:44:30
Die Leute reden hier so als ob nVidia mit 28nm irgendwelche Probleme hatte. Die haben GK108 und GK104 2 Monate nach AMD rausgebracht und GK110 ganze 18 Monate vor Hawaii...

Hübie
2016-02-08, 13:18:33
Zumal die 680 nur wegen Boost später kam. nVidia konnte gar nicht fassen dass Tahiti letztendlich so schwach ausfiel und hat kurzerhand entschlossen gezielt Taktraten und Spannungen zu steuern anstatt über binning ein Mittelwert zu nehmen. So konnte man Tahiti sogar schlagen. Das die Presse dann öfter mal (diplomatisch ausgedrückt) optimierte Modelle erhielt ging im Hype ebenso unter, wie die Tatsache dass Tahiti von vorn herein die langfristigere Investition war.

Blediator16
2016-02-08, 13:43:04
Zumal die 680 nur wegen Boost später kam. nVidia konnte gar nicht fassen dass Tahiti letztendlich so schwach ausfiel und hat kurzerhand entschlossen gezielt Taktraten und Spannungen zu steuern anstatt über binning ein Mittelwert zu nehmen. So konnte man Tahiti sogar schlagen. Das die Presse dann öfter mal (diplomatisch ausgedrückt) optimierte Modelle erhielt ging im Hype ebenso unter, wie die Tatsache dass Tahiti von vorn herein die langfristigere Investition war.

Beide waren Midrangekarten wieso sollte sie erheblich schneller sein als gk104.

Hübie
2016-02-08, 13:50:23
Ach ja? Was war dann deiner Ansicht nach über der HD7970 samt dem Refresh noch angesiedelt? :| Muß ich verpasst haben.

Edit: Für das Protokoll: GK104 war 11 Monate top dog; Tahiti noch weitaus länger (~1,5 Jahre?). Habs gerade nicht im Kopf.

AnarchX
2016-02-08, 14:36:26
Der Interposer kommt von UMC. GF soll erstmal zeigen, dass sei eine vernünftige >100mm² GPU fertigen können. Der gezeigte Polaris10 mit 800MHz war alles andere als State-of-Art.

Gipsel
2016-02-08, 15:22:26
GF soll erstmal zeigen, dass sei eine vernünftige >100mm² GPU fertigen können.Polaris 10 ist doch größer als 100mm². :confused:

edit: Ach ja, das vorgeführte Sample lief mit 850Mhz. Finde ich jetzt nicht soo schlecht für ein frühes Sample aus dem Oktober letzten Jahres (zumal es vermutlich die Stromsparvariante im LPP-Prozess war).

Pirx
2016-02-08, 15:28:50
aber nicht vernünftig genug für AnarchX^^

HOT
2016-02-08, 16:29:33
Der Interposer kommt von UMC. GF soll erstmal zeigen, dass sei eine vernünftige >100mm² GPU fertigen können. Der gezeigte Polaris10 mit 800MHz war alles andere als State-of-Art.

GloFo fertigt Kaveri und Carrizo, hinzu kommen noch Icelands (offenbar). Das mit der GPU ist kein Problem.

Wenn GF dann tatsächlich einen GPU-Chip >300mm² in 14nm in Mass Production hat, die Yields passen und die Chips was taugen, dann kannst du dich gern melden. Sonst sind die Verweise auf irgendwelche Smartphone-Chips mit einer Verlustleistung von nicht mal 5% einer mittleren GPU eine reine Nebelkerze.[...]
Das stimmt doch auch nicht. Samsung fertigt 14LPE für Apple, lt. denen ist 14LPE kleiner und sparsamer und 16FF+ leistungsfähger. GloFo setzt sogar Samsung 14LPP ein. Schwierig GloFo zu bashen, wenn die einen vernünftigen Prozess einsetzen, der schon läuft, oder? Wenn sich AMD für GloFo bei Baffin und Ellesmere (Polaris 11 und 10) entschieden hat, machen die das sicher nicht ohne Grund. Und dass es da schon haufenweise Samples gibt, spricht dafür, dass das auch klappt. Nicht vergessen, die werden auch SummitRidge und Zepplin fertigen, das sind CPUs mit hohen Taktraten, das ist noch mal ne ganze Ecke schwieriger als GPUs.

Ich seh auch immer noch nicht, was GloFos GPU-Fertigung mit dem UMC-Interposer zu tun hat. Für UMC ist das doch furzpiepegal, ob die GPU von GloFo oder TSMC kommt.

horn 12
2016-02-08, 17:30:00
Performance Wunder werden wir uns dieses Jahr nicht erwarten dürfen...
Nun gut, mit einer Fury X oder GTX 980TI fährt man dieses Jahr sicher noch gut, wenn den Fury´s nicht der Ram ausgeht :-(
Dies ist das "Einzig" Wichtige und Relevante was Polaris besser machen wird, außer dem besseren Stromverbrauchaber dies ist nicht Allen soo wichtig, denn man(n) muss ja die betagte "Alte" Karte noch loswerden.

AnarchX
2016-02-08, 19:13:06
GloFo fertigt Kaveri und Carrizo, hinzu kommen noch Icelands (offenbar). Das mit der GPU ist kein Problem.

6-8 CUs ist eher Low-End und man hat lange benötigt, bis die GPUs vergleichbar zu TSMC liefen.

Polaris 10 ist doch größer als 100mm². :confused:

edit: Ach ja, das vorgeführte Sample lief mit 850Mhz. Finde ich jetzt nicht soo schlecht für ein frühes Sample aus dem Oktober letzten Jahres (zumal es vermutlich die Stromsparvariante im LPP-Prozess war).
Dann hoffen wir das Beste, bisher hatte AMD GF ja nicht mit besonders anspruchsvollen Aufgaben bezüglich GPUs beauftragt.
Aber wenn man mit GF noch eine Fertigungsalternative schaffen kann, wo brauchbare Mobile-GPUs herauskommen, die nicht deutlich über 1GHz takten können, ist der Schritt vielleicht verkehrt.

fondness
2016-02-08, 19:22:46
6-8 CUs ist eher Low-End und man hat lange benötigt, bis die GPUs vergleichbar zu TSMC liefen.


Das ist nicht vergleichbar. TSMC kann den Prozess bei dGPUs voll auf GPUs optimieren, beim Carrizo-Soc müssen sowohl sehr hohe Taktraten (~4Ghz) für den CPU-Teil möglich sein und gleichzeitig sehr hohe Packdichten und geringe Leistunhgsaufnahme für den GPU-Teil. Das führt zwangsläufig zu Kompromissen. Nicht ohne Grund will AMD in Zukunft CPU- und GPU-Teil wieder trennen.

AnarchX
2016-02-08, 19:28:02
Aber kann GF ähnlich optimieren, wenn man hauptsächlich SoCs/CPUs mit >2GHz Blocks fertigt?

Pirx
2016-02-08, 19:31:31
... Nicht ohne Grund will AMD in Zukunft CPU- und GPU-Teil wieder trennen.
Das ist sicher? Schon bei der APU nach Bristol-Ridge?

fondness
2016-02-08, 19:44:24
Das ist sicher? Schon bei der APU nach Bristol-Ridge?

Zeitangabe gibt es keine. Aber AMD hat das Problem der unterschiedlichen Anforderungen von GPU und CPU-Fertigung nicht nur einmal angesprochen und auch die Lösungen in Form eine Interposers für die Zukunft erwähnt. Von daher ist das alles kein Geheimnis.

Gipsel
2016-02-08, 20:39:32
Ist jetzt auch mal gut?

edit: Falls sich jemand wundert, wo sein Post geblieben ist, ich habe mal etwas aufgeräumt.

horn 12
2016-02-08, 20:45:42
AMD´s Hauptaufgabe wurde mit Bravour gemeistert, da kommt eben nicht Nvidia so mal schnell ums Eck! Zudem AMD wohl zumindest bei Hynics immer bevorzugt bleibt und Samsung muss erst mal liefern können! In Massenfertigung heist eben noch nicht lieferbar.

Godmode
2016-02-08, 23:21:17
Der Interposer kommt von UMC. GF soll erstmal zeigen, dass sei eine vernünftige >100mm² GPU fertigen können. Der gezeigte Polaris10 mit 800MHz war alles andere als State-of-Art.

Irgendwie kommt mir die Diskussion über den Interposer doch recht seltsam vor. Fast so wie damals, als niemand NV eine Unified-Shader-Architektur zugetraut hat. Natürlich ist ein Interposer kein triviales Problem, aber wenn man die Wichtigkeit dieses Bauteils betrachtet, kann man schon davon ausgehen, dass dort genug R&D rein geflossen ist.

Gipsel
2016-02-09, 00:03:12
Wie schon mal Jemand bemerkte, ist das eigentliche Problem das Zusammenlöten der einzelnen Parts. Hier muß man Knowhow aufbauen (oder einkaufen) und dann erfolgreich die Anstrengungen von drei bis vier Firmen koordinieren.
Allerdings ist diese eher allgemeinere Diskussion vermutlich hier im Thread etwas fehl am Platz.

AnarchX
2016-02-11, 11:20:56
dGPU project F: (Global Foundry/SAMSUNG 14LPP, 430 blocks, 232mm2)
https://www.linkedin.com/in/jurgen-hao-8483a768

Wobei da wohl nur Floorplans entworfen wurden, die nicht unbedingt realisiert wurden: 220mm² 28nm GF.

HOT
2016-02-15, 10:03:32
ProjektD: Polaris10
ProjektE: Polaris11
ProjektF: Vega10

würd ich sagen. Damit wär Polaris11 ca. Fiji-Klasse (Sommer?), Vega10 ca. Hawaii-Klasse (HBM?, geplant für 2017) und Polaris10 ca. Tahiti-Klasse (Sommer).

Ailuros
2016-02-15, 10:26:26
Alles was mit P oben anfaengt eher frueher und das Ding mit dem V fuer's dritte Quartal projeziert ;)

Nakai
2016-02-15, 14:05:36
Raja meinte mit 2 GPUs wohl eher Polaris und Vega. Beide Polaris sind wohl GF/Samsung während Vega von TSMC kommt. Vega10 hat wohl HBM2, also 2 Stacks und 512 GBps. Die anderen Beiden sind Gddr5/x.

Ich hoffe AMD klotzt statt kleckern und verbaut eine ordentliche Anzahl an CUs welche besser skalieren.

Polaris10 wird etwa auf Pitcairn+ sein, P11 auf Hawaii und V10 über Fiji.

AffenJack
2016-02-15, 14:26:47
Ich glaube da noch immer nicht dran. Ich denke Polaris 10/11 sind die einzigen Gpus von AMD dieses Jahr und Vega10 kommt dann Anfang 2017. 2 Gpus als Rajas Aussage ist noch immer der beste Ansatzpunkt den wir haben und ich denke nicht, dass es für 2 Familien steht, außer das ganze war ne absichtliche Finte.

Ravenhearth
2016-02-15, 14:38:35
Andererseits könnten 2 GPUs auch zu wenig sein. Wir werden sehen.

Agent117
2016-02-15, 14:40:00
https://www.linkedin.com/in/jurgen-hao-8483a768

Wobei da wohl nur Floorplans entworfen wurden, die nicht unbedingt realisiert wurden: 220mm² 28nm GF.

Hab mir erstmal nichts dabei gedacht, als ich Floorplan gelesen habe aber auffallen tut ja schon, dass für Project F die genaue Größe angegeben ist, während das sonst nur grobe Angaben sind, die auch zu keinen bisherigen 28nm Chips wirklich passen.

Tun wir mal so als stände folgendes sicher fest:
1) Polaris 11 = 232mm²
2) 28nm-->14nm LPP = Flächenhalbierung
3) Verhältnis Größe der CUs zu gesammter CHipgröße ist in etwa ähnlich wie bei bisherigen GCN Designs mit GDR Interface und liegt bei ca. 45 bis 55%.
4) Polaris Neuerungen (Geometry-Einheit, Command Prozessor, vlt deutlich andere Anbinfung der CUs?) kosten kaum DIE-Size.
Ausgehend von Hawaii (in 14nm ca. 220mm² groß) käme dann ein Chip mit 2816 bis 3200SPs raus.
Die Unbekannte ist dann die Auslastung der CUs. Wenn man jedoch Fiji sieht wäre es auch für noch größere Chips der neuen Generation schon krass wenn bei Polaris da garnichts verbessert wurde.

Wenn das alles zuträfe läge es im Bereich des möglichen dass Polaris11 eine Fiji ähnliche Performance erreicht, jedoch vor allem langfristig deutlich billiger angeboten werden kann dank GDR5X und nur 232mm² Größe.

Nakai
2016-02-15, 15:22:36
Es sind definitiv 3 GPUs. Die Frage ist eher wie AMD die Produkte launcht. Ich denke Polaris wird erst für OEMs kommen und dann erst im H2 als Serie gelauncht werden. Man braucht einen Topdog. Ein Fiji mit HBM2 braucht einen neuen Interposer und wäre als R490 in der Form einer Nano mit 8GB gar nicht verkehrt. Mit 175w wäre der Chip voll io und wäre durchweg schneller als die R390.

Vega 10 könnte als eine Fury2 erscheinen und mit 350mm2 ein gutes Stück vor Fiji landen.

Wenn man die Chips organisiert und skaliert, denke ich, wird 2x P10 = P11 und V10 = ~1,5 xP11. V10 wird eine höhere DP- Rate haben.

P10
2 Shaderengines
Pro SE 512~768 SPs
1024~1536SPs
32 ROPs
1~2MB L2
128Bit

P11
4 SEs
Pro SEs 512~768 SPs
2560~3072 SPs
1~2MB L2
256 Bit

Zu V10 wird es interessanter

HOT
2016-02-15, 15:58:36
Ich glaube da noch immer nicht dran. Ich denke Polaris 10/11 sind die einzigen Gpus von AMD dieses Jahr und Vega10 kommt dann Anfang 2017. 2 Gpus als Rajas Aussage ist noch immer der beste Ansatzpunkt den wir haben und ich denke nicht, dass es für 2 Familien steht, außer das ganze war ne absichtliche Finte.
Hm, wenn man das so erwähnt könnte das auch eine gezielte Fehlinfo sein. Das muss nicht unbedingt der Wahrheit gewesen sein. So ein konkretes Statement ist immer auch ein bisschen verdächtig. Sicherlich ist es sehr wahrscheinlich, dass es der Wahrheit entspricht, aber überraschen würde es micht auch nicht, wenn wir plötzlich doch 3 GPUs sehen.

iuno
2016-02-15, 16:05:17
P11
4 SEs
Pro SEs 512~768 SPs
2560~3072 SPs
mhm... nur ist 4x512 nicht 2560, sondern 2048 :tongue: Und die Spanne die du nennst ist mit Verlaub riesig.
Je nachdem, wie gross 11 wirklich wird und wie hoch sich der Takt jagen laesst, macht Fiji macht im FinFET Zeitalter auch mit 8 GiB immer noch wenig Sinn.
Es nuetzt auch nichts, das Zeug hier immer zu wiederholen, wenn es keine neuen Infos gibt :rolleyes:

Hm, wenn man das so erwähnt könnte das auch eine gezielte Fehlinfo sein. Das muss nicht unbedingt der Wahrheit gewesen sein. So ein konkretes Statement ist immer auch ein bisschen verdächtig. Sicherlich ist es sehr wahrscheinlich, dass es der Wahrheit entspricht, aber überraschen würde es micht auch nicht, wenn wir plötzlich doch 3 GPUs sehen.
Wie war noch der genaue Wortlaut? Vielleicht hat er P10 ja noch zu 2015 gezaehlt und P11/V10 sind die beiden fuer 2016 ;D :P

Ravenhearth
2016-02-15, 16:21:46
Jup, Fiji als Nano mit 8GB wäre nicht wirklich konkurrenzfähig. Man hätte GTX 980-Performance oder etwas mehr bei ähnlichem Stromverbrauch... das ist trotz 8GB sooo Last-Gen. :D Davon abgesehen ein veraltetes Feature-Set und ein extrem teurer Chip durch 600mm² und HBM. Zumal AMD auch heute selektieren muss, nicht jeder Fiji wird eine Nano. Da ist es vor allem langfristig billiger (und besser), bspw. einen 232mm²-Chip mit max. 3072 SPs in 14/16nm aufzulegen, den etwas höher zu takten und mit 8GB GDDR5X an 256 bit zu bestücken.

Wie war noch der genaue Wortlaut? Vielleicht hat er P10 ja noch zu 2015 gezaehlt und P11/V10 sind die beiden fuer 2016 ;D :P

Er sagte iirc, dass es dieses Jahr zwei Polaris-GPUs geben wird: Polaris10 und Polaris11 (die er auch so nannte). AAABER die dritte heißt ja gar nicht PolarisXYZ, sondern Vega10! :eek: Ist da noch niemand drauf gekommen?

Nakai
2016-02-15, 16:46:10
@iuno: ich kann rechnen, aber 2000 SPs sind eindeutig zu wenig. Ahja, ich bin immer noch der Meinung, dass die CUs stark umgekrempelt werden. 4 Simd16 pro 4 TMUs ist eine gute Balance, welche in Zukunft weiter in Richtung SPs gehen wird. Womöglich bringt Polaris hier schon Änderungen. Womöglich auch erst für Vega10 da TMUs für HPC sowieso brach liegen.

Fiji war eher ein Pipecleaner für HBM. Bestehende Architektur welche völlig aufgeblasen wurde. kein Wunder dass man an den Grenzen der Skalierbarkeit angelangt. Wenn Polaris da ansetzt gibt es mit gleicher SP-Zahl mehr Performance. Ps4 und XBO haben schon zwei CPs und Anpassungen am Frontend. Ich denke dahin geht die Reise.

iuno
2016-02-15, 16:57:47
Er sagte iirc[...]
Und genau das ist es :tongue:
Ich glaube nicht, denn die Info stammt noch von vor dem RTG Summit, wo "Polaris" erst oeffentlich gemacht wurde.
http://www.forbes.com/sites/patrickmoorhead/2015/11/12/advanced-micro-devicess-head-of-radeon-technologies-group-raja-koduri-talks-about-the-future/#54f218aa7220
He promised two brand new GPUs in 2016, which are hopefully going to both be 14nm/16nm FinFET from GlobalFoundries or TSMC
Nix mit "Polaris". Das Interview ist auch vom 12.11., der Tweet (https://twitter.com/GFXChipTweeter/status/669718173864755200), wo der Name iirc zum ersten Mal gefallen ist, vom 25.11.

@Nakai: und warum nennst du dann ueberhaupt wieder Fiji mit 8 GiB, wenn du da eigentlich meiner Meinung bist?
Fiji hat da nichts mehr verloren, wenn ein Chip mit ~3k SP kommt und die Taktgrenze nicht wieder bei "1 GHz + 0,0% OC" liegt, imho. So schlecht wie Fiji ggue. Hawaii in den meisten Spielen skaliert koennte er theoretisch auch nur etwas ueber 3k SPs haben. Wobei es in der Hinsicht auch wieder verwunderlich ist, dass Fury und Fury X meist doch noch deutlich zu unterscheiden sind. Fiji PRO fehlt doch ausser SPs und den 50 MHz nichts oder?

N0Thing
2016-02-15, 16:59:18
Er sagte iirc, dass es dieses Jahr zwei Polaris-GPUs geben wird: Polaris10 und Polaris11 (die er auch so nannte). AAABER die dritte heißt ja gar nicht PolarisXYZ, sondern Vega10! :eek: Ist da noch niemand drauf gekommen?

Er sprach im Interview von zwei GPUs und bei der Polaris Präsentation wurde von Polaris 10 und Polaris 11 gesprochen.

E:\ Zu spät..

Knuddelbearli
2016-02-15, 17:23:24
Naja die Frage müsste da erstmal lauten wieso heißen die beiden jetzt Polaris der andere aber Vega

Hat Vega eventuell HBM Polaris aber nicht?
dann kann Vega ein mittlerer Chip sein für die Server APU oder es ist der Topdog

iuno
2016-02-15, 17:31:27
Gut moeglich dass das nur Trollerei ist. "Vega" kommt von wccf, da muss man erstmal schon gar nichts glauben. Dann haben sie explizit "Polaris" als Pendant zu Nvidias Kepler, Maxwell, Pascal etc. eingefuehrt. Ein 'starker' Codename, der auch Wirkung hat, nicht wie "GCN", inoffiziell GCN1.0 bis 1.2. Sollte "Vega 10" auch noch dieses Jahr kommen, waere es dumm, das so zu vermarkten. Auch wenn er HBM hat, wird man keinen neuen Codenamen fuer die Architektur vergeben. Ein extra Marketing Name wie fuer Fiji waere dagegen natuerlich moeglich. Vielleicht stellen sie ja das Schema auch nochmal komplett um.
Vielleicht ist Vega Dual-GPU, vielleicht ist "Vega 10" doch irgendein "Pascal", vielleicht gibt es ihn gar nicht und vielleicht ist er eine Generation weiter und kommt erst spaeter.
Wir wissen nur, dass wir nichts wissen und AMD sich offenbar einen Spass daraus macht

Nakai
2016-02-15, 17:37:45
AMD braucht eine HPC GPU. Hawaii ist über 2 Jahre alt.

Für HPC braucht man bestimmte Teile der GPU nicht. Falls AMD V10 auch in HPC APUs einsetzt, wäre es interessant, welchen Weg man mit dieser GPU einschlägt. Der Unterschied zwischen Vega und Polaris könnte auf ein anderen Fertigungsprozess, andere Speichertechnologien, ja sogar eine unterschiedliche Konfiguration der Logikblöcke suggerieren.

Ich weiß nicht wie die TMUs in den CUs integriert sind, aber größere CUs (256 SPs, wäre genau eine Quadengine) könnte andere TMUs Zahlen ermöglichen. Ergo 8/12/16 TMUs.

Raja nannte neue CUs mit deutlich mehr Performance. Wie das gemeint ist, ka.

Locuza
2016-02-15, 17:49:24
Nach den Fudzilla-Folien zu urteilen.
- DP:SP 1:2
- 2048-Bit HBM2 Interface, 512 GB/s
- Global-Memory-Interconnect

Das Memory-Interface sieht sparsam angelegt aus.
Der Chip wirkt wie ein Cross-Over mit Tahiti + Hawaii.
Nicht wahnsinnig groß, aber genug Dampf für beide Markt-Segmente.

M4xw0lf
2016-02-15, 18:08:50
Fudzilla-Folien
Wer wie was? Ich sehe nichts entsprechendes bei Fudzilla.

Locuza
2016-02-15, 18:12:58
Die ständig alten mit den APU HPC-Plänen.
Konkret kommt ja leider nichts nachgeschoben.
Aber immerhin die Folien selber werden immer mehr bestätigt und ich habe keine Zweifel mehr an der Echtheit der (ursprünglichen?) Pläne.

Pick
2016-02-15, 18:17:09
http://forums.anandtech.com/showpost.php?p=38030888&postcount=363
http://forums.anandtech.com/showpost.php?p=38031015&postcount=365

Complicated
2016-02-15, 18:31:15
Das wären 3 GB HBM2 ...hmmm bei einer Dual-GPU mit 4096 SP. Scheint wenig plausibel.

Nakai
2016-02-15, 18:36:04
Evtl ein Fiji? Mit DDR5 und HBM? Mehrere CPs für VR? Sind es zwei GPUs oder nur eine DoppelGPU? Eine GPU mit HBM und die andere mit GDDR5?
Ein MCM bestehend aus HBM-GPU+GDDR5-GPU?
Soll man soviel spekulieren oder es ignorieren?

AnarchX
2016-02-15, 18:52:16
SiSoft hatte schon immer Erkennungsprobleme mit AMD-Karten. Es gibt auch Fury Karten mit solchen Daten: http://ranker.sisoftware.net/show_run.php?q=c2ffccfddbbadbe6dfe9d0e1d9ff8db080a6c3a69bab8dfec3f3&l=en
Bei NV ist das Auslesen über CUDA wohl einfacher.

Thunder99
2016-02-15, 18:52:16
Oder es gibt (leider) wieder keinen TopDog auf Augenhöhe mit GP100/102. Nur ein Counterpart von GP104 und einen der endlich mal unten auf räumt (R7 komplett ersetzt D.h. GCN 1.0/1.1 Chips)

AnarchX
2016-02-15, 18:55:48
Greenland ist ein realer Codename und wird auch in aktuellen UEFI-BIOS genannt, das ist die Quelle der Auslesetools die Greenland, Baffin, Ellesmere unterstützen.

Und laut Fudo soll Greenland (Vega10?) 4 TFLOPs DP mit halber Rate leisten können, was wohl 4-5K SPs entspricht und damit in direkter Konkurrenz zu GP100 steht. Wenn nun die Gamingleistung pro FLOP bei AMD gestiegen ist, hat man hier durchaus eine High-End-Lösung. Womit NV dazu gefordert wäre GP100 schon Ende 2016 an Consumer-Kunden zu liefern.

Thunder99
2016-02-15, 19:04:21
Ok danke für die Berichtigung :)

Complicated
2016-02-15, 19:28:06
Es gibt auch Fury Karten mit solchen Daten: http://ranker.sisoftware.net/show_run.php?q=c2ffccfddbbadbe6dfe9d0e1d9ff8db080a6c3a69bab8dfec3f3&l=en
Das ist exakt der selbe Link auf den sich der Anand-Post bezieht und auch verlinkt.

Edit: nein doch nicht, waren fast identische Werte.

AnarchX
2016-02-15, 19:32:43
Die Erkennung ist einfach suboptimal. Es wurden ja auch schon GCN-GPUs mit 80SP-Basis bei SiSoft kalkuliert, wo man plötzlich an neue GPUs glaubte.

Aber ich glaube beide Hersteller haben, da wohl inzwischen noch einmal die ES-Tester informiert, wie man SiSoft-Benches auch ohne Upload durchführt... :usad:

X.Perry_Mental
2016-02-16, 10:19:38
Ich hoffe, dass ich keine längst geklärte oder völlig absurde Frage stelle:

Wäre es möglich, dass Polaris 10 und 11 deutlich kleiner ausfallen als gedacht, und AMD damit nativ nur Low End und Midrange abdeckt? Die Ausbeute unter 14nm sollte dann eigentlich nicht schlecht ausfallen.

Meine eigentliche Frage bezieht sich jetzt auf den größeren Chip, also Polaris 11: wenn dieser (auch?) ein HBM-Interface hat, müsste er ja sowieso zusammen mit dem Speicher auf einen Interposer. Könnte man dann nicht auch zwei Polaris 11 und die doppelte Menge HBM auf einen größeren Interposer setzen, und so zu einem Performance-Chip kommen? Voraussetzung wäre natürlich eine entsprechende Möglichkeit der internen Kopplung, sodass dieses Konstrukt nach außen wie eine einzige GPU angesprochen werden kann.

Mir ist klar, dass ein größerer Interposer und das Verbauen von zwei GPUs weder einfach noch günstig ist, aber man würde sich andererseits das Tapeout eines doppel so großen Chips sparen - im Hinblick auf die Entwicklungskosten und die frühe 14nm-Fertigung wäre das vielleicht trotzdem ein möglicher weg.

Grüße: Perry

Ailuros
2016-02-16, 10:23:44
Greenland ist ein realer Codename und wird auch in aktuellen UEFI-BIOS genannt, das ist die Quelle der Auslesetools die Greenland, Baffin, Ellesmere unterstützen.

Und laut Fudo soll Greenland (Vega10?) 4 TFLOPs DP mit halber Rate leisten können, was wohl 4-5K SPs entspricht und damit in direkter Konkurrenz zu GP100 steht. Wenn nun die Gamingleistung pro FLOP bei AMD gestiegen ist, hat man hier durchaus eine High-End-Lösung. Womit NV dazu gefordert wäre GP100 schon Ende 2016 an Consumer-Kunden zu liefern.

Greenland wird auch Vega10 genannt und die anderen zwei sind die Polaris Tiere. ;)

Ich hoffe, dass ich keine längst geklärte oder völlig absurde Frage stelle:

Wäre es möglich, dass Polaris 10 und 11 deutlich kleiner ausfallen als gedacht, und AMD damit nativ nur Low End und Midrange abdeckt? Die Ausbeute unter 14nm sollte dann eigentlich nicht schlecht ausfallen.

Meine eigentliche Frage bezieht sich jetzt auf den größeren Chip, also Polaris 11: wenn dieser (auch?) ein HBM-Interface hat, müsste er ja sowieso zusammen mit dem Speicher auf einen Interposer. Könnte man dann nicht auch zwei Polaris 11 und die doppelte Menge HBM auf einen größeren Interposer setzen, und so zu einem Performance-Chip kommen? Voraussetzung wäre natürlich eine entsprechende Möglichkeit der internen Kopplung, sodass dieses Konstrukt nach außen wie eine einzige GPU angesprochen werden kann.

Mir ist klar, dass ein größerer Interposer und das Verbauen von zwei GPUs weder einfach noch günstig ist, aber man würde sich andererseits das Tapeout eines doppel so großen Chips sparen - im Hinblick auf die Entwicklungskosten und die frühe 14nm-Fertigung wäre das vielleicht trotzdem ein möglicher weg.

Grüße: Perry

Ich hatte gestern ein schnelles Gespraech mit jemand der weiss wo es langgeht. Wenn ich sein Kauderwelsch nicht falsch verstanden habe, wuerde ich beim groessten Polaris eher an einen Fiji Ersatz denken.

M4xw0lf
2016-02-16, 10:29:31
Ich hatte gestern ein schnelles Gespraech mit jemand der weiss wo es langgeht. Wenn ich sein Kauderwelsch nicht falsch verstanden habe, wuerde ich beim groessten Polaris eher an einen Fiji Ersatz denken.
Und Vega10/Greenland demnach noch darüber, oder wie war das gemeint?

Ailuros
2016-02-16, 10:36:23
Und Vega10/Greenland demnach noch darüber, oder wie war das gemeint?

Wohl ja; Greenland ist soweit ich es verstanden habe das uebliche Tier dass sowohl fuer desktop high end und Profi-Maerkten benutzt wird. Wenn alles nach Plan laeuft naeher Ende dieses Jahres; wenn nicht Anfang 17'.

M4xw0lf
2016-02-16, 10:57:19
Wohl ja; Greenland ist soweit ich es verstanden habe das uebliche Tier dass sowohl fuer desktop high end und Profi-Maerkten benutzt wird.Mhm mhm, cool.
Wenn alles nach Plan laeuft naeher Ende dieses Jahres; wenn nicht Anfang 17'.
Weniger cool.
Da käme die Aussage von den zwei GPUs für 2016 wieder zum Tragen.

Locuza
2016-02-16, 10:59:49
Also bleibt es traditionell bei der AMD vs. Nvidia Strategie?
AMD scheint mit Greenland kein Monster gebaut zu haben, mit etwas Glück sind es 5K Shader bei weiterhin 512 GB/s (Für Consumer vielleicht etwas mehr?).
Da hat Nvidia mit Big Pascal mit 4096-Bit scheinbar wieder einen größeren Chip am Start.

Sunrise
2016-02-16, 11:05:11
Weniger cool.
Da käme die Aussage von den zwei GPUs für 2016 wieder zum Tragen.
Aber eben genau das, wovon wir hier schon die ganze Zeit ausgehen. Denn ein High-End- bzw. Profi-Produkt benötigt insgesamt einfach mehr Fläche, AMD hatte ja bestätigt, dort auch mitmischen zu wollen (im letzten Earnings Call). Da NVs Prio aber wohl GP100 ist, wegen diversen Verträgen, sollte der auch früher kommen, wenn bei NV nichts schief läuft.

Also bleibt es traditionell bei der AMD vs. Nvidia Strategie?
AMD scheint mit Greenland kein Monster gebaut zu haben, mit etwas Glück sind es 5K Shader bei weiterhin 512 GB/s (Für Consumer vielleicht etwas mehr?).
Da hat Nvidia mit Big Pascal mit 4096-Bit scheinbar wieder einen größeren Chip am Start.
Größer ist die Frage. Von 550mm^2 gehe ich nicht aus. Wobei der Preis für einen reinen Profi-Markt bei entsprechenden Kenndaten auch wieder weniger relevant ist. Denn NV will Intel nicht weiter Fuß fassen lassen. Da muss man gegen das Knights-Landing-Monster schon was Ordentliches bringen, das auch die relative Einfachheit von x86-Code wieder ausgleicht.

Ravenhearth
2016-02-16, 12:05:37
Bisher erinnert mich die neue Generation sehr an Southern Islands. Ein Performance-Chip mit <300mm² (Polaris10 bzw. Pitcairn), der High-End-Performance der letzten Generation (GM200/Fiji bzw. GF110/Cayman) erreicht, ein halb so großes Mainstream-Tier (Polaris11 bzw. Cape Verde) hauptsächlich für Mobile und schließlich ein High-End-Chip mit ordentlich DP (Vega10 bzw. Tahiti). Nur mit dem Unterschied, dass letzterer später kommt.

Duplex
2016-02-16, 12:44:55
AMD musss gegen "GP100 225W" (GTX980 Ti +80%) schon was ordentliches auf den Markt bringen.

Agent117
2016-02-16, 12:57:59
Ich hoffe, dass ich keine längst geklärte oder völlig absurde Frage stelle:

Wäre es möglich, dass Polaris 10 und 11 deutlich kleiner ausfallen als gedacht, und AMD damit nativ nur Low End und Midrange abdeckt? Die Ausbeute unter 14nm sollte dann eigentlich nicht schlecht ausfallen.

Meine eigentliche Frage bezieht sich jetzt auf den größeren Chip, also Polaris 11: wenn dieser (auch?) ein HBM-Interface hat, müsste er ja sowieso zusammen mit dem Speicher auf einen Interposer. Könnte man dann nicht auch zwei Polaris 11 und die doppelte Menge HBM auf einen größeren Interposer setzen, und so zu einem Performance-Chip kommen? Voraussetzung wäre natürlich eine entsprechende Möglichkeit der internen Kopplung, sodass dieses Konstrukt nach außen wie eine einzige GPU angesprochen werden kann.

Mir ist klar, dass ein größerer Interposer und das Verbauen von zwei GPUs weder einfach noch günstig ist, aber man würde sich andererseits das Tapeout eines doppel so großen Chips sparen - im Hinblick auf die Entwicklungskosten und die frühe 14nm-Fertigung wäre das vielleicht trotzdem ein möglicher weg.

Grüße: Perry

Ich bin auch ein Fan dieser Theorie, auch weil AMD hier im Zuge der HBM Entwicklung scheinbar Grundlagenforschung gemacht hat. Habe das hier schonmal aufgegriffen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10911377#post10911377

Wegen der vmtl Q1 17 noch hohen Kosten des Interposer Ökosystems (auch wenn man über die Kosten nichts genaues weiß), könnte ich mir sowas wenn dann für Vega10 vorstellen.
Polaris 10 und 11 werden auch mMn eher kleinere einfache Chips ohne HBM die günstig angeboten werden können.

HOT
2016-02-16, 14:19:43
Also bleibt es traditionell bei der AMD vs. Nvidia Strategie?
AMD scheint mit Greenland kein Monster gebaut zu haben, mit etwas Glück sind es 5K Shader bei weiterhin 512 GB/s (Für Consumer vielleicht etwas mehr?).
Da hat Nvidia mit Big Pascal mit 4096-Bit scheinbar wieder einen größeren Chip am Start.
Würde ich ebenfalls so sehen. Es kann natürlich sein, dass AMD später noch mal sowas wie Fiji auflegt, einen größeren Vega-Chip rein fürs Gaming beispielsweise.

Oder aber das stimmt so doch nicht und Vega10 beerebt den offenbar glücklosen Greenland, welcher ja offenbar das Zeitliche gesegnet hat... Vielleicht fängt man deshalb bei 2 an zu zählen (10 ist ja binär 2), dann war Greenland Polaris1.
Jedenfalls erhärtet sich das schon ziemlich, dass Polaris10 so 1,5-2k Shader hat und Polaris11 3k Shader, beide mit GDDR5 und dass die unter AMD-Lesart als Ellesmere und Baffin bekannt waren. Aus Arctic Islands wurde bei der Radeon Technologies Group eben Polaris - von Inseln zu Sternen. Ich würde sagen, die machen auch weiterhin 2 GPUs pro Jahr. In diesem Fall könnten wir sicherlich tatsächlich noch Fiji mit mehr Takt und HBM2 sehen dieses Jahr.

2016: Polaris 10 -> Pitcairn-Äquivalent mit (>) Tonga-Leistung
2016: Polaris 11 -> Tahiti/Tonga-Äquivalent mit > Hawaii-Leistung
2017: Vega 10 -> Hawaii-Äquivalent mit >> Fiji-Leistung
2017: Vega ? -> ? (Vega1 = 512-1024 Shader für LowCost? Auch das wär denkbar)
2018: neuer Stern

iuno
2016-02-16, 14:33:01
AMD musss gegen "GP100 225W" (GTX980 Ti +80%) schon was ordentliches auf den Markt bringen.
Das werden sie auf jeden Fall machen, aber nicht schon Mitte-Ende des Jahres. Nvidia bringt ja auch erstmal GP104. Es ist ja gar nichts aussergewoehnliches dabei.
Beim letzten mal war es doch auch so: erst Tahiti/Pitcairn, und erst deutlich (knappe 2 Jahre!) spaeter Hawaii und dann eben noch Fiji, wobei letzterer wohl auch zu einem gewichtigen Teil durch HBM zu begruenden ist und wir sowas wohl nicht mehr sehen.

Ich hatte gestern ein schnelles Gespraech mit jemand der weiss wo es langgeht.
Sorry fuer ot, aber darf ich fragen, wo du arbeitest bzw. woher du die Kontakte hast?

HOT
2016-02-16, 14:55:29
Das werden sie auf jeden Fall machen, aber nicht schon Mitte-Ende des Jahres. Nvidia bringt ja auch erstmal GP104. Es ist ja gar nichts aussergewoehnliches dabei.
Beim letzten mal war es doch auch so: erst Tahiti/Pitcairn, und erst deutlich (knappe 2 Jahre!) spaeter Hawaii und dann eben noch Fiji, wobei letzterer wohl auch zu einem gewichtigen Teil durch HBM zu begruenden ist und wir sowas wohl nicht mehr sehen.

Das seh ich total anders, die bringen erst mal den GP100, rein als TitanII und das wird der einzige Pascal-Chip dieses Jahr sein im Consumer-Markt. Die werden Maxwell noch mal als GTX1000-Serie recyclen und dann mit dem vollen Pascal Lineup 2017 mit einer neuen Nomenklatur durchstarten. NV hat doch auch überhaupt keinen Druck, irgendwas besonders schnell zu machen, die werden das schon richtig machen wollen.

[...]
AMD musss gegen "GP100 225W" (GTX980 Ti +80%) schon was ordentliches auf den Markt bringen.
Ich sehe da noch ein großes Problem, warum AMD das gar nicht so übertreiben sollte und warum es gut ist, dass Polaris erst mal nur den Mainstream bedient: DX11! Es ist für AMD besser, wenn Vega10 direkt in ein deutlich günstigeres Spiele-Ökosystem starten kann, in dem sich schon einige Vulkan und DX12-Titel tummeln, denn der DX11-Treiber wird so schnell denke ich nicht mehr konkurrenzfähig werden. Damit würden die nur wieder ihrer Marke schaden, wenn so ein Super-Chip im CPU-Limit rumhängt und man deshalb benchmarks verliert. Die DX11-Problematik verschärft sich ja mit mehr GPU-Leistung immer weiter.
Das hätte weiterhin den Vorteil, dass Vega10 direkt mit optimierten Treibern und optimierter Fertigung starten kann.

Hübie
2016-02-16, 17:08:57
Eines versteh ich nicht bei der Namensgebung: Wega ist in jedem Aspekt kleiner als Polaris. Warum also Polaris nicht als top dog ansiedeln? :|

Knuddelbearli
2016-02-16, 17:14:11
Eventuell ist Vega ja auch was ganz anderes ( Multichip GPU ala Vodoo für die Server APU und Multikarte ) und es kommt noch ein Canis Majoris ^^

maximus_hertus
2016-02-16, 17:29:32
Eines versteh ich nicht bei der Namensgebung: Wega ist in jedem Aspekt kleiner als Polaris. Warum also Polaris nicht als top dog ansiedeln? :|

AMD hat es aber mit den Polarsternen ;)

Thuban aka Phenom II 6 Core = Polarstern vor knapp 3000 Jahren
Polaris = heute
Wega = Polarstern in ca. 12.000 Jahren

In jedem Aspekt stimmt nicht. Wega ist (deutlich!) heller (für den Beobachter auf der Erde).

AnarchX
2016-02-16, 17:54:12
Auch im Mobile Lineup gibt es ja diese Verbindungen: Strato, Tropo und Meso (aka Iceland), welcher es wohl noch als Low-End in die 400er Serie schafft: http://www.techpowerup.com/gpudb/2749/radeon-r5-m465.html
... "darüber" kommen dann halt die Sterne. ;D

Nakai
2016-02-16, 18:05:19
Wie stark diese GPUs werden hängt stark von der Packdichte von Finfet ab.

Manche Zungen munkeln, dass es 30~35MioTransen/mm² wird. SRAM-Zellen können nun 2,5fach so gut gepackt werden. Das muss aber nicht für andere Strukturen gelten. Eine Verdopplung sollte definitiv erreicht werden, evtl sogar ein Stück mehr.

Bei 232mm² für Polaris11 sind das schon 7 Milliarden Transistoren, wenn man 30MioTransen/mm² annimmt. Das ist viel, vorallem, wenn das Frontend deutlich effektiver wird. Kurz, Hawaii-Performance sollte locker erreicht werden, und Fiji damit erreichbar sein (Bauchgefühl).

Polaris10 wäre mit ~125mm² bei 3,75 Milliarden Transistoren und damit zwischen Pitcairn und Tonga.


Ahja, ich vermute dass die neuen Polaris-Design mehr L2-Cache besitzen, um eventuelle Bandbreitennachteile durch die kleinere Diesize/kleinere SIs auszugleichen.