PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

Unicous
2016-01-04, 18:03:04
Nein, die haben ein Package gefunden, auf dem Taiwan stand. Das heißt aber gar nix, denn auf den Sockel-Kabinis steht ebenfalls "Made in Taiwan". Da wurd der Chip aber nur verpackt, sonst nix. Allerdings steht auf dem Kabinis auch "Assembled in Germany", der Chip wurde also in Dresden, also bei GloFo, gefertigt.
Natürlich ist der Vergleich mit der GTX950 total nichtssagend. Wenn die GPU 150mm² hat, wird er ca. 12CUs haben. Also taktet man übelst runter und betreibt den Chip quasi im Mobil-Modus. Natürlich schafft man dann so bahnbrechende Werte, denn mit FF hat man ja extrem weniger Leckströme zu beklagen, da kann man auch einen breiteren Chip nehmen als den kastrierten GM206.


:facepalm:

Kabini wurde sowohl bei TSMC als auch später!!! bei GF hergestellt.

http://images.anandtech.com/doci/6977/kabini.jpg

fondness
2016-01-04, 18:04:24
Die Frage ist auch, wieviel dieser Aufdruck wert ist, wenn selbst auf Chips die laut AMD von GF kommen ein Taiwan Aufdruck vorhanden ist.

dargo
2016-01-04, 18:04:30
The purpose of this demonstration for RTG was threefold: to showcase that a Polaris GPU was up and running, that the small Polaris GPU in question could offer performance comparable to GTX 950, and finally to show off the energy efficiency advantage of the small Polaris GPU over current 28nm GPUs. To that end RTG also plugged each system into a power meter to measure the total system power at the wall. In the live press demonstration we saw the Polaris system average 88.1W while the GTX 950 system averaged 150W. Meanwhile in RTG’s own official lab tests (and used in the slide above) they measured 86W and 140W respectively.
Sehr schön, dann wäre diese Sache geklärt. Jetzt könnt ihr weiter auf dieser groben Basis spekulieren. ;)

60W fürs restliche System außer der Graka bei AMD = 26W nur für die Graka
60W fürs restliche System außer der Graka bei Nvidia = 80W nur für die Graka

55W fürs restliche System außer der Graka bei AMD = 31W nur für die Graka
55W fürs restliche System außer der Graka bei Nvidia = 85W nur für die Graka

Ailuros
2016-01-04, 18:07:30
Ist zwar total bedeutungslos, aber der zweite Fall oben ist realitaetsnaeher.

***edit: wobei es mich natuerlich wieder "wundert" wieso der Fudo Trottel von einem "SoC" blubbert waehrend AMD klipp und klar die Testsystem Specs angiebt :weg:

Unicous
2016-01-04, 18:08:14
Die Frage ist auch, wieviel dieser Aufdruck wert ist, wenn selbst auf Chips die laut AMD von GF kommen ein Taiwan Aufdruck vorhanden ist.

Es liegt nahe, dass sie die Assembly Line von TSMC oder einem anderen Zulieferer (e: z.B. Amkor) genutzt haben.

AMD hatte und hat keine Packaging Fab in Taiwan.

fondness
2016-01-04, 18:10:19
Ist zwar total bedeutungslos, aber der zweite Fall oben ist realitaetsnaeher.

Beim zweiten Fall fehlen aber 10W.

55W+31W = 86W.
55W+75W = 130W statt 140W/150W.

Ailuros
2016-01-04, 18:13:44
Beim zweiten Fall fehlen aber 10W.

55W+31W = 86W.
55W+75W = 130W statt 140W.

Dann lies nochmal meinen Beitrag genauer durch bevor Du nochmal 3 Panik-edits durchfuehrst.

aufkrawall
2016-01-04, 18:15:58
Bei Computerbase League of Legends hatte die Fury X auch ein phänomenales Perf/W-Verhältnis, höchstwahrscheinlich aufgrund des fps-Locks.
Wie der Verbrauch bei Spielen ohne Limit ausfallen kann, ist ja bekannt. Von daher würde ich auf diese Präsentation überhaupt nichts geben. Wen interessieren mit FreeSync denn noch Verbräuche bei fps-Lock?

fondness
2016-01-04, 18:16:50
Wen interessieren mit FreeSync denn noch Verbräuche bei fps-Lock?

Mindestens jeden, der keinen 144Hz Schirm hat .

aufkrawall
2016-01-04, 18:18:31
Das wird einem bestimmt bald das AMD-Marketing erzählen.
Ändert aber nichts daran, dass es praxisfremd ist. Sehr, sehr häufig wird völlig ohne jedes Limit gespielt bzw. in 4k wird man ein 60Hz Limit auch nicht ständig erreichen.

dargo
2016-01-04, 18:20:44
Beim zweiten Fall fehlen aber 10W.

Ups... mein Fehler. Schon korrigiert. :)

fondness
2016-01-04, 18:21:21
Das wird einem bestimmt bald das AMD-Marketing erzählen.
Ändert aber nichts daran, dass es praxisfremd ist. Sehr, sehr häufig wird völlig ohne jedes Limit gespielt bzw. in 4k wird man ein 60Hz Limit auch nicht ständig erreichen.

Genau deshalb sollte die Karte selbst in sinnvollen Grenzen limitieren - wenn vom User gewünscht.

HOT
2016-01-04, 18:29:16
:facepalm:

Kabini wurde sowohl bei TSMC als auch später!!! bei GF hergestellt.

http://images.anandtech.com/doci/6977/kabini.jpg
Hä? Bezug? Seh ich nicht... der AM1-Kabini ist Made in Taiwan, aber Diffused in Germany. Also ehrlich...
http://www.tweakpc.de/hardware/tests/cpu/amd_kabini_athlon-5350_apu_soc/i/amd_athlon-5350_msi_am1i_big.jpg
Chip von GloFo, Package aus Taiwan. Wo die Dinger verpackt sind ist doch irrelevant, wenn da also "Taiwan" draufsteht heißt das erst mal nichts.

Es liegt nahe, dass sie die Assembly Line von TSMC oder einem anderen Zulieferer (e: z.B. Amkor) genutzt haben.

AMD hatte und hat keine Packaging Fab in Taiwan.
So ein Unsinn. Die können einfach eine chinesische Firma in Taiwan damit beauftragen, ein Package zu entwerfen, selbst wenn der Chip von GloFo kommt. Da steht dann natürlich Made in Taiwan drauf.

mboeller
2016-01-04, 18:40:45
Man wird den Chip fuer die Demo wohl eher taktmaessig so eingestellt haben, dass er gerade die 60 FPS knackt und ist dann mit der Spannung runter, bis es nicht mehr ging.


Die Spannung lag bei 0,8375V (soweit ich mich erinnere)

Quelle: das Video "letzte Seite"

bzw.: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10901625&postcount=723

0,8375V sind für 14/16nm Finfet "normal" soweit ich weiß

ach ja, die GPU lief anscheinend bei 850MHz (das 850E könnte man zumindest so interpretieren)

dargo
2016-01-04, 19:15:18
Also die Spannung finde ich schon extrem tief. Das soll Standard sein?

Locuza
2016-01-04, 19:16:47
Für FinFETs bei vermutlich 850 Mhz?
Why not?

dildo4u
2016-01-04, 19:20:51
In den Folien steht doch das der Chip als Mobile GPU genutzt werden soll,daher geht man vermutlich so tief wie möglich daher auch der geringe Takt.Die kleinen Nvidias Boosten ja alle um 1.2-1.3Ghz.

Troyan
2016-01-04, 19:23:56
Validierungschips.

Eine GTX750TI schafft wohl auch die 60FPS in 1080p mit Medium-Settings (http://www.gamersnexus.net/game-bench/2191-star-wars-battlefront-gpu-benchmark-final-launch) und liegt bei 60W.

Es ist ein vollkommen unsinniger Vergleich von AMD, da die nVidia-Karten beim Base-Clock gecapt sind und der meisten immer um 1,0xV liegt. Eine GTX750TI dagegen hat deutlich weniger Transistoren als GM206 und ist daher beim Base-Clock mit der selben Spannung auch wesentlich effizienter, wenn beide Karten bei 60FPS sind.

AnarchX
2016-01-04, 19:36:13
800-850MHz war ja schon der Sweetspot von AMDs 28nm GPUs. Interessant wäre da gewesen, wenn man bei >1,1GHz gekontert hätte. Unter 14/16nm haben die NV-GPUs wohl durchaus das Potential diese Grenze beim Basistakt zu überschreiten.

An sich nicht verkehrt das man nun Polaris entsprechend vorher zeigt, aber wirklich beeindruckend wäre da eher Fury X Leistung bei ~120W(Karte) gewesen.

CD-LABS
2016-01-04, 19:38:42
Validierungschips.

Eine GTX750TI schafft wohl auch die 60FPS in 1080p mit Medium-Settings (http://www.gamersnexus.net/game-bench/2191-star-wars-battlefront-gpu-benchmark-final-launch) und liegt bei 60W.

Es ist ein vollkommen unsinniger Vergleich von AMD, da die nVidia-Karten beim Base-Clock gecapt sind und der meisten immer um 1,0xV liegt. Eine GTX750TI dagegen hat deutlich weniger Transistoren als GM206 und ist daher beim Base-Clock mit der selben Spannung auch wesentlich effizienter, wenn beide Karten bei 60FPS sind.
Beide Karten schafften aber in der Szene 60 FPS Stabil(VSYNC) ! Das kann die 750 TI nicht...
Darüber hinaus sind das Gesamtsystemleistungsaufnahmen...
...ändert aber natürlich nichts daran, dass das ein typischer Messe-Vergleich ist, er also völlig intransparent ausfällt. Das eigentliche Highlight in einem solchen Stadium ist doch eh, dass der Chip bereits Battlefront abspielen kann ohne dabei direkt abzurauchen... :D

aufkrawall
2016-01-04, 19:38:46
Unter 14/16nm haben die NV-GPUs wohl durchaus das Potential diese Grenze beim Basistakt zu überschreiten.

Haben sie mit Maxwell 2 doch schon.

Kriton
2016-01-04, 19:46:59
Das wird einem bestimmt bald das AMD-Marketing erzählen.
Ändert aber nichts daran, dass es praxisfremd ist. Sehr, sehr häufig wird völlig ohne jedes Limit gespielt bzw. in 4k wird man ein 60Hz Limit auch nicht ständig erreichen.

Im Rahmen von FreeSync meldet der Monitor doch zurück an die Karte? Demnach könnte man auf Basis der maximalen Refreshrate des Monitors automatisch ein cap via Treiber einrichten.

Nakai
2016-01-04, 19:50:25
Es ist jedenfalls ein schöner Warnschuss seitens AMD, dass man was Heißes im Feuer hat. Vielleicht darf man sich 2016 ein AMDonly Highend-System bauen?;)

Dieser Chip wird ziemlich in die gleiche Kerbe schlagen, wie GM107.


Reinher von den Leistungsaufnahmeverbesserungen seitens Finfet, ist so ein Schritt auch bitter notwendig. Finfet bringt etwa 70% höhere Effizienz beim Energieverbrauch. Ergo ist man mit Faktor 2.5 gut für die Zukunft gewappnet.

Troyan
2016-01-04, 19:57:09
Beide Karten schafften aber in der Szene 60 FPS Stabil(VSYNC) ! Das kann die 750 TI nicht...
Darüber hinaus sind das Gesamtsystemleistungsaufnahmen...
...ändert aber natürlich nichts daran, dass das ein typischer Messe-Vergleich ist, er also völlig intransparent ausfällt. Das eigentliche Highlight in einem solchen Stadium ist doch eh, dass der Chip bereits Battlefront abspielen kann ohne dabei direkt abzurauchen... :D

Naja, Gamernexus testet mit der Endor-Map, die wohl aufwendiger ist...
Klar, Messe-Vergleich. Aber das ist so intransparent, dass es nichtmal mehr ein Vergleich darstellt...

Hier kann man sehen, dass AMD "Stock Clocks" bei nVidia angibt: https://youtu.be/5g3eQejGJ_A?t=147
Was auch immer das bedeuten soll, da Stock bei nicht Referenzkarten erheblich unterschiedlich ist...

aufkrawall
2016-01-04, 19:58:54
Im Rahmen von FreeSync meldet der Monitor doch zurück an die Karte? Demnach könnte man auf Basis der maximalen Refreshrate des Monitors automatisch ein cap via Treiber einrichten.
Man kann schon lange die Performance der GPUs automatisch für einen besseren Verbrauch dynamisch verschlechtern.
Das gibts z.B. bei Nvidia mit einem bestimmten Vsync-Modus für AFR. Die GPUs sind dann nur noch bis maximal 90% ausgelastet und der Verbrauch dann niedriger (das ist in dem Fall allerdings nur eine Nebenwirkung, der Zweck sind bessere Frametimes und niedrigerer Input-Lag).
Es ist für den Zweck Effizienz aber einfach idiotisch, weil man knappe Leistung wegschmeißt. Da kann man auch gleich die Leistungsaufnahme per Powertarget/Powertune drosseln. Zumindest, wenn dieses so eingestellt ist, dass der Takt nicht zu sehr springt.

dargo
2016-01-04, 20:00:14
Validierungschips.

Eine GTX750TI schafft wohl auch die 60FPS in 1080p mit Medium-Settings (http://www.gamersnexus.net/game-bench/2191-star-wars-battlefront-gpu-benchmark-final-launch) und liegt bei 60W.

Es ist ein vollkommen unsinniger Vergleich von AMD, da die nVidia-Karten beim Base-Clock gecapt sind und der meisten immer um 1,0xV liegt. Eine GTX750TI dagegen hat deutlich weniger Transistoren als GM206 und ist daher beim Base-Clock mit der selben Spannung auch wesentlich effizienter, wenn beide Karten bei 60FPS sind.
Dir ist schon klar, dass du für gesyncte (ohne VRR) 60fps mindestens ca. 66fps liefern musst?

fondness
2016-01-04, 20:00:37
Im Rahmen von FreeSync meldet der Monitor doch zurück an die Karte? Demnach könnte man auf Basis der maximalen Refreshrate des Monitors automatisch ein cap via Treiber einrichten.

Das machen eh die meisten mit FreeSync. Schlicht da man sich den zusätzlichen lag von VSyncOn erspart und trotzdem gesynct ist. Ich zB verwende erst seit ich eine FreeSync-Monitor habe eine fps-lock.

Dynamischen senken der Leistungsaufnahme bringt da gar nichts, ich will ja schließlich im VRR-Bereich des Monitors bleiben und nicht pauschal x% Leistung kappen.

Nakai
2016-01-04, 20:04:16
Sonstige Stromsparmechanismen waren noch nicht aktiviert, ebenso ist das nur ein Sample gewesen. Ich würde auf den Stromverbrauch erstmal nichts geben. Es handelt sich um Finfet, ergo wird man dementsprechend eine höhere Effizienz haben. Außerdem handelt es sich um ein Sample...ein sehr frühes Sample. Der Release wird noch ein halbes Jahr etwa entfernt sein, aber dass es jetzt schon solche "guten" Samples gibt, welche gut lauffähig sind, sollte doch erstmal ein gutes Zeichen sein.

fondness
2016-01-04, 20:16:22
800-850MHz war ja schon der Sweetspot von AMDs 28nm GPUs. Interessant wäre da gewesen, wenn man bei >1,1GHz gekontert hätte. Unter 14/16nm haben die NV-GPUs wohl durchaus das Potential diese Grenze beim Basistakt zu überschreiten.

An sich nicht verkehrt das man nun Polaris entsprechend vorher zeigt, aber wirklich beeindruckend wäre da eher Fury X Leistung bei ~120W(Karte) gewesen.

Die GPU wurde allerdings offensichtlich auch auf Effizienz getrimmt, da wundern die nur 850Mhz bei sehr niedrigerer Spannung nicht. Noch dazu ist es ein Vorseriensample und NVs mobile GPU takten auch nicht höher AFAIK? Aber wird spannend ob AMD bei den Desktop-GPUs mit dem Takt deutlich hoch kommt oder weiter bei ~1Ghz bleibt. Bei ~850Mhz ist die Effizienz ja jetzt schon sehr gut, nur mit mehr Takt nimmt diese halt stark ab im Vergleich zur Konkurrenz.

Ailuros
2016-01-04, 20:20:30
Sonstige Stromsparmechanismen waren noch nicht aktiviert, ebenso ist das nur ein Sample gewesen. Ich würde auf den Stromverbrauch erstmal nichts geben. Es handelt sich um Finfet, ergo wird man dementsprechend eine höhere Effizienz haben. Außerdem handelt es sich um ein Sample...ein sehr frühes Sample. Der Release wird noch ein halbes Jahr etwa entfernt sein, aber dass es jetzt schon solche "guten" Samples gibt, welche gut lauffähig sind, sollte doch erstmal ein gutes Zeichen sein.

http://www.anandtech.com/show/9886/amd-reveals-polaris-gpu-architecture

But as this is clearly a carefully arranged demo with a framerate cap and a chip still in early development, I wouldn’t read too much into it at this time.

Ich weiss ehrlich nicht warum der Kaese ueber etliche Seiten versucht wird zu analysieren. Bis gestern war perf/W bei manchen diehard AMD fanboys ein nutzloses metric; es reichte natuerlich nur ein set von bedeutungslosen slides und schon ziehen die meisten die Unterhosen runter.

Es sollte wohl klar sein dass AMD eine Verbesserung im Bereich perf/W dringend benoetigte, diese wohl auch erreichte und sie ist auch durchaus herlichst willkommen. Wo ist der Ausgang hier zur frischen Luft gleich nochmal? :rolleyes:

800-850MHz war ja schon der Sweetspot von AMDs 28nm GPUs. Interessant wäre da gewesen, wenn man bei >1,1GHz gekontert hätte. Unter 14/16nm haben die NV-GPUs wohl durchaus das Potential diese Grenze beim Basistakt zu überschreiten.

An sich nicht verkehrt das man nun Polaris entsprechend vorher zeigt, aber wirklich beeindruckend wäre da eher Fury X Leistung bei ~120W(Karte) gewesen.

Seit wann ist Frequenz ein universales metric dass unter den genau gleichen Bedingungen ueberall angewendet werden kann? Verschiedene Architekturen haben offensichtlich auch unterschiedliche Frequenzen bzw. design targets fuer Frequenzen.

Troyan
2016-01-04, 20:22:46
Die GPU wurde allerdings offensichtlich auch auf Effizienz getrimmt, da wundern die nur 850Mhz bei sehr niedrigerer Spannung nicht. Noch dazu ist es ein Vorseriensample und NVs mobile GPU takten auch nicht höher AFAIK? Aber wird spannend ob AMD bei den Desktop-GPUs mit dem Takt deutlich hoch kommt oder weiter bei ~1Ghz bleibt. Bei ~850Mhz ist die Effizienz ja jetzt schon sehr gut, nur mit mehr Takt nimmt diese halt stark ab im Vergleich zur Konkurrenz.

GTX965M hat einen Base-Clock von 944Mhz:
http://www.geforce.com/hardware/notebook-gpus/geforce-gtx-965m/specifications

Und in den Notebooks zwischen 924Mhz und 97xMhz.

-/\-CruNcher-/\-
2016-01-04, 20:51:27
Es wird interessant letztens konnte Nvidia mit der GTX 750 Maxwell V1 hier alles überzeugen aber auch locker gegen AMD durchhalten ob AMD das selbe schaft gegen Pascall das wird interessant Nvidia wird sicherlich diesmal nicht die selbe Strategie verfolgen sondern gleich den Nachfolger in Pascall zur GTX 970 als erstes releasen das könnte AMD ins Knie schiesen, je nachdem wie lange Nvidia dafür brauch nach der Low Power effizienz Karte von AMD ;)
AMD versucht es mit der gleichen Strategie als wie Nvidia damals zur Einführung von Maxwell mal sehen ob sie es schaffen genauso durchzuhalten :D

Allerdings wäre es durchaus denkbar das Nvidia auch sofort ihre Low Power Pascall karte dagegen stellt ein 1 zu 1 das gab es dann wirklich lange nicht mehr "Showdown" sozusagen da bin ich mal gespannt ;)

fondness
2016-01-04, 20:57:30
Es wird interessant letztens konnte Nvidia mit der GTX 750 Maxwell V1 hier alles überzeugen aber auch locker gegen AMD durchhalten ob AMD das selbe schaft gegen Pascall das wird interessant Nvidia wird sicherlich diesmal nicht die selbe Strategie verfolgen sondern gleich den Nachfolger in Pascall zur GTX 970 als erstes releasen das könnte AMD ins Knie schiesen, je nachdem wie lange Nvidia dafür brauch nach der Low Power effizienz Karte von AMD ;)
AMD versucht es mit der gleichen Strategie als wie Nvidia damals zur Einführung von Maxwell mal sehen ob sie es schaffen genauso durchzuhalten :D

Nachdem AMD keine 20% Marktanteil mehr hält können sie nicht mehr viel verlieren im High-End. Ein "GTX 750 Maxwell V1" ähnlicher Chip deckt eben den Massenmarkt ab und ist darüber hinaus für den nächsten Notebookzyklus sehr wichtig. Außerdem hätte der Chip wohl die richtige Größe um in die nächste Zen-APU-Generation zu wandern, und wenn beide von GF kommen kann man da wohl relativ viel übernehmen. BTW, das wäre schon ein weiterer Punkt warum der lowend-Chip bei GF Sinn machen könnte^^. Der Chip als erster macht für AMD also aus vielerlei Hinsicht Sinn. Zumal ja noch niemand weiß, ob es Nvidia nicht genauso macht.

aufkrawall
2016-01-04, 20:59:31
Da NV keine APUs hat, kann man zweieinhalb Jahre nach dem letzten Low End Chip im selben Fertigungsprozess wie der Vorgänger wohl davon ausgehen bzw. ist es nicht unwahrscheinlich.

-/\-CruNcher-/\-
2016-01-04, 20:59:36
Jo wie gesagt ein 1 zu 1 wäre schon krass :D

mboeller
2016-01-04, 20:59:52
Die GPU wurde allerdings offensichtlich auch auf Effizienz getrimmt, da wundern die nur 850Mhz bei sehr niedrigerer Spannung nicht. Noch dazu ist es ein Vorseriensample und NVs mobile GPU takten auch nicht höher AFAIK? Aber wird spannend ob AMD bei den Desktop-GPUs mit dem Takt deutlich hoch kommt oder weiter bei ~1Ghz bleibt. Bei ~850Mhz ist die Effizienz ja jetzt schon sehr gut, nur mit mehr Takt nimmt diese halt stark ab im Vergleich zur Konkurrenz.

naja.... mal ein wenig Kaffeesatzleserei....

im 22FDX Update IEDM 2015.pdf von Globalfounderies gibt es auf Seite 12 ein schönes Chart mit dem Vergleich 28SLP-HKMG mit 22FDX und 14nm Finfet wobei sowohl 22FDX als auch Finfet eine 50% höhere Taktrate erlauben (1,2GHz anstatt 800MHz) bei gleichzeitig geringerem Verbrauch. Bei 22FDX ist der Verbrauch des ARM A7 um 18% geringer und beim Finfet Prozess ca. 30% geringer (im Chart werden für den Finfet-Prozess keine Prozentwerte angegeben).

22FDX geht übrigens bis auf 0,4V runter... mit 92% geringerem Verbrauch bei immer noch 520MHz ... Damit wären dann wirklich extrem effiziente GPUs und APUs möglich.

Bei gleicher Taktrate von 800MHz sollte der Finfet-Prozess laut Chart ungefähr 60% weniger verbrauchen... also der "berühmte" Faktor 2.5

http://www.semiwiki.com/forum/files/22FDX%20Update%20IEDM%202015.pdf

-/\-CruNcher-/\-
2016-01-04, 21:05:53
@fondness
Ehrlichgesagt hoffe ich das AMD sau viele dieser Polaris Low Power Karten an den mann bringen kann und auch die Optimierungsbasis weiter steigt so das sich langsam alles wieder ausbalanciert ;)
Und auch das sie Maxwell in den Notebooks schlagen so schnell kann Nvidia auch nicht reagieren das wird schon gut laufen es ist ja die effizienz schon durch Finfet garantiert, kann eigentlich überhaupt nichts schief laufen diesmal je nachdem wie die Sättigung aussieht und die Preisvorstellung :)

Das wird 2016 ein glatter Design win für Notebooks man brauch so schnell wie möglich Produkte am Markt die die Maxwell Notebooks wegschiesen ;)

Carizzo + Polaris / Skylake + Polaris das hört sich saugut an da warte ich gerne noch auf meine Skylake + Maxwell Entscheidung :)

fondness
2016-01-04, 21:11:28
@fondness
Ehrlichgesagt hoffe ich das AMD sau viele dieser Polaris Low Power Karten an den mann bringen kann und auch die Optimierungsbasis weiter steigt so das sich langsam alles wieder ausbalanciert ;)
Und auch das sie Maxwell in den Notebooks schlagen so schnell kann Nvidia auch nicht reagieren das wird schon gut laufen es ist ja die effizienz schon durch Finfet garantiert, kann eigentlich überhaupt nichts schief laufen diesmal je nachdem wie die Sättigung aussieht und die Preisvorstellung :)

Die Chips sollte Konkurrenzfähiger sein als das aktuelle Portfolio. Aber AMD hatte häufig sehr gute Chips, was dann gekauft wird ist halt dann eine andere Frage.

Nightspider
2016-01-04, 21:40:07
Ich weiss ehrlich nicht warum der Kaese ueber etliche Seiten versucht wird zu analysieren. Bis gestern war perf/W bei manchen diehard AMD fanboys ein nutzloses metric; es reichte natuerlich nur ein set von bedeutungslosen slides und schon ziehen die meisten die Unterhosen runter.

Sag bloß das weißt du nicht?

Es ist doch schon lange bekannt das die Effizienz mit 14/16nm nicht mehr so stark steigt wie bisher und die Abwärme bzw. der Stromverbrauch das Hauptproblem wird bei zukünftigen Generationen.
Würde man die Effizienz nicht massiv steigern könnte man dank 14/16nm zwar doppelt so viele Transistoren verbauen wie in 28nm aber könnte diese gar nicht schnell genug kühlen bzw. würde entweder am max. Stromverbrauch oder der Abwärme scheitern.
Dann müsste man die Chips viel niedriger takten und könnte das volle Potential des Prozesses nicht ausschöpfen.

Effizienz ist heutzutage wichtiger als alles andere. Hat man ja bei GM100 gesehen das dieser mit OC teils 40% vor einer 780ti lag.
Und das primär durch eine viel bessere Architektur und Effizienz.

Brillus
2016-01-04, 21:41:50
naja.... mal ein wenig Kaffeesatzleserei....

im 22FDX Update IEDM 2015.pdf von Globalfounderies gibt es auf Seite 12 ein schönes Chart mit dem Vergleich 28SLP-HKMG mit 22FDX und 14nm Finfet wobei sowohl 22FDX als auch Finfet eine 50% höhere Taktrate erlauben (1,2GHz anstatt 800MHz) bei gleichzeitig geringerem Verbrauch. Bei 22FDX ist der Verbrauch des ARM A7 um 18% geringer und beim Finfet Prozess ca. 30% geringer (im Chart werden für den Finfet-Prozess keine Prozentwerte angegeben).

22FDX geht übrigens bis auf 0,4V runter... mit 92% geringerem Verbrauch bei immer noch 520MHz ... Damit wären dann wirklich extrem effiziente GPUs und APUs möglich.

Bei gleicher Taktrate von 800MHz sollte der Finfet-Prozess laut Chart ungefähr 60% weniger verbrauchen... also der "berühmte" Faktor 2.5

http://www.semiwiki.com/forum/files/22FDX%20Update%20IEDM%202015.pdf

Welceh Designs bekommen das hin? Bei Taktraten kommt es auch drauf an wieviel zwischen den Flipflops an Logik liegt. Einfach gesagt wieviel Transitoren nacheinder pro Takt schalten müssen. Z.b. Schiebregster sollten immer verdammt hoche Takraten erreichen können(relativ gesehen).

aufkrawall
2016-01-04, 21:42:57
GM200 liegt ein Stück mehr als 40% vor GK110, die Größenordnung trifft nämlich schon auf GM200 vs. GM204 taktnormiert (~1,4Ghz) zu.

Skysnake
2016-01-04, 22:18:47
AMD hat nicht wirklich viele Mittel mehr, mit scheinbar Positivem zu glänzen. Dass uns hier eine Marketingvorstellung mit etwas technischem Hintergrund nicht sonderlich beeindruckt ist doch normal, für uns machen sie das aber auch nicht.

Naja, an sich ist es nicht schlecht, lauffähige Chip so früh zeigen zu können, das zeigt nämlich, das man den Bring-Up des Chips geschafft hat, und genau daran scheitern schon so manche Designs.

Man kann also davon ausgehen, dass kein Respin nötig ist und damit die angepeilten Lieferzeiten wohl eingehalten werden können, wenn nicht noch irgendetwas fundamental schief läuft.


Dass AMD uns hier effektiv eine Prozesspräsentation als Polaris-Architektur verkauft merken nur die Wenigsten. Interessant auch, wie sie gleichzeitig tiefstapeln und andeuten, dass finale HW noch besser wegkommen soll, da nicht alles aktiv ist. Man könnte ja schon fast annehmen, man sagt zwar Polaris, zeigt uns aber HW die durch einen Shrink von 28nm auf 16nm entstanden ist, und somit das gezeigte Sample in Wahrheit noch von TSMC kommt. ;)

Woher der Chip kommt sei mal ausgeklammert.

Das bei solch noch recht frühen Chips aber die Stromsparmechanismen noch ausgeschaltet sind ist völlig normal!

Gerade da dynamische hin und her takten kann einem durchaus noch den Hals brechen....

Ich hatte auch schon samples, die freudig geheizt haben obwohl man nichts mit ihnen gemacht hat. Später war das ganz anders.

Also die Spannung finde ich schon extrem tief. Das soll Standard sein?
Also sooo tief ist das jetzt auch nicht. GF28HPP hat z.B. für die Core Transistoren auch nur 1.0V als VDD.

Das ist ja mit auch ein Problem, warum man die ganzen neueren Nodes nicht mehr so gerne für Analogkram verwendet. Die Versorgungspannungen werden so verdammt niedrig, damit die überhaupt überleben, was dazu führt, das man kaum noch Transistoren stacken kann.... Das ist die Hölle für Analog-Designer...

Welceh Designs bekommen das hin? Bei Taktraten kommt es auch drauf an wieviel zwischen den Flipflops an Logik liegt. Einfach gesagt wieviel Transitoren nacheinder pro Takt schalten müssen. Z.b. Schiebregster sollten immer verdammt hoche Takraten erreichen können(relativ gesehen).
Welche wollen es erreichen? ;)

Das sind halt "einfach" Designentscheidungen und auch Fragen bezüglich den Standardzellen Tools die man verwendet.

Mal ganz davon abgesehen, das man da bald in Weak-Inversion kommt bzw. schon ist je nach Transistor.

Das willste nicht wirklich designen müssen.

Sunrise
2016-01-04, 22:22:31
Man wäre vor allem wieder für Apples Macbook Pros im Rennen, und einen Tonga-Nachfolger wird man sicher auch liefern wollen. Hier TSMC und Samsung/GloFo mit ins Boot zu nehmen hat da noch ganz andere Vorteile, als nur die Prozessparameter an sich. Wenn man Apple gewisse Volumina zusichern muss, kann man das, ebenso wird AMD wissen, dass man in dieser Runde sauteure HW baut, die unbedingt auf eine breitere Basis müssen, sonst sind R&D nichtmehr zu stemmen.

Die 850MHz erinnern jedenfalls sehr stark sowohl an Fiji als auch Tonga (bei Apple im iMac).

Es ist ein Signal mit guten Anzeichen, mit modifizierter Architektur und FinFET in NVs Gefilden wildern zu können. Stellt man das richtig an, ist das sehr gut für AMD.

Mortalvision
2016-01-04, 23:04:25
Selbst wenn AMD mit der neuen Architektur "nur" die Effizienz von Maxwell 2 erreicht, kommen sie damit einen entscheidenden Schritt weiter. Der bisher erhöhte Stromverbrauch bei AMD Karten wird hoffentlich zu einem deutlichen Taktplus führen. Ok, man muss den Shrink des DIE sicher mit berücksichtigen, aber wenn die max. Polaris GPU ungefähr die Größe des Fury-DIE hat, wird sie trotzdem leichter zu kühlen sein. Weitere Board-Komponenten wie die Stromzufuhr und das Interface sind dann auch kühler...

Sehr fein finde ich auch, dass AMD auf die vielen Rufe nach HDMI 2.0 und DP 1.3 und die Encodierungen in 4k geachtet hat. Sollten sie damit ein paar Monate eher am Markt sein, könnten sie selbst mit den kleinen Polaris Teilchen für HTPC mit 4k interessant sein und so kurzfristig eine Nische bedienen (mal wer mit Monitor-Kenntnissen melden, ob 4k im Aufwind ist...).

Der Konkurrenz-Vergleich zur 950 ist wirklich nicht aussagekräftig. Klaro limitiert so eine schwache GPU garantiert, wenn man sie mit einem 4790K paart, und das bei Medium Settings. Wow, welcher Nerd kauft so einen Prozessor mit so einer GPU? Über die max. Leistung des Chips ist somit nichts gesagt. Vielleicht liegt er nur wenig über der 950, man weiß es einfach nicht. Aber es wäre alles ein echter Anfang, mal vom Kunden her zu denken, und nicht Marketing ins Blaue zu machen...

igg
2016-01-04, 23:14:42
Ich sehe hier Parallelen zur verfrühten Ankündigung vom G200 (zb Jensens Mockup Präsentation) der der AMD Konkurrenz das Wasser abzugraben da man wusste, dass man zu spät kommt und dann mit dem überhypten G200b nochmal nachsetzen wollte.

Ich wünsche AMD, dass 2016 ihr Jahr wird mit Zen und Polaris. Aber diese überhastete Aktion bereitet mir Sorge.

Novum
2016-01-04, 23:17:21
Mockup war GF100.

dargo
2016-01-04, 23:18:04
Der Konkurrenz-Vergleich zur 950 ist wirklich nicht aussagekräftig. Klaro limitiert so eine schwache GPU garantiert, wenn man sie mit einem 4790K paart, und das bei Medium Settings. Wow, welcher Nerd kauft so einen Prozessor mit so einer GPU?
Meine Güte... man wollte einfach die 60 gesyncten Frames gewährleisten und natürlich nicht im vollständigen CPU-Limit landen. Wenn nur die CPU limitiert und sich die GPUs langweilen kommen sicherlich nicht solche Verbräuche zustande. Dann würden beide GPUs "rumidlen" und man hätte kaum einen Verbrauchsunterschied messen können. Zudem lief die CPU mit 80% Powerlimit. Was das immer bei Haswell heißen soll. Habe mich damit noch nicht beschäftigt. Drosselt die CPU in der Praxis bei 80% Powerlimit schon den Takt?

PS: ich weiß jetzt nicht ob man es so umrechnen kann. Bei 80% hätte der Hassi eine TDP von 70W.

Unicous
2016-01-04, 23:24:39
@igg

:rolleyes:

Nvidia kommt frühestens zur gleichen Zeit. Diese Aktion ist weder überhastet noch in irgendeiner Weise sorgenbereitend.
Die ganze Sache ist seit Langem geplant, allein weil man schon im September die Radeon Technologies Group gegründet hat und darauf aufbauend die neue Strategie im Dezember vorgestellt hat, inklusive roadmap "update".

Der Schritt war mehr als nötig. Denn wie ich schon vor ein paar Tagen ausgeführt hatte, fehlte es GCN einfach an Profil. AMD konnte einfach nicht kommunizieren wie, wann und wo die Architektur verbessert wurde.

Bei Nvidia ist es relativ eindeutig, mit einem neuen Plattformnamen folgt auch eine "neue", verbesserte Architektur.
Bei GCN war das mehr als unklar. Ryan Smith hat das sehr gut zusammengefasst, siehe http://anandtech.com/show/9886/amd-reveals-polaris-gpu-architecture/2

Das was Nvidia jährlich auf der GTC macht, hat AMD in einem kleineren Rahmen im Dezember gemacht. Die Informationen, die wir heute bekommen haben sind ca. einen Monat alt, falls das untergegangen ist.
Daraus Untergangsszenarien zu basteln ist einfach nur lächerlich.

Brillus
2016-01-04, 23:26:50
Welche wollen es erreichen? ;)

Das sind halt "einfach" Designentscheidungen und auch Fragen bezüglich den Standardzellen Tools die man verwendet.

Mal ganz davon abgesehen, das man da bald in Weak-Inversion kommt bzw. schon ist je nach Transistor.

Das willste nicht wirklich designen müssen.

Mir gings um die Aussage, das der Prozess bei y volt, x MHz hinbekommt, ohne nähere Information über das Design ist das halt eine NULL-Aussage.

stinki
2016-01-04, 23:44:20
Laut Samsung hat 14LPx 0.8V Core Vdd, die Spannung vom AMD Chip ist also vollkommen im Rahmen dessen was zu erwarten ist. Bei 16FF+ dürfte es nicht viel anders sein.
http://www.samsung.com/semiconductor/foundry/process-technology/14nm/

Nakai
2016-01-05, 00:07:48
Das was Nvidia jährlich auf der GTC macht, hat AMD in einem kleineren Rahmen im Dezember gemacht. Die Informationen, die wir heute bekommen haben sind ca. einen Monat alt, falls das untergegangen ist.
Daraus Untergangsszenarien zu basteln ist einfach nur lächerlich.

Es gibt mindestens eine geheime Folie. ;)


Ahja, es ist unfassbar, wie sich ein Teil hier, wegen einer Sample-Demonstration, in die Wolle kriegen. ;D

Laut Samsung hat 14LPx 0.8V Core Vdd, die Spannung vom AMD Chip ist also vollkommen im Rahmen dessen was zu erwarten ist. Bei 16FF+ dürfte es nicht viel anders sein.
http://www.samsung.com/semiconductor/foundry/process-technology/14nm/

Ja, es wird wohl Samsung sein.

horn 12
2016-01-05, 01:22:16
Und der Verkauf der Aktuellen Fiji Karten wird durch die kurze Andeutung von Polaris weiters zu wünschen übrig lassen
Dennoch sollte der Martkanteil vor Allem durch die R9 390 auf etwa 20% ansteigen dürfen.
Nur die Fury, X und Nano wird sich nun nochmals schleppender verkaufen obwohl jene gute Karten sind
Stromverbrauch ist mal nicht das ganze Leben, da hängen sich immer allzuviel Leute daran auf.
Es ist wünschenswert, aber nicht der Himmel
Vor Allem bei High End karten wie Maxwell und Fiji eben mal sind!

@edit
Vor Allem da man eben noch mindestens 8 bis 10 Monate warten werden muss bis in etwa der Fiji Chip relativ erfolgreich abgelöst werden kann, und da gehe ich nicht mal von HBM Speicher aus
Jener wird wohl echt erst Anfang bis Mitte Quartal 1 2017 mit Big Polaris kommen. Und die Warterei wird zur Durststrecke bei AMD verkommen.
Ob sich da AMD nicht ins eigene Bein pinkelt,- nur mit der Effizienz zu punkten, sieht man ja bei R9 Nano dass jene kaum Absatz findet und von AMD/ Presse so gehypt wurde!

Gut Absatz und verkaufen wird sich Polaris in der wohl recht effizienten"Mini" Version sicherlich äußerst gut, aber man wird Performancemässig immer noch 3-ter, falls man Titan X miteinberechnet, bleiben!
Daher wohl die Fury X2 um die Krone, wenn auch "nur" als Dual Karte bis zum Großen Polaris Showdown zu erklimmen.
PS: Idealer wäre es wohl exklusiv bei Hynics auf HBM-2 zu pochen und die Fury Karte nochmals aufleben zu lassen.

davidzo
2016-01-05, 01:42:02
Ist schon jemandem negativ aufgefallen dass sie den Rasterizer nicht überarbeiten wollen?

Imo wäre dass aber ein Bereich des frontends der im moment noch deutlich unterhalb von nv niveau liegt und ggf. sogar für die effizienz limits bei gcn mitverantwortich ist.

-/\-CruNcher-/\-
2016-01-05, 02:04:13
Und der Verkauf der Aktuellen Fiji Karten wird durch die kurze Andeutung von Polaris weiters zu wünschen übrig lassen
Dennoch sollte der Martkanteil vor Allem durch die R9 390 auf etwa 20% ansteigen dürfen.
Nur die Fury, X und Nano wird sich nun nochmals schleppender verkaufen obwohl jene gute Karten sind
Stromverbrauch ist mal nicht das ganze Leben, da hängen sich immer allzuviel Leute daran auf.
Es ist wünschenswert, aber nicht der Himmel
Vor Allem bei High End karten wie Maxwell und Fiji eben mal sind!

@edit
Vor Allem da man eben noch mindestens 8 bis 10 Monate warten werden muss bis in etwa der Fiji Chip relativ erfolgreich abgelöst werden kann, und da gehe ich nicht mal von HBM Speicher aus
Jener wird wohl echt erst Anfang bis Mitte Quartal 1 2017 mit Big Polaris kommen. Und die Warterei wird zur Durststrecke bei AMD verkommen.
Ob sich da AMD nicht ins eigene Bein pinkelt,- nur mit der Effizienz zu punkten, sieht man ja bei R9 Nano dass jene kaum Absatz findet und von AMD/ Presse so gehypt wurde!

Gut Absatz und verkaufen wird sich Polaris in der wohl recht effizienten"Mini" Version sicherlich äußerst gut, aber man wird Performancemässig immer noch 3-ter, falls man Titan X miteinberechnet, bleiben!
Daher wohl die Fury X2 um die Krone, wenn auch "nur" als Dual Karte bis zum Großen Polaris Showdown zu erklimmen.
PS: Idealer wäre es wohl exklusiv bei Hynics auf HBM-2 zu pochen und die Fury Karte nochmals aufleben zu lassen.

Nano ist viel zu teuer für die Leistung und die 390x ist eine alte architektur

Maxwell und Fiji sind keine Karten sondern Architekturen die es in verschiedenen stufen gibt Fiji allerdings nur in einer bestimmten Range dafür ist jetzt Polaris da es ist eine andere Release Strategie ;)

Man wollte erstmal Nvidia die verrückten Gamer versuchen abzuluxen was von Anfang an Falsch war und was Nvidia mit der 980 TI sogut wie mal wieder im Keim erstickt hat ;)

Einige konnte man aber dennoch von Fiji + HBM überzeugen und das war auch wichtig weill man die Kohle von ihnen brauchte bei einer so teuren Entwicklung ;)

Wir haben quasi

GCN 2,3,4

Maxwell 1 und 2

GCN 4 wird sich vor allem gegen Maxwell 2 und Pascal X behaupten müssen :)

Nvidia stehen verdammt viele optionen offen in der theorie könnten sie sich ja auch ausgedacht haben nochmal Maxwell 2 zu shrinken um schnell auf die erste GCN 4 Karte zu reagieren das nenen sie dann Pascal 1 :D

Hübie
2016-01-05, 08:31:28
Du kannst nicht mal eben eine komplette Architektur von 28 auf 16 FF etc shrinken ohne hohe Investitionskosten zu haben, da die designrules allein schon wegen double pattering anders sind.
@davidzo: Unter Rasterizer verstehe ich nicht dass Raster-Setup sondern der Export / Transformation von Vektoren in ein 2-dimensionales Koordinatensystem - sprich ROPs. Hier konnte selbst Hawaii spielend alles durchsetzen. Nur vorn krankte es einfach mehr.
@Nightspider: Ailuros hat etwas anderes gemeint. Da AMDs aktuelle Karten nicht so gut gegen Maxwell dastehen wird das Argument Effizienz von den biased AMDlern herunter gespielt. Jetzt wo es um Polaris geht soll es aber DAS Argument bzw. die Messgröße überhaupt sein. Dass man mit shrinken alleine nicht automatisch die Effizienz verdoppelt haben wir ja nun schon durch mehrere Beispiele gelernt. Ailuros mit Sicherheit auch. :P

Nightspider
2016-01-05, 08:46:20
Achso naja vielleicht in anderen Foren. Hier hatte ich jetzt nicht das Gefühl.

Schließlich können sich beide Seiten freuen das AMD konkurrenzfähig bleibt.

tm0975
2016-01-05, 09:07:00
Nano ist viel zu teuer für die Leistung und die 390x ist eine alte architektur

530 € sind jetzt nicht so viel für eine karte dieser leistung. mal abgesehen davon ist sie die effizienteste und mit abstand kompakteste karte auf dem markt.

mboeller
2016-01-05, 12:14:05
Welceh Designs bekommen das hin? Bei Taktraten kommt es auch drauf an wieviel zwischen den Flipflops an Logik liegt. Einfach gesagt wieviel Transitoren nacheinder pro Takt schalten müssen. Z.b. Schiebregster sollten immer verdammt hoche Takraten erreichen können(relativ gesehen).

???

steht doch dabei: ARM A7 CPU

Also 92% weniger Verbrauch @ 520MHz im Vergleich zu einem ARM A7 in 28SLP-HKMG @ 800MHz (da beträgt der Verbrauch ca. 235mW)

8% von 235mW sind dann 19mW für einen ARM A7 @ 520MHz ... also ideal für so was wie Smartwatches oder auch extrem effiziente GPUs

Novum
2016-01-05, 12:19:09
Du kannst nicht mal eben eine komplette Architektur von 28 auf 16 FF etc shrinken ohne hohe Investitionskosten zu haben, da die designrules allein schon wegen double pattering anders sind.
@davidzo: Unter Rasterizer verstehe ich nicht dass Raster-Setup sondern der Export / Transformation von Vektoren in ein 2-dimensionales Koordinatensystem - sprich ROPs. Hier konnte selbst Hawaii spielend alles durchsetzen. Nur vorn krankte es einfach mehr.
@Nightspider: Ailuros hat etwas anderes gemeint. Da AMDs aktuelle Karten nicht so gut gegen Maxwell dastehen wird das Argument Effizienz von den biased AMDlern herunter gespielt. Jetzt wo es um Polaris geht soll es aber DAS Argument bzw. die Messgröße überhaupt sein. Dass man mit shrinken alleine nicht automatisch die Effizienz verdoppelt haben wir ja nun schon durch mehrere Beispiele gelernt. Ailuros mit Sicherheit auch. :P
ROPs machen das Blending / Compression beim schreiben in das Rendertarget, da hast du etwas durcheinander gebracht.

Für die Transformation gibt es fast keine spezielle Hardware, das macht der Vertex-Shader. Das einzige was fixed function ist, ist Clipping in homogenen 4D-Clipspace-Koordinaten und danach die Division durch W nach Screenspace. Das ist aber alles noch vor dem Triangle Setup und Rasterizer.

Botcruscher
2016-01-05, 12:37:43
Da AMDs aktuelle Karten nicht so gut gegen Maxwell dastehen wird das Argument Effizienz von den biased AMDlern herunter gespielt. Jetzt wo es um Polaris geht soll es aber DAS Argument bzw. die Messgröße überhaupt sein. Dass man mit shrinken alleine nicht automatisch die Effizienz verdoppelt haben wir ja nun schon durch mehrere Beispiele gelernt. Ailuros mit Sicherheit auch. :P

Es ist mir ein Rätsel was aus den paar Infobröckchen alles abgeleitet werden kann. Der Inhalt der Repräsentationen gibt absolut nichts her. :rolleyes:

Hübie
2016-01-05, 12:46:23
Ah, okay. Dachte bisher das raster operation processor eben auch diese Aufgabe hat, da der Name dies nah legt (also Subpixel zu -> Pixel auf Monitor).
Welche Aufgaben fallen denn in den Begriff "Rasterizer"? :confused:

@Botcrusher: Dass ich nur erklärt habe was Ailuros meinte ist dir dabei aufgefallen? :| Ich leite daraus einen Furz ab, falls es dich interessiert.

Novum
2016-01-05, 13:28:44
Rasterizer und ROPs sind zwei völlig unterschiedliche Teile der GPU.

Ailuros
2016-01-05, 14:27:34
@Nightspider: Ailuros hat etwas anderes gemeint. Da AMDs aktuelle Karten nicht so gut gegen Maxwell dastehen wird das Argument Effizienz von den biased AMDlern herunter gespielt. Jetzt wo es um Polaris geht soll es aber DAS Argument bzw. die Messgröße überhaupt sein. Dass man mit shrinken alleine nicht automatisch die Effizienz verdoppelt haben wir ja nun schon durch mehrere Beispiele gelernt. Ailuros mit Sicherheit auch. :P

Ich hab geringe Zweifel dass es sich bei Polaris um ein wirkliche neue Generation handelt. Wehe wenn sich die Effizienz nicht sehenswert steigern wuerde.

Von dem abgesehen will ich aber auch hoffen dass Raja auch fuer genug resources gesorgt hat, denn eine Reihe von kunterbunten Umbennenungen sind zwar schoen und gut, aber ich will auch dass diesmal "rechtzeitig" auch wirklich fuer rechtzeitig steht ;)


@Botcrusher: Dass ich nur erklärt habe was Ailuros meinte ist dir dabei aufgefallen? :| Ich leite daraus einen Furz ab, falls es dich interessiert.

Du verschwendest Deine Zeit fallst Du erwartest dass Du in solchen Faellen zu einer wirklich zivilisierten Diskussion kommen kannst.

MilesEdgeworth
2016-01-05, 15:06:53
It is likely that this is the first Polaris GPU being brought up (after only 2 months I’m told) and could represent the best improvement in efficiency that we will see.

Quelle: PCPer (http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-Technologies-Group-Previews-Polaris-Architecture) via Wccftech :ugly:

Da bin ich ja mal gespannt, eine neue GPU schon im März wäre doch deutlich früher als erwartet. Wobei gerade im Mobilsektor und im Einsteigerbereich ein solcher Chip ein wahrer Segen wäre.

Unicous
2016-01-05, 15:16:51
Das steht da nicht. Der bring-up ist die Zeit die vergeht zwischen tape out des Chips und dem ersten lauffähigen Chip der aus der Fab fällt.

MilesEdgeworth
2016-01-05, 15:32:31
Gut zu wissen, danke. Dann bin ich wohl auf Wccftech reingefallen..

Unicous
2016-01-05, 15:48:00
WTF-Tech ist wirklich Sondermüll. Die paar Coups die sie mal hatten kann man an einer Hand abzählen. Sie machen nichts anderes als das Internet zu durchwühlen und jeden Scheißhaufen umzudrehen und auf Verwertbarkeit zu überprüfen. Zu mehr reicht es wirklich nicht.

Allein schon, dass sie nicht wissen, was ein bring-up ist, obwohl es sogar bei Wikipedia(En) erklärt wird ist Beweis genug, dass sie so wirklich gar keine Ahnung haben und sogar zu dumm zum Googleln sind.;)

https://en.wikipedia.org/wiki/Integrated_circuit_development#Bringup

aufkrawall
2016-01-05, 16:01:30
WTF-Tech ist wirklich Sondermüll. Die paar Coups die sie mal hatten kann man an einer Hand abzählen. Sie machen nichts anderes als das Internet zu durchwühlen und jeden Scheißhaufen umzudrehen und auf Verwertbarkeit zu überprüfen. Zu mehr reicht es wirklich nicht.

Dooch. :unono:
Sie paraphrasieren den Inhalt nochmal so, dass er wie ein Werbetext klingt. :smile:

Skysnake
2016-01-05, 17:22:09
Das steht da nicht. Der bring-up ist die Zeit die vergeht zwischen tape out des Chips und dem ersten lauffähigen Chip der aus der Fab fällt.
Ähm nein.

Das ist die Zeit, die man braucht zwischen den Zeitpunkt, an dem man einen Chip ZURÜCK bekommt von der FAB (im normalfall nach dem Packaging) und dem Zeitpunkt, an dem der Chip an sich das erste mal richtig durchbootet. Also quasi "lebt".

Das ist schon ziemlich spannend, wenn man das erste mal Strom auf einen neuen Chip gibt :cool::biggrin:

Unicous
2016-01-05, 17:25:13
Nichts anderes habe ich gemeint. Damit man weiß, dass er komplett lauffähig ist, muss er auch entsprechend getestet werden.:rolleyes:

edit:

Das mit "aus der Fab fallen" solltest du vllt. nicht so wörtlich nehmen.


After a design is created, taped-out and manufactured, actual hardware, 'first silicon', is received which is taken into the lab where it goes through bringup. Bringup is the process of powering, testing and characterizing the design in the lab.

Skysnake
2016-01-05, 17:58:27
Ich hab schon bringups mitgemacht :p

Unicous
2016-01-05, 18:05:28
Und?

Postest du jetzt nur um Recht zu haben.:rolleyes:

Kriton
2016-01-05, 18:48:31
Du verschwendest Deine Zeit fallst Du erwartest dass Du in solchen Faellen zu einer wirklich zivilisierten Diskussion kommen kannst.

Ein argumentum ad hominem über Bande und gleichzeitig über zivilisierte Diskussion reden...:rolleyes:

Und wenn man mal das Zitat wegdenkt und die Diskussion hier betrachtet, hatte Botcrusher pauschal nicht unbedingt unrecht.

Brillus
2016-01-05, 19:02:14
Ah, okay. Dachte bisher das raster operation processor eben auch diese Aufgabe hat, da der Name dies nah legt (also Subpixel zu -> Pixel auf Monitor).
Welche Aufgaben fallen denn in den Begriff "Rasterizer"? :confused:

@Botcrusher: Dass ich nur erklärt habe was Ailuros meinte ist dir dabei aufgefallen? :| Ich leite daraus einen Furz ab, falls es dich interessiert.
http://www.tomshardware.com/reviews/high,294-15.html

da ist es relativ gut erklärt.

cat
2016-01-05, 19:17:47
Stromverbrauch/FPS-Verhältnis = Effizienz bei einem bestimmten Lastdurchschnitt in einem einzelnen Spieleausschnitt, aber ohne weitere Daten (z.B. Taktdurchschnitt/ Menge von CUs).

Wenn die beiden Karten nicht je an mindestens einer Stelle unter die 60 FPS fallen kann man keine weiteren Schlüsse ziehen, weil man kein Limit erkennen kann.

Bis jetzt brauchte AMD immer mehr Cores für die selbe Leistung als nVidia.
Die Cache-Größen spielen beim Takt eine Rolle. nVidia wird etwas höher getaktet, bisher.
R9 370 1024 Cores
GTX 950 758 Cores
________________________________________________
Spekulation --->

wenn jetzt fast doppelt so viele CUs aufs Die passen, könnte es sein das der getestete Chip soviel Cores wie die:
R9 380 1792 CU @ 750MHz oder
270X 1280 CU @ 850MHz hat.
(Stärke der Drosselung duch V-Sync ???)

Da man nicht weiß wieviel Platz die überarbeiteten Chipelemente nun einnehmen könnte es auch ein 512 CU Die mit 1,6 GHz und großen Caches sein.

Ich denke das GCN 2.0 größere Caches und höherer Takt gut tät weil es mehr Leistung bringt bei gleichzeitige Platzersparnis für Elemente abseits von immer mehr CUs.

Bei nVidia ist das Verhältnis von Cores zu darübergruppierten Elementen stärker.
Beispiel:
nVidia 4x 32 ALU=128 je SM (Maxwell2.0) [Vertex-Fetch, Tessellation, Attribute-Setup, Viewport-Transform und den Stream-Output] //
4x 128 Core= 512 je Cluster (GPC)[Rasterizer] //

AMD 4x 16 ALU je CU=64 (Local-Data-Share gruppiert maximal zu 4x CU=256 Cores) //
Fiji hat 4 dieser 4er-Gruppen und damit, 16CU je Shader-Array/Cluster=1024 (bei nV die GPC)

egal wie man es rechnet, die ALU pro Rasterizer sind x2 bei AMD was auch das Powergating des riesen Clusters schwieriger zu machen scheint, bisher.

mögliche Änderung also z.B: Takt hoch --> CU-Menge runter -->
= schnellere Rasterizer

Ailuros
2016-01-05, 19:47:28
Ein argumentum ad hominem über Bande und gleichzeitig über zivilisierte Diskussion reden...:rolleyes:

Und wenn man mal das Zitat wegdenkt und die Diskussion hier betrachtet, hatte Botcrusher pauschal nicht unbedingt unrecht.

Das Problem ist dass er Huebie und mich falsch verstanden hat. Von dem abgesehen ist sterile Kritik deinerseits zwar eine schoene Sache aber auch nicht gerade ein Paradebeispiel von einer rein sachlichen Antwort.

Es gibt hier nichts persoenliches auseinanderzusetzen zumindest von meiner Seite.

Kriton
2016-01-05, 20:33:09
Das Problem ist dass er Huebie und mich falsch verstanden hat. Von dem abgesehen ist sterile Kritik deinerseits zwar eine schoene Sache aber auch nicht gerade ein Paradebeispiel von einer rein sachlichen Antwort.

Es gibt hier nichts persoenliches auseinanderzusetzen zumindest von meiner Seite.

Du hast eine PN - das ist wohl sinnvoller als hier.

davidzo
2016-01-05, 23:34:17
Sie machen nichts anderes als das Internet zu durchwühlen und jeden Scheißhaufen umzudrehen und auf Verwertbarkeit zu überprüfen. Zu mehr reicht es wirklich nicht.


haha, ich musste schmunzeln als ich das gelesen habe. Die Beschreibung trifft doch exakt das was wir hier auch alle machen :freak:

Was soll man sonst machen, im AMD hauptquartier in Texas einbrechen? Die Tochter eines AMD Mitarbeiters entführen und Informationen als Lösegeld? Oder doch lieber im Fudo-style mit den Techies von AMD einen saufen gehen und hoffen dass die mal plappern? ;D

Nichtsdestotrotz stimme ich, dem was du über WTFtech und deren geblubber schreibst absolut zu, das ist echt nicht qualifiziert.



@brillus & hübie: Dann ist Rasterizer doch = triangle setup, also teil des frontends, wie ich vermutet hatte?

Unicous
2016-01-05, 23:49:14
Würde ich nicht sagen. Hier gibt es ja genug Leute, die unterscheiden können zwischen großem Müll und plausiblen Gerücht. WTF-Tech interpretiert ja sogar einen Satz um, damit sie daraus eine große Meldung machen können.

Hier herrscht wenigstens eine gesunde Grundskepsis, auch wenn einige sich dann doch von Informationshappen hypen lassen.;)

Hübie
2016-01-06, 00:57:40
@brillus & hübie: Dann ist Rasterizer doch = triangle setup, also teil des frontends, wie ich vermutet hatte?

Ja ich ging davon aus, dass hiermit der Raster Operation Processor gemeint ist, nicht das triangle setup. :redface: Wobei ich ebenfalls davon ausging, dass selbiger Pixel in 2D Koordinaten transponiert.

Novum
2016-01-06, 01:21:56
@brillus & hübie: Dann ist Rasterizer doch = triangle setup, also teil des frontends, wie ich vermutet hatte?
Nein, das Triangle Setup ist vor dem Rasterizer, ist aber auch Teil des Frontends.

http://www.tomshardware.com/reviews/high,294-15.html

da ist es relativ gut erklärt.
Keine heutige Hardware rendert Scanlines. Und wahrscheinlich hat es auch schon die GeForce 3 nicht mehr gemacht.

https://www.youtube.com/watch?v=IqhRrySbRDs

mczak
2016-01-06, 03:51:55
Keine heutige Hardware rendert Scanlines. Und wahrscheinlich hat es auch schon die GeForce 3 nicht mehr gemacht.

https://www.youtube.com/watch?v=IqhRrySbRDs
Naja so viel sieht man da nicht. Ich vermute doch schwer alle Hardware benutzt irgendwas basierend auf edge functions (gibt's das eigentlich in Deutsch, "Kantenfunktion" klingt irgendwie komisch...). Da kriegt man dann mehr oder weniger auch gleich die baryzentrischen Koordinaten für die Interpolation, das macht ja heute auch alle Hardware so (allerdings wohl eher neuere HW, die intel GPUs zumindest hatten noch bis Ironlake oder so noch ein "traditionelles" Verfahren (mit berechneten a0, dx, dy Werten für jedes zu interpolierende Attribut)).

iuno
2016-01-06, 04:13:13
haha, ich musste schmunzeln als ich das gelesen habe. Die Beschreibung trifft doch exakt das was wir hier auch alle machen :freak:
Und? Machen verdienen die Forenuser damit Geld und macht das gar jemand hauptberuflich? Nein, das ist rein zum Spass. Das ist imho schon noch ein Unterschied. Ausserdem hat ein Post hier auch bzgl. Reichweite und Einfluss nichts mit der News auf einer Tech-Seite zu tun, die von vielen Leuten als Nachrichtenmedium ernst genommen wird.

horn 12
2016-01-08, 00:41:14
http://www.extremetech.com/gaming/220603-confirmed-globalfoundries-will-manufacture-amds-mobile-low-power-polaris-gpus

Low End GPU Polaris kommen offiziell von GF
Bestätigt!

OBrian
2016-01-08, 03:20:30
das hatte Koduri doch so auch schon gesagt.

Sunrise
2016-01-08, 14:09:09
das hatte Koduri doch so auch schon gesagt.
Ja, nur liefert der Artikel nochmal eine gute Zusammenfassung. Wenn AMD es mit 14nm LPP schafft - und die Voraussetzungen beim Prozess sehen sehr gut aus - hier effizient zu sein hat das enorme Auswirkungen für viele Bereiche.

Sie hätten damit zumindest bei den Produkten mit hohem Volumen sofort einen spitzen Prozess mit hoffentlich genug lieferbaren Wafern zur Verfügung um ordentlich Geld zu verdienen. Denn ob NV da mitzieht ist äußerst fraglich, da Parker ja jetzt immer deutlicher von TSMC zu kommen scheint.

Wenn das stimmt was Lisa auf der CES sagte, dann hat AMD bereits zum Sommer mehrere Produkte fertig. Lisa ist da relativ realistisch.

MR2
2016-01-08, 14:26:43
Bis auf die Sache, das Fury zu übertakten wäre "als gebe es kein Morgen":wink:
Das ist wohl die einzige schwarze Stelle auf ihrer weißen Weste. Aber das hat ihr wohl einer ins Ohr geflüstert.

Kartenlehrling
2016-01-08, 14:26:45
Ich lese da nur raus, das sie wohl mehr Laptops mit AMD verkaufen wollen und der OEM Markt verbaute noch nie die neuesten GPUs in die PCs.

Sunrise
2016-01-08, 14:33:01
Bis auf die Sache, das Fury zu übertakten wäre "als gebe es kein Morgen":wink:
Das ist wohl die einzige schwarze Stelle auf ihrer weißen Weste. Aber das hat ihr wohl einer ins Ohr geflüstert.
Nur, dass das nicht von Lisa kam, sondern von Mike Mantor bzw. Bryan Black. Da kann Lisa schlecht ins Wort springen, sondern muss ihren Experten einfach vertrauen. Das war aber in der Tat ein Fehler hier Erwartungen zu wecken, die gerade diese Leute eigentlich besser wissen sollten, denn die entwickeln die Fury bzw. die HBM-Geschichte bei AMD.

Wenn man sowas nicht anpreist und sich sowas durch Tests oder durch die Käufer selbst herausstellt, dann erreicht man in der Regel wahrscheinlich sogar mehr. Nur war die Fury X eben schon wieder über dem Limit, daraus hat AMD hoffentlich gelernt.

Dural
2016-01-08, 14:56:56
Das einzig "schlimme" das sie gesagt hat ist, das 14/16nm ähnlich wie 28nm wohl 4-5 Jahre halten muss. :rolleyes:

Im GPU Bereich ist es ja nicht so ein Problem, aber im CPU Bereich könnte da Intel wieder davon eilen.

BlacKi
2016-01-08, 15:20:59
Das einzig "schlimme" das sie gesagt hat ist, das 14/16nm ähnlich wie 28nm wohl 4-5 Jahre halten muss. :rolleyes:

Im GPU Bereich ist es ja nicht so ein Problem, aber im CPU Bereich könnte da Intel wieder davon eilen.
ich gehe von 2-3 jahren aus, 28nm musste nur solange herhalten weil man 20nm übersprungen hat. wobei 10nm wohl nicht soviel besser wird, wenn ich das richtig mitbekommen habe.

Dural
2016-01-08, 16:18:13
Die liebe Frau Lisa Su hat das gesagt, und die sollte es wissen.

http://www.computerbase.de/2016-01/amd-ceo-lisa-su-interview/

Zero-11
2016-01-08, 18:46:17
ich gehe von 2-3 jahren aus, 28nm musste nur solange herhalten weil man 20nm übersprungen hat. wobei 10nm wohl nicht soviel besser wird, wenn ich das richtig mitbekommen habe.

Da wurde garnix übersprungen. 14/16nm ist 20nm mit FinFET.

reaperrr
2016-01-09, 00:51:37
Da wurde garnix übersprungen. 14/16nm ist 20nm mit FinFET.
Naja, zumindest TSMC's 16FF+ und Samsung's 14LPP sind schon etwas dichter gepackt, als es bei einem planaren 20nm möglich gewesen wäre. Aber es sind flächenmäßig eher ~18nm Prozesse und keine 'richtigen' 16/14nm, das stimmt natürlich.

BlacKi
2016-01-09, 05:14:59
Da wurde garnix übersprungen. 14/16nm ist 20nm mit FinFET.
ich hab 2014 keine 20nm karten gesehen, stattdessen wollte man später 16nm finfet produzieren.

OBrian
2016-01-09, 07:10:52
Der 14XM von GF konnte als "20 nm mit FinFET" bezeichnet werden, aber der wurde ja fallengelassen, und der von Samsung übernommene ist wohl doch noch etwas geschrumpft (den hätte man auch wohl kaum genommen, wenn er nicht besser wäre).

Leonidas
2016-01-11, 09:31:44
Wahrscheinliche Greenland-Boards, wahrscheinlich schon 2 SKUs (C980 & C981):
http://www.3dcenter.org/news/amds-greenland-grafikkarten-anscheinend-ebenfalls-der-testphase

http://www.3dcenter.org/dateien/abbildungen/wahrscheinliche-Boardlieferungen-mit-AMDs-Greenland-Chip.png

robbitop
2016-01-11, 10:44:56
Da wurde garnix übersprungen. 14/16nm ist 20nm mit FinFET.

Der planare 20 nm Prozess welcher für 2013 geplant war wurde übersprungen. Entsprechende Designs wurden darauf hin storniert. Das gleiche ist mit 32 nm planar im GPU Bereich schon einmal passiert.
Somit muss der Vorgängerprozess eben länger durchhalten.

Die Nachfolgerprozesse (10/7 nm) sind offenbar auch nicht all zu fern.
http://wccftech.com/tsmc-promises-10nm-production-2016-7nm-2017/

Leonidas
2016-01-12, 03:16:35
Wie steht ihr eigentlich zu den von OCN genannten Codenamen C924 und C913. Ich halte da die Lieferdaten von August 2015 und Januar 2015 (nicht 2016!) für vel zu früh für dutzende fertige Grafikboards für einen neuen Polaris-Chip:
http://www.overclock.net/t/1587294/zauba-amd-have-begun-shipping-polaris-gpus-2-different-polaris-chips-and-4-different-gpus-found/0_50

OBrian
2016-01-12, 06:05:31
und ich finde, daß in diese Zauba-Listungen zu viel reingeheimnist wird. Das kann alles mögliche sein, z.B. auch irgendwelche Testchips, die nie so zum Verkauf gedacht waren. Da jedenfalls AMD wissen dürfte, daß sich seit längerer Zeit schon alle Leute wie wild auf diese Zauba-Listungen stürzen, kann ich mir gut vorstellen, daß die Angaben darin verschleiern, was es tatsächlich ist. Diese Nummern sind ja nur für AMD intern, also können sie alles hinschreiben, was sie wollen.

Und die Wertangaben dürfte auch relativ irrelevant sein, denn bei solche Einzelanfertigungen gibt es ja keinen "Wiederbeschaffungswert". Was soll AMD denn mit 500$, die sie von einer Versicherung dafür wiederbekommen, wenn so eine Lieferung verschütt geht? Die Kosten für eine Verzögerung, weil das Teil weg ist, sind doch gar nicht bezifferbar. Also schreiben sie irgendwas hin, damit der Zoll nicht meckert.

AnarchX
2016-01-12, 07:45:29
Wie steht ihr eigentlich zu den von OCN genannten Codenamen C924 und C913. Ich halte da die Lieferdaten von August 2015 und Januar 2015 (nicht 2016!) für vel zu früh für dutzende fertige Grafikboards für einen neuen Polaris-Chip:
http://www.overclock.net/t/1587294/zauba-amd-have-begun-shipping-polaris-gpus-2-different-polaris-chips-and-4-different-gpus-found/0_50
GP100 gab es wohl schon seit Juni 2015. Vielleicht konnte man bei Global Foundries schon entsprechend zeitig erste kleine 14nm Chips zum Testen herstellen.

Leonidas
2016-01-12, 10:18:51
Aber ganze Grafikkarten im Dutzendpack schon Anfang 2015?

Sunrise
2016-01-12, 11:11:22
Wie steht ihr eigentlich zu den von OCN genannten Codenamen C924 und C913. Ich halte da die Lieferdaten von August 2015 und Januar 2015 (nicht 2016!) für vel zu früh für dutzende fertige Grafikboards für einen neuen Polaris-Chip:
http://www.overclock.net/t/1587294/zauba-amd-have-begun-shipping-polaris-gpus-2-different-polaris-chips-and-4-different-gpus-found/0_50
Die oberen beiden sind recht sicher auf 14nm LPP (Generation 9, Polaris):
http://www.globalfoundries.com/newsroom/press-releases/2015/11/05/globalfoundries-achieves-14nm-finfet-technology-success-for-next-generation-amd-products

Die unteren, die bis Januar 2015 zurückgehen, sehen mir nach Testchips für Generation 9 auf 14nm LPE, respektive 14nm LPP für den Chip im August aus. Die entsprechende IP für 14nm kam von Synopsys Anfang Juni 2014 für 14nm LPE und wenn man die GloFo-Meldung liest, sind es von August bis November nochmal gute 3 Monate für einen 14nm LPP-TapeOut, das kommt also hin.

EDIT:
Hier, das passt doch perfekt:

GF is running just a single part in LPE. LPE completed qualification in January of this year and has reached the yield levels for a volume ramp of this product starting this month.
Das sind also recht sicher LPE-Samples von AMD, sofern GloFo wirklich erstmal exklusiv für AMD fertigt.

Alles in Allem würde ich anhand dieser Daten davon ausgehen, dass AMD Polaris zwischen Juni-September 2016 mit fertigen Chips vorstellen können wird, womöglich mit etwas Vorlauf für die 14nm-Produkte von AMD aufgrund der größeren Mengen die hier für die entsprechenden Marktsegmente benötigt werden.

HOT
2016-01-12, 11:15:56
AMD bestelt ja schon lange mit 14nm-Silizium herum, es gab ja Entwicklereinträge, die schon in 2014 davon berichteten. Das werden wohl frühe 14LPE-Samples sein. Vielleicht brauchte man mehr Testphase mit den 14nm-Prozessen. Vielleicht hat man auch mit HBM und Interposern für die neue Generation herumexperimentiert, also Speicher- und Interposeranbindung bei 14nm, muss ja nicht zwingend was funktionierendes gewesen sein. Der Eintrag August passt aber durchaus zu Greenland, da dieser ja offenbar schon im Sommer Tapeout hatte. Im Sommer 2015 wurden ja 2 Tapeouts gemeldet, das werden AMD wichtigste Produkte gewesen sein, Summit Ridge und Greenland. Beide Projekte werden auch bei den Foundries absolute top-Priorität gehabt haben.

w0mbat
2016-01-12, 13:54:54
http://www.tweaktown.com/news/49581/enthusiast-version-amds-next-gen-polaris-spotted-ces-2016/index.html

Polaris XT wurde auf der CES gezeigt.


@HOT: Bald 10k Beiträge!! o.O

Pretest
2016-01-12, 14:17:02
AMD scheint mit Polaris ja ganz gut in Fahrt zu sein. Bei Nvidia wird dagegen wohl wiedermal mit Holzschrauben gehandelt :freak::

http://newsweep.com/nvidias-drive-px-2-prototype-allegedly-powered-by-maxwell-not-pascal/

https://semiaccurate.com/2016/01/11/nvidia-pascal-over-a-year-ahead-of-1416nm-competition/

So to wrap it up, Nvidia CEO Jen-Hsun Huang showed off what he said were two Pascal GPUs in an Nvidia Drive PX 2 module. The date codes on the devices he held up made it very clear that they had been sitting on these devices for a week or two short of a year, no one else was even close to large 16nm FinFET GPUs at the time. Even TSMC could not produce such parts for months afterwards, their process wasn’t actually ready at the time. And the performance is more than 2x that of 28nm AMD devices even without the HBM memory that Pascal was supposed to require.

It all has to be true because as an executive in a publicly traded company with press and analysts who cover and trade Nvidia in the room, he is obliged by the SEC to be truthful. The only other explanation is that he knowingly lied to the press and analysts and showed a fake card in his keynote, something that would clearly be illegal. Jen-Hsun would never do something like that, right?

iuno
2016-01-12, 14:27:08
http://www.tweaktown.com/news/49581/enthusiast-version-amds-next-gen-polaris-spotted-ces-2016/index.html

Polaris XT wurde auf der CES gezeigt.
Was fuer ein Muell. Inhalt: "Ich hab's gesehen ihr nicht, :P"
Selbst mir wuerde mehr einfallen, dazu zu schreiben, haette ich das Teil gesehen. "Gesehen", aber keine Einschaetzung der Groesse? Keine Angabe ob mit Interposer+HBM oder ohne? Gar nichts. Nur ":P"

Pretest
2016-01-12, 14:32:44
Drei Möglichkeiten:

1. Es ist ein Haufen bullshit von einem der sich wichtig macht
2. Es darf nichts genaues gesagt werden
3. Aus welchen Gründen auch immer war man nicht in der Lage mehr zu sagen obwohl man gekonnt hätte :confused:

Ist allerdings wirklich einer der dünnsten Artikel aller Zeiten.

HOT
2016-01-12, 14:35:50
http://www.tweaktown.com/news/49581/enthusiast-version-amds-next-gen-polaris-spotted-ces-2016/index.html

Polaris XT wurde auf der CES gezeigt.



Wird also eine Greenland XT Karte gewesen sein, wie sich das liest. Bin echt mal gespannt, ob AMD die 490(X) nennen wird.
@HOT: Bald 10k Beiträge!! o.O
ganz ehrlich, das wär mir überhaupt nicht aufgefallen, wenn du mich nicht darauf hingewiesen hättest. Aber man muss das etwas relativieren, 10k Beiträge in mehr als 15Jahren :D. 3DConcept ftw :freak:. Scheisse, jetzt fühl ich mich alt.

Agent117
2016-01-12, 16:15:36
Das ist doch irgendwie alles eine Sackgasse hier.
Nur 2 Chips dieses Jahr und damit soll alles (bis auf Enthusiast oder embedded lowend) abgedeckt werden?
Demgegenüber 4 Nvidia Chips. GP107,106,104,102 (GP100 wmgl. nur HPC)
Rebranding kommt nicht in Frage bei 2 bis 2,5 mal Perf/W von Polaris; nur die Fiji in Nano Ausführung könnte man vlt noch mit Ach und Krach verwenden.

Hier steht was interessantes, was Nakai schonmal Anfang Dezember geposted hatte.
http://www.computerbase.de/2015-08/amd-fiji-vom-ersten-schritt-zum-fertigen-produkt-in-8.5-jahren/

Dort steht, dass es vor Fiji bereits einen Testchip gab, welcher eigentlich 4 eigenständige GPUs enthielt, die jeweils an einen HBM Stack angebunden waren.
Angenommen es ist AMDs langfristiges Ziel, mehrere Chips auf einem Interposer unterzubringen, ist doch eine der Fragen die dies aufwirft , warum man damals zum Testen nicht 4 gleiche kleinere Chips genommen hat, statt einem aufwendigeren großen der sich wie 4 verhält?
Wahrscheinlich sind die 4 Bereiche auf dem großen Chip nicht exakt gleich sondern weisen was die Kommunikation mit anderen Bereichen betrifft, welche über den Interposer laufen sollte, Unterschiede auf, um zu verhindern, dass man den Chip wegen möglichen Fehlern neu auflegen muss und um die beste Möglichkeit des Kommunikationsweges Chip-->Interposer-->Chip zu finden.

Nun frage ich mich, ob es nicht doch halbwegs realistisch ist, dass so etwas bei Arctic Islands schon Anwendung findet, natürlich dann mit 1,2 oder 4 identischen kleineren Chips.
Das hat eine Menge Vorteile wie weniger verschiedene Chips (2 würden dann reichen um nahezu ein komplettes Lineup zu bilden) und keinen aufwendigen Big Chip mehr.

Außerdem böte wohl bereits Fijis Interposer ausreichende Übertragungsraten für einen Interconnect über mehrere Chips.

Wie sind nochmal Furys Produktionswege? Fiji Herstellung bei TSMC, Interposer bei UMC in 45nm? Wo werden Fiji und HBM auf den Interposer gepackt?
Was spricht denn aus logistischer und finanzieller Sicht dagegen, statt nur HBM und eine GPU auf den Interposer zu klatschen, 2 oder 4 GPUs und HBM auf einen Interposer zu packen?
Es wurde schonmal gesagt sowas sei noch zu früh, aber was spricht konkret dagegen?

HOT
2016-01-12, 16:28:31
So wie es Aussieht plant AMD 4 GPUs 2016/2017, davon schaffen es Greenland und eine weite GPU, die wohl in mehr als 4 Produkten im Desktop-Bereich auf den Markt kommen werden, also Greenland als HBM-Chip als Pro und XT und Baffin/Ellesmere als 4 GDDR5-Produkte.
NV hingegen schafft offenbar den GP100 (wobei es Stimmen gibt, dass das kein echter Grafikchip ist) und GP104 und vielleicht noch GP106 in 2016, planen aber insgesamt 5(6) Desktop-GPUs in 2016/17. Schon sieht der Unterschied nicht mehr so gewaltig aus.

Botcruscher
2016-01-12, 18:09:21
Die Sache mit mehreren GPUs auf einem Träger geistert seit R600 durch den Äther. Was an einer Verdrahtung von 4 kleinen Chips besser sein soll als einen großen zu bauen soll mir mal einer erklären.

maguumo
2016-01-12, 18:25:56
Was an einer Verdrahtung von 4 kleinen Chips besser sein soll als einen großen zu bauen soll mir mal einer erklären.
-besserer yield
-weniger Tape Outs und alles was dran hängt

Kriton
2016-01-12, 18:47:44
Das ist doch irgendwie alles eine Sackgasse hier.
Nur 2 Chips dieses Jahr und damit soll alles (bis auf Enthusiast oder embedded lowend) abgedeckt werden?
Demgegenüber 4 Nvidia Chips. GP107,106,104,102 (GP100 wmgl. nur HPC)


Ich erinnere mich an keine verlässliche Info, die wiedergibt, dass Nvidia 4 Chips in diesem Jahr auflegen wird...

Im Übrigen wäre es logisch, wenn Nvidia im low-end eher vertreten wäre als AMD mit seinen APUs (gut, Intels derzeitige Marktmacht könnte man gegenhalten).

Die Sache mit mehreren GPUs auf einem Träger geistert seit R600 durch den Äther. Was an einer Verdrahtung von 4 kleinen Chips besser sein soll als einen großen zu bauen soll mir mal einer erklären.

Die Ausbeute bei den Wafern.

Botcruscher
2016-01-12, 19:30:37
-besserer yield
-weniger Tape Outs und alles was dran hängt

Die Chips auf den Träger zu verlöten beeinflusst den Ertrag mal ganz ordentlich negativ.
Was an den Tapeouts gespart wird musst du in die Softwareunterstützung reinpopeln.

Die Ausbeute bei den Wafern.
Wird verlagert auf die Ausbeute beim verlöten des Interposers. Jetzt überlegen wir mal warum Fiji so teuer ist.

AnarchX
2016-01-12, 19:37:35
Die Chips auf den Träger zu verlöten beeinflusst den Ertrag mal ganz ordentlich negativ.
Was an den Tapeouts gespart wird musst du in die Softwareunterstützung reinpopeln.

Wird verlagert auf die Ausbeute beim verlöten des Interposers. Jetzt überlegen wir mal warum Fiji so teuer ist.
In vielleicht 2-3 Jahren könnte so ein Konzept wohl durchaus brauchbar sein. Aber 2017 muss wohl erstmal der Interposer und HBM im Mainstream ankommen.
Über den Interposer bekommt man endlich genügend Inter-Chip-Bandbreite.

Agent117
2016-01-12, 19:43:40
Die Chips auf den Träger zu verlöten beeinflusst den Ertrag mal ganz ordentlich negativ.
Was an den Tapeouts gespart wird musst du in die Softwareunterstützung reinpopeln.


Woher weißt du, dass es den Ertrag ganz ordentlich negativ beeinflusst. Klar wird das was kosten. Die Frage ist nur wieviel mehr als das bisherige packaging samt aufwendigeren PCB mit Speicherchipbestückung. Vermutlich weiß das nur AMD.

AMD sagte aber auch mal, man wolle HBM mit der nächsten Generation flächendeckend einsetzen.
Auch die Zen APUs soll es mit Interposer und HBM geben.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=54314&d=1451606181
Für eine Zen APU kann ich mir trotz HBM keinen Preispunkt von über 200€ vorstellen; also muss AMD zumindest damit rechnen, dass das Q2 17 zum Zen APU Release wirtschaftlich machbar ist.

Kriton
2016-01-12, 20:47:47
Wird verlagert auf die Ausbeute beim verlöten des Interposers. Jetzt überlegen wir mal warum Fiji so teuer ist.

Wir reden hier ja auch von zukünftigen Lösungen. Natürlich wird das Thema Interposer grds. günstiger (wenn man die Technik besser im Griff hat). Im Gegensatz dazu wird man auf Basis der jeweils (immer wieder) neuen Fertigungsverfahren, bzw. der max. Transistordichte in einem solchen automatisch teurer je "mehr" man machen will.

OBrian
2016-01-13, 01:52:26
eine neue Maske für einen Chip, der auf bekannter IP basiert, nur anders zugeschnitten ist, dürfte dank der automatisierten Verfahren inzwischen wesentlich billiger geworden sein und nicht so einen irren Kostenfaktor darstellen. Insofern muß man nicht unbedingt nur einen kleinstmöglichen Chip bauen und dann die High-End-Karte aus 16 Stück davon zusammenpuzzlen.

Korvaun
2016-01-14, 10:51:58
Da wird sich AMD freuen:

http://www.computerbase.de/2016-01/samsung-foundry-2.-generation-der-14-nm-fertigung-in-massenproduktion/

Wenn die Verbesserungen von LPP gegenüber LPE auch nur annähernd 15 Prozent höhere Geschwindigkeiten und (gleichzeitig?) 15 Prozent geringerer Energiebedarf erreichen wäre das schon eine massive Verbesserung.

AffenJack
2016-01-14, 11:07:05
Auch wenn sie "and" schreiben, es gibt immer nur das eine von beiden, aber TSMC und Samsung schreiben irgendwie immer "and".
Aber ist ja schonmal gut, dass die Produktion läuft. Es ist anzunehmen, dass Samsung etwas früher als GF damit startet, aber wir wissen ja noch immer nicht so richtig die das genau mit der Verteilung da ist. Es hieß zwar Gf bei der Vorstellung jetzt, aber mit Samsung gabs ja auch viel Spekus.

Complicated
2016-01-14, 11:08:49
Wie sind nochmal Furys Produktionswege? Fiji Herstellung bei TSMC, Interposer bei UMC in 45nm? Wo werden Fiji und HBM auf den Interposer gepackt?
AMD Interposer Strategie - Zen, Fiji, HBM und Logic ICs (http://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs)

http://scr3.golem.de/screenshots/1505/AMD-HBM/AMD-HBM-07.png

Auf dieser Folie werden die Partner der Interposer-Technologie genannt mit UMC, Amkor und ASE.
UMC ist als Foundry bekannt, doch die beiden andere sind nicht so geläufig.
Amkor ist Partner von Globalfoundries bei der Zulieferkette für 2.5 Stacking Technologie: (http://www.amkor.com/go/2-5D)
ASE ist der weltweit größte "assembly and test service Provider" was soviel wie ein Dienstleister rund um Zusammenbau und Tests von Halbleitern ist. (http://www.inotera.com/English/Press_Center/Press_Releases/2014-04-07+Inotera+and+ASE+Joint+Press+Release.htm)

iuno
2016-01-14, 11:12:19
Auch wenn sie "and" schreiben, es gibt immer nur das eine von beiden, aber TSMC und Samsung schreiben irgendwie immer "and".

Das wichtige steht davor
up to [...] and [...]
Es sollte klar sein, dass damit nicht gemeint ist, LPP sei gleichzeitig 15% schneller UND sparsamer

Complicated
2016-01-14, 11:12:59
Für eine Zen APU kann ich mir trotz HBM keinen Preispunkt von über 200€ vorstellen; also muss AMD zumindest damit rechnen, dass das Q2 17 zum Zen APU Release wirtschaftlich machbar ist.
Es wird eher schwierig mit einem Preispunkt unter 200,- € - denk daran dass hier der HBM-Speicher integriert ist, was man eben auf den Preis aufschlagen muss. 50,- € für 8 GB sollte man da schon kalkulieren. Auch die gesamte Plattform sollte hier preislich profitieren, so dass einiges an "Budget" frei wird für das Gesamtsystem und man somit die CPU/APU preislich höher ansetzen kann und auch muss. Selbst 128 oder 256 GB SSD auf dem Interposer könnte auftauchen, was sich eben auch im Preis bemerkbar machen muss.

Sunrise
2016-01-14, 11:24:13
Da die Packdichte bei Samsung am Beispiel des A9 ja schon besser als bei TSMC war, man aber Nachteile bei der Energieeffizienz hatte, wurde nun zusätzlich in Richtung Energieeffizienz optimiert und dürfte dort nun ein ziemlich mächtiges Paket im Portfolio haben, was AMD sicher nutzen wird, da die Änderungen ggü. LPE nur im Detail zu suchen sind.

Die entsprechende Polaris-Folie hatte es ja schon angedeutet, dass die Optimierungen noch im Gange sind. Wenn AMD jetzt noch (war auf einer Roadmap zu sehen) ihre Stromsparmechanismen verbessert hat, dann bin ich wirklich gespannt, was da nun auf uns zukommt. Gegenüber Fiji müsste man theoretisch einen gigantischen Sprung machen, der hoffentlich nicht aufgrund von irgendwelchen Area-Einsparungen aufgrund der Kosten/Yields (siehe Hawaii) wieder zunichte gemacht wird.

Allerdings dürfen wir nicht vergessen, dass die größeren GPUs von TSMC kommen und dort hat man nicht diese extrem optimalen Bedingungen wie bei SoCs bzw. kleineren GPUs, da die Dinger einfach um Welten komplexer sind und man dementsprechend wohl 16HP (anstatt 16FF+) nutzen wird/muss. Es ist also fraglich, ob man diese enormen Verbesserungen quer durch das LineUp (bei allem >Low-End) überhaupt anwenden wird können.

iuno
2016-01-14, 12:24:25
16HP? Was soll das sein?
TSMC hat 16 FF und 16 FF+, 16 ULP kommt noch (iirc). Es wurde gesagt, dass FF+ nicht unbedingt die beste Loesung sei, also ist auch FF moeglich.

Ailuros
2016-01-14, 13:10:28
Ich bezweifle auch dass 16FF/TSMC immer noch lebt.

Sunrise
2016-01-14, 13:18:01
16HP? Was soll das sein?
TSMC hat 16 FF und 16 FF+, 16 ULP kommt noch (iirc). Es wurde gesagt, dass FF+ nicht unbedingt die beste Loesung sei, also ist auch FF moeglich.
HP = optimiert auf High Performance, nicht wie bei SoCs (FF+) vor allem auf Dichte und maximale Energieffizienz.

Klar, ich hätte auch FF schreiben können.

Zumindest NV hat es ja schon durchblicken lassen.

Agent117
2016-01-14, 13:18:02
Wir reden hier ja auch von zukünftigen Lösungen. Natürlich wird das Thema Interposer grds. günstiger (wenn man die Technik besser im Griff hat). Im Gegensatz dazu wird man auf Basis der jeweils (immer wieder) neuen Fertigungsverfahren, bzw. der max. Transistordichte in einem solchen automatisch teurer je "mehr" man machen will.

Du meinst dass für Chips mit doppelter Transistordichte auch der Interposer feiner werden muss, um ausreichende Übertragungsraten sicherzustellen.
Das heißt mehr uBumps pro Fläche, mehr TSVs und feinere Front Side Redistribution Layer zur Verbindung von TSV und uBumps? Das macht natürlich Sinn.
Die Übertragungsrate Chip-->Interposer--Chip sollte jedoch auch vom Design des Chips selbst abhängen. Wo splitte ich auf? Wieviele uBumps kann ich in meinem Design flächenmäßig für die Übertragung nutzen usw. Von daher ist es schwer zu sagen, ob Fijis Interposer schon für einen Interconnect zwischen mehreren Chips reicht. Angeblich täte er das locker.


Es wird eher schwierig mit einem Preispunkt unter 200,- € - denk daran dass hier der HBM-Speicher integriert ist, was man eben auf den Preis aufschlagen muss. 50,- € für 8 GB sollte man da schon kalkulieren. Auch die gesamte Plattform sollte hier preislich profitieren, so dass einiges an "Budget" frei wird für das Gesamtsystem und man somit die CPU/APU preislich höher ansetzen kann und auch muss. Selbst 128 oder 256 GB SSD auf dem Interposer könnte auftauchen, was sich eben auch im Preis bemerkbar machen muss.

Erst mal Danke für die verlinkte Präsentation.

Klar kostet das alles. Aber man will ja bei den Zen APUs auch nur mit 512Bit 2Gb HBM anbinden.
Planet3D schreibt ja dass der Interposer gerade mal 1$ pro 100mm² kostet. So wie ich das lese umfasst das aber nur die Waverkosten, Verschnitt und Abfall mit eingerechnet. Ist halt die Frage, wieviel die weiteren Produktionsschritte kosten. Das klingt in der Präsi sehr aufwendig und ist vlt sogar teurer als das reine Silizium.
Der springende Punkt ist mMn wie billig man das Interposer Ökosystem Mitte 2016 oder auch Q2 17 dür die Zen APUs anbieten kann.

Wenn ein ca. 180mm² Chip mit 2048SP (passt zu den 4TFlop Leistung die von AMD für Greenland mal genannt wurden; ob DP oder SP wurde nie ganz geklärt) mit 1 oder 2 HBM Stacks und einen 300-400mm² großen Interposer für 200-250€ im Sommer 2016 wirtschaftlich absetzbar ist, könnte man damit Tonga und Hawaii ersetzen; 2 GPUs liegen dann bei Fiji + 20% und 4 GPUs schlagen alles von Nvidia ohne Mikroruckler.

iuno
2016-01-14, 13:58:35
HP = optimiert auf High Performance
Das ist schon klar, aber einen "16 HP" Prozess hat TSMC nicht, zumindest nicht offiziell. Darueber wuesste man doch sicherlich Bescheid, wenn dieses Jahr Produkte damit kommen sollen?

Zumindest NV hat es ja schon durchblicken lassen.
Was genau, dass es noch einen weiteren 16 FF Prozess geben wird? Habe ich nicht mitbekommen. Aber Ailuros scheint das ja andeuten zu wollen.

Troyan
2016-01-14, 14:13:09
TSMC spricht nur von 16nmFF+: http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm

Sunrise
2016-01-14, 14:23:16
Das ist schon klar, aber einen "16 HP" Prozess hat TSMC nicht, zumindest nicht offiziell. Darueber wuesste man doch sicherlich Bescheid, wenn dieses Jahr Produkte damit kommen sollen?
Mit HP meine ich eigentlich FF ohne +. Es gab in der Vergangenheit immer mehrere Targets. Dass man jetzt plötzlich alles mit FF+ erschlägt, wäre überraschend. Woher kommt denn der plötzliche Wandel? Nur weil das Marketing das schreibt?

Was genau, dass es noch einen weiteren 16 FF Prozess geben wird? Habe ich nicht mitbekommen. Aber Ailuros scheint das ja andeuten zu wollen.
16FFC gibt es noch, Ailuros meinte aber, dass es wohl nur noch FF+ gibt, da FF recht schnell dadurch ersetzt wurde.

iuno
2016-01-14, 18:47:12
Ach so.
Welcher Wandel? 16 FF ist doch eigentlich auch fuer low power? 16 FF+ soll so wie ich das sehe eben eine Weiterentwicklung dessen sein, kein Ersatz oder parallele Technik wie bei 28 HP/LP. Es ist wohl schon als Nachfolger konzipiert, das wird ja auch klar so kommuniziert. Nur hat einer von AMD eben gesagt, dass die Entwicklung nicht zwangslaeufig fuer alle Produkte von Vorteil sein muss. So seien zwar hoehere Taktraten moeglich, aber damit verbunden auch deutlich hoehere Leckstroeme.
Der Schritt von 14 LPE zu 14 LPP ist da wohl scheinbar gelungen. Allerdings muss man abwarten, es gibt ja nichts bis fast nichts (A9) zum Vergleichen.

Pick
2016-01-16, 04:16:17
HWiNFO64
Upcoming changes in the next release:
- Added preliminary support of AMD Ellesmere, Baffin, Greenland.
http://www.hwinfo.com/news.php

Grabhopser
2016-01-16, 12:35:01
AMD lässt wieder einiges durch die Gegend fliegen.

C980 ist ja bekannt aber D000 ? evtl. ein Beizeichnungsfehler ?
Zudem kommt mir das Volumen der Lieferungen etwas groß vor.

14-Jan-2016 84733030 PRINTED CIRCUIT BOARD ASSEMBLY FOR PERSONAL COMPUTER(VIDEO/ GRAPHICS CARD) P/N .102-D00001-00 (FOC) Hong Kong Hyderabad Air Cargo NOS 15 460,852 30,723

14-Jan-2016 84733030 PRINTED CIRCUIT BOARD ASSEMBLY FOR PERSONAL COMPUTER(VIDEO/ GRAPHICS CARD) P/N .102-C98001-00 (FOC) Hong Kong Hyderabad Air Cargo NOS 24 982,611 40,942

AnarchX
2016-01-16, 12:39:56
Die C-Nummern sind wohl mit 98... ausgereizt. Möglicherweise bereitet sich AMD schon vor erste Samples an die Kunden zu verteilen.

iuno
2016-01-16, 15:15:46
@pick: das hat absolut nichts zu bedeuten.

Gibt es eigentlich infos dazu, ob CR und ROVs unterstützt werden?

Locuza
2016-01-16, 15:49:42
Gibt es eigentlich infos dazu, ob CR und ROVs unterstützt werden?
Leider nicht, was mir ein wenig Sorgen bereitet.
Bei diesen zwei Folien z.B. wird nichts in der Richtung erwähnt:
http://images.anandtech.com/doci/9886/Radeon%20Technologies%20Group_Graphics%202016-page-005_575px.jpg
http://images.anandtech.com/doci/9886/Radeon%20Technologies%20Group_Graphics%202016-page-015_575px.jpg

Ich hoffe AMD hat sich schlicht dazu entschieden nicht alles zu vermarkten und grenzt die Dinge aus bestimmten Gründen aus.

Rabiata
2016-01-16, 16:32:39
Es wird eher schwierig mit einem Preispunkt unter 200,- € - denk daran dass hier der HBM-Speicher integriert ist, was man eben auf den Preis aufschlagen muss. 50,- € für 8 GB sollte man da schon kalkulieren. Auch die gesamte Plattform sollte hier preislich profitieren, so dass einiges an "Budget" frei wird für das Gesamtsystem und man somit die CPU/APU preislich höher ansetzen kann und auch muss. Selbst 128 oder 256 GB SSD auf dem Interposer könnte auftauchen, was sich eben auch im Preis bemerkbar machen muss.
Ich denke. daß die erste Generation von Zen APUs wohl kaum 8 GB Videospeicher haben wird. Das wäre auf dem Niveau einer aktuellen High-End-GraKa und wird wohl den diskreten Polaris-Modellen vorbehalten sein.

1-2 GB HBM VRAM plus ein Zweikanal-Memorycontroller für DDR4 erscheint mir eher realistisch. Dazu ein Grafikteil leistungsmäßig auf der Höhe von Pitcairn, und wir haben eine noch bezahlbare APU, die bei der Grafikleistung dennoch eine Schippe drauflegen kann gegenüber den heutigen Angeboten. :smile:

iuno
2016-01-16, 17:22:05
http://images.anandtech.com/doci/9886/Radeon%20Technologies%20Group_Graphics%202016-page-005_575px.jpg
http://images.anandtech.com/doci/9886/Radeon%20Technologies%20Group_Graphics%202016-page-015_575px.jpg

Ich hoffe AMD hat sich schlicht dazu entschieden nicht alles zu vermarkten und grenzt die Dinge aus bestimmten Gründen aus.
Naja imho gehoert es da auch nicht wirklich dazu. Aber du hast schon recht, kein besonders gutes Zeichen, wenn das bisher nicht genannt wurde, sowieso da sie schon die Demo zur kleinen Polaris gemacht haben.
Aber in dem Fall heisst es weiter abwarten

Locuza
2016-01-16, 17:56:34
Leider ja.
Es gibt theoretisch 3 Möglichen (sehr viele, aber ich halte mich grob)

1. AMD unterstützt auch weiterhin nicht nicht CR+ROVs und damit auch nicht FL12.1.
2. AMD unterstützt CR+ROVs + mögliche andere Dinge, implementiert es aber ohne aufwendige Hardware-Änderungen.
(ARM z.B. unterstützt bei den neusten Malis Tessellation, hat dafür aber nicht wie sonst üblich Fixed-Function-Hardware dafür, sondern lässt die Tessellation-Stage durch die ALUs berechnen.)
3. AMD hat stärkere Anpassungen beim Rasterizer und dem Backend für ROVs vollzogen und schweigt einfach.
Hier wäre es aber natürlich legitim bei 4th Gen dies als Highlights zu nennen oder sogar beim Schaubild, irgendwo "new" hin zu schreiben.

Es stellt sich die Frage, werden die Features unterstützt und wenn ja, wie schnell?
Die Frage nach der Geschwindigkeit stellt sich natürlich bei allen drei IHVs.

AnarchX
2016-01-17, 10:54:35
Polaris10 und Polaris11? (https://imgur.com/2kmqun5)
via: http://semiaccurate.com/forums/showpost.php?p=252031&postcount=356

Sofern im Maßstab wohl ~100 und ~400mm².

fondness
2016-01-17, 11:04:25
Würde auf jeden Fall Sinn machen, den kleinen braucht man für Notebook, und dann erwartungsgemäß noch einen Performance-Chip, mehr wird dieses Jahr nicht kommen. Allerdings würde ich auf die Folie nicht allzuviel geben, schon gar nicht was Die-Size betrifft.

Aber ja wenn Raja nicht völlig den Boden der Tatsachen verlassen hat, sollten die Polaris Architektur recht gut werden.


VB: Is that with a generation coming in 2016?

Koduri: Yes. We have two versions of these FinFET GPUs. Both are extremely power efficient. This is Polaris 10 and that’s Polaris 11. In terms of what we’ve done at the high level, it’s our most revolutionary jump in performance so far. We’ve redesigned many blocks in our cores. We’ve redesigned the main processor, a new geometry processor, a completely new fourth-generation Graphics Core Next with a very high increase in performance. We have new multimedia cores, a new display engine.

This is very early silicon, by the way. We have much more performance optimization to do in the coming months. But even in this early silicon, we’re seeing numbers versus the best class on the competition running at a heavy workload, like Star Wars—The competing system consumes 140 watts. This is 86 watts. We believe we’re several months ahead of this transition, especially for the notebook and the mainstream market. The competition is talking about chips for cars and stuff, but not the mainstream market.

In summary, it’s fourth generation Graphics Core Next. HDMI 2.0. It supports all the new 4K displays and TVs coming out with just plug and play. It supports display core 4.3, the latest specification. It’s very exciting 4K support. We can do HAVC encode and decode at 4K on this chip. It’ll be great for game streaming at high resolution, which gamers absolutely love. It takes no cycles away from games. You can record gameplay and still have an awesome frame rate. It’ll be available in mid-2016.

AnarchX
2016-01-17, 11:21:56
Wobei die Größen wohl etwa dem entsprechen könnte, was die Redakteure in Las Vegas gesehen haben.
Laut Treiber/DLLs gibt es da wohl drei interne Insel-Codenamen ~ Dies: Greenland, Baffin, Ellesmere.
Und für das Marketing haben wir: Vega10, Polaris10, Polaris11.

Im Endeffekt könnten die bekannten 4096SPs für einen ~400mm² Greenland/Vega11 wohl hinkommen. Wenn das Front-End entsprechend mehr aus der Shaderleistung holt, zieht man da wohl deutlich an GM200/Fiji vorbei.

Polaris10 würde ich bei 768-1024SPs sehen. In der höchsten Ausbaustufe (~120W TDP, 8Gbit GDDR5 und vielleicht ~1,2GHz Base) könnte man da sicherlich GM206 angreifen.

Zwischen den beiden Dies wäre halt erstmal eine ziemlich große Lücke, die man dann wohl vorerst mit Tonga/Hawaii ausfüllen muss. Da ist Nvidia mit GM204 in einer bequemeren Situation und könnte da noch die 960Ti oder eine gefixte GTX 975 bringen.

HOT
2016-01-17, 11:30:26
Der hat sicherlich eher 130-150mm² und 1500 Shader, alles andere würde nun echt keinen Sinn ergeben. Alles darunter ist APU. Der muss in jedem Falle deutlich schneller sein als Skylake GT4.
Und deine Watt-Angabe ist total sinnlos. Pitcairn v3 alias Trinidad bietet bei 1024 Shadern bei recht hohem Takt schon einen TDP von 120W mit 28nm.

Bonaire -> 460(X)
Ellesmere -> 150mm², 20 und 24CUs und 128Bit GDDR5 -> 470(X), max 100W
Baffin -> Greenland Salvage mit weniger Stacks -> 400mm², 40 und 48CUs, HBM 480(X), max 150W
Greenland -> Greenland Full -> 400mm², 56 und 64CUs, HBM 490(X), max 200W
Fiji Gemini -> VR, bekommt erst ein Update, wenn AMD big-Die soweit ist, max 375W

würd ich sagen.

Hübie
2016-01-17, 11:37:39
Daran besteht kein Zweifel, fondness. Hawaii / Grenada müssen jetzt aber EOL gehen, denn wie kann man jetzt noch deren Energiebedarf rechtfertigen? P/L ist aktuell gut, aber das ist dann vorbei. Bin jedenfalls sehr gespannt was da kommt.
Ob CR und ROV nun so wichtig sind, lassen wir mal dahingestellt. Beide erfordern ja kein redesign des kompletten Rasterizer und ich vermute dass nur die Teile mit "New" gekennzeichnet sind die auch massiv re-designed wurden. Ich hoffe eher dass man nun ein ausgewogenes und modulares Design hat. Das war ja nun zum Ende hin doch sehr ungleichmäßig.

AnarchX
2016-01-17, 11:39:51
Der hat sicherlich eher 130-150mm² und 1500 Shader, alles andere würde nun echt keinen Sinn ergeben. Alles darunter ist APU. Der muss in jedem Falle deutlich schneller sein als Skylake GT4.

Ellesmere -> 150mm², 20 und 24CUs und 128Bit GDDR5
Baffin -> Greenland Salvage mit weniger Stacks -> 400mm², 40 und 48CUs, HBM
Greenland -> Greenland Full -> 400mm², 56 und 64CUs, HBM

würd ich sagen.


ATs Ryan Smith schätzt ihn wohl auf <120mm²: http://www.anandtech.com/show/9886/amd-reveals-polaris-gpu-architecture
Aber Carsten hat ihn vielleicht abgepaust ;D: http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/AMD-Polaris-Daten-Release-1182286/
... und kommt wohl auf 150mm².

GM206+ Klasse wäre auf jeden Fall sinnvoller, teildeaktivieren kann man immernoch recht großzügig. Und für Low-End hat man ja noch einen GCN3 Iceland.

HOT
2016-01-17, 11:52:46
Der hat wie gesagt 24CUs, das halte ich für sicher. Der muss ja Pitcairn ersetzen und am besten Tonga Pro gleich mit.

Nightspider
2016-01-17, 12:12:39
400mm² wäre schon ein recht großer 14nm Chip für den Anfang und sehr toll.
Könnte locker 50% und mehr vor Fiji liegen schätze ich.

Ich hoffe die R9 400 Serie wird sich auch besser übertakten lassen. Nvidia wird in 14nm sicherlich schon bei ~1,3-1,7Ghz liegen wenn der FinFET Prozess so gut ist wie sie sagen.

Ich werde jedenfalls ganz sicher schnell zugreifen bei der 14nm Generation und AMD wäre mir aktuell lieber als Nvidia. Ich hoffe AMD verkackt es nicht.

mboeller
2016-01-17, 12:15:33
Würde auf jeden Fall Sinn machen, den kleinen braucht man für Notebook, und dann erwartungsgemäß noch einen Performance-Chip, mehr wird dieses Jahr nicht kommen. Allerdings würde ich auf die Folie nicht allzuviel geben, schon gar nicht was Die-Size betrifft.

Aber ja wenn Raja nicht völlig den Boden der Tatsachen verlassen hat, sollten die Polaris Architektur recht gut werden.

gab es den Link schon mal im Thread? Wenn ja, habe ich ihn verpasst:

http://venturebeat.com/2016/01/15/amds-graphics-guru-describes-the-march-to-full-graphics-immersion-with-16k-screens/view-all/

AnarchX
2016-01-17, 12:38:53
400mm² wäre schon ein recht großer 14nm Chip für den Anfang und sehr toll.
Könnte locker 50% und mehr vor Fiji liegen schätze ich.
Für 50%+ müsste wohl mehr Leistung als bei Maxwell pro SP herauskommen, wenn man nicht den Takt massiv erhöht.


Ich hoffe die R9 400 Serie wird sich auch besser übertakten lassen. Nvidia wird in 14nm sicherlich schon bei ~1,3-1,7Ghz liegen wenn der FinFET Prozess so gut ist wie sie sagen.

Man kann wohl nur hoffen, dass bei der HBM-Integration auch eine höhere TDP-Range als die ~300W berücksichtigt wurde. Nach der HBM2-Spezifikation wird der Speicher wohl dann ziemlich langsam, wenn er durch eine stark übertaktete GPU überhitzt wird.

horn 12
2016-01-17, 12:42:13
330 bis 345mm² sollte der Polaris "Midrange" Chip wohl aufweisen und vielleicht etwas (10-15%) über Fiji XT liegen. Dafür aber 8GB HBM und Fiji wird im Preis gesenkt für 429 bis 479 Euro
Die 579+ wird dann Polaris einnehmen mit den 8 GB Speicher. Billig wird das Teil nicht!
Bis zum Abverkauf der ersten Furie Serie wird man keine 4GB Modelle von Polaris sehen.

Nightspider
2016-01-17, 12:49:58
@horn es scheint nur einen ~100mm² Chip und einen ~400mm² von AMD zu geben.

Für 50%+ müsste wohl mehr Leistung als bei Maxwell pro SP herauskommen, wenn man nicht den Takt massiv erhöht.

Laut AMD Ingenieur sollen durch 14nm ja effektiv etwa 96% mehr Transistoren auf die gleiche Fläche passen.
Der 400mm² Chip in 14nm würde also einem Chip in 28nm mit rund 800mm² entsprechen. Angeblich soll der neue Prozess 50-60% weniger Energie verbraten.
Selbst ohne höhere Taktraten sollten ~60% mehr Leistung als Fiji nicht schwer sein oder? Wir haben genug Transistoren, wir haben eine ausreichend gute Effizienz und eine hohe Bandbreite dank HBM2 von rund 1024GB/s.

Es ist zwar schwer herauszulesen aber es ließ sich fast so als wären die 50-60% bessere Effizienz alleine durch den FinFET Prozess begründet. Wenn da die Architekturverbesserungen noch gar nicht mit drin enthalten sind stehen uns goldene Grafikkartenzeiten bevor. (für begrenzte Zeit)
Wird nur wieder teuer werden. :D

iuno
2016-01-17, 13:26:39
Polaris10 und Polaris11? (https://imgur.com/2kmqun5)
via: http://semiaccurate.com/forums/showpost.php?p=252031&postcount=356

Sofern im Maßstab wohl ~100 und ~400mm².
Wir sollten alle mal auf dem Teppich bleiben. Zunaechst: meiner Meinung nach koennten wir stark davon ausgehen, dass der Massstab halbwegs stimmt, wenn AMD das so in der Praesentation hatte.
Allerdings ist das Bild fuer mich ein klarer Fake.
- Was ist mit der Kompression? Man schaue sich den Hintergrund von den Texten an, da sind ziemlich heftige Artefakte (Boxen um den Text), der Text selbst sieht jedoch sehr gut aus.*
- Das RTG Logo ist derart haesslich und der Text ausgefranst, so als wuerde man es woanders kopieren und schlecht skalieren.
- In jeder anderen Folie wurden gepunktete oder durchgezogene Linien verwendet, nie gestrichelte.
- In keiner Folie gibt es oben einen schwarzen Rand. Wenn es etwas zu zeigen gab, war das in einem schwarzen Balken, so wie hier (http://cdn.wccftech.com/wp-content/uploads/2016/01/AMD-Polaris-7.jpg), hier (http://cdn.wccftech.com/wp-content/uploads/2016/01/AMD-Polaris-14.jpg) oder hier (http://cdn.wccftech.com/wp-content/uploads/2016/01/AMD-Polaris-16.jpg).
Dafuer fehlt das Ende der Folie mit dem Footer. Wieso soll der Uploader also oben schwarzen Rand anfuegen und dafuer den Footer abschneiden? Ergibt doch keinen Sinn.

*Es gab auch mal ein Tool wo man jpegs auf Basis von Unterschieden in der Kompression auf Echtheit ueberpruefen konnte, finde allerdings gerade nichts.
EDIT: error level analysis:
fake: http://fotoforensics.com/analysis.php?id=9410b94e91b9f7e5f3180bed785856976c51cef1.101766
zum Vergleich ein valides Bild: http://fotoforensics.com/analysis.php?id=7add95f5c1eb0e1a25839ec7dd2d0aa696a59e57.104591

update:
https://zippy.gfycat.com/WarmheartedShowyIzuthrush.gif (https://gfycat.com/WarmheartedShowyIzuthrush)

im gif natuerlich mit banding usw., aber ich denke man versteht so was ich meine. Fuer Polaris 11 wurde schlicht das 90nm Bild verwendet, der kleine wurde immerhin noch skaliert. Der Text wurde offenbar samt Hintergrund nur stupide nach oben geschoben, das erklaert auch den Kasten drum herum (Farbverlauf passt nicht mehr). Die Linien passen wie gesagt nicht und auch der "Polaris 10/11"-Text ist imho zu nah am Grenzbereich zum schwarzen Hintergrund.

Fazit: Nicht schon wieder die Erwartungen ins Unermessliche steigen lassen!

Man kann wohl nur hoffen, dass bei der HBM-Integration auch eine höhere TDP-Range als die ~300W berücksichtigt wurde. Nach der HBM2-Spezifikation wird der Speicher wohl dann ziemlich langsam, wenn er durch eine stark übertaktete GPU überhitzt wird.
Habe die Aussage erst nicht verstanden, in der Spezifikation gibt es da tatsaechlich etwas dazu. Wen das auch interessiert: in der 235A auf Seite 73 ist eine Tabelle (table 35) mit den "temperature compensated refresh rates", die gehen dementsprechend bis auf 1/16 des urspruenglichen Wertes herunter. Allerdings legt der Hersteller ja selbst fest, ab welcher Temperatur das passiert (es gibt einen 3-bit Wert und es zaehlt das waermste die im stack). In die Tabelle zur Betriebstemperatur (table 47) sind ja auch keine Werte eingetragen.

Grabhopser
2016-01-17, 13:36:52
Wenn AMD so deutlich und früh zwischen Polaris10 und 11 unterscheidet könnte das doch ein Indiz dafür sein, dass man wirklich 14LPP und 16FF+ verwendest.

Polaris10@14LPP
Polaris11@16FF+

fondness
2016-01-17, 13:45:20
Das sind wohl einfach zwei unterschiedliche Chips. Die Grundarchitektur ist Polaris, und die Serie wird wohl Polaris 1X heißen, also ähnlich wie bei Nvidia mit GM20X. Daraus würde ich jetzt nicht den Fertigungsprozess herleiten.

OBrian
2016-01-17, 13:52:38
ja Vorsicht, diese HBM-Runtertaktungen sind doch wohl eher Maßnahmen gegen endogene Überhitzung, sprich durch den Betrieb des HBM an sich. Aber hier reden wir ja von externer Wärmezufuhr durch die GPU nebenan, dagegen muß man doch wenig tun, weil die Hitze nicht ohne Gegenmaßnahmen sprunghaft innerhalb Sekundenbruchteilen weiter steigen würde, sondern eine Umgebungstemperatur ist. Und die steigt eben nicht endlos weiter bis zum Schaden des HBM, weil vorher die GPU selbst den Geist aufgibt, durch Abschaltung oder Durchbrennen, und somit alles wieder abkühlt.

Um den HBM gut zu kühlen und nicht zuviel Wärme von der GPU auf den HBM-Stack zu übertragen, müßte man doch nur den Kühler darauf zweiteilen, bzw. einen Sprung/Spalt in der Kühlerplatte einbauen, der die Wärmeleitung in der Richtung stört.


Die kleine Polaris-GPU halte ich für relativ klein, bin ziemlich sicher, daß die so gerade auf Leistungsniveau von Pitcairn liegen wird. Mit höherem Takt als der und mit besserer IPC der neue Architektur sind es evtl. wirklich nur so um die 768 Shader. Damit wäre der Spruch "Konsolen-Niveau" genau erreicht. Und man könnte die GPU in den 2017er APUs verbauen. Tonga muß man leistungsmäßig nicht ankratzen, der Chip ist ja noch eine Weile haltbar.

Der große Chip wird sicherlich oberhalb von Fiji ansetzen, damit man eine neue High-End-Lösung hat (die später zur zweitgrößten wird, wenn 2017 ein BigChip kommt). Aber 400 mm² halte ich hier auch für zu hoch gegriffen. Muß ja in den nächsten Jahren sicher noch lange für günstigere Karten herhalten.

Hawaii kann man dann rauskegeln, wenn man Fiji etwas nach unten erweitert, eine deutlich teildeaktivierte Version mit weniger Takt und somit weniger TDP wäre attraktiver. Die Fury fallen wohl weg, es bleibt die Nano und eine neue "Nano LE" oder wie man die nennen soll. HBM2 für mehr RAM läßt sich bestimmt nachrüsten, dafür müßte man schlimmstenfalls den Interposer etwas ändern. Dann kann Fiji noch ein gutes Jahr länger die Stellung halten.

fondness
2016-01-17, 14:25:45
IMO dürfte die kleine Polaris GPU ziemlich genau dem entsprechen, was auch die Zen-APU Raven Ridge abbekommt. Deshalb macht auch die Fertigung bei GF Sinn, man kann das Design dann mehr oder weniger übernehmen. Ich rechne mit 1024SPs-1280SPs bei max. 125mm² Die-Size in 14nm LPP.

Nightspider
2016-01-17, 14:29:28
IMO dürfte die kleine Polaris GPU ziemlich genau dem entsprechen, was auch die Zen-APU Raven Ridge abbekommt. Deshalb macht auch die Fertigung bei GF Sinn, man kann das Design dann mehr oder weniger übernehmen. Ich rechne mit 1024SPs-1280SPs bei max. 125mm² Die-Size in 14nm LPP.

Ja das macht natürlich Sinn wenn Zen sowieso bei GloFo gefertigt wird.

Die APUs mit großer GPU kommen ja erst 2017 oder?

Grabhopser
2016-01-17, 14:37:12
Das sind wohl einfach zwei unterschiedliche Chips. Die Grundarchitektur ist Polaris, und die Serie wird wohl Polaris 1X heißen, also ähnlich wie bei Nvidia mit GM20X. Daraus würde ich jetzt nicht den Fertigungsprozess herleiten.

Natürlich nicht zwingend, allerdings ist es in AMDs Namensschema schon eine Anomalie. Die "Polaris" Chips haben eh schon Namen, warum sollte man sie jetzt nochmal umbenennen? Und außerdem so lieblos 10 und 11...

iuno
2016-01-17, 14:41:21
Um den HBM gut zu kühlen und nicht zuviel Wärme von der GPU auf den HBM-Stack zu übertragen, müßte man doch nur den Kühler darauf zweiteilen, bzw. einen Sprung/Spalt in der Kühlerplatte einbauen, der die Wärmeleitung in der Richtung stört.
Naja ich weiss nicht, der Interposer wird die Waerme doch sicher selbst auch gut leiten?
Allerdings kann ich auch nicht glauben, dass man bei Temperaturen die GPUs erreichen schon in einem kritischen Bereich fuer den RAM ist.

Die kleine Polaris-GPU halte ich für relativ klein, bin ziemlich sicher, daß die so gerade auf Leistungsniveau von Pitcairn liegen wird. Mit höherem Takt als der und mit besserer IPC der neue Architektur sind es evtl. wirklich nur so um die 768 Shader. Damit wäre der Spruch "Konsolen-Niveau" genau erreicht. Und man könnte die GPU in den 2017er APUs verbauen. Tonga muß man leistungsmäßig nicht ankratzen, der Chip ist ja noch eine Weile haltbar.
Hat es denn bis jetzt immer noch niemand vermessen? Ich haette gerne eine 950 und Pitcairn in der Mission in Battlefront ohne V-Sync :freak:
Der Chip sollte prozessnormiert etwas groesser als Pitcairn sein, also denke ich nicht, dass er insgesamt nur gleich schnell ist.Du musst auch bedenken, dass er in der Demo nur mit ~800 MHz lief. Das kann man im Notebook machen, im Desktop wuerde der Chip sicher etwas aufgepumpt, auch wenn dadurch Effizienz floeten geht. Einfach nur, um einen groesseren Bereich abdecken zu koennen und weil es immer noch viel besser ist als die alten Chips.

Der große Chip wird sicherlich oberhalb von Fiji ansetze [...] Hawaii kann man dann rauskegeln, wenn man Fiji etwas nach unten erweitert, eine deutlich teildeaktivierte Version mit weniger Takt und somit weniger TDP wäre attraktiver. Die Fury fallen wohl weg, es bleibt die Nano und eine neue "Nano LE" oder wie man die nennen soll. HBM2 für mehr RAM läßt sich bestimmt nachrüsten, dafür müßte man schlimmstenfalls den Interposer etwas ändern. Dann kann Fiji noch ein gutes Jahr länger die Stellung halten.
Das ergibt in meinen Augen wenig Sinn. Fiji kann man schlecht billig verscherbeln, dafuer ist er zu gross und zu teuer. Daher wird man Hawaii auch kaum durch Fiji ersetzen.

Die APUs mit großer GPU kommen ja erst 2017 oder?
Generell kommen neue APUs (Zen, Polaris, 14 nm) erst 2017. Erstmal kommt noch Carrizo-refresh aka Bristol Ridge (Excavator, GCN 1.2, 28nm) auf den Desktop und Ende 2016/Anfang 2017 kommen ja die Zen FX, reine CPUs. Dann wird es denke ich schon noch bis weit in 2017 hinein dauern, bis Raven Ridge da sind. AMD hat auch verlauten lassen, dass Bristol Ridge erst zusammen mit Summit Ridge Ende des Jahres kommen soll.

HOT
2016-01-17, 14:45:34
IMO dürfte die kleine Polaris GPU ziemlich genau dem entsprechen, was auch die Zen-APU Raven Ridge abbekommt. Deshalb macht auch die Fertigung bei GF Sinn, man kann das Design dann mehr oder weniger übernehmen. Ich rechne mit 1024SPs-1280SPs bei max. 125mm² Die-Size in 14nm LPP.
Hab ich auch erst gedacht aber ich glaubs nicht mehr. Ich denke, Polaris10 ist ne Nummer darüber. Der entsprechende APU-Chip wird erst nächstes Jahr erscheinen - der wird auch nur für die APU sein und kein eigenes Speicherinterface bieten, Raven Ridge gibts wohl auch erst im Q4 2017.

iuno
2016-01-17, 15:21:38
Und warum glaubst du dass das Design nicht auf eine APU kommen kann? Klar kommt das SI weg und man uebernimmt den Chip nicht 1:1, aber imho passen die Ausmasse schon.
8 CUs hat aktuell die groesste APU. Mit der neuen Fertigung kann man das schon verdoppeln. Intel ist mit den Iris + eDRAM schon stark und bringt mit Kaby Lake hauptsaechlich an der IGP Neuerungen, ich denke nicht, dass man dann bei Raven zurueckhaltend ist.

Agent117
2016-01-17, 15:58:26
Rein von der Leistung her kannst du Recht haben; AMD sagte ja selbst dass Raven Ridge die Leistung aktueller Konsolen haben wird. Das wird für den GPU Part dann in mindestens 896 Shadern resultieren.

Die Ausmaße passen aber nicht, denn der GPU Part einer APU hatte bisher immer eine wesentlich geringere Packdichte als eine reine GPU; die CUs waren immer deutlich größer.

Würde für den kleinen Polaris Leistung zwischen Pitcairn und Tonga schätzen.
AMD wäre schön blöd, für die kommende Generation noch irgendein 28nm Zeugs zu verwenden, was mind. 2x so ineffizient rechnet.
Das einzige, was man sinvoll Rebranden kann ist eine aufgemotzte Fiji Nano mit besserer Spannungsversorgung und größeren Kühler.
Die wäre dann noch halbwegs effozient und ausgehend vom eher niedrigen Baseclock auch gut übertaktbar.

Undertaker
2016-01-17, 16:04:13
Du musst auch bedenken, dass er in der Demo nur mit ~800 MHz lief. Das kann man im Notebook machen, im Desktop wuerde der Chip sicher etwas aufgepumpt, auch wenn dadurch Effizienz floeten geht. Einfach nur, um einen groesseren Bereich abdecken zu koennen und weil es immer noch viel besser ist als die alten Chips.

Taktraten kleiner gleich 800 MHz werden in 14/16 nm imo die absolute Ausnahme sein, insbesondere bei den kleineren Chips (R7 M360: 1125 MHz!). Schon in 28 nm lagen die meisten Mobile-Modelle bei mindestens 900-1000 MHz; tendenziell sehe ich die Mainstream-Ableger der kommenden Generation bei 1000 - 1200 MHz. Niedriger zu takten mag zwar effizienter sein, aber dafür mehr in die Breite zu gehen und die immer teurere Chipfläche verschwenden -> not gonna happen.

iuno
2016-01-17, 16:32:33
Die Ausmaße passen aber nicht, denn der GPU Part einer APU hatte bisher immer eine wesentlich geringere Packdichte als eine reine GPU; die CUs waren immer deutlich größer.
Die waren ja auch in 32/28 nm von GF, waehrend GPUs von TSMC kamen. Carrizo ist ebenfalls von TSMC und mit high density libs entworfen und bringt gegenueber Kaveri 3,1 statt 2,4 Mrd. Transistoren auf derselben Flaeche unter. Genaue Zahlen zur Groesse einer CU habe ich allerdings nicht, du vielleicht?

Niedriger zu takten mag zwar effizienter sein, aber dafür mehr in die Breite zu gehen und die immer teurere Chipfläche verschwenden -> not gonna happen.
AMD konnte einfach zuletzt nicht so hoch takten wie Nvidia und musste deshalb immer breiter bauen. Ob sich das Problem geloest hat, muss sich erst noch zeigen.
Zudem es relativ gesehen nicht mehr so teuer, wenn die Alternative ist, einen weiteren Chip im fast selben Leistungsniveau aufzulegen.

Agent117
2016-01-17, 18:53:08
Das hatte mal einer hier im Pirates Islands oder AMDs CPU/APU Strategien Thread geposted. Ich finde es leider trotz Suchfunktion nicht mehr.
GCN Tahiti liegt bei ca. 5,3mm²
Pitcairn, Cape Verde und Hawaii liegen da wohl um bis zu 0,5mm² drunter.
Kaveri soll bei über 8mm² liegen.
Zu Carrizo ist soweit ich weiß nichts bekannt. Die könnten dank HDL, wie du schon geschrieben hast, vlt sogar so klein wie die diskreten GPUs sein.
Die 28nm Prozesse sollen sich wohl nicht so stark unterscheiden, doch da kann ich nix genaues zu sagen.
HDLs sind aber auch dafür verantwortlich, dass Carrizos Taktbarkeit ggü. Kaveri schlechter ist.

Korvaun
2016-01-18, 10:25:13
Ich hab so meine Zweifel ob die Taktraten bei den neuen 14/16FF Chips höher als bei den letzten 28nm Chips liegen werden, zumindest was die ersten neuen Chips angehen wird. Der Prozess scheint mir da noch nicht ausgereift genug zu sein, die vollmundigen Versprechen von AMD mal außen vor...

horn 12
2016-01-18, 10:37:11
Gehe gar von unter 1 Ghz aus, 850 bis 900 Mhz und OC Versionen gute 30 bis 50 Mhz mehr.

HOT
2016-01-18, 12:15:41
Die Taktraten werden sehr sicher höher ausfallen. Wie reden hier doch nicht von CPUs, bei denen 3GHz+ in hohen Spannungen bei den FF-Prozessen resultieren, sondern von Grafikchips grad mal um und über 1GHz.

Sunrise
2016-01-18, 13:01:42
Ich hab so meine Zweifel ob die Taktraten bei den neuen 14/16FF Chips höher als bei den letzten 28nm Chips liegen werden, zumindest was die ersten neuen Chips angehen wird. Der Prozess scheint mir da noch nicht ausgereift genug zu sein, die vollmundigen Versprechen von AMD mal außen vor...
Bei GCN hat AMD wohl architekturbedingt nie höher takten können. Was Polaris da macht, wissen wir nicht, aber AMD hat bisher leider eigentlich nichts gesagt. Alles was gesagt wird (auch von Koduri) ist Marketing und Eckdaten, die AMD sowieso liefern muss.

86W bei Medium Details und 60fps, das wäre für sich alleine gesehen super (z.B. eine Nano mit der doppelten Effizienz/W, sind nämlich zufällig fast genau die Hälfte von 175W), aber für eine GPU selbst für Notebooks (Macbook Pro) viel zuviel.

Bei max. 150mm2 könnte man sich aber eine Menge darunter vorstellen, weil es in sämtliche Formfaktoren passen würde.

OBrian
2016-01-18, 13:54:25
Wie oft denn noch. Die 86 W sind der Systemverbrauch an der Steckdose!

D.h. auf die GPU entfällt ziemlich wenig (30 W oder so), die wird also sehr sparsam, aber sicherlich auch nichts auf Leistungsniveau einer High-End-Karte, sondern im Gegenteil wohl eher die Einstiegslösung.

Leonidas
2016-01-18, 14:31:37
Wir sollten alle mal auf dem Teppich bleiben. Zunaechst: meiner Meinung nach koennten wir stark davon ausgehen, dass der Massstab halbwegs stimmt, wenn AMD das so in der Praesentation hatte.
Allerdings ist das Bild fuer mich ein klarer Fake.
...


+1
Ich danke für dieses Posting.

y33H@
2016-01-18, 14:51:06
Wie oft denn noch. Die 86 W sind der Systemverbrauch an der Steckdose! D.h. auf die GPU entfällt ziemlich wenig (30 W oder so), die wird also sehr sparsam, aber sicherlich auch nichts auf Leistungsniveau einer High-End-Karte, sondern im Gegenteil wohl eher die Einstiegslösung.Ist ein 4790K gewesen und auch noch Vsync und das in SW Battlefront --- die Karte dürfte so 40 bis 50 Watt gezogen haben.

aufkrawall
2016-01-18, 14:52:48
Ja, womöglich lief die CPU mangels Auslastung die ganze Zeit nur mit 2Ghz oder gar noch weniger im Schnitt.

iuno
2016-01-18, 14:57:28
Uebertreiben muss man aber auch nicht. Irgendwie muss dasselbe System mit der 950 auch auf 140 W gekommen sein.
Die zieht mW. maximal so um die ~100 W, wobei sie in diesem Szenario auch schon fleissig am Stromsparen sein muesste
Ich danke für dieses Posting.
gerne
wow ich habe es damit auf die Hauptseite geschafft... ;)

aufkrawall
2016-01-18, 15:36:30
Uebertreiben muss man aber auch nicht.
Ich denke nicht, dass ich übertreibe. Die Engine läuft verdammt effizient auf der CPU.

Kartenlehrling
2016-01-18, 16:17:00
Man kann es doch reproduzieren oder nicht, die technischen Werte sind doch gegeben.

Undertaker
2016-01-18, 17:53:13
Uebertreiben muss man aber auch nicht. Irgendwie muss dasselbe System mit der 950 auch auf 140 W gekommen sein.
Die zieht mW. maximal so um die ~100 W, wobei sie in diesem Szenario auch schon fleissig am Stromsparen sein muesste

Stand auf der AMD-Folie nicht noch etwas von verschiedenen Boardherstellern? Da kann so einiges getrickst worden sein, um ein möglichst schönes Ergebnis zu bekommen. Ich errinere mich an frühere Phenom II vs. Core 2 Quad Vergleiche, wo man dann im Kleingedruckten erkennen konnte, das da mehr oder weniger nur die IGP gebencht wurde. :freak:

Sicher ist Polaris weit effizienter als ein 28 nm Maxwell – nur das Ausmaß würde ich ganz sicher nicht aus den Folien des Herstellers ablesen.

Ravenhearth
2016-01-18, 18:00:37
Bei Arctic Islands/Polaris werden die GPU-Frequenzen definitiv steigen.

fondness
2016-01-18, 18:53:27
Stand auf der AMD-Folie nicht noch etwas von verschiedenen Boardherstellern?

Nope, dasselbe System zieht mit der GTX950 140W. Wenn man davon ausgeht, dass eine GTX950@ stock clocks eigentlich selbst worst case keine 100W zieht bleibt da nicht mehr viel übrig für die Polaris Karte. Noch dazu wurde das hinter dem Netzteil gemessen und auch die GTX950 wurde schließlich durch das Vsync-cap gebremst.

http://s23.postimg.org/w1bcbi9dn/Clipboard01.jpg

iuno
2016-01-18, 19:11:47
Stand auf der AMD-Folie nicht noch etwas von verschiedenen Boardherstellern? Da kann so einiges getrickst worden sein, um ein möglichst schönes Ergebnis zu bekommen.
Als ich das hier angefuert habe wurde das als abwegig abgetan und auf die Boards der Grafikkarten verwiesen ;)
Aber das hat sich dann sowieso mit der Veroeffentlichung eruebrigt:
edit: Bild wieder weg, was fondness inzwischen gepostet hat ;)

btw. sind es auch nicht nur Folien, das Ergebnis konnte man ja auf Video und die Journalisten live vor Ort sehen. Dass dsa trotzdem sehr speziell ist und am Ende anders aussehen kann, ist ohnehin klar.

Haette ohnehin erwartet, dass das ein 950 Besitzer mal gegenprueft, aber es hat wohl (zu Recht) keiner einen 4790k mit 950...
Immerhin koennte ein 4790k Besitzer die CPU vermessen. Ich wuerde auch gerne wissen, wie viel mehr die Karte in der Situation ohne V-Sync maximal schafft

Troyan
2016-01-18, 19:24:41
Der Vergleich ist sinnlos und vollkommen realitätsfern. Das hatten wir doch schon.
Die nVidia-Karte ist nicht auf Stromverbrauch bei Medium-Details und 60FPS in 1080p optimiert. Die AMD Karte dagegen schon. Eine GTX965M hat eine TDP von 70W und ist schneller als die GTX950 mit 90W. Selbst eine GTX750TI mit 60W wäre ausreichend gewesen.

Dazu kommt, dass der Aufbau nicht transparent ist. Die Taktraten der GTX950 sowie die angelegte Spannung wurde nicht genannt. Eine GTX950 mit 1100MHz und 1,0xV ist natürlich ineffizienter als die selbe Karte mit 900MHz und 0,9xV. :rolleyes:

Undertaker
2016-01-18, 20:11:46
btw. sind es auch nicht nur Folien, das Ergebnis konnte man ja auf Video und die Journalisten live vor Ort sehen.

Klar werden die Zahlen schon stimmen, nur ist halt alles was nicht explizit erwähnt wird ein potentieller "Optimierungs"faktor zugunsten des gewünschten Ergebnisses. Wie gesagt, nach den Erfahrungen der Vergangenheit muss man da sehr vorsichtig sein. Letztlich steht nicht einmal da, dass z.B. die Netzteile, Speichermodule, SSDs etc. identisch waren. Die GTX 950 kann ein auf Default-Taktraten begrenztes OC-Modell sein, welches durch die höheren Spannungen massiv mehr Strom (http://www.computerbase.de/2015-08/nvidia-geforce-gtx-950-test/7/) verbraucht.

Zusammenfassend bleibt es bei obiger Aussage: Quantitativ bleibt der Vergleich vollkommen wertlos, auch wenn ich qualitativ einen Verbrauchsvorteil durchaus glaube.

@Fondness: Danke, damit wäre zumindest das Mainboard bestätigt.

Gipsel
2016-01-18, 20:40:24
Dazu kommt, dass der Aufbau nicht transparent ist. Die Taktraten der GTX950 sowie die angelegte Spannung wurde nicht genannt.@stock. Also das was die Karte out of the box nach allen möglichen Eingriffen des Powermanagements (60Hz Cap) denn so macht. Das könnte ja gerne mal einer ausprobieren. Leider schreiben sie nicht, welches Modell genau genommen wurde, aber es wird da vermutlich eine Variante mit den von nV angegebenen Referenztakten sein (soll es ja auch geben und so macht die Angabe "@stock clocks" auch am meisten Sinn).

Undertaker
2016-01-18, 21:05:23
Das was "am meisten Sinn" macht war hier sicher nicht die Intention, sonst hätte man auch die VSync-Nummer gelassen. ;) Bei meiner GTX 960 liegt ohne weitere Einstellungen auch bei niedriger Last unter VSync der volle Default-Takt an, nur der Boost fehlt.

Gipsel
2016-01-18, 21:11:20
Das was "am meisten Sinn" macht war hier sicher nicht die Intention, sonst hätte man auch die VSync-Nummer gelassen. ;)Wieso, ist das etwa kein realistisches Setting? :wink:
Wenn die Last niedrig ist, taktet die GPU auch zwischen zwei VSyncs hoch und runter, also innerhalb eines Frames. Das bekommen nur nicht alle Monitoring-Programme mit. Oder können nV-Karten das etwa nicht?

Hübie
2016-01-18, 21:31:12
Das was "am meisten Sinn" macht war hier sicher nicht die Intention, sonst hätte man auch die VSync-Nummer gelassen. ;) Bei meiner GTX 960 liegt ohne weitere Einstellungen auch bei niedriger Last unter VSync der volle Default-Takt an, nur der Boost fehlt.

Das kann ich von der GTX 980 Ti nicht bestätigen. In Diablo III geht die auch mal auf <800 MHz. Da wird sich eine 960 / 950 doch nicht anders verhalten. Bei nVidia bestimmt sich der Takt und die Spannung aus der (einprogrammierten) ASIC-Reichweite (schätze so alle 3-4% eine Stufe), welche dann im Bios die eingespeicherte Tabelle mittels offset liest.
Mit anderen Worten: Nehme ich ein beschissenes Sample brauche ich selbst für nur 1100 MHz schon 1,18 Volt. Nehme ich ein Top-Sample brauche ich nur 1,08 Volt. Das ist bei jeder nVidia-Karte seit Maxwell II so. Bei der 750 kann ich es nicht sagen.

Edit: Man kann gemein sein und im Treiber "maximale Leistung bevorzugen" einstellen, aber das unterstelle ich jetzt mal nicht AMD. Ebenso wenig wie die Beschaffung eines sehr schlechten Produkts. ;)

Undertaker
2016-01-18, 21:31:57
Bei den mobilen Modellen heißt das Battery Boost und macht letztlich genau das. Bei den Desktopmodellen hab ich mir das noch nie näher angeschaut, kann auch sein das sich hier verschiedene Partnerkarten anders verhalten (wie gesagt, meine GTX 960 taktet OOTB im 3D-Betrieb scheinbar nicht unter Default).

Ich würde zur Bewertung des Effizienzgewinnes auf unabhängige Tests warten. Herstellerangaben sind immer zu hinterfragen, aber beim Thema Leistungsaufnahme kann in Anbetracht der Masse unbekannter Randbedingungen praktisch alles getürkt sein. Und ich erwähnte bereits, dass das in der Vergangenheit auch ausgenutzt wurde, darum die Skepsis. Genauso wie ich Nvidia keine angeblich fertigen GPUs mehr abkaufe, wenn sie nur vorne auf der Bühne in die Luft gehalten werden. ;)

AnarchX
2016-01-18, 21:44:36
Da wäre Polaris11 mit FuryX Leistung als Notebook/Steambox GraKa interessanter gewesen.:D Mit 4-5Mrd 14FF Transistoren lässt @ low-power Takt sich ein GM206 Kastrat halt locker schlagen. Intel könnte das ganze eigentlich mit Skylake GT4e aufgreifen...

Hübie
2016-01-18, 21:48:30
Klar. "A grain of salt" sollte immer mit dabei sein. :smile:

y33H@
2016-01-19, 10:23:15
Samsung fertigt HBM2 mit 4 GByte per Stack in Serie, später im Jahr folgen 8 GByte: http://www.golem.de/news/hbm2-samsung-startet-produktion-von-4-gbyte-stapelspeicher-1601-118600.html

OBrian
2016-01-19, 14:08:58
4 würde ja erstmal reichen. Bei einer Karte im Bereich Fiji oder etwas drüber sind ja 8 GB noch genug, die sich dann schon mit 2 Stacks erreichen ließen (was ja die gleiche Bandbreite wie bei Fiji ergäbe). Oder eben 16 GB bei einer deutlich stärkeren Karte, die dann aber wohl auch die Bandbreite von 4 Stacks benötigt. Erst für Workstationkarten muß es dann richtig viel sein, aber dafür werden ja keine Riesen-Produktionsmengen benötigt.

Knuddelbearli
2016-01-19, 16:52:52
Also ich werden 2016 keine Karte mehr mit 4gb kaufen, dann bleibe ich lieber bei den 3,5 der 970

Ach so ging um pro Stack ^^

AffenJack
2016-01-19, 18:34:03
4 würde ja erstmal reichen. Bei einer Karte im Bereich Fiji oder etwas drüber sind ja 8 GB noch genug, die sich dann schon mit 2 Stacks erreichen ließen (was ja die gleiche Bandbreite wie bei Fiji ergäbe). Oder eben 16 GB bei einer deutlich stärkeren Karte, die dann aber wohl auch die Bandbreite von 4 Stacks benötigt. Erst für Workstationkarten muß es dann richtig viel sein, aber dafür werden ja keine Riesen-Produktionsmengen benötigt.

Ich würde sogar davon ausgehen, dass wir bei den jeweiligen Karten auch 2 High-Stacks sehen werden. Damit könnte man die Karten gut unterteilen. Ich glaube 8 Gb insgesamt wird da sogar eher Standard und für die 16Gb wird man ordentlich blechen müssen.

AnarchX
2016-01-19, 18:42:47
Samsung fertigt HBM2 mit 4 GByte per Stack in Serie, später im Jahr folgen 8 GByte: http://www.golem.de/news/hbm2-samsung-startet-produktion-von-4-gbyte-stapelspeicher-1601-118600.html
Surface Pro 5 mit AMD-Option (4x Zen, 1024SPs Polaris, 8GiB HBM2 @ ~10W (+Docking-Mode >30W - >1,5TFLOPs)... =)

y33H@
2016-01-19, 19:44:53
Wenn überhaupt das SP6 in 2017, das SP5 dieses Jahr wird wohl Kaby Lake nutzen.

Nightspider
2016-01-20, 00:49:09
Mal eine blöde Frage, so ein Genie wie Jim Keller kennt sich doch bestimmt auch ein wenig mit GPU Architekturen aus oder?
Meint ihr der hatte bei Polaris auch etwas seine Finger im Spiel?
Zen hat ja sicherlich auch eine kleine GPU wodurch er automatisch damit in Kontakt kam.

Ob der da vielleicht auch paar Flaschenhälse erkannt hat oder vllt paar Tips gegeben hat was die GPU Ingenieure probieren könnten? :uponder:

Ravenhearth
2016-01-20, 01:22:48
Zen ist eine CPU-Architektur, der hat keine GPU. Zumal CPUs und GPUs doch recht unterschiedlich sind...

OBrian
2016-01-20, 08:44:36
Mal eine blöde Frage, so ein Genie wie Jim Keller kennt sich doch bestimmt auch ein wenig mit GPU Architekturen aus oder?
Meint ihr der hatte bei Polaris auch etwas seine Finger im Spiel?
Zen hat ja sicherlich auch eine kleine GPU wodurch er automatisch damit in Kontakt kam.Sicherlich völlig falsch gedacht. Keller hat die CPU-Kerne entwickelt (oder genauer gesagt die Architektur, dessen detaillierte technische Umsetzung haben wohl wieder andere gemacht), aber die GPU, egal ob die auf Karten oder in der APU landet, ist von der Radeon-Abteilung entwickelt worden (unter Koduri ja auch zur RTG umstrukturiert). Die beiden Abteilungen werden wenig miteinander zu tun haben, ab und zu mal ein Meeting zum Abstimmen von Schnittstellen und Zielsetzungen, aber das war's sicherlich. Aber daß die sich gegenseitig intensivst einarbeiten in den Aufgabenbereich des anderen, dürfte bei dem üblichen Zeitdruck unmöglich sein. Memory-Controller, Southbridges, Interposer-Techniken, UVD, TrueAudio usw. werden noch wieder andere machen. Das ergibt ja alles Versatzstücke, die man mehr oder weniger beliebig kombinieren kann. Eine GPU ohne UVD würde für Spiele auch funktionieren, oder umgekehrt könnte man auch eine reine Videobeschleunigerkarte bauen, die nur einen UVD hat. Oder eine Audiobeschleunigerkarte mit nur einem TrueAudio-ASIC drauf. Relativ sinnlos natürlich, aber ginge theoretisch.

MR2
2016-01-20, 09:07:43
Mich würde interessieren ob es Polaris bereits in die Nintendo NX geschafft hat? Oder ein Derivat.

Nightspider
2016-01-20, 09:12:37
Zen ist eine CPU-Architektur, der hat keine GPU. Zumal CPUs und GPUs doch recht unterschiedlich sind...

Ich meinte ja auch die Zen-CPUs und nicht die Zen-Architektur. Die die CPU-Architektur keine GPU enthält ist ja wohl logisch aber es würde mich wundern wenn die ersten Zen-CPUs gar keine integrierte Grafik hätten.

Sicherlich völlig falsch gedacht. Keller hat die CPU-Kerne entwickelt (oder genauer gesagt die Architektur, dessen detaillierte technische Umsetzung haben wohl wieder andere gemacht), aber die GPU, egal ob die auf Karten oder in der APU landet, ist von der Radeon-Abteilung entwickelt worden (unter Koduri ja auch zur RTG umstrukturiert). Die beiden Abteilungen werden wenig miteinander zu tun haben, ab und zu mal ein Meeting zum Abstimmen von Schnittstellen und Zielsetzungen, aber das war's sicherlich. Aber daß die sich gegenseitig intensivst einarbeiten in den Aufgabenbereich des anderen, dürfte bei dem üblichen Zeitdruck unmöglich sein. Memory-Controller, Southbridges, Interposer-Techniken, UVD, TrueAudio usw. werden noch wieder andere machen. Das ergibt ja alles Versatzstücke, die man mehr oder weniger beliebig kombinieren kann. Eine GPU ohne UVD würde für Spiele auch funktionieren, oder umgekehrt könnte man auch eine reine Videobeschleunigerkarte bauen, die nur einen UVD hat. Oder eine Audiobeschleunigerkarte mit nur einem TrueAudio-ASIC drauf. Relativ sinnlos natürlich, aber ginge theoretisch.

Wieso falsch gedacht? Das war eine Frage dazu wie hoch die Chancen dafür stehen.
Ich meinte ja auch nicht das das komplette CPU Team eingearbeitet wird sondern das vllt nur solche Genies wie Keller die eh nichts anderes machen (:freak:?) da auch mal reinschauen.
Nur weil Kellers Kernkompetenz das CPU-Design ist muss das nicht zwangsweise heißen das er nicht auch viel Ahnung von GPUs hat.

Mich würde interessieren ob es Polaris bereits in die Nintendo NX geschafft hat? Oder ein Derivat.

Ich hoffe es.

Aber so oldschool wie Nintendo die letzten Jahre war ist die Wahrscheinlichkeit hoch das sie es verkacken. :biggrin:

Es gingen ja zeitweise schon wieder Gerüchte um das NX wieder eine Sparkonsole wird.

Dural
2016-01-20, 09:36:22
Klar wird es eine spar Konsole! Alles andere ist heute auch gar nicht mehr gefragt, keiner zahlt mehr hunderte Euro für eine Konsole, erst recht nicht von Nintendo.

Nightspider
2016-01-20, 09:43:04
Klar wird es eine spar Konsole! Alles andere ist heute auch gar nicht mehr gefragt, keiner zahlt mehr hunderte Euro für eine Konsole, erst recht nicht von Nintendo.

1. Die PS4 kostet hunderte Euro und verkauft sich wie warme Semmeln
2. Würden auch viele eine teure Nintendo Konsole kaufen für 400-500 Euro wenn das P/L-Verhältnis stimmt

Solange bei 400-500 Euro viel Leistung bei rumkommen würde, wäre der Preis auch angemessen wenn das Budget nicht für Bullshit wie Bildschirm im Controller verplempert wird.
Und selbst für 400 Euro könnte Nintendo schon eine Konsole bauen welche ~~30% schneller ist als die PS4 schätze ich. Die PS4 hat einen 348mm² SoC. Mit einem hypothetischen 300mm² SoC in 14nm wäre Nintendo NX schon deutlich schneller.

Dural
2016-01-20, 09:47:46
Wo hat den die PS4 500.- Euro gekostet?

Bestes Beispiel ist die XOne, erst als MS die Preise gesenkt hat sind die Verkaufszahlen gestiegen. Und wenn es nicht mal MS schafft, kann ich dir versichern wird es Nintendo garantiert nicht können. Die Zeiten von High-End Konsolen sind schon lange vorbei.

Nightspider
2016-01-20, 09:48:34
Wo hat den die PS4 500.- Euro gekostet?

Hää?

iuno
2016-01-20, 11:47:46
Ich meinte ja auch die Zen-CPUs und nicht die Zen-Architektur. Die die CPU-Architektur keine GPU enthält ist ja wohl logisch aber es würde mich wundern wenn die ersten Zen-CPUs gar keine integrierte Grafik hätten.
Hast du die letzten Monate verschlafen?
Summit Ridge sind reine CPUs (FX). Raven Ridge sind die APUs, die kommen erst deutlich später in 2017. aber dafür haben wir auch einen thread ;-)

Hübie
2016-01-20, 11:55:08
Die PS4 500 GB startete bei 499, ging dann mangels Deckung rauf und anschließend rasant auf 399. Und nein ich denke nicht daß Keller da rein geschaut hat. Vieles ist einfach zu unterschiedlich (SERDES, clock Distribution, Caches / Anbindung, Rechenwerk ...).

kiss
2016-01-20, 11:59:00
Die PS4 500 GB startete bei 499, ging dann mangels Deckung rauf und anschließend rasant auf 399. Und nein ich denke nicht daß Keller da rein geschaut hat. Vieles ist einfach zu unterschiedlich (SERDES, clock Distribution, Caches / Anbindung, Rechenwerk ...).

Äh nein, die PS4 startete bei 399€ und die XboxOne mit Kinect bei 499€. :facepalm:

Nightspider
2016-01-20, 12:01:46
Summit Ridge sind reine CPUs (FX). Raven Ridge sind die APUs, die kommen erst deutlich später in 2017. aber dafür haben wir auch einen thread ;-)

Nein aber ich hab Zen die letzten 2-3 Monate nicht stark verfolgt. Danke für die Info. Wenn keine integrierte Grafik bei Summit Ridge vorhanden ist wäre das toll.
Damit kann AMD Zen mit 8 Kernen zu einem ähnlichen Preis verkaufen wie Intel ihre QuadCores und wird damit sicherlich auch ein paar Prozent Marktanteile zurückgewinnen.
Obwohl ich es beeindruckend finde wie viel Leistung die integrierten Grafikeinheiten mittlerweile haben so ist es gut das auch mal wieder paar CPUs ohne diese kommen, auch wenn es ein wenig schade ist das es die APUs mit (wahrscheinlich) Polaris Architektur und PS4 Leistung erst 2017 für Notebooks geben wird.

Hübie
2016-01-20, 12:27:46
Äh nein, die PS4 startete bei 399€ und die XboxOne mit Kinect bei 499€. :facepalm:
:facepalm:

http://abload.de/img/ps4_price55oo7.png (http://abload.de/image.php?img=ps4_price55oo7.png)

M4xw0lf
2016-01-20, 12:52:23
:facepalm:

http://abload.de/img/ps4_price55oo7.png (http://abload.de/image.php?img=ps4_price55oo7.png)
Vorbestellerpreise?. Schau mal die Zeitachse an. Start war November 13.
Die offizielle Presiempfehlung lautete 399.

del_4901
2016-01-20, 12:53:58
release der PS4 war November 2013 :facepalm:

M4xw0lf
2016-01-20, 12:54:43
Das war eine gediegene Selbst-Ownage... ^^

Hübie
2016-01-20, 13:20:08
X-D Verdammt!

HOT
2016-01-20, 15:30:25
Hm, wenn AMD die beiden GPUs selbst als Polaris 10 (vermutlich 24CUs) und Polaris 11 (vermutlich bis zu 64CUs) nennt, dann muss das ja so gar nicht mit Greenland/Baffin/Ellesmere 1:1 übereinstimmen.
Nehmen wir an, Vega10 ist Polaris10 @Mobile-Package, dann muss das eber nicht für Baffin/Ellesmere stehen, zumal die Notebooks immer Himmelskörper als Codenamen hatte, niemals Inseln. Also:
Polaris 10 -> Ellesmere (angenommen)
Vega 10 -> Polaris 10 als Mobile-Package
Polaris 11 -> Baffin/Greenland
kann doch auch sein, find ich sinnvoller, zumal ja auch zwei unterschiedliche Polaris11 PCBs in der Gegend herumtingeln.
Ich nehme an, eines davon hat ein 4-Stack-Package oder 2-Stack-Package mit 8 Highstack (Greenland) und eines nur ein 2-Stack-Package, das wäre dann Baffin, bei dem AMD die Chips verwurstet, die stärker teildeaktiviert werden müssen, da gibts sicherlich einiges an Ausschuss, den man noch verwenden kann, wenn man das halbe Speicherinterface, vermutlich einige ROPs und auch halbwegs viele CUs deaktivieren kann (so dass meinetwegen noch 44 von 64 übrig sind).

w0mbat
2016-01-20, 15:42:20
Ich denke eher, dass Vega 10 der Fury X Nachfolger wird.

Nakai
2016-01-20, 17:55:00
AMD bringt mit Polaris einige Verbesserungen mit. Es ist mir ehrlich gesagt egal, wieviele SPs in Polaris10/11 verbaut sind. Ich finde, bevor wir darüber reden können, sollten die Punkte "New" etwas geklärt werden.

Hierzu sollte man diese Links mal betrachten:
http://www.vgleaks.com/orbis-gpu-compute-queues-and-pipelines/

http://www.redgamingtech.com/xbox-one-sdk-leak-gpu-architecture-overview-analysis-part-2-tech-tribunal/

Der Text ist etwas schwammig, die Bilder verdeutlichen eher, wie die zugrundeliegende Hardware aussieht.



Command Processor:
Polaris bringt einen neuen Graphics Command Processor. Diese sind bei der XBO und PS4 stark überarbeitet. XBO besitzt zwei GCPs und die PS4 einen normalen GCP und wohl einen extra für Overlays. Wo GCN mehrere ACEs hat, welche pro Takt eine Wavefront einer Workgroup schedulen können, gibt es nur einen GCP. Reinher vom Aufbau sieht es sehr danach aus, dass der GCP generell nur eine Grafik-Wavefront pro Takt schedulen kann. Womöglich kann der GCP von jeden Shadertyp eine Wavefront pro Takt schedulen. Wie das genau abläuft, kA.

Ich gehe davon aus, dass Polaris einen breiteren GCP besitzt, welcher eine höhere Schedulingrate aufweist. Überarbeitete Primitve Engines mit Primitive Discard Accelerator und Instruction Prefetch klingen nach einer höheren Durchsatzrate.

Ich vermute, dass man hier einiges an Performance erzielen könnte.

Geometry Processor:
Ein stärkerer Geometry Processor könnte einen höheren Durchsatz bei Tesselation und bei hoher Geometrielast bringen. Dieser Teil muss jedenfalls überarbeitet werden, was mit Tonga/Fiji schon einmal getan wurde.

Hier sollte auch eine Mehrperformance erreichbar sein.

L2-Cache & Memory Controller:
In Kombination mit Memory Compression, wird wohl hierbei die Größe des L2-Caches angepasst. Ich gehe von größeren Caches aus.
Memory Compression klingt richtig interessant, wenn tatsächlich Speicherblöcke komprimiert werden. Hierzu braucht es eine aktive MMU, welche genau weiß, wie groß bestimmte komprimierte Blöcke sind. In Hinsicht auf HSA ist das ein notwendiger Schritt. AMD hat dies bereits angekündigt gehabt. Data Compression für Compute ist auch ein Thema.

GCN CUs:
Ich bin mir nicht sicher was hier getan wird. Ich vermute erstmal größere CUs(128~256 SPs) und die skalare ALU wird zu einem eigenständigen Kern aufgebohrt (kleine Kernels werden auf der skalaren ALU ausgeführt anstatt auf einer ganzen SIMD). Hierzu ein einfacheres Scheduling innerhalb der CU (1:1 Verdrahtung zwischen Scheduler und SIMD-Einheit). Dazu wird die Quad Engine abgeschafft und die größeren CUs werden einfacher verdrahtet.
Man würde Interconnect sparen und gleichzeitig die CUs etwas vereinfachen und sogar die Effizienz erhöhen.

Locuza
2016-01-20, 19:03:23
Bei "new" können wir in der groben Form nichts klären.
Ich werfe nur ein paar Münzen zum Thema CP rein, was auch schon etwas älter ist:
research.cs.wisc.edu/multifacet/papers/isca14-channels.pdf

Seite 10 ist in diesem Zusammenhang interessant und präsentiert den 2-way OoO als Sweet-Spot, jedenfalls für den Anwendungsfall.
4-way lohnt nicht und die simpleren Varianten zeigen eine nennenswert schlechtere Performance.

Nakai
2016-01-21, 00:40:24
Das ist doch sehr interessant und kein bisschen zu alt. Falls diesbezüglich etwas in einen Chip integriert wird, dauert das definitiv seine Zeit. 2014 ist ein guter Zeitpunkt, ergo könnten wir daher irgendwas in dieser Richtung sehen.

Achill
2016-01-21, 11:45:03
Ich denke das Verbesserung beim Geometry Processor / Tesselation sehr wichtig wären, damit man in Spielen / Frameworks (GW) die stark auf eine hohe Tesselation-Faktor setzen, nicht autom. abgeschlagen ist.

Wenn AMD es schafft, die Performance von 4x/8x Tesselation bei 64x Tesselation zu erreichen, dann können in bestimmten Szenarien extreme Steigerungen möglich sein?

Siehe mein Test mit Fallout4 und unterschiedlichen Tess.Faktoren: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10842826&postcount=2

Locuza
2016-01-21, 16:07:50
Das ist doch sehr interessant und kein bisschen zu alt. Falls diesbezüglich etwas in einen Chip integriert wird, dauert das definitiv seine Zeit. 2014 ist ein guter Zeitpunkt, ergo könnten wir daher irgendwas in dieser Richtung sehen.
Alt im Sinne, es kam hier schon einmal vor vielen Monaten dran und wurde bisschen besprochen.
Aber ja natürlich ist es schön jetzt eine "Bestätigung" zu haben, dass AMD beim Command-Processor definitiv anpacken wird.
Die Forschungsergebnisse sind sicherlich mit eingeflossen, aber ich denke auch das AMD an vielen Stellen sich schon früher Gedanken gemacht hat.

Ich denke das Verbesserung beim Geometry Processor / Tesselation sehr wichtig wären, damit man in Spielen / Frameworks (GW) die stark auf eine hohe Tesselation-Faktor setzen, nicht autom. abgeschlagen ist.

Wenn AMD es schafft, die Performance von 4x/8x Tesselation bei 64x Tesselation zu erreichen, dann können in bestimmten Szenarien extreme Steigerungen möglich sein?

Das AMD allgemein beim Rendering drauflegt ist für "Legacy-Apps" denke ich sehr gut und wir brauchen das noch für einige Jahre.
Aber ich hoffe gleichzeitig, dass das ganze nicht zuviel gekostet hat.
Vorallem beim Thema Tessellation kam man sich fragen, ob es überhaupt genügend "lohnende" Fälle gibt, um die Fixed-Function-Units aufzublassen.
Ich hoffe AMD hat ein relativ sparsames, schlichtweg intelligentes Design dafür kreiert.


@ Etwas anderes.

Charlie von Semi Accurate geht davon aus, dass AMD grob zwei Quartale vor Nvidia liegt und es drei Chips geben wird:
http://semiaccurate.com/forums/showpost.php?p=252522&postcount=117
http://semiaccurate.com/forums/showpost.php?p=252525&postcount=120

Und angeblich ist "Greenland" schon lange tot und es gibt stattdessen etwas anderes:
http://semiaccurate.com/forums/showpost.php?p=252612&postcount=151

Hübie
2016-01-21, 17:35:43
5-6 Monate klingt realistisch. Wie war AMDs Statement bzgl. Chips noch gleich? Wurde gesagt es kommen 2 Chips 2016 oder 2 Chips hatten Tape-out? Wie war der Wortlaut genau? :confused:

Edit: Was genau umfasst eigentlich der command processor? Scheduling, dispatching, arbitrating (?)...?

Sunrise
2016-01-21, 17:46:01
5-6 Monate klingt realistisch. Wie war AMDs Statement bzgl. Chips noch gleich? Wurde gesagt es kommen 2 Chips 2016 oder 2 Chips hatten Tape-out? Wie war der Wortlaut genau? :confused:
http://venturebeat.com/2016/01/15/amds-graphics-guru-describes-the-march-to-full-graphics-immersion-with-16k-screens/2/
"We have two versions of these FinFET GPUs. Both are extremely power efficient. This is Polaris 10 and that’s Polaris 11"
"AMD’s new graphics chips will hit during the middle of 2016, Koduri said."

http://seekingalpha.com/article/3820126-advanced-micro-devices-amd-ceo-lisa-su-q4-2015-results-earnings-call-transcript?page=5
"In particularly, the ramp and introduction of our new FinFET products, codename Polaris, will happen in the middle of 2016. So that will be a ’16 growth driver."

http://www.computerbase.de/2016-01/amd-ceo-lisa-su-interview/
"Die neue Architektur werde deshalb in allen Marktsegmenten zum Einsatz kommen, wenngleich auch nicht überall zur selben Zeit. Angestrebt wird Mitte 2016"

Locuza
2016-01-21, 17:50:09
Edit: Was genau umfasst eigentlich der command processor? Scheduling, dispatching, arbitrating (?)...?
https://www.beyond3d.com/content/reviews/52/7

If you were struck by divine inspiration and decided to build your own GPU, the first thing you'd design would be the command processor (CP). This is often neglected when discussing GPUs, with focus falling on ALUs, ROPs, samplers and other more famous blocks -- neglect like that is not necessarily the best approach!
The CP is the key to having a good GPU plugged into a waiting PCI Express slot, as opposed to a mere chunk of textolite with some silicon on top. The CP is responsible for fetching and preparing work for the GPU, reporting and scoreboarding of command queue completion, marshalling data, and state management, to name some of its many tasks. Summarising, it's the front-end interface between the GPU and the rest of the system. It's driver-driven, but certainly intelligent in its own right.

For RV740, the CP is a custom RISC based affair, which quite probably is an expansion of the one that was in place for prior R600/RV670 parts, further developed in order to accommodate the increased functional unit count and different sampler blocks.
It handles command stream decoding into RV740 specific instructions, possesses full memory read/write privileges and includes multiple command queues, with command streams being fetched via DMA in order to side-step the CPU and decrease latency. Snooping the current state of the GPU's processing units is also possible, in order to avoid needless state switches.

Finally, decoded command streams are passed to logic that handles thread setup, which sets thread type (vertex, geometry, pixel or compute are the possible types) and does data and instruction batching for passing into the setup stage.

Pirx
2016-01-21, 17:51:57
Naja "power efficient" ist doch klar bei der kleineren Strukturbreite. Ob das aber einen Vorteil ggü der Konkurrenz darstellt, die bis jetzt bei gleicher Strukturbreite bei Normalo-Anwendungen effizienter ist? Glaube ich ja nicht.

fondness
2016-01-21, 18:40:24
Und angeblich ist "Greenland" schon lange tot und es gibt stattdessen etwas anderes:
http://semiaccurate.com/forums/showpost.php?p=252612&postcount=151

Es wurden mit hoher Wahrscheinlichkeit nur die Namen geändert. Aus Greenland, Baffin, Ellesmere bzw. Arctic Islands wurde eben Polaris 10, Polaris 11, Vega10, whatever bzw. Polaris.

Locuza
2016-01-21, 18:53:34
Charlie hat das mit den neuen Sternennamen überrascht, aber über Greenland, Baffin, Ellesmere hat er schon davor geschrieben und das ein Name davon falsch ist:
http://semiaccurate.com/2015/11/30/37856/

Laut WCCFTech war Greenland der alte Codename und Vega 10 der neue.

Jep, einfach wieder nur abwarten.

Hübie
2016-01-21, 19:06:21
Mit dem Beitrag oben entnehme ich dass sich Aufgaben des CP und der ACEs überschneiden. Was wiederum bedeuten könnte das eine ACE aus dem CP destilliert wurde. Oder?

Locuza
2016-01-21, 19:24:20
Der CP ist praktisch die Mama für alles, die ACEs kümmern sich spezifischer nur um die Compute-Queues.
Das ganze operiert schon unabhängig voneinander.

Bei Polaris wird es scheinbar keine Änderungen im Bezug der ACEs geben.
http://cdn.videocardz.com/1/2016/01/AMD-Polaris-Architecture-7.jpg

Die ACEs bzw. Compute-Engines operieren in Zukunft mit einem neuen Command-Processor.

Nakai
2016-01-21, 20:08:40
Der CP kann auch Compute. Für Compute gibt es auch die ACEs.

@Hübie: Guck mal keinen Post mit den zwei Links weiter oben. Es gibt einen Überblick über die PS4 GPU. Evtl wird es dann klarer.

basix
2016-01-21, 21:51:21
Der CP ist praktisch die Mama für alles

Schön gesagt :biggrin:

Hübie
2016-01-21, 22:24:55
Ich hatte dass jetzt so verstanden, dass der CP compute tagged und an die ACEs weiter reicht... Was macht eine ACE wenn wenig bis kein compute zu berechnen ist? Wird die voll im Powergating integriert? Auch das sub-memory system muss doch daran angebunden sein oder? Ich suche einfach nur Gründe für die schlechtere Effizienz aktueller GCN GPUs um Potenzial für künftige zu identifizieren, daher meine blöde Fragerei. :D

Der_Korken
2016-01-21, 23:21:38
Mal eine Frage: Wie oft bzw. bei welchen GPU-Generationen wurde der CP von AMD in der Vergangenheit eigentlich mal stärker überarbeitet?

Nakai
2016-01-22, 00:29:05
Ich hatte dass jetzt so verstanden, dass der CP compute tagged und an die ACEs weiter reicht... Was macht eine ACE wenn wenig bis kein compute zu berechnen ist? Wird die voll im Powergating integriert? Auch das sub-memory system muss doch daran angebunden sein oder? Ich suche einfach nur Gründe für die schlechtere Effizienz aktueller GCN GPUs um Potenzial für künftige zu identifizieren, daher meine blöde Fragerei. :D

Ich versuche hier auch nachzuforschen.

Die ACEs müssen direkt angesprochen werden. Unter OCL geht das über CommandQueues. Jede ACE kann bestimmt viele CommandQueues handeln (derzeit 8 pro ACE). Diese CommandQueues in OpenCL werden mittels RoundRobin über die ACEs verteilt. Ebenso gibt es ein Limit diesbezüglich. Wenn ich zuviele CommandQueues verwende, crasht der Treiber. NV kann beliebig viele Queues handeln.

Der CP kann von jedem Shadertyp eine Queue handeln. Also alle Shader(PS, VS, GS, Tesselation, etc.) als auch Compute (ComputeShader).

Die ACEs und CP können sich über GDS und Cache und Speicher synchronisieren. Kurz, es können Abhängigkeiten aufgelöst werden. Ergo die Reihenfolge des Zeichnen von Dreiecken, Shaderabhängigkeiten und auch Computeabhängigkeiten, ergo verschiedene sequentielle Kernels.

Dass AMD AsyncCompute eingeführt hat bzw. forciert ist eine sehr interessante Sache. Dass man dadurch direkte Performanceverbesserungen bekommen kann, zeigt irgendwie, dass eine einzelne ACE etwas unterdimensioniert ist. Eine ACE kann pro Takt eine Workgroup erstellen und eine Wavefront von dieser auf eine CU schedulen.
Ich denke jede Queue/Pipe im CP kann dasselbe tun. Die Blockgröße von GCN ist ja 64 Threads/WorkItems. Bei NV sind das 32 Threads. Ergo GCN hat schonmal einen größeren Verschnitt, was die Effizienz drücken könnte.

Ich schiele schon seit längerem auf die schwächere Scheduling-Performance von GCN. Evtl wäre es besser mehrere Pipes der Shader anzubieten, ergo 4 PS-Pipes und 2 VS-Pipes, etc. Evtl könnte man dadurch eine höhere Auslastung erzielen, da GCN deutlich mehr schedulen kann dadurch. Das ist nur eine Vermutung meinerseits, darauf begründet, dass AsyncC für GCN einen interessanten Performanceboost bringen kann. NV scheint seine Einheiten generell besser auszulasten und benötigt das eher nicht.


Ich bin auch indirekt dabei, eine OCL-Diagnosesoftware zu proggen, welche einen Kernel auf mehrere Queues/Pipes aufteilt. Ich versuche mehrere Kernelgrößen zu testen, ergo kleine Kernels mit wenig Ops und Kernels mit großer Ops-Zahl. Letztere Kernels sollte deutlich mehr Backpressure erzeugen und die CUs generell mehr auslasten. Dahingehend sollten kleine Kernels mit mehr Pipes deutlich besser skalieren, wodurch mehr Arbeit schneller geschedult wird.

€:
Mal eine Frage: Wie oft bzw. bei welchen GPU-Generationen wurde der CP von AMD in der Vergangenheit eigentlich mal stärker überarbeitet?

In der GCN-Ära nicht.

Hübie
2016-01-22, 00:42:10
Auf der Seite fehlt natürlich die Sicht wo die meisten Programme (Spiele) nun den Schnitt machen. Ob 32 oder 64 Threads optimaler sind. Und die Anbindung des Speichersystems dürfte zwar eine Menge Flexibilität schaffen, aber Effizienz rauben. Jedes übertragene Bit benötigt nun mal eine Energiemenge, welche nur endlich vorhanden ist. Wenn man also geschickter (restriktiver) scheduling betreibt, dann kann man sich Abhängigkeiten schenken.
GCN hat doch auch ein Operand collector oder? Wie siehts damit aus? Kann man hier noch für Verbesserungen ansetzen?

ps: War round robin nicht so etwas wie ein re-ordering der instructions (ein OoO-Ansatz)? :| Sorry, wenn meine Fragen nerven, aber bin halt kein Programmierer :redface:

Locuza
2016-01-22, 00:56:14
Ich hatte dass jetzt so verstanden, dass der CP compute tagged und an die ACEs weiter reicht... Was macht eine ACE wenn wenig bis kein compute zu berechnen ist? Wird die voll im Powergating integriert? Auch das sub-memory system muss doch daran angebunden sein oder? Ich suche einfach nur Gründe für die schlechtere Effizienz aktueller GCN GPUs um Potenzial für künftige zu identifizieren, daher meine blöde Fragerei. :D
Wie Nakai gesagt hat und du hier siehst (GCN Gen 1 CP + 2 ACEs):
http://www.vgleaks.com/wp-content/uploads/2013/02/ring.jpg

Kann der CP bzw. der Graphics Command Processor und seine Bestandteile entweder den Befehl "GFX- DRAW" oder "Compute Shader Dispatch" versenden.
So hat das ganze auch vor GCN funktioniert, der CP hat sich um alles kümmert.

Unter DX11 sollte es bei GCN genauso sein, dass der CP alles erledigt und die ACEs nichts machen, außer AMD hat speziell im Treiber den Command-Stream so optimiert, dass Compute-Befehle an die ACEs überreicht werden.
Über Power-Gating bzw. Mechanismen in dem Fall habe ich nichts gelesen, aber ins Gewicht sollte es nicht fallen.
AMD hat für Kabini 4 ACEs verbaut, schrecklich oversized für 128 ALUs, weswegen ich davon ausgehe, dass weder vom die-space, noch vom Verbrauch, die ACEs den Braten fett machen.
Da finden sich also sicherlich bessere Gründe, um zu schauen, warum AMDs Produkte eine schlechtere Effizienz aufweisen.
Die Nano zeigt auch, dass eine restriktivere Power-Managment-Funktion der Effizienz sehr zu gute kommt, ohne das man überhaupt etwas an der Hardware verändert hat.

Bezüglich ACEs und Memory-Anbindung:
http://image.slidesharecdn.com/gs-4106mah-finalfullversion-140131075645-phpapp01/95/gs4106-the-amd-gcn-architecture-a-crash-course-by-layla-mah-56-638.jpg?cb=1391155201
Cache (L2$), GDS und Memory.

Mal eine Frage: Wie oft bzw. bei welchen GPU-Generationen wurde der CP von AMD in der Vergangenheit eigentlich mal stärker überarbeitet?
Gute Frage.
Ab dem R600 hat AMD jedenfalls den CP in der grundlegenden Form verbaut, dass man praktisch einen selbstständigen Prozessor hat:
http://www.tomshardware.com/reviews/r600-finally-dx10-hardware-ati,1600-4.html

Beim Beyond3D Review zum RV740 gab es diese Anmerkung:
For RV740, the CP is a custom RISC based affair, which quite probably is an expansion of the one that was in place for prior R600/RV670 parts, further developed in order to accommodate the increased functional unit count and different sampler blocks. It handles command stream decoding into RV740 specific instructions, possesses full memory read/write privileges and includes multiple command queues, with command streams being fetched via DMA in order to side-step the CPU and decrease latency. Snooping the current state of the GPU's processing units is also possible, in order to avoid needless state switches.
https://www.beyond3d.com/content/reviews/52/7

Bei Cypress (R8xx-Series):
For Cypress, and all ATI GPUs starting with the R600, the actual implementation of the CP is done via a custom microcoded unit (RISC-ish), with full memory R/W privileges and multiple command queues. The CP is DMA capable, so it can interact with host RAM without CPU arbitration. We're not sure what tweaks, if any, have been implemented here, outside of an expansion aimed at accommodating DX11 as well as the chip's increased width, and gauging the efficiency of the CP is pretty difficult unless it's utterly bad, in which case one can't help but notice – don't worry, that's definitely not the case here.
https://www.beyond3d.com/content/reviews/53/6

Darüber hinaus konnte ich auf die Schnelle nichts finden.
Jetzt würde der Cayman kommen, der sehr wahrscheinlich einen sehr ähnlichen CP hat.
GCN Gen 1 bzw. Southern Islands hat praktisch auch das Frontend und Backend von Cayman übernommen, ein paar Verbesserungen gab es beim Frontend.

Bei Hawaii wurden viele Dinge vom Front-End verdoppelt, Tonga/Fiji haben einige Stellen verbessert.
Hier musste der CP wahrscheinlich auch etwas angepasst werden, um die größere Breite des ganzen Chips irgendwie noch zu managen.
Ohne ech

Nakai
2016-01-22, 01:04:20
Erstmal ich bin kein 3D-Programmierer. OpenGL und OpenCL sind zwar sehr ähnlich, aber es gibt auch Unterschiede. Bei 3D-APIs kann man zB keine Workgroupsize setzen. Das ist ausschließlich für GPGPU-Sachen vorgesehen, also auch ComputeShader (das ist auch manchmal fest).

Bei 3D-APIs wird diese "Größe" eher automatisch generiert, wenn ein Dreieck eben 64 Pixel groß ist. AMD gibt hierbei an, dass diese nicht 64 Pixel unterschreiten sollten. Aber nochmal, ich bin kein 3D-Programmer.


ps: War round robin nicht so etwas wie ein re-ordering der instructions (ein OoO-Ansatz)? :| Sorry, wenn meine Fragen nerven, aber bin halt kein Programmierer :redface:

Round Robin ist nur gleiche Lastenverteilung. Ich habe mehrere Slots und in jedem Stecke ich die gleiche Anzahl an Münzen rein.

Unter DX11 sollte es bei GCN genauso sein, dass der CP alles erledigt und die ACEs nichts machen, außer AMD hat speziell im Treiber den Command-Stream so optimiert, dass Compute-Befehle an die ACEs überreicht werden.

Gut, das sollte man definitiv erwähnen. Was der Treiber macht, ist was völlig anderes.

iuno
2016-01-22, 09:24:32
ps: War round robin nicht so etwas wie ein re-ordering der instructions (ein OoO-Ansatz)? :| Sorry, wenn meine Fragen nerven, aber bin halt kein Programmierer :redface:
nein, round robin ist ein sehr simpler scheduling-Algorithmus. Dabei wird jeder Prozess gleich behandelt, jeder bekomt gleich viel rechenzeit, wird dann gestoppt und der naechste kommt dran. Wenn die Berechnung vor Ablauf der Zeit fertig ist, natuerlich frueher, wenn nicht kommt der 'unterdrueckte' Prozess wieder ans Ende der Liste. Von einer Umordnung kann also nicht die Rede sein, die werden stueckweise so wie sie reinkommen gleichrangig verarbeitet. Eine Priorisierung ist daher nicht moeglich.
Wenn Task A halt vorher da ist aber 200ms braucht, Task B dazwischen kommt und nur 5 ms braucht, ist B natuerlich trotzdem frueher fertig, angenommen der Zeitslot bevor einem Prozess die Ressourcen entzogen werden dauert nicht >=200ms.

Hübie
2016-01-22, 10:51:30
Danke für die Erklärung :up: Ich hatte das nur mal vor einiger Zeit gehört.

OBrian
2016-01-22, 11:23:27
wobei round robin ursprünglich aus dem Sport kommt, wenn jeder gegen jeden antritt, z.B. sowas wie die Fußball-Bundesliga ist auch ein round robin (genauer "double r. r." wegen Hin- und Rückspiel).

In der IT ist es einfach eine andere Art, verschiedene (unterschiedlich lang dauernde) Aufgaben abzuarbeiten. Das einfachste ist FIFO, first in first out, also wer zu erst kommt, mahlt zu erst, Abarbeitung streng der Reihe nach, egal wie lange es dauert. Sprich an der Supermarktkasse wird keiner vorgelassen, auch wenn er nur einen Artikel hat und abgezähltes Geld. Andere Methode wäre eben ein Zeitscheibenverfahren, da kriegt jeder gleich lange, ob er dann fertig ist oder nicht, egal. Ganz lange Aufgaben blockieren so nicht zig andere auf ewig. Man kann das Scheduling naürlich beliebig geschickter machen (z.B. wenn man unterschiedliche Teile der CPU gleichzeitig mit zwei verschiedenen Sachen beschäftigen kann und so etwas Parallelisierung reinbekommt), was aber letztlich immer ein Kompromiß bleibt, irgendwer wartet ja immer.

Nakai
2016-01-22, 19:30:35
Charlie ist in Semi-Forum sehr gesprächig derzeit. Es ist offensichtlich, dass 3 Chips kommen.

Polaris10/11
und etwas später Vega10

Polaris10 ist bei 100~150mm² etwa.
Polaris11 wird bei 200~300mm² sein.
Vega10 (Vega ist neue verbesserte Architektur) wird wohl bei 300~400mm² sein.

Polaris ist Polarstern
Vega ist ein anderer Stern.

Ich denke Polaris 10 und 11 sind eine ähnliche Architektur, während Polaris10 bei GF/Samsung gefertigt wird und Polaris11 bei TSMC.

Vega10 wird etwas Anderes sein und im Hinblick auf HPC entwickelt werden.

Ich hoffe, dass Polaris11 und Vega10 auf HBM setzen. Reinher von den Zauba-Leaks, gibt es 3 Modelle und Polaris11 und Vega10 sehen nach HBM aus, reinher von den Import-Kosten.

Hübie
2016-01-22, 19:36:45
Gibt es denn die Situation wo der Kernel schon vorher "weiß" wie lang eine workgroup bzw. Threads daraus an Laufzeit benötigen werden weil vorher schon mal das Programm abgespult wurde? Dann könnte man ja die mit langer Laufzeit in eine Pipe schieben und in der Zeit in der anderen Pipe zwei (oder mehr), welche zusammen in etwas die gleiche Laufzeit benötigen. Quasi ein adaptives Lernsystem. Kostet sicher zu viel Saft und Speicher oder?

AffenJack
2016-01-22, 19:42:06
@Nakai
Dass 3 Chips für die Reihe mindestens geplant sind ist klar. Jeder weiß, dass man mit 2 Chips nicht das gesamte Lineup abdecken kann. Da ist nun nix überraschendes dran. Nur sollen dieses Jahr eben 2 Chips erscheinen. Ich denke der 3te kommt dann Anfang 2017.

Aber entgegen deiner Annahme gehe ich vom kleinen und großen dieses Jahr aus und der mittlere dann 6 Monate später. AMD hat auch viel davon gesprochen im Profibereich angreifen zu wollen und das kann man nur mit nem entsprechenden Chip. Wenn man Pascal das Feld für 6 Monate überlässt, hat mans wieder total versemmelt in dem Bereich.
Beim HBM würde ich das gleiche wie du erwarten. Großer Chip mit viel Marge und HBM2 und in einigen Monaten ist der HBM2 Preis nochmal nen gutes Stück gefallen, dass es auch für den Performance Part akzeptabel ist mit 2 Stacks.

Edit:
Sehe gerade Charlie sagt klein und mitte wurden gezeigt und haben wohl kein HBM, der Große wurde noch nicht gezeigt. Er geht davon aus, die 3 kommen dieses Jahr. Nur wieso sollte Raja dann nur von 2 Gpus dieses Jahr reden?

Sunrise
2016-01-22, 22:00:01
Es ist doch eigentlich ganz einfach.

NV bringt GP104, GP100 wird zwar evtl. im April vorgeführt aber nicht für Consumer verfügbar, die Gründe hatten wir besprochen, zu teuer, da zu groß (FinFET) und HBM2.

AMD wird mit ziemlicher Sicherheit so früh keinen Chip bringen, der deutlich über 400mm2 groß ist, das würde mich extrem überraschen. Denn für AMD gelten die gleichen Marktgesetze und die Ausbeute wird auch nicht magisch besser, nur weil AMD drauf steht.

Derzeit gibt es gerademal den A9X mit 147mm^2, der bei TSMC gefertigt wird.

Maximal 300-350mm^2 (ähnlich Tahiti) halte ich für realistisch, darunter kommt nochwas. Zwei GPUs kommen sicher, bei drei innerhalb eines Jahres steigen die Kosten und der Aufwand immens. Direkt drei GPUs innerhalb eines Jahres traue ich nichtmal NV zu.

@Nakai
Wie kommst du überhaupt darauf, dass der Einzelwert bei Zauba auf HBM hinweist? Der ist doch bei allen GPUs mehr als _deutlich_ niedriger als zuletzt bei Fiji, oder hast du andere Zahlen?

OBrian
2016-01-22, 23:13:27
vielleicht stimmt ja beides: drei Chips, aber nur zwei Polaris (die früher Greenland und Baffin/Ellesmere hießen, der andere Ellesmere/Baffin kommt später als Polaris12), und Vega ist ein aufgemotzter Fiji mit HBM2, evtl. nur zwei Stacks (kA ob der MC die doppelte Frequenz packt) und anderem Interposer. Könnte doch sein.

Mit den neuen Codenamen kann man die Leute herrlich verwirren, intern wird aber ganz normal an dem weitergebaut, was man eh vorhatte. Was auch sonst.

Ravenhearth
2016-01-23, 02:14:23
Fiji ist vom Stromverbrauch schlicht nicht mehr akzeptabel, zumal man in 16nm FF+ einen ähnlichen schnellen Chip in ~300mm² kriegt.

Gipsel
2016-01-23, 06:38:24
Erstmal ich bin kein 3D-Programmierer. OpenGL und OpenCL sind zwar sehr ähnlich, aber es gibt auch Unterschiede. Bei 3D-APIs kann man zB keine Workgroupsize setzen. Das ist ausschließlich für GPGPU-Sachen vorgesehen, also auch ComputeShader (das ist auch manchmal fest).

Bei 3D-APIs wird diese "Größe" eher automatisch generiert, wenn ein Dreieck eben 64 Pixel groß ist. AMD gibt hierbei an, dass diese nicht 64 Pixel unterschreiten sollten. Aber nochmal, ich bin kein 3D-Programmer.Je nachdem, wie man 3D-API nun definiert, aber für Computeshader unter DX oder OpenGL geht es natürlich, die Größe der Workgroup zu wählen. Für Pixelshader (oder auch alle anderen) geht es nicht, weil da prinzipiell nicht wirklich festgelegt ist, wie was an die einzelnen "Threads" verteilt wird, es also schwieriger werden würde, was zu schreiben, was überall läuft (die Threadgroup-Größe ist dort immer implizit als Größe der Wavefront bzw. des Warps festgelegt).
Unter den Grafik-APIs kommt man außer bei Computeshadern auch z.B. nicht ans local/shared memory (indirekt wird es schon benutzt, z.B. für die Übergabe der Attribute an einen Pixelshader). Also von der Hardware her gesehen funktioniert der Zugriff und man kann mit ein paar Umständen auch Code generieren, der das benutzt (könnte auf den Konsolen vielleicht passieren). Aber das ist dann nicht mehr portabel zwischen nV und AMD.

Was die Dreiecke angeht, so werden die Wavefronts für Pixelshader ja im Prinzip von den Rasterizern gefüllt. Bei AMD spuckt jeder Rasterizer bis zu 16 Pixel pro Takt von maximal einem Dreieck pro Takt aus (außer bei den ganz kleinen Karten/iGPUs). Eine Wavefront wird also immer über mehrere Takte von einem der Rasterizer gefüllt (minimal vier Takte für sehr große Dreiecke, maximal 16 für sehr kleine [falls es keinen Stall vor dem Rasterizer gibt, der das noch weiter limitiert]; jedes Dreieck belegt immer mindestens ein Quad, egal wie klein). Dabei werden in einer Wavefront auch mehrere hintereinander zum Rasterizer kommende Dreiecke aus einem Drawcall zusammengefaßt (wenn die durch die gleiche Pipeline mit den gleichen Shadern laufen, ist das ja kein Problem). Also außer wenn es keine weiteren Dreiecke mehr gibt, werden die Wavefronts immer mit 64 Fragments gefüllt (nur dauert das bei kleinen Dreiecken etwas länger, aber das ist eine Sache des Frontends, also hier im Speziellen Setup/Raster). Verschnitt in dem Sinne gibt es somit nur auf Quadebene.

HOT
2016-01-23, 10:22:41
Es ist doch eigentlich ganz einfach.

NV bringt GP104, GP100 wird zwar evtl. im April vorgeführt aber nicht für Consumer verfügbar, die Gründe hatten wir besprochen, zu teuer, da zu groß (FinFET) und HBM2.

AMD wird mit ziemlicher Sicherheit so früh keinen Chip bringen, der deutlich über 400mm2 groß ist, das würde mich extrem überraschen. Denn für AMD gelten die gleichen Marktgesetze und die Ausbeute wird auch nicht magisch besser, nur weil AMD drauf steht.

Derzeit gibt es gerademal den A9X mit 147mm^2, der bei TSMC gefertigt wird.

Maximal 300-350mm^2 (ähnlich Tahiti) halte ich für realistisch, darunter kommt nochwas. Zwei GPUs kommen sicher, bei drei innerhalb eines Jahres steigen die Kosten und der Aufwand immens. Direkt drei GPUs innerhalb eines Jahres traue ich nichtmal NV zu.

Ich glaube nicht, dass die Größe des Chips das Problem ist, sondern die Komplexität des Projektes an sich. Einen 600mm²-Chip würden die hinbekommen, aber ein 600mm²-Chip mit HBM ist nunmal etwas anderes. Offenbar ist ja jetzt von 2. HJ die Rede, nicht mehr von Q2 für das GP100-Modul, geschweige denn irgendwelche PCIe-Karten. Ich nehme an, der früheste Termin für GP104 ist zudem dennoch Oktober, vorher wird das nix. Was eben richtig sauer aufstößt ist, ist das NV mit GM204 faken musste. Erschwerend hierzu gibt es auch noch neue Mobilchips, wo das doch genau der Bereich ist, in dem GP104 hätte angreifen können.

@Nakai
Wie kommst du überhaupt darauf, dass der Einzelwert bei Zauba auf HBM hinweist? Der ist doch bei allen GPUs mehr als _deutlich_ niedriger als zuletzt bei Fiji, oder hast du andere Zahlen?
deutlich kleinere Chips mit deutlich niedrigerer TDP - vor allem bei max-Power sollen FinFETs lt. AMD ja Vorteile haben und vermutlich nur 2 Stacks pro Die.

AnarchX
2016-01-23, 10:41:05
Charlie ist in Semi-Forum sehr gesprächig derzeit. Es ist offensichtlich, dass 3 Chips kommen.

Polaris10/11
und etwas später Vega10

Polaris10 ist bei 100~150mm² etwa.
Polaris11 wird bei 200~300mm² sein.
Vega10 (Vega ist neue verbesserte Architektur) wird wohl bei 300~400mm² sein.

Polaris ist Polarstern
Vega ist ein anderer Stern.

Ich denke Polaris 10 und 11 sind eine ähnliche Architektur, während Polaris10 bei GF/Samsung gefertigt wird und Polaris11 bei TSMC.

Vega10 wird etwas Anderes sein und im Hinblick auf HPC entwickelt werden.

Ich hoffe, dass Polaris11 und Vega10 auf HBM setzen. Reinher von den Zauba-Leaks, gibt es 3 Modelle und Polaris11 und Vega10 sehen nach HBM aus, reinher von den Import-Kosten.

Wenn der Polaris11 näher an den 200mm² liegt, dann könnte ich mir auch 256-Bit GDDR5(X) vorstellen. Mit >256GB/s hat man durchaus eine Basis deutlich über einer GTX 980 zu landen. Und vergleichbar könnte ja nach aktuellem Stand auch "GP104" sein. Fiji/GM200-Leistung mit modernerem Feature-Set für <$400.